83 низации любой системы имеют сходящийся характер, свой предел (область насыщения). Рис.2.1 Обобщенная модель управления самоорганизующихся систем. 2. В модели отсутствуют такие фундаментальные понятия, необходимые для оценки развития, как энтропия, время и мера упорядоченности, что затрудняет гносеологический анализ. 3. Модель развития не согласуется с понятием устойчивости. Графическое изображение процесса развития можно интерпретировать, если явление развития в целом представить как борьбу двух противоположных тенденций организации и дезорганизации. Выражением двух противоположных тенденций процесса развития являются энтропия и информация J, которые связаны между собой и вместе могут количественно оценивать такие качественные понятия, как хаос и упорядоченность. Если информация мера упорядоченности, то энтропия мера беспорядка. Взаимосвязь информации и энтропии в кибернетике отражается формулой [1,6,7] Н + J = I (const), |
104 (скачков). Утверждение Энгельса о спиралевидности развития материального мира в настоящее время нуждается в некотором уточнении в результате появления новых исследований и современных представлений естествознания. К недостаткам рассмотренной модели развития следует отнести её неадекватность объективной реальности, которая проявляется в следующем : 1. Бесконечное чередование скачков представляет собой линейный расходящийся ряд событий развития. В реальной действительности процесс самоорганизации любой системы имеют сходящийся характер, свой предел (область насыщения). 2. В модели отсутствуют такие фундаментальные понятия, необходимые для оценки развития, как энтропия, время и мера упорядоченности, что затрудняет гносеологический анализ. 3. Модель развития не согласуется с понятием устойчивости. Графическое изображение процесса развития возможно интерпретировать, если явление развития в целом представить как борьбу двух противоположных тенденций организации и дезорганизации. Выражением двух противоположных тенденций процесса развития являются энтропия Н и информация J, которые связаны между собой и вместе могут количественно оценивать такие качественные понятия, как хаос и упорядоченность. Если информация мера упорядоченности, то энтропия мера беспорядка. Взаимосвязь информации и энтропии в кибернетике отражается формулой [1,3] Н + J = 1 (const), т.е. если наблюдается эволюция системы в направлении упорядоченности, то её энтропия уменьшается. Если процесс развития, как это представляют ряд исследователей и учёных, рассматривать как борьбу двух противоположностей организации и дезорганизации, то он может быть описан в общем виде как накопление |