63 нием энтропии (информационной энтропии) в материальных системах с течением времени, то есть уменьшением различия, разнообразия (следовательно, уменьшением количества информации как меры разнообразия); прогрессивную линию развития усложнение материальных систем, повышение степени их организации (то есть увеличение разнообразия в системах) отражает увеличение негэнтропии. В этой связи суть отождествления математических выражений негэнтропии и количества информации раскрывается, как полагает А.Д. Урсул, «не только в структурном плане, но и в генетическом, так как они отражают результат развития материи, отражают в математических символах итог усложнения или упрощения организации, повышения или понижения количества разнообразия систем» [200, С. 138.]. По мнению А.Д. Урсула, исходя из негэитропийного принципа информации правомерно рассматривать категории количества информации и энтропии (а именно, информационной энтропии) как полярные, тогда очевидно, что «накопление информации в процессе прогрессивного развития происходит в результате взаимодействия информации (как негэнтропии) и энтропии» [195, С.49.]. Подобное понимание информационного аспекта А.Д. Урсул связывает с представлениями о роли симметрии и асимметрии в процессе развития: «симметрия и информация взаимосвязаны с упорядоченностью и разнообразием явлений объективного мира. Уменьшение у объектов симметрии, т.е. увеличение разнообразия систем, приводит к накоплению информации, а противоположные процессы ведут к увеличению энтропии» [196, С.49.]. Таким образом, понятие энтропии эволюционировало от представления об энтропии как мере необратимости процессов, мере необратимого рассеяния энергии к понятию статистической (вероятностной) энтропии, являющейся мерой неупорядоченности материи и движения, и затем к понятию информационной энтропии как меры неупорядоченности систем любой природы. Информационная энтропия характеризует неорганизованность движущейся материи в информационном аспекте. Следовательно, так же, как масса и физическая энтропия (являющиеся характеристиками определенных свойств движущейся материи) связаны с соответствующими им мерами движения (масса с силой, мерой механического движения; энтропия с |
125 Новик [123]), разнообразием (У.Росс Эшби [208], разнообразие всех форм материи А.Д. Урсул [187]) и др. Во второй группе внимание уделяется логико-семантическим аспектам понятия информации “информация трактуется как некторое знание, рассматриваемое с точки зрения его отношения к внешнему миру” [163, С. 108.]. К третьей группе В.И. Сифоров относит суждения, “в которых выделяются прагматические аспекты, то есть ценность, полезность, эффективность, экономичность и другие подобные свойства информации, рассматриваемой как знание” [163, С. 108.], и отмечает, что пока преждевременно давать определение понятия информации, объединяющее эти три подхода. Теоретико-информационные методы используются для анализа процессов развития: количественный критерий информации позволяет описывать процессы перехода от простого к сложному, от менее организованного к более организованному. Так, А.Д. Урсул подчеркивает, что “процесс изменения количества информации и качества управления в результате развития материальных систем (эволюция функционального свойства) отражает одну из сторон самодвижения, саморазвития материи” [187, С. 138.]. В реальном мире существуют две тенденции развития, две диалектические противоположности развития прогресс и регресс, связанные с изменением количества информации. Регрессивная линия развития характеризуется увеличением энтропии (информационной энтропии) в материальных системах с течением времени, то есть уменьшением различия, разнообразия (следовательно, уменьшением количества информации как меры разнообразия); прогрессивную линию развития усложнение материальных систем, повышение степени их организации (то есть увеличение разнообразия в системах) отражает увеличение негэнтропии. В этой связи суть отождествления математических выражений негэнтропии и количества информации раскрывается, как полагает А.Д. Урсул, “не только в структурном плане, 126 но и в генетическом, так как они отражают результат развития материи, отражают в математических символах итог усложнения или упрощения организации, повышения или понижения количества разнообразия систем” [187, С. 138.] Исходя из информационного критерия развития более сложной, как полагает А.Д. Урсул, является частица, включающая в себя большее число качественно различных форм движения, и “более высокоразвитой окажется частица с большим разнообразием, т.е. содержащая в себе большее количество информации” [183, С. 48.], так, физическая эволюция (переход от уровня элементарных частиц к уровню атомов) и химическая эволюция (появление сложных органических соединений) связаны с накоплением информации, т.е. с увеличением разнообразия систем (элементов и свойств систем). Количественные изменения информационного содержания систем ведут к возникновению более высоких уровней материи, к возникновению нового качества. По мнению А.Д. Урсула, исходя из негэнтропийного принципа информации правомерно рассматривать категории количества информации и энтропии (а именно, информационной энтропии) как полярные, тогда очевидно, что “накопление информации в процессе прогрессивного развития происходит в результате взаимодействия информации (как негэнтропии) и энтропии” [182, С. 49.]. Подобное понимание информационного аспекта А.Д. Урсул связывает с представлениями о роли симметрии и ассиметрии в процессе развития: “симметрия и информация взаимосвязаны с упорядоченностью и разнообразием явлений объективного мира. Уменьшение у объекта элементов симметрии, т.е. увеличение разнообразия систем, приводит к накоплению информации, а противоположные процессы ведут к увеличению энтропии” [183, С. 49.]. 127 Таким образом, понятие энтропии эволюционировало от представления об энтропии как мере необратимости процессов, мере необратимого рассеяния энергии к понятию статистической (вероятностной) энтропии, являющейся мерой неупорядоченности материи и движения, и затем к понятию информационной энтропии как меры неупорядоченности систем любой природы. Информационная энтропия характеризует неорганизованность движущейся материи в информационном аспекте. Следовательно, так же, как масса и физическая энтропия (являющиеся характеристиками определенных свойств движущейся материи) связаны с соответствующими им мерами движения (масса с силой, мерой механического движения; энтропия с энергией мерой физического движения), так и информационная энтропия оказывается в связи с информативом мерой информационного движения. Итак, во-первых, существует объективная связь между явлениями информации и энтропии, что выступает одним из выражений всеобщей связи явлений; информационные процессы, происходящие в мире, присущи как материальному, так и идеальному, что нашло свое отражение в понятии информационной энтропии; во-вторых, информационная энтропия оказывается характеристикой определенных свойств движущейся материи и находится в связи с соответствующей мерой информационного движения, движения информационной реальности. В результате философской дискуссии 60-х 70-х годов о природе информации не была разработана единая концепция информации, которая бы объединяла все накопленные знания о количественном и качественном аспектах информации и других ее сторонах. Важное значение этой дискуссии определяется тем, что были намечены предпосылки и подготовлен богатый материал для создания общей теории информологии. Наличие разных подходов к определению |