Проверяемый текст
Шкроб Наталья Валерьевна. Философские основания понятия "информационная реальность" (Диссертация 1999)
[стр. 57]

57 цательная энтропия.
Представление об отрицательной энтропии -негэнтропии, выступающей характеристикой меры упорядоченности, ввел Эрвин Шрединг ер.

II.Винер поставил вопрос о том, что представляет собой информация и как она измеряется в устройствах (например, телефонных аппаратах), связанных с получением, записью, хранением, передачей и использованием информации, то есть с различными видами информационною движения.
В 1948 году он вывел логарифмическую величину (рассматриваемую как вероятность), которая служит «разумной мерой количества информации», противоположную по знаку энтропии.
Количество информации, будучи по существу отрицательной энтропией, как показывает Н.Винер,
«в среднем имеет свойства, которые мы приписываем энтропии» [39, С.
124.].
Сходство формул и свойств объясняется тем, что
«как и следовало ожидать, отмечает Н.Винер, процессы, ведущие к потере информации, весьма сходны с процессами, ведущими к росту энтропии» [39, С.
125.].
Совпадение математических выражений для информации и энтропии приводит к мысли, что следует рассматривать эти величины как различные аспекты одной и
гой же величины и, «как и в случае других физических явлений, эти два аспекта, согласно знаменитому выражению Нильса Бора, пишет П.Шамбадаль, выражают «дополнительные стороны» одной и той же реальности» [214, С.
192.].
Энтропия и информация (или негэнтропия) связаны диалектически эти аспекты взаимно
исключают друг друга (поскольку они изменяются в противоположных направлениях).
Как отмечает Р Ф.
Абдеев, связь энтропии и информации объективно обусловлена тем, что они характеризуют один и тот же аспект реальной действительности, но с противоположных позиций беспорядка и упорядоченности.

Таким образом, понятия энтропии (меры хаоса, неупорядоченности) и информации (меры упорядоченности) оказываются связанными через понятие вероятности, беспорядка, диалектического противоречия^,
С.106.].
Существует комплексное направление исследований синергетика, которое пытается ответить на вопрос, как неживая природа в процессе
эволюции перерождается в живую.
Р.Ф.
Абдеев отмечает, что в неорганической природе ин
[стр. 113]

113 Максвеллом, демонстрирует наличие связи между информацией и энтропией, на что впервые указал Л.
Сциллард в 1929 году (этот факт отметил Л.
Бриллюэн, считая его работу предшественницей теории информации).
Л.
Сциллард показал, что для получения информации о скоростях молекул (или их координатах) необходимо произвести измерение, что, как отмечает Р.П.
Поплавский, “связано с ростом энтропии в системе, по крайней мере, не меньшим, чем ее уменьшение за счет упорядочения молекул” [143, С.
167.] вследствие необходимости энергетических затрат на измерение и на собственно управление.
Анализируя деятельность демона Максвелла, Р.П.
Поплавский рассматривает “демона” как простейший пример модели процесса управления; характеристикой полезного эффекта процесса управления (негэнтропийного эффекта) является мера упорядочения системы уменьшение ее статистической энтропии.
Первым этапом процесса управления является получение информации.
Норберт Винер, один из создателей кибернетики, считая, что следует исследовать демона Максвелла для углубления знаний об энтропии, отмечал, в частности, что “демон способен действовать лишь на основании принимаемой информации, а эта информация <...> представляет собой отрицательную энтропию” [36, С.
116.].
Итак, можно выделить первую линию выявления связи информации и энтропии, где информация рассматривается как мера упорядоченности, как отрицательная энтропия.
Представление об отрицательной энтропии негэнтропии, выступающей характеристикой меры упорядоченности, ввел Эрвин Шредингер.

Н.
Винер поставил вопрос о том, что представляет собой информация и как она измеряется в устройствах (например, телефонных аппаратах), связанных с получением, записью, хранением, передачей и использованием информации, то есть с различными видами информационного движения.
В 1948 году он вывел логарифмическую

[стр.,114]

114 величину (рассматриваемую как вероятность), которая служит “разумной мерой количества информации”, противоположную по знаку энтропии.
Количество информации, будучи по существу отрицательной энтропией, как показывает Н.
Винер,
“в среднем имеет свойства, которые мы приписываем энтропии” [36, С.
124.].
Сходство формул и свойств объясняется тем, что
“как и следовало ожидать,отмечает Н.
Винер, процессы, ведущие к потере информации, весьма сходны с процессами, ведущими к росту энтропии”
[36, С.
125.].
Совпадение математических выражений для информации и энтропии приводит к мысли, что следует рассматривать эти величины как различные аспекты одной и
той же величины и, “как и в случае других физических явлений, эти два аспекта, согласно знаменитому выражению Нильса Бора,пишет П.
Шамбадаль, выражают
“дополнительные стороны” одной и той же реальности” [200, С.
192.].
Энтропия и информация (или негэнтропия) связаны диалектически эти аспекты взаимно
дополняют друг друга и в то же время взаимно исключают друг друга (поскольку они изменяются в противоположных направлениях).
Как отмечает Р.Ф.
Абдеев, связь энтропии и информации объективно обусловлена тем, что они характеризуют один и тот же аспект реальной действительности, но с противоположных позиций беспорядка и упорядоченности.

Взаимосвязь понятий энтропии 3 и информации I можно выразить простой формулой 3+1=1, то есть энтропия системы уменьшается, если в системе происходят процессы упорядочивания [1, С.
106.].
Таким образом, понятия энтропии (меры хаоса, неупорядоченности) и информации (меры упорядоченности) оказываются связанными через понятие вероятности, беспорядка, диалектического противоречия.

Существует комплексное направление исследований синергетика, которое пытается ответить на вопрос, как неживая природа в процессе

[Back]