Проверяемый текст
Шкроб Наталья Валерьевна. Философские основания понятия "информационная реальность" (Диссертация 1999)
[стр. 59]

59 между собой обе энтропии связаны следующим образом: энтропия (в теории информации) источника информации о состоянии системы «представляет собой меру энергии, необходимой для передачи сообщения от источника при наличии теплового шума, который обязательно присутствует в системе.
Энергия, используемая для передачи такого сообщения, равна увеличению свободной энергии вследствие уменьшения физической энтропии, которое произошло в результате передачи сообщения»
[148, С.242.].
В основе понятий «физическая энтропия» и «информационная энтропия» лежат разные идеи, но «обе эти энтропии можно описать сходными математическими выражениями, используя термин «неопределенность» [148, С.38.].
Категория же «неопределенность» характеризует не только материальное, но и идеальное, и это обстоятельство также зафиксировано в понятии информационной энтропии.
Таким образом, понятие энтропии эволюционировало от понятия термодинамической энтропии, связанной с возможностью превращения тепловой энергии в механическую и не мыслимой вне термодинамических систем, к понятию
сгатистической энтропии, применимой к системам, имеющим статистический характер функционирование, и затем к понятию информационной энтропии.
Как уже отмечалось, понятия информационной и физической энтропий не тождественны друг другу.
Информационная энтропия, с одной стороны, выступает как мера неупорядоченности (дезорганизации, по Абдееву), с другой стороны мерой вероятности, неопределенности систем любой природы, в отличие от физической (как термодинамической, так и статистической) энтропии, являющейся мерой неупорядоченности, неопределенности
материатьных (физических) систем.
Понятие «информационная энтропия», во-первых, определило новые горизонты изучения как материального, гак и идеального; во-вторых, оно «пришло» вместе с исследовательским аппаратом термодинамики, теории вероятностей, философии и т.д., в то же время, абстрагировавшись от ряда параметров, свойственных физической, термодинамической энтропии; в-третьих, показало необходимость в другом понятии, являющемся характеристикой информацион
[стр. 117]

117 измеряемая в битах мера количества информации, называемая энтропией источника сообщений.
Источник сообщений (например, человек) это непредсказуемый выбор для одного из возможных сообщений, то есть у адресата имеется неопределенность, разрешающаяся после получения им сообщения [см.
138, С.
98, 126.].
Итак, в теории информации энтропия информационная энтропия выступает как мера неопределенности выбора.
Дж.
Пирс дает следующее определение информационной энтропии: “энтропия в математической теории связи есть мера этой неопределенности (неопределенности выбора источником сообщений одного сообщения из множества возможных сообщений Н.Ш.), и эта неопределенность, или (что то же самое) энтропия, берется в качестве меры количества информации, которое несет в себе сообщение от данного источника” [138, С.
38.].
Информационная энтропия мера количества информации, определяемая логарифмом числа возможных сообщений; мера неопределенности сообщения.
Дж.
Пирс также указывает на различие между двумя энтропиями: физическая (а именно, статистическая) энтропия характеризует неопределенность состояния физической системы, энтропия в теории информации мера неопределенности сообщения, создаваемого источником при заданных условиях, и между собой обе энтропии связаны следующим образом: энтропия (в теории информации) источника информации о состоянии системы “представляет собой меру энергии, необходимой для передачи сообщения от источника при наличии теплового шума, который обязательно присутствует в системе.
Энергия, используемая для передачи такого сообщения, равна увеличению свободной энергии вследствие уменьшения физической энтропии, которое произошло в результате передачи сообщения”
[138, С.
242.].


[стр.,118]

118 В основе понятий “физическая энтропия” и “информационная энтропия” лежат разные идеи, но “обе эти энтропии можно описать сходными математическими выражениями, используя термин “неопределенность” [138, С.
38.].
Категория же “неопределенность” характеризует не только материальное, но и идеальное, и это обстоятельство также зафиксировано в понятии информационной энтропии.
Таким образом, понятие энтропии эволюционировало от понятия термодинамической энтропии, связанной с возможностью превращения тепловой энергии в механическую и не мыслимой вне термодинамических систем, к понятию
статистической энтропии, применимой к системам, имеющим статистический характер функционирования, и затем к понятию информационной энтропии.
Как уже отмечалось, понятия информационной и физической энтропий не тождественны друг другу.
Информационная энтропия, с одной стороны, выступает как мера неупорядоченности (дезорганизации, по Абдееву), с другой стороны мерой вероятности, неопределенности систем любой природы, в отличие от физической (как термодинамической, так и статистической) энтропии, являющейся мерой неупорядоченности, неопределенности
материальных (физических) систем.
В этой связи показательно мнение Н.И.
Жукова, что понятие термодинамической энтропии, введенное Больцманом (точнее говоря, статистической энтропии), “используется для характеристики энергетических процессов чисто физического плана, второе же (информационная энтропия Н.Ш.) имеет отношение только к информационным явлениям, указывая на степень неопределенности следования атомарных сигналов” [63, С.
205.].
Понятие “информационная энтропия”, во-первых, определило новые горизонты изучения как материального, так и идеального; вовторых, оно “пришло” вместе с исследовательским аппаратом

[стр.,119]

119 термодинамики, теории вероятностей, философии и т.д., в тс$ке время, абстрагировавшись от ряда параметров, свойственных физической, термодинамической энтропии; в-третьих, показало необходимость в другом понятии, являющемся характеристикой информационного движения (следует напомнить, что понятие “физическая энтропия” связано с понятием энергии как характеристики меры физического движения, которое “энергия” неприменимо в отношении с понятием информационной энтропии).
Тем самым информационная энтропия указала на существование определенного закона науки, соединяющего ее с мерой информационного движения.
Для этой цели Н.М.
Чуриновым было введено понятие информатива как характеристики меры информационного движения.
Практически во всех работах, посвященных проблеме информации, в контексте подразумевается информационная форма движения, так, например, А.Д.
Урсул, подчеркивая, что любое явление, любую систему можно рассматривать как множество, обладающее разнообразием, пишет, что “изменение этого разнообразия, то есть движение материи, объективно существующее в природе, может быть отражено в теории, и в этом случае осуществляется информационное моделирование сущности явления” [187, С.
134.], сущностью информационного движения он видел разнообразие, передаваемое в процессе отражения от системы к системе.
В самом деле, поскольку объективно существуют такие процессы как передача, хранение, переработка, получение, распределение, потребление, производство, поиск и т.д.
информации, то возникает вопрос о выделении информационной формы движения материи, тем более, что в настоящее время осознается ведущая роль информационного движения в обществе и информация признана в качестве неисчерпаемого, экологически чистого ресурса развития мира.
Исходным пунктом для изучения информационного движения стал сформулированный Л.
Бриллюеном негэнтропийный принцип

[Back]