Проверяемый текст
Шкроб Наталья Валерьевна. Философские основания понятия "информационная реальность" (Диссертация 1999)
[стр. 58]

58 формация существует объективно, она содержится в самой структу ре объекгов: информация, выступая как степень упорядоченности системы, является внутренней (структурного по отношению к системе и потенциальной по отношению к познающему субъекту [I, С.
163.].
Наличие связи информации и энтропии объясняется тем, что существует всеобщая связь явлений и тем, что миру присущи различные взаимодействия, в том числе информационное взаимодействие.
Об информационных взаимодействиях в мире свидетельствуют реальные информационные процессы (или антиэнтропийные процессы: например, борьба за существование
в биоте, образование сложного из простого), что обусловливает, в том числе, наличие связи между энтропией и информацией и появлением в науке понятий «информационная энтропия».
Вторая линия, приведшая к выявлению связи информации и энтропии, связана с вопросами количественной оценки информации.
В теории информации, которая
полущила начало с работ Клода Шеннона (1948 г.), энтропия (информационная энтропия) выступает как мера неопределенности выбора, а информация снимает эту неопределенность, то есть информация это сообщение, которое уменьшает неопределенность у адресата.
В теории информации, или математической теории связи, возникшей в целях разрешения проблем электросвязи, количество информации I измеряется логарифмом числа возможных сообщений Р, создаваемых источником сообщений,
I = К • 1о& Р: таким образом вводится измеряемая в битах мера количества информации, называемая энтропией источника сообщений.
Источник сообщений (например, человек) это непредсказуемый выбор для одного из возможных сообщений, то есть у адресата имеется неопределенность, разрешающая после получения им сообщения
[148, С.98, 126.].
Итак, в теории информации энтропия информационная энтропия выступает как мера неопределенности выбора.
Дж.
Пирс
также указывал на различие между двумя энтропиями: физическая (а именно, статистическая) энтропия характеризует неопределенности состояния физической системы, энтропия в теории информации мера неопределенности сообщения, создаваемого источником при заданных условиях, и
[стр. 115]

115 эволюции перерождается в живую.
Р.Ф.
Абдеев отмечает, что в неорганической природе информация существует объективно, она содержится в самой структуре объектов; информация, выступая как степень упорядоченности системы, является внутренней (структурной) по отношению к системе и потенциальной по отношению к познающему субъекту [1, С.
163.].
Наличие связи информации и энтропии объясняется тем, что существует всеобщая связь явлений и тем, что миру присущи различные взаимодействия, в том числе информационное взаимодействие.
Об информационных взаимодействиях в мире свидетельствуют реальные информационные процессы (или антиэнтропийные процессы; например, борьба за существование,
образование сложного из простого), что обусловливает, в том числе, наличие связи между энтропией и информацией и появлением в науке понятия “информационная энтропия”.
Вторая линия, приведшая к выявлению связи информации и энтропии, связана с вопросами количественной оценки информации.
В теории информации, которая
получила начало с работ Клода Шеннона (1948 г.), энтропия (информационная энтропия) выступает как мера неопределенности выбора; а информация снимает эту неопределенность, то есть информация это сообщение, которое уменьшает неопределенность у адресата.
К.
Шеннон расширяет теорию связи, чтобы включить новые факторы: “...влияние шума в канале и возможность экономии за счет учета статистической структуры исходного сообщения и назначения передаваемой информации” [203, С.
243.].
Дискретный источник информации (например, телеграфный аппарат) он представил как марковский процесс, в котором вероятность появления данной буквы на данном месте зависит от предшествовавших ей букв, и задался вопросом: “можно ли определить величину, которая будет измерять в

[стр.,116]

116 некотором смысле, как много информации создается таким процессом, или, лучше, с какой скоростью она создается?” [203, С.
259.] К.
Шеннон доказывает теорему существования функции Н П Н = к * I р\ * 1о§ р\ 1=1 и заключает, что форма величины Н оказывается такой же, как и статистическая форма энтропии.
Подобную формулу для измерения количества информации в 1928 году ввел Р.
Хартли (его формула является частным случаем шенноновской формулы), но К.
Шеннон первым стал широко пользоваться понятием энтропии в задачах связи, отмечая, что “величина Н обладает рядом интересных свойств, которые также подтверждают, что она является разумной количественной мерой возможности выбора или мерой количества информации” [203, С.
262.]; термины “неопределенность” и “энтропия” он употребляет как синонимы.
Интересно привести высказывание К.
Шеннона по поводу названия введенной им меры неопределенности Н: “меня больше всего беспокоило, как назвать эту величину.
Я думал назвать ее “информацией”, но это слово слишком перегружено, поэтому я решил остановиться на “неопределенности” [цит.
по 112, С.
18.].
При обсуждении названия величины “Н” с Джоном фон Нейманом, Дж.
фон Нейман предложил назвать ее энтропией, в частности потому, что шенноновская функция неопределенности использовалась в статистической механике под этим названием; тем самым пределы применимости понятия энтропии расширяются и вводится понятие “информационная энтропия”.
В теории информации, или математической теории связи, возникшей в целях разрешения проблем электросвязи, количество информации I измеряется логарифмом числа возможных сообщений Р, создаваемых источником сообщений,
1=К*1о§Р: таким образом,вводится

[стр.,117]

117 измеряемая в битах мера количества информации, называемая энтропией источника сообщений.
Источник сообщений (например, человек) это непредсказуемый выбор для одного из возможных сообщений, то есть у адресата имеется неопределенность, разрешающаяся после получения им сообщения
[см.
138, С.
98, 126.].
Итак, в теории информации энтропия информационная энтропия выступает как мера неопределенности выбора.
Дж.
Пирс
дает следующее определение информационной энтропии: “энтропия в математической теории связи есть мера этой неопределенности (неопределенности выбора источником сообщений одного сообщения из множества возможных сообщений Н.Ш.), и эта неопределенность, или (что то же самое) энтропия, берется в качестве меры количества информации, которое несет в себе сообщение от данного источника” [138, С.
38.].
Информационная энтропия мера количества информации, определяемая логарифмом числа возможных сообщений; мера неопределенности сообщения.
Дж.
Пирс также указывает на различие между двумя энтропиями: физическая (а именно, статистическая) энтропия характеризует неопределенность состояния физической системы, энтропия в теории информации мера неопределенности сообщения, создаваемого источником при заданных условиях, и между собой обе энтропии связаны следующим образом: энтропия (в теории информации) источника информации о состоянии системы “представляет собой меру энергии, необходимой для передачи сообщения от источника при наличии теплового шума, который обязательно присутствует в системе.
Энергия, используемая для передачи такого сообщения, равна увеличению свободной энергии вследствие уменьшения физической энтропии, которое произошло в результате передачи сообщения” [138, С.
242.].

[Back]