Проверяемый текст
Заряев, Сергей Александрович; Исследование механизмов идентификации преступных посягательств на информацию органов военной прокуратуры гарнизонного звена (Диссертация 2005)
[стр. 23]

23 давала бы возможность оценки объема информации; позволяла бы выявить характеристики качества информации и представляла бы возможность их оценки; отражала бы особенности организации информационной деятельности, включая оценку угроз; имела бы четкую регламентацию порядка работы с данными, поступающей по различным каналам.
По мнению автора, перечисленным требованиям могут соответствовать положения «классической» теории информации25, системного анализа и теории информационной безопасности.
В основу разработанной в середине прошлого столетия К.
Шенноном
теории информации положена следующая трактовка термина информация: Информация есть все сведения, являющиеся объектом хранения, передачи и преобразования.
Определение количества информации по Шеннону требует привлечения теоретико-вероятностного похода.
Это обусловлено историческими потребностями теории связи, оперирующей статистическими параметрами передаваемых сообщений и каналов связи.
На основе этой теории и возникла шенноновская теория информации.
В рамках данной теории были предложены вероятностные методы для определения количества
передаваемой информации.
Однако такие вероятностные методы описывают лишь знаковую структуру информации и не затрагивают
заложенного в ней смысла.
В настоящее время существует ряд подходов, связанных с определением количества информации.
Это известные строгого математические вычисления количества информации без учета семантической (смысловой) характеристики обрабатываемого сообщения.
^
Шеннон К.
Математическая теория связи // В сб.: Работы по теории информации и кибернетике.-М.: ИЛ, 1963.
[стр. 20]

20 являлась бы характеристикой структуры организационного построения информационных систем; предусматривала бы описание порядка работы с информацией, представленной в различных формах; представляла бы возможность оценки важности обрабатываемой информации; позволяла бы оценить потенциальные возможности проявления угроз информации; предоставляла бы возможность вариации размерами ресурсов, выделяемых на защиту информации.
Как представляется автору, трактовка понятия информации из теории информации и теории информационной безопасности является наиболее приемлемым концептуальным базисом для исследования механизмов идентификации преступных посягательств на информацию органов военной прокуратуры гарнизонного звена.
В основу «классической» теории информации положены подходы К.
Шеннона, Р.
Хартли и А Н.
Колмогорова.
В основу разработанной в середине прошлого столетия К.
Шенноном22
математической теории связи положена следующая трактовка термина информация: Информация есть все сведения, являющиеся объектом хранения, передачи и преобразования.
Определение количества информации по Шеннону требует привлечения теоретико-вероятностного похода.
Это обусловлено историческими потребностями теории связи, оперирующей статистическими параметрами передаваемых сообщений и каналов связи.
На основе этой теории и возникла шенноновская теория информации.
В рамках данной теории были предложены вероятностные методы для определения количества
передавае22 Ш еннон К.
Математическая теория связи // В сб.: Работы по теории информации и кибернетике.
М : ИЛ, 1963.


[стр.,21]

2 1 мой информации.
Однако такие вероятностные методы описывают лишь знаковую структуру информации и не затрагивают
смысла, заложенного в ней (в сообщении, сведениях).
В настоящее время существует ряд подходов, связанных с определением количества информации.
Это известные строгого математические вычисления количества информации без учета семантической (смысловой) характеристики обрабатываемого сообщения.

Определение количества информации по Хартли23 связано с понятием базиса для ее измерения как конечного множества свойств исследуемого объекта для каждого конкретного случая.
При изменении свойств количество информации об отдельном элементе будет изменяться.
Так как с ростом разнообразия свойств исследуемого объекта количество информации, сообщаемое выбором отдельного свойства, растет, количество информации должно быть монотонно возрастающей функцией числа этих свойств.
С учетом этого, необходимо задать требования к выбору функциональной зависимости для определения меры количества информации.
Для этого Ч применяется вполне очевидная логика: увеличение длины сообщения должно повлечь за собой и рост количества информации: мера количества информации должна удовлетворять условию аддитивности.
Этим требованиям удовлетворяет логарифмическая мера количества информации, предложенная Хартли, в основе которой лежит понятие энтропии как меры разнообразия свойств исследуемого объекта.
В теории информационной безопасности сложилось мнение о целесообразности представления информации системой, отражающей свойства (состояI 23 Хартли Р.
Передача информации // Теория информации и ее приложения: сб.
переводов/ М.: Гос.
изд.
физ.-мат.
лит., 1959.

[Back]