23 давала бы возможность оценки объема информации; позволяла бы выявить характеристики качества информации и представляла бы возможность их оценки; отражала бы особенности организации информационной деятельности, включая оценку угроз; имела бы четкую регламентацию порядка работы с данными, поступающей по различным каналам. По мнению автора, перечисленным требованиям могут соответствовать положения «классической» теории информации25, системного анализа и теории информационной безопасности. В основу разработанной в середине прошлого столетия К. Шенноном теории информации положена следующая трактовка термина информация: Информация есть все сведения, являющиеся объектом хранения, передачи и преобразования. Определение количества информации по Шеннону требует привлечения теоретико-вероятностного похода. Это обусловлено историческими потребностями теории связи, оперирующей статистическими параметрами передаваемых сообщений и каналов связи. На основе этой теории и возникла шенноновская теория информации. В рамках данной теории были предложены вероятностные методы для определения количества передаваемой информации. Однако такие вероятностные методы описывают лишь знаковую структуру информации и не затрагивают заложенного в ней смысла. В настоящее время существует ряд подходов, связанных с определением количества информации. Это известные строгого математические вычисления количества информации без учета семантической (смысловой) характеристики обрабатываемого сообщения. ^ Шеннон К. Математическая теория связи // В сб.: Работы по теории информации и кибернетике.-М.: ИЛ, 1963. |
20 являлась бы характеристикой структуры организационного построения информационных систем; предусматривала бы описание порядка работы с информацией, представленной в различных формах; представляла бы возможность оценки важности обрабатываемой информации; позволяла бы оценить потенциальные возможности проявления угроз информации; предоставляла бы возможность вариации размерами ресурсов, выделяемых на защиту информации. Как представляется автору, трактовка понятия информации из теории информации и теории информационной безопасности является наиболее приемлемым концептуальным базисом для исследования механизмов идентификации преступных посягательств на информацию органов военной прокуратуры гарнизонного звена. В основу «классической» теории информации положены подходы К. Шеннона, Р. Хартли и А Н. Колмогорова. В основу разработанной в середине прошлого столетия К. Шенноном22 математической теории связи положена следующая трактовка термина информация: Информация есть все сведения, являющиеся объектом хранения, передачи и преобразования. Определение количества информации по Шеннону требует привлечения теоретико-вероятностного похода. Это обусловлено историческими потребностями теории связи, оперирующей статистическими параметрами передаваемых сообщений и каналов связи. На основе этой теории и возникла шенноновская теория информации. В рамках данной теории были предложены вероятностные методы для определения количества передавае22 Ш еннон К. Математическая теория связи // В сб.: Работы по теории информации и кибернетике. М : ИЛ, 1963. 2 1 мой информации. Однако такие вероятностные методы описывают лишь знаковую структуру информации и не затрагивают смысла, заложенного в ней (в сообщении, сведениях). В настоящее время существует ряд подходов, связанных с определением количества информации. Это известные строгого математические вычисления количества информации без учета семантической (смысловой) характеристики обрабатываемого сообщения. Определение количества информации по Хартли23 связано с понятием базиса для ее измерения как конечного множества свойств исследуемого объекта для каждого конкретного случая. При изменении свойств количество информации об отдельном элементе будет изменяться. Так как с ростом разнообразия свойств исследуемого объекта количество информации, сообщаемое выбором отдельного свойства, растет, количество информации должно быть монотонно возрастающей функцией числа этих свойств. С учетом этого, необходимо задать требования к выбору функциональной зависимости для определения меры количества информации. Для этого Ч применяется вполне очевидная логика: увеличение длины сообщения должно повлечь за собой и рост количества информации: мера количества информации должна удовлетворять условию аддитивности. Этим требованиям удовлетворяет логарифмическая мера количества информации, предложенная Хартли, в основе которой лежит понятие энтропии как меры разнообразия свойств исследуемого объекта. В теории информационной безопасности сложилось мнение о целесообразности представления информации системой, отражающей свойства (состояI 23 Хартли Р. Передача информации // Теория информации и ее приложения: сб. переводов/ М.: Гос. изд. физ.-мат. лит., 1959. |