Количество информации, как мера снятой неопределенности
Лабораторная работа № 1. Тема: Вычисление информационного объема сообщения. Формула Шеннона. Цель: экспериментальное изучение количественных аспектов информации. Теоретические сведения: Количество информации по Хартли и Шеннону Понятие количество информации отождествляется с понятием информация. Эти два понятия являются синонимами. Мера информации должна монотонно возрастать с увеличением длительности сообщения (сигнала), которую естественно измерять числом символов в дискретном сообщении и временем передачи в непрерывном случае. Кроме того, на содержание количества информации должны влиять и статистические характеристики, так как сигнал должен рассматриваться как случайный процесс. При этом наложено ряд ограничений: 1. Рассматриваются только дискретные сообщения. 2. Множество различных сообщений конечно. 3. Символы, составляющие сообщения равновероятны и независимы. Хартли впервые предложил в качестве меры количества информации принять логарифм числа возможных последовательностей символов. I=log mk=log N (1) К.Шеннон попытался снять те ограничения, которые наложил Хартли. На самом деле в рассмотренном выше случае равной вероятности и независимости символов при любом k все возможные сообщения оказываются также равновероятными, вероятность каждого из таких сообщений равна P=1/N. Тогда количество информации можно выразить через вероятности появления сообщений I=-log P. В силу статистической независимости символов, вероятность сообщения длиной в k символов равна Если i-й символ повторяется в данном сообщении ki раз, то так как при повторении i символа ki раз k уменьшается до m. Из теории вероятностей известно, что, при достаточно длинных сообщениях (большое число символов k) ki≈k·pi и тогда вероятность сообщений будет равняться Тогда окончательно получим (2) Данное выражение называется формулой Шеннона для определения количества информации. Формула Шеннона для количества информации на отдельный символ сообщения совпадает с энтропией. Тогда количество информации сообщения состоящего из k символов будет равняться I=k·H Количество информации, как мера снятой неопределенности При передаче сообщений, о какой либо системе происходит уменьшение неопределенности. Если о системе все известно, то нет смысла посылать сообщение. Количество информации измеряют уменьшением энтропии. Количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы: Количество информации I - есть осредненное значение логарифма вероятности состояния. Тогда каждое отдельное слагаемое -log pi необходимо рассматривать как частную информацию, получаемую от отдельного сообщения, то есть
Популярное: Как вы ведете себя при стрессе?: Вы можете самостоятельно управлять стрессом! Каждый из нас имеет право и возможность уменьшить его воздействие на нас... Почему люди поддаются рекламе?: Только не надо искать ответы в качестве или количестве рекламы... ©2015-2024 megaobuchalka.ru Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. (387)
|
Почему 1285321 студент выбрали МегаОбучалку... Система поиска информации Мобильная версия сайта Удобная навигация Нет шокирующей рекламы |