Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Передача информации от дискретного источника






Как меняется неопределенность относительно состояния источника сообщения при получении адресатом элемента сообщения с выхода канала связи? Алфавиты передаваемых и принимаемых элементов сообщения будем считать идентичными.

Вследствие воздействия помех полученный элемент сообщения в общем случае отличается от переданного. Обозначим принимаемые элементы сообщения буквами w 1, …, wi, …, wn.

Априорная неопределенность (неопределенность до получения элемента сообщения) относительно состояния источника не является полной. Предполагается, что адресату известен алфавит элементов сообщения, а из прошлого опыта – вероятности их появления. Считая, что состояния источника реализуются независимо, априорная частная неопределенность появления элемента сообщения zi:

H (zi) = –log p (zi),

 

где p (zi) – априорная вероятность появления элемента сообщения zi.

Обычно считают, что между элементами сообщения и помехой статистические связи отсутствуют, искажения отдельных элементов сообщения являются событиями независимыми и адресату известна совокупность условных вероятностей , (1 £ i £ n, 1 £ jm), того, что вместо элемента сообщения zi будет принят элемент сообщения wj.

При получении конкретного элемента сообщения wj адресату становится известным значение условной вероятности p(zi/wj), называемой апостериорной (послеопытной) вероятностью реализации источником элемента сообщения zi. Это позволяет найти апостериорную частную неопределенность, остающуюся у адресата и относящуюся к выдаче источником элемента сообщения zi после получения конкретного элемента сообщения wj:

.(2.9)

Определим частное количество информации I (zi), получаемое при приеме элемента сообщения wj относительно некоторого реализованного источником элемента сообщения zi, как разность частных неопределенностей, имевшихся у адресата до и после получения элемента сообщения:

I (zi ) = H (zi ). (2.10)

Анализ выражения (2.10) позволяет сделать следующие заключения.

1. Частное количество информации растет с уменьшением априорной и увеличением апостериорной вероятностей реализации элемента сообщения источником, что находится в соответствии с интуитивным представлением.

2. Частное количество информации об элементе сообщения может быть не только положительным, но и отрицательным, а также нулем, что зависит от соотношения априорной p (zi) и апостериорной p(zi/wj) вероятностей. Если вероятность того, что источником был реализован элемент сообщения zi, увеличилась после приема элемента сообщения wj, т.е. p(zi/wj) > p (zi), то полученное частное количество информации положительно. Если эта вероятность не изменилась, т.е. p(zi/wj) = p (zi), то имевшая место неопределенность тоже не изменилась и частное количество информации равно 0. Случай p(zi/wj) < p (zi) соответствует увеличению неопределенности относительно реализации zi после получения элемента сообщения wj, и частное количество информации отрицательно.

3. В случае отсутствия помехи апостериорная вероятность p(zi/wj) = 1. Частное количество информации численно совпадает с априорной неопределенностью реализации данного элемента сообщения zi: I (zi ) = H (zi ) = . Это максимальное частное количество информации, которое можно получить об элементе сообщения zi.

4. Частное количество информации относительно реализации источником элемента сообщения zi, содержащееся в принятом источником элементе сообщения wj, равно частному количеству информации относительно wj, содержащемуся в элементе сообщения zi:

. (2.11)

Для большинства применений важны усредненные характеристики функционирования информационных систем.

Среднее количество информации, содержащееся в любом принятом элементе сообщения относительно переданного (реализованного) источником через вероятности вычисляется так: I (z, w) = .

Если частный характер количества информации специально не оговаривается, всегда идет речь о количестве информации, приходящемся в среднем на один элемент сообщения.






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.