![]() Главная страница Случайная страница Разделы сайта АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Энтропия сложных сообщений
Рассмотрим энтропию объединенной системы. Под объединением двух систем с возможными состояниями Обозначим через P(yy/xi) условную вероятность того, что система Определим теперь энтропию системы Y при условии, что система Х находится в состоянии xi (частная условная энтропия). Н(Y/xi) = MY[-logP(yj/xi)] = Средняя по множеству всех возможных состояний системы Х условная энтропия (полная условная энтропия) Н(Y/Х) = MХ[Н(Y/xi)] = Условная энтропия H(Y/X) характеризует степень неопределенности системы Y при условии, что состояние системы Х полностью определено. Нетрудно убедиться, что H(Y/X) = H(Y) (2.6) при вероятностной независимости систем Х и Y, а также Н(Y/X) = 0 (2.7) при однозначной (функциональной связи) между системами. Из (2.6) и (2.7) очевидно, что условная энтропия достигает максимума при вероятностной независимости систем. Это утверждение можно строго доказать методами вариационного исчисления, но и так представляется достаточно очевидным, что неопределенность одной системы не может увеличиться от того, что неопределенность какой-то другой системы уменьшилась. Докажем следующую теорему. Если две системы Х и Y объединяются в одну, то энтропия объединенной системы равна энтропии одной из составных частей плюс условная энтропия второй части относительно первой. Н(X, Y) = M[-logP(X, Y)] = M[-log(P(X)× P(Y/X))] = = M[-logP(X)] + M[-logP(Y/X)] = H(X) + H(Y/X). (2.8) В частном случае, когда системы Х и Y независимы H(Y/X) = H(Y) и H(X, Y) = H(X) + H(Y). Забиваем Сайты В ТОП КУВАЛДОЙ - Уникальные возможности от SeoHammer
Каждая ссылка анализируется по трем пакетам оценки: SEO, Трафик и SMM.
SeoHammer делает продвижение сайта прозрачным и простым занятием.
Ссылки, вечные ссылки, статьи, упоминания, пресс-релизы - используйте по максимуму потенциал SeoHammer для продвижения вашего сайта.
Что умеет делать SeoHammer
— Продвижение в один клик, интеллектуальный подбор запросов, покупка самых лучших ссылок с высокой степенью качества у лучших бирж ссылок. — Регулярная проверка качества ссылок по более чем 100 показателям и ежедневный пересчет показателей качества проекта. — Все известные форматы ссылок: арендные ссылки, вечные ссылки, публикации (упоминания, мнения, отзывы, статьи, пресс-релизы). — SeoHammer покажет, где рост или падение, а также запросы, на которые нужно обратить внимание. SeoHammer еще предоставляет технологию Буст, она ускоряет продвижение в десятки раз, а первые результаты появляются уже в течение первых 7 дней. Зарегистрироваться и Начать продвижение Так как H(Y/X) ≤ H(Y), то H(X, Y) ≤ H(X) + H(Y), т.е. энтропия сложной системы достигает максимума в случае, когда ее составные части независимы. Теорему об энтропии сложной системы легко распространить на любое число объединяемых систем. Исходя из изложенного, можно объяснить, почему количественное представление информации через энтропию оказалось столь широко применимым. Такое представление обладает следующими достоинствами: 1. Удовлетворяет требованию, предъявляемому к любой мере – аддитивности, по которому общая от нескольких источников информация находится суммированием. 2. Хорошо отражает смысл понятия " информация" - среднее количество информации о системе, которое может быть получено, т.е. энтропия достигает максимума в случае, когда априорные данные о системе отсутствуют (все состояния системы равновероятны) и равно 0, если неопределенность системы отсутствует. Довольно распространенным является случай, когда интересующая нас система событий (случайная величина) изучается не непосредственно, а путем изучения другой системы, связанной с первой вероятностно. Оценим взаимную информацию систем. Пусть нас интересует система Х. Возможные ее состояния определяются априорными вероятностями Р(х1), Р(х2), …, Р(хn). Пусть также имеется система Y, вероятностно связанная с системой Х (известны условные вероятности P(xi/yk). При получении сообщения, что система Y находится в k-м состоянии, изменилось распределение вероятности системы Х, т.е. мы получили определенную информацию о системе Х. Приращение информации об i-том состоянии системы Х
Эта информация называется информацией " от события к событию ". В среднем по всем возможным состояниям системы Х приращение информации
Эта величина называется средней частной информацией. Средняя по всем возможным состояниям системы Y информация о системе Х
Симметричность записи выражения (2.9) относительно Х и Y означает, что IY→ X = IX→ Y = YX↔ Y = I(X, Y) = H(X) – H(X/Y) = H(Y) – H(Y/X). (2.10) Среднее количество информации, получаемое при неполной достоверности сообщений равно разности безусловной априорной информации Н(Х) и условной априорной информации H(X/Y), H(X/Y) трактуется как потеря информации (ненадежность связи). Из выражения (2.8) следует: H(X/Y) = H(X, Y) - H(Y) и подстановка в уравнение (2.10) даст YX↔ Y = H(X) – H(X, Y) + H(Y) = H(X) + H(Y) – H(X, Y), Сервис онлайн-записи на собственном Telegram-боте
Попробуйте сервис онлайн-записи VisitTime на основе вашего собственного Telegram-бота:— Разгрузит мастера, специалиста или компанию; — Позволит гибко управлять расписанием и загрузкой; — Разошлет оповещения о новых услугах или акциях; — Позволит принять оплату на карту/кошелек/счет; — Позволит записываться на групповые и персональные посещения; — Поможет получить от клиента отзывы о визите к вам; — Включает в себя сервис чаевых. Для новых пользователей первый месяц бесплатно. Зарегистрироваться в сервисе где Н(Х, Y) – потеря информации. Подытожим свойства взаимной информации. 1. I(X, Y) ≥ 0,; I(X, Y) = 0, когда Х и Y – независимы. 2. I(X, Y) = I(Y, Х). 3. I(X, Y) ≤ Н(Х); I(X, Y) = Н(Х), когда Н(Х/Y) = 0 при однозначной связи. 4. I(X, Х) = Н(Х) – собственная информация о себе.
Литература: [1] стр. 132-134. [2] стр. 227-230. [3] стр. 106-109.
Контрольные вопросы: 1. Чему равна энтропия объединения при независимости входящих в нее систем? 2. Чему равна энтропия объединения при функциональной зависимости входящих в нее систем? 3. Чему равна взаимная информация между независимыми системами? 4. Может ли быть взаимная информация между двумя системами больше, чем наименьшая из энтропий этих систем? 5. Как оценивается потеря информации при передаче ее от одной системы к другой?
|