Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Информация. Дополнительные свойства информации






Дополнительные свойства информации:

1) Атрибутивное – это неотрывность информации от физического носителя и языковая природа информации.

Хотя информация неотрывна от физического носителя и имеет языковую природу она не связана жестко ни с конкретным носителем, ни с конкретным языком.

а) Дискретность – содержащаяся в информации сведения и знания дискретны, то есть характеризуют отдельные данные, характерности и свойства конкретных объектов.

б) Непрерывность. Информация имеет свойства сливаться с уже зафиксированной и накопленной ранее, способствуя поступательному развитию и накоплению.

2) Прогматические

а) Включают в себя смысл и новизну, что характеризует перемещение информации в социальных комуникациях, выделяет ту или иную ее часть, которая нова для потребителя.

б) Полезность – информация, уменьшающая неопределенность сведений об объекте.

в) Ценность – Различна для различных потребителей и пользователей.

г) Кумулятивность. Характеризует накопление и хранение информации.

3) Динамическое. Характеризует динамику развития информации во времени.

Информация. Формы сигналов

Формы сигналов:

а) Неприрывные(аналоговые). Аналоговым сигналом называется, если его параметр в заданных пределах может принимать любые промежуточные значения.

б) Прерывистые(дискретные). Дискретным называется сигнал, если его параметр в заданных пределах принимает отдельное фиксированное значение. Замена точного значения его приближенной дискретной величиной при условии, что два ближайших дискретных значения могут различаться не на сколь угодно малую величину, а лишь на конкретную минимальную величину квант, называется квантование, обратный процесс, называется сглаживание.

Информация. Количество информации, равновероятностные события. Энтропия

Формула Хартли, выведенная из вероятностно-статистического подхода К.-Э. Шеннона N=2i, i=log2N, где i – количество информации (в битах), N – количество информационных сообщений (событий). В одном случае рассматриваются равновероятностные события, в другом – мощность алфавита.

 

Количеством информации называют числовую характеристику сигнала, отражающую степень неопределенности, которая исчезает после получения данного сигнала. Эту меру неопределенности к теории информации называют энтропия.

 

Энтропия – мера внутренней неупорядоченности системы.

Уменьшая неопределенность мы получаем информацию.






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.