Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Информационное описание систем






Термином " информация" обозначается достаточно сложное, до конца не раскрытое и изученное явление. Рассмотрим его, подходя системно, в трех аспектах (см. выше):

- феноменологическом (как систему) - это процессы восприятия, передачи, хранения, преобразования совокупности каких-то сведений, знаков, сигналов;

- функциональном - это средство организации, управления;

- сущностно - целевом - это свойство, форма существования материи (наряду с энергией и веществом), характеризующее ее разнообразие, которое используется человеком с целью организации взаимодействия в обществе.

Выше уже отмечалось, что в системах (элементах, связях) в общем случае протекают процессы передачи, восприятия, преобразования (разделения, использования) информации. Поэтому количественное описание, измерение этих процессов требует соответственно выделения и самостоятельного рассмотрения по меньшей мере, трех аспектов: синтактического, семантического и прагматического (см. выше о сигналах).

Синтактика информации. Первые попытки измерять информацию количественно начались с развитием телефонной связи. В 1924 году

Г. Найквист опубликовал " Некоторые факторы, влияющие на скорость телеграфного текста", в которой показал, что скорость передачи сигналов V по каналу связи с числом n различных кодовых символов (напряжений, тока) определяется как

V=k*logn,

где k - константа, определяющая скорость передачи последовательных импульсов.

В 1928 году Хартли определил информацию сообщения, которая позволяет оценить емкость массивов, хранящих числовую информацию (как количество чисел, знаков)

Q=nm,

где n - глубина, определяемая количеством элементов (знаков) в алфавите; для чисел это есть основание системы счисления

(десятичная n=10, двоичная n=2 и т.д.);

m - длина числа, количество числовых гнезд.

Таким образом, емкость Q показательно зависит от длины числа, что не всегда является удобным. Поэтому Хартли ввел аддитивную меру информации в двоичных единицах - битах

I=log2Q=m*log2*n

I - количество информации по Хартли равно 1 биту, если m=1, а n=2, то есть характеризует нам простейший и неделимый элемент информации - событие.

Пример: Потенциальная информационная емкость массива характеризуемая десятичным числом Q=1000=103, то есть m=3, n=10, в битах будет равна I=log2Q=3log210~10, то есть в двоичной системе данное количество информации будет кодироваться 10-ю двоичными знаками.

Использование логарифмической меры удобно по ряду причин:

1. технические параметры (количество реле, ширина канала связи и т.д.) линейно зависят от числа возможных состояний (m).

2. она соответствует интуитивному представлению о подходящей мере, так как мы привыкли измерять количество линейным сравнением с каким-либо эталоном.

3. она более удобна с математической точки зрения.

Развитие систем управления требовало количественного описания информации не только с точки зрения ее передачи и хранения, но и описания объекта управления. Ограниченность наших знаний об объекте привело к тому, что в меру информации потребовалось вводить и статистическое описание. Ограниченность знаний заставляет допускать, что объект находится в одном из n0 состояний (например равновероятных). Дополнительные наблюдения могут дать новое число состояний объекта n (хотя он находится в одном каком-то состоянии).

Если мы точно из опыта определим состояние объекта, то n=1, однако в результатах опытов обычно присутствует погрешность, поэтому n> 1. Это часто связано с неполной наблюдаемостью объекта (для электроэнергетической системы - конечное число телеизмерений параметров режима и ошибки).

Новые данные об объекте позволяют уточнить его состояние

n< n0, если же n> n0, то получаем дезинформацию. До опыта объект

имел Q=n01 емкость чисел и следовательно Iдо=1log2n0, после опыта Q=n1 и Iпосле=1log2n. Тогда количество приобретенной информации в результате опыта будет

I=Iдо-Iпосле=log2*n0/n

Таким образом мы получим информацию в 1 бит, если наше знание о числе возможных состояний объекта изменится с n0 до до n=n0/2 и n0/n=2. В последней формуле могут быть использованы априорные (доопытные) и апостериорные (послеопытные) вероятности состояния объекта (при условии равновероятности нахождения в любом состоянии P=1/n0, P=1/n), тогда

I=log2P/P0

Если после опыта P=1 (состояние объекта определено однозначно), тогда I=0-log2n0=-log2P0 и максимально.

Дальнейшим обобщением и развитием теории количественной оценки информации явились работы американских ученых К. Шеннона и Н. Винера в сороковых годах.

Предполагается, что объект может находится в одном из множества состояний (событий) X=x1, x2,...xn. Известны априорные вероятности этих состояний P(xi) (события xi - независимы). Это множество событий с распределением их вероятностей - ансамбль событий. Если известно в результате опыта, что объект находится в состоянии xi, то это сообщение несет в себе информацию

I=-log2P(xi).

Среднее количество информации, приходящиеся на одно сообщение, будет

Эта величина называется негэнтропией и обладает свойствами:

1. Негэнтропия объекта равна нулю, когда P(xi)=0, кроме одной, равной единице.

2. При заданном числе n негэнтропия максимальна, если все состояния объекта равновероятны P(xi)=1/n.

Таким образом негэнтропия характеризует степень неопределенности наших знаний о состоянии объекта.

Подход к информации как к снимаемой неопределенности не является единственным в теории информации. Существуют и другие меры: геометрические, комбинаторные, алгоритмические.

Все рассмотренное выше определяет синтаксический аспект информации - наиболее абстрактный уровень ее изучения. Здесь мы отвлекаемся от значения и смысла знаков (содержание информации) и от их ценности для получателя. Изучаются лишь формальные свойства потоков сообщений: позиция постороннего наблюдателя, которому недоступно то, о чем сообщается и для чего сообщаемая информация может быть полезна. Поэтому в проблеме сбора, обработки, передачи и использовании информации при управлении в рамках данного аспекта информации рассматриваются лишь проблемы мощности передающих каналов, памяти и т.д. элементов управляющей системы и борьбы с потерями информации от физических шумов.

Семантика информации. Один и тот же источник информации I может передавать ее множеству приёмников, например n-приёмникам какой-то системы. Каждый приёмник, преобразовав информацию в Ii подает ее на выход. Таким образом на выходе системы получаем Iвых=Σ Ii, поскольку Ii=I, то следовательно Iвых=nI. Но система получила всего I (!). Например, сколько информации содержится в пачке из n газет, если в одном экземпляре сосредоточено I бит?

Следовательно есть еще характеристика, мера информации - смысловая, содержательная, показывающая ее новизну. Для выявления этого аспекта рассмотрим механизм восприятия информации.

Необходимым моментом в этом процессе является прежде всего физическое воздействие, направленное на отображающую (воспринимающую) систему. Такого рода физические воздействия называются сигналами. Различают три типа сигналов:

сигналы-индексы - проявление естественных свойств их источников (дым костра, пожара, запах животного и т.д.);

сигналы-копии - воспроизведение внешних форм отражаемого предмета (следы зверей, отпечатки пальцев, фотографии);

знаки-сигналы, не являющиеся ни проявлением естественных предметов, ни передающие их внешнюю форму, но способные быть носителями только в силу предварительной договоренности группы получателей и отправителей сигналов (см. выше). Знак всегда есть материальный объект (обратное не обязательно). Обозначим:

Z(z ⊂ Z) - множество знаков;

T(t ⊂ T) - множество понятий, суждений, образов, из которых в памяти получателя и отправителя информации складывается отражение той материальной среды, в которой протекает их практическая деятельность; t - смысловое значение z, просто значение z.

Этот запас знаний обозначается термином тезаурус. В переводе с греческого " тезаурус" означает " сокровище", или " сокровищница". В последнее время этот термин получил новую жизнь в двух значениях. В более широком значении, как запас вообще. В более узком - как название систематического словаря понятий.

Последовательность знаков (z1, z2, z3...) ϵ z передается от источника информации или отправителя И к получателю П (см. рис.3.9). Каждому из знаков Z предписаны значения, являющиеся понятиями (t1t2...) ϵ TП, то есть входящими в тезаурус отправителя. Чтобы содержащаяся в последовательности z1, z2,... информация была воспринята получателем П, в его тезаурусе Тп должны находиться значения передаваемых знаков и их прием должен вызывать из памяти соответствующие им значения. В тезаурусе обязательно должны фиксироваться не только отдельные понятия, но и различные связи между ними. Например, если я получаю сигналы путем чтения книги на английском языке в виде букв и сочетаний, то чтобы получать информацию в моей памяти, тезаурусе, должны быть знания этих букв, слов и связи между ними.

 

Рис. 3.9

 

При этом возможны следующие ситуации.

1) Знаку Z1, поступающему к получателю П, в его тезаурусе Тп не находится соответствующее значение t1. Связанные с ним близкие по значению понятия, например, t2 также отсутствует. Тогда для П сообщение не будет содержать никакой информации. Он его не понимает.

2) Пусть при тех же условиях для знака Z1 в Тп находится соответствующее значение t1. Тогда знак Z1 не доставит получателю П новых знаний, а стало быть, не содержит для него новой информации, хотя содержание сообщения принято и понято.

Процесс восприятия знака будет сведен к распознаванию известного, но без познания нового. Например, как для человека, знающего арифметику, сообщение о том, что 2& 2=4.

3) При тех же условиях знаку Z1 в Тп не находится соответствующего ему значения t1, но имеются близкие к нему понятия t2, t3..., связанные с ним, что позволяет П опознать принадлежность значения Z1 к определенному классу понятий и определить его специфические свойства. Тогда Тп будет пополнен новым элементом, то есть значение Z1 будет воспринято как новое знание,

новая информация. Распознавание дополнится познаванием. Этот аспект информации обозначают семантическим.

Сказанное можно интерпретировать следующим образом.

Пусть - содержание, вложенное отправителем, источником информации И сообщения (z1, z2...) ∊ z получателю П. Если пересечение Тп=0, то количество новой воспринимаемой информации I(, Тп)=0, (ситуация 1). Если ⊂ Тп, то есть полностью включено в тезаурус получателя, то также имеем I(, Тп)=0 (ситуация 2). И только. если Тп ≠ 0 и Тп, то I(, Тп) ≠ 0 (ситуация 3). Графически это можно иллюстрировать следующим образом (см. рис. 3.10).

 

Рис. 3.10

 

4) Знак z1 со значением t1 поступает к П, но вызывает из его памяти не t1, а другое значение tк, не связанное с t1. Ошибка - недостатки памяти, ненадежность систем поиска, многозначность и т.п. Ситуация, аналогичная неправильному приему сигналов в канале связи вследствие помех. Но здесь иная природа - семантический шум. Количественные методы оценки семантической информации еще разработаны достаточно слабо.

Понимание и знание семантического аспекта информации при управлении необходимо для правильной и рациональной обработки информации, ее распознавания, хранения, организации банка данных,

языка общения с ЭВМ, борьбы с семантическим шумом и т.д.

Прагматика информации. Продолжим анализ ситуации, когда к получателю информации приходит новая информация, которая позволяет расширить его тезаурус, то есть I(, Tп)-0.

Но получатель не вызывает из памяти t1, t2... для распознавания z1... по той причине, что он занят решением задач, к которым эти элементы тезауруса не имеют отношения и потому отправлены в архив.

Иными словами П не настроен на восприятие этого сообщения, если оно ему не нужно. Вообще он может в каждый конкретный момент времени априорно оценивать важность ожидаемых сообщений и

его восприимчивость к информации будет зависеть от этих оценок.

Здесь мы сталкиваемся с ценностью информации и проблемой ее оценки - прагматическим аспектом информации. Прагматика - наиболее конкретный уровень понимания информации. Ее предмет - отношения между знаками и их получателем, которые, по существу, предполагают и охватывают все остальные отношения. В этих отношениях обнаруживается сила воздействия сообщения на поведение получателя и проявляются все факторы, определяющие ценность данных для конкретных потребителей.

Прагматический аспект характеризует качество, полезность, ценность информации для ее получателя.

С этих позиций количественная оценка прагматической информации должна быть связана с целевой функцией. К сожалению сегодня меры и методы определения еще слабо развиты, имеются лишь отдельные предложения.

Например, А.А. Харкевичем была предложена мера целесообразности информации, которая определяется как изменение вероятности достижения цели при получении дополнительной информации.

Полученная информация может быть пустой, то есть не изменять вероятности достижения цели, мера ее равна нулю. В других случаях полученная информация может изменять дела в худшую сторону, уменьшать вероятность достижения цели (отрицательная информация) - дезинформация (прагматический шум). Наконец, в третьем случае, получаемая информация добротная и увеличивает вероятность достижения цели (положительная информация).

Мера целесообразности информации тогда может быть представлена как

Iцел=log2P1 - log2P0 = log2P1/P0

где P1 и P0 - начальная (до получения информации) и конечная (после получения информации) вероятность достижения цели.

Этот аспект информации с позиции задач управления является итоговым: связан с потребностями в информации, эффективностью информационных систем. В конечном счете он определяет технико-экономические показатели и необходимые (или допустимые) затраты по сбору, обработке данных, адекватность, точность используемых математических моделей и выбор оптимальных структур информационных систем.

Помимо рассмотренного описания информационных потоков в системах имеется глубокая связь между информационным и морфологическим описанием системы. Выше при анализе синтактического аспекта информации мы связывали ее количество с получением сведений о состоянии объекта в результате некоторого опыта над ним. Но состояния объекта по своей природе могут быть детерминированными и неопределенными (случайными, хаотическими - см. выше описание структуры). Это разнообразие состояний объекта с одной стороны характеризует информационный аспект его, а с другой - степень организованности, упорядоченности, описываемой энтропией. Как известно выражение для оценки энтропии с точностью до знака совпадает с выражением для оценки количества синтактической информации (что и послужило основанием для обозначения ее негэнтропией). В итоге количество информации можно представить как измерение энтропии объекта, его упорядоченности, организованности. Более того имеется и обратная связь. Объект, получая извне (из среды) информацию, может повысить свою упорядоченность, организованность, а, следовательно, изменить свои свойства. Конечно не всякая информация нужна объекту, системе, и не всякая система может использовать поступающую в нее информацию для повышения своей организованности. Такая возможность имеется только у систем определенной сложности, а именно - у систем, обладающих свойством самоотображения, то есть у систем, имеющих подсистему (или подсистемы), способную отражать систему и среду, обладающей тезаурусом. В нем содержится программа построения и существования системы, ее информационный дубликат (например, молекула ДНК в клетке). Благодаря этому тезаурус осуществляет целенаправленную организацию, которая в свою очередь и определяет энтропию. Следовательно, если из среды в систему поступает информация, которая обогащает, повышает уровень тезауруса, то это и приводит к повышению организованности системы.

В свою очередь тезаурус может иметь многоуровневое построение. Этой многоуровневостью в большей степени можно объяснить и такой феномен, как сознание. Хотя многие специалисты по разному трактуют сознание (как " восприятие В ощущения, переживаемого А", причем В и А могут совпадать, но не обязательно; " В широком смысле сознание состоит из наших собственных вторичных откликов

на наши же движения" и др.), но многие из них говорят в сущности об одном и том же - самоотображении второго уровня. Сознание есть " тезаурус тезауруса" - тезаурус 2.






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.