Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Для харак­теристики процесса измерения






 

Точность измерений обычно характеризуется числовым значением полученных при измерении или предполагаемых погрешностей. При этом используются понятия абсолютной и относительной приведенной погрешностей. Если измерительное устройство имеет диапазон измерения от Х 1 до Х 2, т.е. может измерять величины, находящиеся в пределах от Х 1 до Х 2 с абсолютной погрешностью ±D, не зависящей от текущего значения х измеряемой вели­чины, то, полученный результат измерения в виде показания Х Пзаписы­вается как ХП ± D и характеризуется относительной приведенной погрешностью .

Рассмотрение этих же самых действий с позиций теории информации носит несколько иной характер, отличающийся тем, что всем перечисленным понятиям придается вероятностный, статистический смысл, а итог проведенного измерения истолковывается как сокращение области неопределенности измеряемой величины. В теории информации тот факт, что измерительный прибор имеет диапазон измерений от Х 1до Х 2, означает, что при использовании этого прибора могут быть получены показания Х П только в пределах от Х 1до Х 2. Другими словами, вероятность получения отсчетов, меньших Х 1 и больших Х 2 равна нулю. Вероятность же получения отсчета где-то в пределах от Х 1до Х 2 равна единице.

Если предположить, что плотность вероятности распределения различных значений измеряемой величины вдоль всей шкалы прибора одинакова, то с точки зрения теории информации наше знание о значении измеряемой величины до измерения может быть представлено графиком распределения плотности вероятности р (х) вдоль шкалы значений х, показанным на рис. 6.1.1.

Так как полная вероятность получить отсчет где-то в пределах от Х 1до Х 2 равна единице, то под кривой р (х)должна быть заключена площадь, равная единице. При равномерном распределении плотности вероятности это приводит к .

После проведения измерения получаем показание прибора, равное ХП. Однако вследствие погрешности прибора, равной ±D, утверждать, что измеряемая величина точно равна значению Х П нельзя. Поэтому результат измерения записываем в виде Х П ± D. Это озна­чает, что действительное значение измеряемой величины X лежит где-то в пределах от Х П + D до Х П – D, т.е. в пределах участка 2D, как показано на рис. 6.1.1.

 

Рис. 6.1.1. График распределения плотности вероятности р (х)

 

С точки зрения теории информации результат измерения состоит лишь в том, что до измерения область неопределенности про­стиралась от Х 1 до Х 2 и характеризовалась малой плотностью вероятности , а после измерения она сократилась до величины 2D и характеризуется намного большей плотностью вероятности . Получение какой-либо информации об интересующей величине заключается, таким образом, в уменьшении неопределенности ее значения.

Формальный прием для математической записи этого логического заключения достаточно состоит в определении количества информации q как уменьшения энтропии от значения , которое характеризует неопределенность измеряемой величины перед измерением, до значения , которое остается после получения показания прибора , т.е. как

 

(6.1.10)

 

Величина представляет собой исходную энтропию, а значение характеризует ту неопределенность, которая остается после получения показания прибора и называется условной энтропией (при условии, что известно).

В приведенном примере с равномерным законом распределения плотности вероятности как до, так и после измерения исходная, или безусловная, энтропия составляет

 

(6.1.11)

 

а оставшаяся, или условная, энтропия результата измерения получения отсчета равна

 

. (6.1.12)

 

Отсюда полученное количество информации, равное разности исходной и оставшейся энтропии, записывается как

 

(6.1.13)

 

В этой замене операции деления D на , используемой обычно при определении относительной погрешности измерения, на операцию вычитания исходной и оставшейся неопределенностей, характеризуемых соответствующими значениями энтропии, и заключается основной прием анализа теории информации.






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.