Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Теоретические сведения

ПРАКТИЧЕСКАЯ РАБОТА № 1

ТОЧНОСЬ ВЫЧИСЛИТЕЛЬНОГО ЭКСПЕРИМЕНТА

Цель работы: научиться представлять числа в нормализованном виде, ознакомиться с абсолютными и относительными погрешностями при вычислениях на ЭВМ.

ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ

Одно из основных понятий вычислительной математики - понятие вычислительной погрешности. Если неправильно построить вычислительный процесс, то погрешность может появиться даже в тех задачах, которые имеют аналитическое решение. Однако большинство практических задач не имеют аналитического решения, и тогда возникает необходимость решать задачу численно с заданной точностью, не превышая определенной погрешности. При этом в численном анализе мы сталкиваемся с необходимостью работы с приближенными числами. Поэтому, чтобы правильно построить вычислительный процесс, уменьшить вычислительную погрешность и получить решение задачи с заданной точностью, необходимо знать источники погрешностей, правила работы с приближенными числами, правила сравнения чисел, правила распространения погрешности.

При работе с приближенными величинами важно уметь:

1) давать математические характеристики точности приближенных величин;

2) зная степень точности исходных данных, оценить степень точности результатов и требуемую точность промежуточных вычислений;

3) правильно построить вычислительный процесс, чтобы избавить его от тех выкладок, которые не окажут влияния на точные цифры результата.

Источники погрешностей

Погрешность результата решения задачи складывается из трех составных частей:

– неустранимой погрешности решения, обусловленной неточностью исходных данных;

– погрешности метода решения задачи;

– вычислительной погрешности, являющейся результатом округлений в процессе счета.

Неустранимая погрешность решения обусловлена неточностью исходных данных, которые возникают в результате неточности измерений (инструментальная ошибка) или из-за невозможности представить необходимую величину конечным числом значащих цифр (ошибка округления). Инструментальная ошибка всегда возникает при проведении физического измерения, поскольку оно не может быть выполнено абсолютно точно. Ошибки округления при задании исходных данных возникают в том случае, когда величину невозможно представить ограниченным числом значащих цифр, например число

Погрешности метода решения задач очень часто возникают при использовании численных методов. Действительно, многие математические задачи могут быть решены только приближенно, хотя и со сколь угодно большой точностью, так как любой численный метод предполагает использование конечного числа арифметических операций. Например, при решении задачи обычно производную заменяют разностью, интеграл – суммой конечного числа членов ряда, или бесконечный итерационный процесс обрывают после некоторого конечного числа итераций. Так же к погрешностям метода можно отнести неточность отображения реальных процессов, так как рассматривается не сам процесс, а его идеализированная математическая модель.

При решении численных задач на компьютере всегда возникают вычислительные погрешности, обусловленные ошибками округления в процессе счета (так как вычисления на ЭВМ выполняются с конечным числом значащих цифр, определенных конечностью разрядной сетки ЭВМ). Исключения составляют задачи, в которых операции над данными выполняются точно, например, в целочисленной арифметике. Однако в подавляющем большинстве вычислительных задач используются вещественные числа, операции над которыми выполняются с ошибками округления. В зависимости от реализованного в алгоритме метода решения, эти ошибки округления могут либо расти, либо уменьшаться.

При расчетах те или иные погрешности могут отсутствовать или их влияние может быть мало.

Абсолютная и относительная погрешности

Абсолютная погрешность (ошибка) - это разница между истинным значением величины (считая это истинное значение известным) и ее приближенным значением .

Относительная погрешность (ошибка) определяется, как отношение абсолютной погрешности к приближенному значению величины. Казалось бы, что более естественно определить ее, как отношение абсолютной погрешности к точному значению, но обычно точное значение нам неизвестно. Все, что обычно бывает известно, - это приближенное значение величины и оценка ошибки или границы максимально возможной величины ошибки. Если абсолютная погрешность мала, то разница в определениях не скажется на численной величине относительной погрешности.

Для величин, близких по значению к единице, абсолютная и относительная погрешности почти одинаковы. Для очень больших или очень малых величин относительная и абсолютная погрешности представляются совершенно разными числами.

Если из условия задачи или из контекста не ясно, какая ошибка имеется ввиду, то чаще считают, что ошибка относительная.

<== предыдущая лекция | следующая лекция ==>
Практическая часть. 1. В командном окне задать значения переменных. | 




© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.