Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






На минимум. 10 11 Рисунок 3.7 – Алгоритм поиска






Z < Zп Да

 

 

Нет

 

8 Нет 9

abs(h)< e h = - a h

 

 

Да

10 11 Рисунок 3.7 – Алгоритм поиска

Вывод xп-h, Zп Останов экстремума по методу поразрядного

приближения

Метод квадратичной интерполяции-экстраполяции является одним из методов аппроксимации кривыми и базируется на приближении целевой функции квадратичной параболой по трем точкам – текущее приближение x1= xп и точки, лежащие от нее слева x0 и справа x2 на удалении h и нахождении экстремума аналитически. Процесс проводится до тех пор, пока предыдущее и последующее приближения различаются более, чем на заданную точность поиска. Алгоритм метода следующий (рисунок 3.8, 3.9):

1. находим x0 = xп - h; y0 = f(x0); x1 = xп; y1 = f(x1); x2 = xп + h; y2 = f(x2);

2. находим параметры параболы, проходящей через три выбранных точки

a = (yo- 2y1 + y2) / (2h2);

b = (-yo (2x1 + h) + 4y1 x1 - y2 (2x1 - h)) / (2h2);

Тогда очередное приближение x на основе аналитической оптимизации аппроксимирующей функции равно xп = - b/(2a);

3. проверяем условие: abs(xп - x1) < e.

Если выполняется, то оптимум найден. Иначе переходим к 1-му пункту алгоритма.

 

На минимум:

f(x)

 

 


f(x)=ax2+bx+c

 

f(xп+h)

f(xп-h)

f(xп)

 

 

 


xп-h xп xп+h x

Рисунок 3.8 – Графическая интепретация метода на основе квадратичной аппроксимации

 

1

Пуск

 

 

Ввод xп, h, e xп – текущее значение приближения

к решению; h – параметр интервала

 

9 аппроксимации; e – точность поиска

4 7

a =...

b =...

 

xi = xп +(i-1) h xп = -b/(2a)

 

 

6 9 Нет

abs(x1- xп)< e 4

yi= f(xi)

Да

 

Zп= f(xп)

 

11 Рисунок 3.9 – Алгоритм на основе

Вывод xп, Zп квадратичной аппроксимации

 

Останов

 

 

Методы случайного поиска основаны на формировании на отрезке поиска случайным образом расчетных точек, вычислении в этих точках значений функции и выборе из них экстремального. Точность определяется числом точек поиска n.

Повторение испытаний описывается формулой Бернулли (биноминальным распределением)

, k = 0, 1, 2,..., n,

где k – число благоприятных случаев;

n – общее число испытаний;

p – вероятность благоприятного исхода при одном испытании;

q – вероятность, противоположная p (q=1-p).

Вероятность, что событие наступит n раз

;

что не наступит ни разу

;

наступит хотя бы один раз

.

 

Если абсолютную точность поиска решения на участке (b - a) обозначить через ε, то вероятность решения при одном испытании p = ε /(b - a). При этом вероятности Р1 получения решения в зависимости от числа испытаний n при различных p приведены в таблице 3.1.

 

Таблица 3.1 – Оценка точности поиска

p n p1
0.1   0.651 0.878 0.995 0.99999
0.01   0.634 0.866 0.993 0.99996
0.0001   0.632 0.865 0.993 0.99996

 

Например, если p = ε /(b - a)=0.01, то вероятность получения решения с точностью ε при числе испытаний n = 100 равна 0.634; при n =200 – 0.866; при n = 500 – 0.993; при n = 1000 – 0.99996, т.е. требуется 10 (b - a) /ε испытаний для надежного решения (Р1> 0.9999) с заданной точностью ε. Аналогичная зависимость, как видно из таблицы, имеет место и при других точностях решения.

Имеется большое множество методов оптимизации на основе случайного поиска и их разновидностей. Ниже приведена иллюстрация простейшего метода поиска, состоящая в последовательном формировании на отрезке от a до b случайным образом расчетной точки xт, расчете в ней целевой функции f(xт), сравнении значения функции f(xт) и ранее найденного " лучшего" значения функции f(xп), присвоении xп =xт и f(xп) =f(xт), если текущая точка " лучше". Формирование случайной точки производится по выражению xт = a + r (b-a), где r – случайное число, равномерно распределенное в интервале от 0 до 1.0.


 

f(x)

 

f(xт)

 

f(xп)

 

 

a xп xт b x

Рисунок 3.10 – Графическая интепретация метода случайного поиска (на минимум)

 

 

Более эффективным является метод случайного поиска с пересчетом, алгоритм которого приведен на рисунке 3.11. Принимаемые значения показателей aш, bш, h и L должны находится в определенном соотношении, например начальные значения могут быть приняты bш = 2; h= bш /5; aш = 0.25; L=10. Формирование случайной расчетной точки xт (блок 9) производится относительно текущего приближения xп на основе использования случайных чисел r, равномерно распределенных в интервале от 0 до 1.0. Произведение sh определяет отрезок, в пределах которого формируется случайная точка.

 

76.Оптимизация при наличии ограничений случайным поиском

Метод прямого учета ограничений успешно может быть применен при реализации методов случайного поиска (рисунок 3.17). Для прямого учета ограничений достаточно в подпрограмме расчета целевой функции присваивать, если хотя бы одно из ограничений нарушено, бесконечно большое (при минимизации) или бесконечно малое (при максимизации) значение. При этом данное испытание при случайном поиске не должно учитываться счетчиком неудачных проб. Если ни одно из ограничений не нарушено, то вычисляется реальное значение целевой функции.

Например, на Бейсике подпрограмма без учета ограничений и с учетом ограничений будет при оптимизации на минимум следующей:

m1: ' п/п вычисления Z без учета ограничений Z= … Return m1: ' п/п вычисления Z с учетом ограничений if (ограничение 1 нарушено) then m2 if (ограничение 2 нарушено) then m2 ……….. if (ограничение n нарушено) then m2 Z= …: goto m3 m2: Z= 1E20 m3: return

Пуск

 

Ввод m, e m – число оптимизируемых переменных;

e – относительная точность поиска

 

Ввод xнi, xвi, xнi и xвi – соответственно нижняя и верхняя

начальные границы поиска оптимума

 

Ввод h, aш , bш, l h –относительный шаг поиска; l – предельное

число неудачных попыток по каждой переменной;

5 aш и bш – соответственно коэффициент уменьшения

шага поиска и определения шкалы поиска

L = l m

 

 

 

si = (xвi - xнi)/ bш

 

 

8 на минимум

 

xтi = (xвi + xнi)/2 15 16

xпi= xтi Zп > Z Да xпi = xтi,

Zп= Z

 

Нет

9 17 11

Z = f(Xт) k = k + 1

 

 

18 Да

· Zп = Z k < = L 12

 

Нет

11 19

k = 0 16, 21 h = h aш

 

 

12 18 20 Да 21

i = 1, m h > = e aш Вывод xпi,

Zп, h

Нет

13 22

xтi = xпi + si h (2 r -1) Вывод Zп, xпi, 11

 

 

14 Останов

Z = f(Xт)

Рисунок 3.17 – Алгоритм многомерной оптимизации

случайным поиском с пересчетом

 

 

77.Одномерная безусловная оптимизация по методу дихотомии

Метод дихотомии (половинного деления) является одним из методов одномерной безусловной оптимизации унимодальной целевой функции. Алгоритм метода основывается на выборе исходного отрезка поиска решения [a, b] и его последующем делении пополам:

1) xc=(b+a)/2;

2) x1 = xc - e/2; x2 = xc + e/2;

3) Если при минимизации f(x1) < f(x2), то b = xс, иначе a = xс.

4) При b - a < = e, xопт = (b + a)/2, где e – точность поиска экстремума. Иначе на п. 1.

Ниже приведена графическая интерпретация (рисунок 3.2) и один из алгоритмов метода дихотомии (рисунок 3.3).

 

f(x)

 

f(x2)

f(x1)

 

e

 

a x1 xс x2 b х

Рисунок 3.2 – Графическая интепретация метода дихотомии

 

1

Пуск

 

Ввод a, b, e a и b – текущие значения нижней и верхней

границ интервала поиска экстремума

e – точность поиска

3 4

xс= (a+b)/2 b-a≤ e Да 11 Zп – значение

Zп= f(xс) целевой

 

 

функции

5 Нет 12 для решения

 

i = 1, 2 Вывод xc, Zп, e

 

 

6 13

x1 = xс +(2i-3) e/2 Останов

 

 

 

Z1= f(x1)

 

 






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.