Студопедия

Главная страница Случайная страница

КАТЕГОРИИ:

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Теоретичні положення для виконання курсової роботи




 

4.1 Базовий алгоритм навчання СПР за методом-функціонально-статистичних випробувань (МФСВ)

Призначенням базового алгоритму навчання LEARNING [8] є оптимізація геометричних параметрів контейнерів класів розпізнавання, які відновлюються на кожному кроці навчання в радіальному базисі. Вхідною інформацією для навчання за базовим алгоритмом у загальному випадку є дійсний масив реалізацій образу ; система полів контрольних допусків і рівні селекції координат двійкових еталонних векторів-реалізацій образу, які за замовчанням дорівнюють 0,5 для всіх класів розпізнавання.

Розглянемо етапи реалізації алгоритму LEARNING:

1 Формування бінарної навчальної матриці , елементи якої дорівнюють

(4.1.1)

 

2 Формування масиву еталонних двійкових векторів , елементи якого визначаються за правилом

(4.1.2)

 

де rm - рівень селекції координат вектора .

3 Розбиття множини еталонних векторів на пари найближчих ²сусідів²: =<xm , xl >, де xl - еталонний вектор сусіднього класу , здійснюєтьсяза таким алгоритмом:

а) структурується множина еталонних векторів, починаючи з вектора x1 базового класу , який характеризує найбільшу функціональну ефективність СПР;

б) будується матриця кодових відстаней між еталонними векторами розмірності M ´M;

в) для кожного рядка матриці кодових відстаней знаходиться мінімальний елемент, який належить стовпчику вектора, найближчого до вектора, що визначає строку. За наявності декількох однакових мінімальних елементів вибирається з них будь-який, оскільки вони є рівноправними;

г) формується структурована множина елементів попарного розбиття , яка задає план навчання.

4 Оптимізація кодової відстані dm відбувається за рекурентною процедурою (2.3.4). При цьому береться .

5 Процедура закінчується при знаходженні максимуму КФЕ в робочій області його визначення: де - множина радіусів концентрованих гіперсфер, центр яких визначається вершиною .

Таким чином, базовий алгоритм навчання є ітераційною процедурою пошуку глобального максимуму інформаційного КФЕ в робочій області визначення його функції

 

.

 

На рис. 1 наведено структурну схему базового алгоритму навчання LEARNING. Тут показано такі вхідні дані: {Y[J,I,K]} - масив навчальних вибірок, - змінна кількості випробувань, де NM -мінімальний обсяг репрезентативної навчальної вибірки, I= - змінна кількості ознак розпізнавання, K= - змінна кількості класів розпізнавання; {NDK[I]}, {VDK[I]}-масиви нижніх і верхніх контрольних допусків на ознаки відповідно. Результатом реалізації алгоритму є: {DOPT[K]}-цілий масив оптимальних значень радіусів контейнерів класів розпізнавання у кодовій відстані Хеммінга; {EV[K]}-масив еталонних двійкових векторів класів розпізнавання; {EM[K]}-дійсний масив максимальних значень інформаційного КФЕ процесу навчання;



 

 

Рисунок 1- Структурна схема базового алгоритму навчання

{D1[K]}, {A[K]}, {B[K]}, {D2[K]} - дійсні масиви оцінок екстремальних значень точнісних характеристик процесу навчання для відповідних класів розпізнавання: перша достовірність, помилки першого та другого роду і друга достовірність відповідно. Змінна D є робочою змінною кроків навчання, на яких послідовно збільшується значення радіуса контейнера.

У структурній схемі алгоритму (рис. 1) блок 3 формує масив навчальних двійкових вибірок {X[J,I,K]} шляхом порівняння значень елементів масиву {Y[J,I,K]} з відповідними контрольними допусками за правилом (2.4.1.1) і формує масив еталонних двійкових векторів {EV[K]} шляхом статистичного усереднення стовпців масиву {X[J,I,K]} за правилом (2.4.1.2) при відповідному рівні селекції, який за замовчуванням дорівнює .

Блок 4 здійснює розбиття множини еталонних векторів на пари “найближчих сусідів”. Блок 11 обчислює на кожному кроці навчання значення інформаційного КФЕ. При невиконанні умови блока порівняння 12 блок 13 оцінює належність поточного значення критерію робочій області визначення його функції і при позитивному рішенні блока 13 це значення запам’ятовуєься блоком 14. При негативному рішенні блока порівняння 15, в якому величина дорівнює кодовій відстані між парою сусідніх еталонних векторів, блок 16 здійснює у робочій області пошук глобального максимуму КФЕ – EM[K] і визначає для нього екстремальне значення радіуса гіперсфери – DOPT[K]. Аналогічно будуються оптимальні контейнери для інших класів. Якщо параметри навчання {DOPT[K]} і {EV[K]} є вхідними даними для екзамену, то значення КФЕ та екстремальних оцінок точнісних характеристик використовуються для аналізу ефективності процесу навчання.



Таким чином, основною процедурою базового алгоритму навчання за МФСВ є обчислення на кожному кроці навчання інформаційного КФЕ і організація пошуку його глобального максимуму в робочій області визначення функції критерію.


mylektsii.ru - Мои Лекции - 2015-2019 год. (0.011 сек.)Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав Пожаловаться на материал