Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Перший і другий принципи адитивності інформації.






Перший принцип адитивності інформації дозволяє в рамках синтаксичного підходу оцінювати цінність інформації через її кількісні характеристики [16].

Другий принцип адитивності інформації дозволяє визначити робочу область значень інформаційного КФЕ, яка задовольняє вимогам: чим більше кількість інформації про образи, що розпізнаються, тим більша достовірність рішень, що приймаються.

Принцип апріорної недостатності обґрунтування гіпотез (принцип Бернуллі-Лапласа). Д ля оцінки ефективності функціонування СК, що навчається, апріорна інформація є неповною, тому, згідно з принципом Бернуллі-Лапласа, виправдано прийняття рівноймовірних гіпотез. При цьому гарантується, що покращення умов функціонування системи не знизить її функціональну ефективність, а навпаки підвищить.

Принцип композиції. Суть цього принципу полягає в тому, що обов’язковими елементами математичної моделі процесу навчання за МФСВ є відображення універсуму W випробувань СК на множину значень інформаційного критерію Е: g: W Еі відображення множини Е на множину параметрів функціонування системи G – f: E G, де g f: W G визначається за умови W. Такимчином, у МФСВ повинна виконуватися умова повної композиції: множина Е є загальною для всіх послідовностей відображення множин, які застосовуються в ітераційних процедурах оптимізації параметрів функціонування СПР.

Принцип “найближчого сусіди” обумовлює необхідність побудови на етапі навчання СПР оптимальних роздільних гіперповерхонь між найближчими класами розпізнавання.

Принцип рандомізації вхідних даних. Цей принцип дозволяє разом з детермінованими характеристиками функціонального стану СПР розглядати випадкові реалізації образів розпізнавання, що дає змогу оцінювати точнісні характеристики процесу навчання і обчислювати інформаційну спроможність системи.

Принцип обмеженої багатоваріантності рішень, що приймаються. На цьому принципі базуються ітераційні процедури оптимізації процесу навчання, оскільки алгоритмічний інформаційний синтез СПР означає генерацію обмеженої кількості можливих варіантів рішень, які оцінюються у процесі навчання за інформаційним КФЕ.

Основні концептуальні положення МФСВ можна сформулювати так:

· метод ґрунтується на прямій оцінці інформаційної спроможності СК, що навчається;

· прийняття рішень здійснюється в рамках детерміновано-статистичного підходу шляхом побудови відносно простого детермінованого класифікатора, статистична корекція якого здійснюється в процесі навчання з метою підвищення достовірності рішень, що приймаються на екзамені;

· метод ґрунтується на застосуванні гіпотез як чіткої, так і нечіткої компактності реалізацій образу, тобто є працездатним за умови перетину класів розпізнавання; що має місце в практичних задачах контролю та керування;

· метод є об’єктно-структурованим, що дозволяє його розвивати для вирішення проблеми інформаційного синтезу широкого класу СК з успадкуванням властивостей структурованих об’єктів вищого ієрархічного рівня і довизначенням їх методів;

· метод базується на вибірковому підході математичної статистики і орієнтований на застосування прийнятних з практичних міркувань мінімальних обсягів репрезентативних навчальних вибірок;

· метод є універсальним для проектування здатної навчатися СК будь-якої природи і дозволяє вирішувати як загальну, так і часткові задачі її інформаційного синтезу.

Основна ідея МФСВ полягає в оптимізації структурованих просторово-часових параметрів функціонування СПР шляхом трансформації в процесі навчання відношення схожості на нечіткому розбитті простору ознак розпізнавання на класи у відношення еквівалентності. При цьому оптимізація параметрів функціонування здійснюється за ієрархічною ітераційною процедурою пошуку глобального максимуму інформаційного критерію функціональної ефективності (КФЕ) навчання СПР в робочій області визначення його функції. Побудова безпомилкового за навчальною матрицею класифікатора, згідно з принципами дуальності оптимального керування, розширеної редукції, квантовості виведення знань і максимізації інформації при прийнятті рішень, у дискретному субпарацептуальному просторі ОР на кожному кроці навчання здійснюється шляхом цілеспрямованої трансформації вихідного нечіткого розподілу реалізацій образу з метою його вписування в оптимальний контейнер класу розпізнавання, що відновлюється в радіальному базисі. При цьому відновлення контейнерів в радіальному базисі в задачах контролю та керування, де розподіли реалізацій образу є уніномодальними, є природним.

Таким чином, підвищення ефективності машинного навчання СПР за умови нечіткої компактності реалізацій образу досягається шляхом цілеспрямованої зміни значень ознак розпізнавання у рамках МФСВ, що дозволяє трансформувати апріорне нечітке розбиття простору ознак на класи розпізнавання в чітке з метою побудови безпомилкових за навчальною матрицею вирішальних правил.

Розглянемо бінарний простір ознак розпізнавання WБ, який є підмножиною простору Хеммінга з потужністю Card WБ = 2N, де - число ознак розпізнавання (рецепторів). При класифікаційному аналізі і - та ознака Xi розглядається як випадкова величина, значення якої утворюють на генеральній сукупності повторну вибірку обсягу n.

Визначення 5.1.1. Класом розпізнавання (образом) називається множина відбитих властивостей m-го функціонального стану СПР і відношень між її елементами. Клас розпізнавання - топологічна категорія, яка задається в просторі ознак розпізнавання областю Ì WБ.

Визначення 5.1.2. Множина класів розпізнавання називається алфавітом класів розпізнавання.

Визначення 5.1.3. Функціонально-статистичними випробуваннями в МФСВ називаються натуральні, імітаційні або проведені безпосередньо при функціонуванні СК випробування за схемою Бернуллі, у процесі яких приймається рішення про достатність їх проведення, здійснюється оцінка інформаційної спроможності системи і приймаються керуючі рішення. Надалі, під випробуваннями маються на увазі саме функціонально-статистичні випробування.

Таким чином, навчальна і екзаменаційна матриці повинні бути однаково структурованими і мати однакові параметри статистичної стійкості та статистичної однорідності

Детерміновано-статистичний підхід до моделювання систем вимагає завдання систем нормованих (експлуатаційних) і контрольних допусків на ознаки розпізнавання. Нехай - базовий клас, який характеризує максимальну функціональну ефективність СК, тобто є найбільш бажаним для ОПР.

Визначення 5.1.4. Нормованим називається поле допусків , в якому значення і –ої ознаки знаходиться з імовірністю рі = 1 або pi = 0, за умови, що функціональний стан СПР відноситься до базового класу .

Визначення 5.1.5. Контрольним називається поле допусків , в якому значення і - ї ознаки знаходиться з імовірністю 0< рі< 1за умови, що функціональний стан СПР відноситься до базового класу .

У МФСВ контрольні допуски на ознаки розпізнавання вводяться з метою рандомізації процесу прийняття рішень, оскільки для повного дослідження процесу керування необхідно використовувати як детерміновані, так і статистичні характеристики. Зрозуміло, що і базова система контрольних допусків є сталою для всього алфавіту класів розпізнавання.

Визначення 5.1.6. Реалізацією образу називається випадковий структурований двійковий вектор

 

, ,

 

де - і -та координата вектора, яка приймає одиничне значення, якщо значення і - ої ознаки знаходиться в полі допусків , і нульове значення, якщо не знаходиться; - мінімальна кількість випробувань, яка забезпечує репрезентативність навчальної вибірки.

При обґрунтуванні гіпотези компактності (чіткої, або нечіткої) за геометричний центр класу приймається вершина двійкового еталонного вектора хm.

Визначення 5.1.7. Еталонний вектор-реалізація xm- це математичне сподівання реалізацій класу .

Подамо детермінований вектор xm у вигляді структурованого двійкового вектора-кортежа:

 

xm = < xm, 1, …, xm, і , …, xm, N >, m = ,

 

де хm, і - і- та координата вектора, яка приймає одиничне значення, якщо значення і- ої ознаки знаходиться в нормованому полі допусків , і – нульове значення, якщо не знаходиться.

Процес прийняття рішень складається, як це підтверджено експериментально вченим-фізіологом Анохіним П.К., з двох етапів: навчання (самонавчання) і безпосереднього розпізнавання або екзамену.

Визначення 5.1.8. Середньою максимальною асимптотичною (верхньою граничною) повною достовірністю СПР, що навчається, називається ймовірність

 

, (5.1.1)

 

де – асимптотична повна достовірність розпізнавання реалізацій класу ; - екстремальне асимптотичне значення l -ої достовірності розпізнавання реалізацій класу , яка визначає максимум інформаційного КФЕ процесу навчання; L – кількість статистичних гіпотез. Тут – безумовна ймовірність прийняття статистичної гіпотези, яка за принципом Бернуллі-Лапласа в МФСВ дорівнює .

При оптимізації процесу навчання за МФСВ корисним є подання роздільних гіперповерхонь класів розпізнавання у вигляді контейнерів, які складаються із правильних геометричних фігур або їх об’єднання, що зменшує обчислювальну трудомісткість алгоритму навчання. Особливо це ефективно при побудові контейнерів у радіальному базисі.

Визначення 5.1.9. Контейнером називається наближення “точної” замкненої роздільної гіперповерхні класу розпізнавання у вигляді правильної геометричної фігури, або поєднання декількох правильних геометричних фігур. При цьому геометричний центр контейнера вважається визначеним будь-яким способом.

За МФСВ геометричний центр контейнера класу розпізнавання визначається вершиною еталонного вектора, одержаного шляхом статистичного усереднення реалізацій образу.

Таким чином, для класу контейнер можна розглядати як його “прозору” оболонку. Прозорість цієї оболонки полягає у тому, що при побудові нечіткого розбиття простору ознак на класи контейнери можуть перетинатися.

Ефективність функціонування СПР залежить від її параметрів функціонування.

 
Визначення 5.1.10. Параметром функціонування СК називається характеристика інформаційного забезпечення, яка прямо або непрямо впливає на функціональну ефективність системи і регулюється. Параметри функціонування, які оптимізуються в процесі навчання, будемо називати параметрами навчання.

Визначення 5.1.11. Як критерій оптимізації процесу навчання в рамках МФСВ застосовується будь-який статистичний логарифмічний інформаційний КФЕ, який є природною мірою різноманітності класів розпізнавання і одночасно функціоналом точнісних характеристик нечіткого регулятора.

Важливим параметром функціонування СПР є рівень селекції координат еталонного двійкового вектора, вершина якого визначає геометричний центр класу розпізнавання.

Визначення 5.1.12. Рівнем селекції координат еталонного двійкового вектора називається рівень квантування дискрет полігону емпіричних частот попадання значень ознак розпізнавання у свої поля контрольних допусків.

Полігон будується для кожного класу так: по осі абсцис відкладаються ранги ознак розпізнавання, які відповідають номерам ознак у векторі-кортежі , а по осі ординат – відносні частоти wm, i =ni /n, де ni – кількість випробувань, при яких значення і - ї ознаки знаходиться в своєму полі контрольних допусків. За умовчанням приймається рівень селекції rm= 0, 5..

Визначення 5.1.13. Відносним коефіцієнтом нечіткої компактності реалізацій класу для гіперсферичного класифікатора називається відношення

 

, (5.1.2)

 

де – оптимальний в інформаційному розумінні радіус контейнера класу , який забезпечує максимальну різноманітність між найближчими сусідніми класами розпізнавання; – кодова відстань між центрами класу і його найближчим сусідом – класом .

Інші визначення категорій і понять автоматичної класифікації, які мають загальний характер, наведено, наприклад, у працях [1-5].

У бінарному просторі формою оптимального контейнера є гіперпаралелепіпед. З метою узагальнення та зручності побудови такого контейнера допустимо існування “псевдогіперсфери”, яка описує гіперпаралелепіпед, тобто містить усі його вершини. Це дозволяє далі розглядати такі параметри оптимізації контейнера в радіальному базисі, як еталонний вектор, наприклад, , вершина якого визначає геометричний центр контейнера , і радіус псевдосферичного контейнера, який визначається у просторі Хеммінга за формулою:

 

, (5.1.3)

 

де - i- та координата еталонного вектора ; - i -та координата деякого вектора , вершина якого належить контейнеру .

Надалі, з метою спрощення, кодову відстань (5.1.3) між векторами і будемо позначати також у вигляді .

У загальному випадку при прийнятті гіпотези нечіткої компактності реалізацій образу покриття L |M| = не є чіткою фактор-множиною , де Э - відношення еквівалентності. Якщо для нечіткого простору ознак існує нечітке покриття і визначено міру як відношення діаметрів нечітких множин , , і , то покриття є нечітким розбиттям , яке відповідає умовам:

 

1)

2) 3)

4) . (5.1.4)

 

У МФСВ відновлення оптимального контейнера в радіальному базисі, наприклад, здійснюється шляхом його цілеспрямованої послідовної трансформації в гіперсферичний габарит, радіус якого збільшується на кожному кроці навчання за рекурентною процедурою:

 

, (5.1.5)

 

де змінна числа збільшень радіуса контейнера ; крок збільшення радіуса; – область допустимих значень радіуса .

Нехай класи і є “найближчими сусідами”, тобто мають серед усіх класів найменшу міжцентрову відстань , де - еталонні вектори відповідних класів. Тоді за МФСВ з метою запобігання “поглинання” одним класом ядра іншого класу умови (2.3.4) доповнюються таким предикатним виразом:

 

(5.1.6)

 

де - оптимальні радіуси контейнерів і відповідно.

Алгоритм навчання за МФСВ полягає в реалізації багатоцикличної ітераційної процедури оптимізації структурованих просторово-часових параметрів функціонування СПР шляхом пошуку глобального максимуму усередненого за алфавітом значення КФЕ навчання.

Нехай вектор параметрів функціонування СПР у загальному випадку має таку структуру:

 

(5.1.7)

 

де – генотипні параметри функціонування СПР, які впливають на параметри розподілу реалізацій образу; – фенотипні параметри функціонування СПР, які прямо впливають на геометрію контейнера класу розпізнавання.

При цьому відомі обмеження на відповідні параметри функціонування:

 

; .

 

За методологією об’єктно-орієнтованого проектування подамо тестовий алгоритм навчання в рамках МФСВ для загального випадку (М > 2) як ієрархічну ітераційну процедуру оптимізації структурованих просторово-часових параметрів (5.1.7) функціонування СПР:

 

(5.1.8)

де - області допустимих значень відповідних генотипних параметрів навчання; – усереднене значення КФЕ навчання СПР; – область значень функції інформаційного КФЕ навчання СПР; - оптимальне значення параметра навчання, яке визначається у зовнішньому циклі ітераційної процедури оптимізації; – області допустимих значень відповідних фенотипних параметрів навчання. Тут – інформаційний КФЕ навчання СК розпізнавати реалізації класу .

Глибина циклів оптимізації визначається кількістю параметрів навчання у структурі (5.1.7). При цьому внутрішні цикли оптимізують фенотипні параметри навчання, які безпосередньо впливають на геометричну форму контейнерів класів розпізнавання. Такими параметрами, наприклад, для гіперсферичних контейнерів класів є їх радіуси. До генотипних у МФСВ відносяться параметри навчання, які прямо впливають на розподіл реалізацій класу (наприклад, контрольні допуски на ознаки розпізнавання, рівні селекції координат еталонних двійкових векторів, параметри оптимізації словника ознак, плану навчання, параметри впливу середовища та інше). Послідовна оптимізація кожного із цих параметрів дозволяє збільшувати значення максимуму КФЕ навчання, що підвищує повну асимптотичну достовірність класифікатора на екзамені. Обов’язковою процедурою алгоритму навчання за МФСВ є оптимізація контрольних допусків, величина яких безпосередньо впливає на значення відповідних ознак розпізнавання, а так само і на параметри розподілу реалізацій образу.

При компараторному розпізнаванні (М =2), яке відбувається шляхом порівняння образу, що розпізнається, з еталонним образом, і має місце, наприклад, в задачах ідентифікації кадрів, самонаведенні літальних апаратів, класифікаційному самонастроюванні та інше, ітераційний алгоритм навчання за МФСВ має такий структурований вигляд:

 

де – інформаційний КФЕ навчання СПР розпізнавати реалізації еталонного класу .

Таким чином, за умови обґрунтування гіпотези компактності (чіткої або нечіткої), основна ідея навчання за МФСВ полягає в послідовній нормалізації вхідного математичного опису СПР шляхом цілеспрямованої трансформації апріорних габаритів розкиду реалізацій образів з метою максимального їх захоплення контейнерами відповідних класів, що відбудовуються в радіальному базисі в процесі навчання. Оптимальні контейнери за МФСВ забезпечують максимальну різноманітність між сусідніми класами, міра якої дорівнює максимуму інформаційного КФЕ навчання в робочій області визначення його функції. Оптимальні геометричні параметри контейнерів, отримані в процесі навчання за МФСВ, дозволяють на екзамені приймати рішення за відносно простим детермінованим вирішальним правилом, що важливо при реалізації алгоритмів прийняття рішень в реальному темпі часу. При цьому повна достовірність класифікатора наближається до максимальної асимптотичної, яка визначається ефективністю процесу навчання. Досягнення на екзамені асимптотичної достовірності розпізнавання можливо за умови забезпечення однакових характеристик статистичної стійкості та статистичної однорідності навчальної та екзаменаційної матриць. Виконання цієї умови має місце при навчанні СПР безпосередньо в процесі функціонально-статистичних випробувань.

 

5.2. Математичні моделі прийняття рішень за апріорно класифікованими навчальними матрицями

 

При обгрунтуанні гіпотези нечіткої компактності має місце нечітке розбиття Ì , яке в рамках МФСВ відповідає умовам(5.1.4) і (5.1.6). Введемо оператор нечіткої факторізації простору ознак: : Y® і оператор класифікації y: ®I |l|, який перевіряє основну статистичну гіпотезу про належність реалізацій { | j = } класу . Тут l- кількість статистичних гіпотез.Оператор g: I| l | ® Á | q | шляхом оцінки статистичних гіпотез формує множину точнісних характеристик Á |q|, де q=l2 – кількість точнісних характеристик. Оператор Á |q| ® E обчислює множину значень інформаційного КФЕ, який є функціоналом точнісних характеристик. Контур оптимізації геометричних параметрів нечіткого розбиття шляхом пошуку максимуму КФЕ навчання розпізнаванню реалізацій класу замикається оператором r: E ® .

Структурна діаграма відображень динамічних множин в процесі навчання за МФСВ для загального випадку нечіткого розбиття простору ознак на класи розпізнавання має вигляд:

 

(5.2.1)

Таким чином, у діаграмі (5.2.1) контур операторів

(5.2.2)

 

безпосередньо оптимізує геометричні параметри розбиття .

Оператори і æ: є відповідно операторами апріорної й апостеріорної побудови покриття , які утворюють комутативне кільце, і в подальших категорійних моделях з метою їх наочності можуть не показуватися.

Оператор U: E®G T Z V регламентує процес навчання і дозволяє оптимізувати параметри його плану, які визначають, наприклад, обсяг і структуру випробовувань, черговість розгляду класів розпізнавання та інше.

Діаграма відображень множин на екзамені має такі відмінності від діаграм оптимізаційного навчання за МФСВ:

§ зворотний зв’язок у діаграмі не містить контурів оптимізації параметрів функціонування СК, а призначенням оператора UЕ є регламентація екзамену;

§ замість оператора q вводиться оператор Р відображення вибіркової множини XÌ , щорозпізнається, на побудоване на етапі навчання розбиття ;

§ комутативне кільце утворюється між розбиттям , множиною гіпотез I | M+1 | і покриттям ;

§ оператор класифікації Yутворює композицію двох операторів: Y1: ® F, де F – множина функцій належності, і оператор дефазіфікації Y2 : F®I|M+1|, який вибирає гіпотезу за максимальним значенням функції належності.

З урахуванням наведених відмінностей діаграма відображень множин на екзамені набуває вигляду:

 

(5.2.3)

У діаграмі (5.2.3) оператор Ф1 відображає універсум випробувань на вибіркову множину Х, яка утворює екзаменаційну матрицю , аналогічну навчальній матриці за структурою, параметрами та процедурою формування. Як агрегатована модель процесу навчання СПР, наприклад, за діаграмою (5.2.1) може розглядатися структурована множина:

 

= < W, Y, X, , E; Ф; , , f, r, c, d, t, U>,

 

де f - композиція операторів y ; c= ;

d = ; t = .

Аналогічно за діаграмою (5.2.3), подамо агрегатовану модель екзамену у вигляді

 

=< W, Х, , I|M+1|; Ф1, P, , UE>

 

де .

Приймемо за базову модель навчання за МФСВ діаграму (5.2.1), яка відображає множини, застосовані при оптимізації тільки геометричних параметрів розбиття . Всі множини і оператори в діаграмі так само приймемо за базові. Діаграма (5.2.1) є орієнтованим графом G0 =< |G0 |, ArG0, n0 >, де | G0 |- множина вершин, потужність якої дорівнює кількості базових множин; ArG0 - сукупність ребер і n0: ArG0®|G0|´ |G0 | - оператор, який співставляє кожному ребру його початок і кінець. Такий граф називається категорією CatG0 [3]. Перевагою категорійних моделей у вигляді діаграм відображень множин типу (5.2.1) є те, що вони дозволяють встановлювати не тільки відношення між елементами інформаційного забезпечення та інформаційними потоками оброблення інформації, але і полегшують розробку структур алгоритмів функціонування СПР, що навчається.

5.3. Базовий алгоритм навчання

Призначенням базового алгоритму навчання LEARNING [7] є оптимізація геометричних параметрів контейнерів, яка реалізується операторами контуру оптимізації (5.2.2) згідно з діаграмою (5.2.1) відображення множин, застосованих в процесі навчання. Вхідною інформацією для навчання за базовим алгоритмом є дійсний, в загальному випадку, масив реалізацій образу ; система полів контрольних допусків і рівні селекції , які за умовчанням дорівнюють 0, 5 для всіх класів розпізнавання.

Розглянемо етапи реалізації алгоритму LEARNING:

1. Формування бінарної навчальної матриці , елементи якої дорівнюють

 

(5.3.1)

 

2. Формування масиву еталонних двійкових векторів-реалізацій , елементи якого визначаються за правилом:

 

(5.3.2)

 

де r m - рівень селекції координат вектору .

3. Множини еталонних векторів розбивається на пари найближчих ² сусідів²: =< xm, xl >, де xl - еталонний вектор сусіднього класу , за таким алгоритмом:

а) структурується множина еталонних векторів, починаючи з вектора x 1 базового класу , який характеризує найбільшу функціональну ефективність СПР;

б) будується матриця кодових відстаней між еталонними векторами розмірності M ´ M;

в) для кожної строки матриці кодових відстаней знаходиться мінімальний елемент, який належить стовпчику вектора - найближчого до вектора, що визначає строку. При наявності декількох однакових мінімальних елементів вибирається з них будь-який, оскільки вони є рівноправними;

г) формується структурована множина елементів попарного розбиття , яка задає план навчання.

4. Оптимізація кодової відстані dm відбувається за рекурентною процедурою (5.1.5). При цьому приймається .

5. Процедура закінчується при знаходженні максимуму КФЕ в робочій області його визначення: де - множина радіусів концентрованих гіперсфер, центр яких визначається вершиною .

Таким чином, базовий алгоритм навчання є ітераційною процедурою пошуку глобального максимуму інформаційного КФЕ в робочій області визначення його функції:

 

. (5.3.3)

 

На рис. 5.3.1 наведено структурну схему базового алгоритму навчання LEARNING. Тут показано такі вхідні дані:

§ { Y [ J, I, K ]}- масив навчальних вибірок, - змінна кількості випробувань, де NM - мінімальний обсяг репрезентативної навчальної вибірки, - змінна кількості ознак розпізнавання, - змінна кількості класів розпізнавання;

§ { NDK [ I ]}, { VDK [ I ]} - масиви нижніх і верхніх контрольних допусків на ознаки відповідно.

Результатом реалізації алгоритму є:

§ { DOPT [ K ]} - цілий масив оптимальних значень радіусів контейнерів класів розпізнавання;

§ { EV [ K ]}- масив еталонних двійкових векторів-реалізацій класів розпізнавання;

§ { EM [ K ]} - дійсний масив максимальних значень інформаційного КФЕ процесу навчання;

§ { D 1[ K ]}, { A [ K ]}, { B [ K ]}, { D2 [ K ]} - дійсні масиви оцінок екстремальних значень точнісних характеристик процесу навчання: перша достовірність, помилки першого та другого роду і друга достовірність відповідно.

У структурній схемі алгоритму (рис. 5.3.1) блок 3 формує масив навчальних двійкових вибірок { X [ J, I, K ]} шляхом порівняння значень елементів масиву { Y [ J, I, K ]} з відповідними контрольними допусками за правилом (5.3.1) і формує масив еталонних двійкових векторів { EV [ K ]} шляхом статистичного усереднення стовпців масиву { X [ J, I, K ]} за правилом (5.3.2) при відповідному рівні селекції, який за умовчанням дорівнює .

Блок 4 здійснює розбиття множини еталонних векторів на пари “найближчих сусідів”. Ідентифікатор D (блок 8) є робочою змінною величини радіуса контейнера.

 

 

 


Рисунок 1- Структурна схема базового алгоритму

навчання

Блок 11 обчислює на кожному кроці навчання значення інформаційного КФЕ. При невиконанні умови блоку порівняння 12 блок 13 оцінює належність поточного значення критерію робочій області визначення його функції і при позитивному рішенні блоку 13 це значення запам’ятовуєься блоком 14. При негативному рішенні блока порівняння 15, в якому величина дорівнює кодовій відстані між парою сусідніх еталонних векторів, блок 16 здійснює у робочій області пошук глобального максимуму КФЕ – EM [ K ] і визначає для нього екстремальне значення радіуса гіперсфери – DOPT [ K ].

Аналогічно будуються оптимальні контейнери для інших класів. Якщо параметри навчання { DOPT [ K ]} і { EV [ K ]} є вхідними даними для екзамену, то значення КФЕ та екстремальних оцінок точнісних характеристик використовуються для аналізу ефективності процесу навчання.

Таким чином, основною процедурою базового алгоритму навчання за МФСВ є обчислення на кожному кроці навчання інформаційного КФЕ і організація пошуку його глобального максимуму в робочій області визначення функції критерію.

 

5.4. Оптимізація геометричних параметрів контейнерів класів розпізнавання

Розглянемо приклад побудови на етапі навчання оптимального контейнера для класу . На рис. 5.4.1 для наочності схематично показано спроектовані на площину вершини 36 реалізацій класу , які позначено символом ² +², і 36 реалізацій найближчого сусіднього класу , які позначено символом ² Ú ². Тут – вершини еталонних векторів-реалізацій відповідних класів.

 

 
 

 

 


Рисунок 5.4.1 – Розподіл реалізацій класів і

 

У процесі навчання за базовим алгоритмом послідовно будувалися, згідно з процедурою (5.1.5), концентровані роздільні гіперсфери і на кожному k -му кроці навчання обчислювалися за формулами (4.4.2) і (4.4.5) відповідно значення критеріїв Em і . При цьому коефіцієнти і обчислювалися за тестовим алгоритмом:

 

(5.4.1)

 

У табл. 5.4.1 наведено значення точнісних характеристик і критеріїв (4.4.2.) і (4.4.5), обчислених за базовим алгоритмом (5.4.1) за одинадцять кроків навчання для розподілу реалізацій, показаному на рис. 5.4.1. У табл. 5.4.1 значення К 1 дорівнює

 
кількості реалізацій класу , що зна
 
ходяться
 
в k- й області, яку охоплює контейнер . Відповідно К 3 дорівнює кількості реалізацій сусіднього класу , які охоплює контейнер . Наприклад, для k =3 в області знаходиться 11 “своїх” і дві “чужих” реалізацій. Тому (a(3)=0, 69) і (). Аналіз точнісних характеристик за даними табл. 5.4.1 показує, що робочою областю визначення функцій розглянутих вище критеріїв оптимізації є область між значеннями dm= 3 і dm = 7, де помилки a і b менше відповідних достовірностей. При цьому оптимальний радіус контейнера для класу за критерієм дорівнює = k - 1 = 5. Оптимальний контейнер за критерієм Jm має так само радіус =5.

 

Таблиця 5.4.1–Результати оптимізації контейнера

 

k K 1 K 3 D 1 a D 2 b Em Jm
      0, 00 1, 00 1, 00 0, 00 0, 50 0, 00
      0, 11 0, 89 1, 00 0, 00 0, 51 0, 04
      0, 31 0, 69 0, 94 0, 06 0, 20 0, 18
      0, 61 0, 39 0, 86 0, 14 0, 21 0, 68
      0, 83 0, 17 0, 75 0, 25 0, 27 1, 08
      0, 97 0, 03 0, 64 0, 36 0, 45 1, 21
      0, 97 0, 03 0, 47 0, 53 0, 38 0, 59
      1, 00 0, 00 0, 31 0, 69 0, 30 0, 22
      1, 00 0, 00 0, 17 0, 83 0, 50 0, 08
      1, 00 0, 00 0, 06 0, 94 0, 50 0, 01
      1, 00 0, 00 0, 00 1, 00 0, 50 0, 00
      0, 78 0, 22 0, 86 0, 14 0, 43 1, 34

 

Таким чином, запропоновані модифікації критеріїв Шеннона і Кульбака дають у робочій області визначення їх функцій, що виділена в табл. 5.4.1, однакові або близькі екстремальні значення їх аргументів. Зображена на рис. 5.4.1 область 12, яка побудована за критерієм максимуму правдоподібності за методом еталонів [1], забезпечує максимальне відношенні “своїх” реалізацій до “чужих”. Порівняльний аналіз властивостей розглянутих модифікацій КФЕ за табл. 5.4.1 дозволяє зробити висновок про інваріантність КФЕ за Шенноном до критерію максимуму правдоподібності в той час як критерій Кульбака є з ним корельованим, що пов’язано з його конструкцією. Але оскільки значення модифікації критерію Кульбака так само корельовані в процесі навчання за МФСВ із значеннями модифікації критерію за Шенноном (4.4.2), то можна зробити висновок, що критерій Кульбака є узагальненням ентропійного критерію.

Реалізацію базового алгоритмунавчання СПР розглянемо на прикладі задачі оптимізації геометричних параметрів контейнера, яка має місце при автофокусуванні растрового електронного мікроскопа РЕМ-103 виробництва ВАТ “Selmi” (м.Суми, Україна) за зображенням зразка, що досліджується. Ідея автофокусування у рамках класифікаційного настроювання за МФСВ полягає у побудові на кожному кроці автофокусування оптимального контейнера для початкового розфокусованого зображення (клас ) відносно поточного зображення (клас ), одержаного на S -му кроці, і пошуку в процесі настроювання максимуму інформаційної міри різноманітності цих класів з метою визначення екстремального кроку S*. Як параметр настроювання розглядався струм керуючої обмотки фокусуючої лінзи, який за програмою змінювався на кожному кроці. На рис. 5.4.2а показано початкове розфокусоване зображення об’єкту «Кулі» (клас ), а на рис. 5.4.2б - зображення цього об’єкту, яке отримано на S-му кроці настроювання мікроскопа (клас ).

 

а) б)

 

Рисунок 5.4.2– Зображення об’єкту «Кулі»: а) початкове розфокусоване зображення; б) поточне зображення

 

Формування навчальної матриці || || здійснювалося шляхом сканування зображення і виміру його яскравості в рецепторному полі розміром 51 300 пікселів. При цьому за реалізацію зображення приймалась крива розподілу яскравості в j- му рядку рецепторного поля. Після визначення усередненої еталонної реалізації y 1була задана система контрольних допусків на ознаки розпізнавання, в якій параметр поля допусків дорівнював d= 40градацій яскравості для всіх дискрет реалізації. Бінарна навчальна матриця || || формувалася за правилом (5.3.1), а еталонний вектор x 1- за правилом (5.3.2) при рівні селекції r1=0, 5. Аналогічно оброблялось зображення . На рис. 5.4.3 показано залежність КФЕ за Кульбаком, який обчислювався за формулою (4.4.5), від радіуса d 1. Тут штриховкою виділено робочу область визначення критерію , в якій здійснюється пошук оптимального значення радіуса контейнера класу .

 

 

 
 
d1


Рисунок 5.4.3 – Залежність КФЕ від радіуса

контейнера

 

Аналіз значень точнісних характеристик на кожному кроці навчання дозволяє знайти як саму робочу область визначення критерію , так і екстремальні значення першої та другої достовірностей: і На рис. 5.4.3 показано, що в робочій області критерій набуває свого максимуму при оптимальному значенні радіуса контейнера , яке дорівнює .

5.5. Алгоритм екзамену

 

Алгоритми екзамену за МФСВ можуть мати різну структуру залежно від розподілу реалізацій образу, що розпізнаються. Обов’язковою умовою їх реалізації є забезпечення однакових структурованості і параметрів формування як для навчальної, так і для екзаменаційної матриць.

За наявності чіткого розбиття, яке було утворено на етапі навчання, алгоритм екзамену за МФСВ має такі вхідні дані:

  • M - кількість класів, які СПР навчена розпізнавати;

· - масив еталонних двійкових векторів-реалізацій образу, які визначають центри відповідних оптимальних контейнерів класів розпізнавання, побудованих на етапі навчання;

· { } - масив оптимальних радіусів побудованих на етапі навчання відповідних контейнерів;

· - масив двійкових векторів-реалізацій образу, що розпізнається;

· - оптимальна СКД на ознаки розпізнавання, яку визначено на етапі навчання.

За умовчанням приймається рівень селекції r m = 0, 5.

Алгоритм екзамену за МФСВ ґрунтується на аналізі значень функції належності, яка для гіперсферичного контейнера класу розпізнавання має вигляд:

 

(5.5.1)

 

і обчислюється для кожної реалізації, що розпізнається.

Розглянемо кроки реалізації алгоритму екзамену при нечіткому розбитті, яке відповідає загальному випадку:

1. Формування лічильника класів розпізнавання: .

2. Формування лічильника числа реалізацій, що розпізнаються: .

3. Обчислення кодової відстані .

4. Обчислення функції належності.

5. Порівняння: якщо j n, то виконується крок 2, інакще – крок 6.

6. Порівняння: якщо m M, то виконується крок 1, інакще – крок 7.

7. Визначення класу , до якого належить реалізація образу, наприклад, за умови , де - усереднене значення функцій належності для реалізацій класу , або видача повідомлення: «Клас не визначено», якщо . Тут с - порогове значення.

На рис. 5.5.1 показано структурну схему алгоритму екзамену для загального випадку нечіткого розбиття простору ознак розпізнавання. Алгоритм має такі вхідні дані: - масив еталонних двійкових векторів, -змінна числа класів розпізнавання; - цілий масив оптимальних радіусів контейнерів класів розпізнавання у кодовій відстані Хеммінга; - двійкова реалізація образу, що розпізнається. Виходом алгоритму є повідомлення про належність реалізації, що розпізнається, деякому класу із сформованого на етапі навчання алфавіту класів . Блок 5 обчислює, починаючи з базового класу, кодову відстань між поточним еталонним вектором і реалізацією ХР. Блок 6 для кожного класу обчислює значення функції належності (5.5.1), яка в ідентифікаторах алгоритму має вигляд:

 

(5.5.2)

 

Рисунок 5.5.1– Структурна схема алгоритму екзамену

Після виходу із циклу блок 8 визначає клас, до якого належить реалізація ХР, за максимальним значенням функції належності (5.5.2).

Таким чином, алгоритми екзамену за МФСВ відрізняються незначною обчислювальною трудомісткістю, що дозволяє їх реалізовувати у реальному темпі часу. У випадку чіткого розбиття простору ознак на класи розпізнавання нечіткий алгоритм є так само працездатним, оскільки він розглядається по відношенню до чіткого алгоритму як загальний.

 

5.6. Оптимізація контрольних допусків на ознаки

розпізнавання

 

Оскільки контрольні допуски на значення ознак розпізнавання прямо впливають на геометричні параметри контейнерів класів розпізнавання, а таким чином і на асимптотичні точнісні характеристики рішень, то питання вибору системи контрольних допусків (СКД) в МФСВ набуває важливого значення при розробці інформаційного забезпечення СПР, що навчається.

Розглянемо підхід до оптимізації СКД на ознаки розпізнавання в рамках МФСВ. На рис. 5.6.1 показано симетричне (двобічне) поле допусків на значення і - ї озн






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.