Главная страница Случайная страница Разделы сайта АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
💸 Как сделать бизнес проще, а карман толще?
Тот, кто работает в сфере услуг, знает — без ведения записи клиентов никуда. Мало того, что нужно видеть свое раписание, но и напоминать клиентам о визитах тоже.
Проблема в том, что средняя цена по рынку за такой сервис — 800 руб/мес или почти 15 000 руб за год. И это минимальный функционал.
Нашли самый бюджетный и оптимальный вариант: сервис VisitTime.⚡️ Для новых пользователей первый месяц бесплатно. А далее 290 руб/мес, это в 3 раза дешевле аналогов. За эту цену доступен весь функционал: напоминание о визитах, чаевые, предоплаты, общение с клиентами, переносы записей и так далее. ✅ Уйма гибких настроек, которые помогут вам зарабатывать больше и забыть про чувство «что-то мне нужно было сделать». Сомневаетесь? нажмите на текст, запустите чат-бота и убедитесь во всем сами! Теоретичні положення для виконання курсової роботи
4.1 Базовий алгоритм навчання СПР за методом-функціонально-статистичних випробувань (МФСВ) Призначенням базового алгоритму навчання LEARNING [8] є оптимізація геометричних параметрів контейнерів класів розпізнавання, які відновлюються на кожному кроці навчання в радіальному базисі. Вхідною інформацією для навчання за базовим алгоритмом у загальному випадку є дійсний масив реалізацій образу ; система полів контрольних допусків і рівні селекції координат двійкових еталонних векторів-реалізацій образу, які за замовчанням дорівнюють 0, 5 для всіх класів розпізнавання. Розглянемо етапи реалізації алгоритму LEARNING: 1 Формування бінарної навчальної матриці , елементи якої дорівнюють (4.1.1)
2 Формування масиву еталонних двійкових векторів , елементи якого визначаються за правилом (4.1.2)
де r m - рівень селекції координат вектора . 3 Розбиття множини еталонних векторів на пари найближчих ² сусідів²: =< xm, xl >, де xl - еталонний вектор сусіднього класу , здійснюєтьсяза таким алгоритмом: а) структурується множина еталонних векторів, починаючи з вектора x 1 базового класу , який характеризує найбільшу функціональну ефективність СПР; б) будується матриця кодових відстаней між еталонними векторами розмірності M ´ M; в) для кожного рядка матриці кодових відстаней знаходиться мінімальний елемент, який належить стовпчику вектора, найближчого до вектора, що визначає строку. За наявності декількох однакових мінімальних елементів вибирається з них будь-який, оскільки вони є рівноправними; г) формується структурована множина елементів попарного розбиття , яка задає план навчання. 4 Оптимізація кодової відстані dm відбувається за рекурентною процедурою (2.3.4). При цьому береться . 5 Процедура закінчується при знаходженні максимуму КФЕ в робочій області його визначення: де - множина радіусів концентрованих гіперсфер, центр яких визначається вершиною . Таким чином, базовий алгоритм навчання є ітераційною процедурою пошуку глобального максимуму інформаційного КФЕ в робочій області визначення його функції
.
На рис. 1 наведено структурну схему базового алгоритму навчання LEARNING. Тут показано такі вхідні дані: { Y [ J, I, K ]} - масив навчальних вибірок, - змінна кількості випробувань, де NM -мінімальний обсяг репрезентативної навчальної вибірки, I = - змінна кількості ознак розпізнавання, K = - змінна кількості класів розпізнавання; { NDK [ I ]}, { VDK [ I ]}-масиви нижніх і верхніх контрольних допусків на ознаки відповідно. Результатом реалізації алгоритму є: { DOPT [ K ]}-цілий масив оптимальних значень радіусів контейнерів класів розпізнавання у кодовій відстані Хеммінга; { EV [ K ]}-масив еталонних двійкових векторів класів розпізнавання; { EM [ K ]}-дійсний масив максимальних значень інформаційного КФЕ процесу навчання;
Рисунок 1- Структурна схема базового алгоритму навчання { D 1[ K ]}, { A [ K ]}, { B [ K ]}, { D2 [ K ]} - дійсні масиви оцінок екстремальних значень точнісних характеристик процесу навчання для відповідних класів розпізнавання: перша достовірність, помилки першого та другого роду і друга достовірність відповідно. Змінна D є робочою змінною кроків навчання, на яких послідовно збільшується значення радіуса контейнера. У структурній схемі алгоритму (рис. 1) блок 3 формує масив навчальних двійкових вибірок { X [ J, I, K ]} шляхом порівняння значень елементів масиву { Y [ J, I, K ]} з відповідними контрольними допусками за правилом (2.4.1.1) і формує масив еталонних двійкових векторів { EV [ K ]} шляхом статистичного усереднення стовпців масиву { X [ J, I, K ]} за правилом (2.4.1.2) при відповідному рівні селекції, який за замовчуванням дорівнює . Блок 4 здійснює розбиття множини еталонних векторів на пари “найближчих сусідів”. Блок 11 обчислює на кожному кроці навчання значення інформаційного КФЕ. При невиконанні умови блока порівняння 12 блок 13 оцінює належність поточного значення критерію робочій області визначення його функції і при позитивному рішенні блока 13 це значення запам’ятовуєься блоком 14. При негативному рішенні блока порівняння 15, в якому величина дорівнює кодовій відстані між парою сусідніх еталонних векторів, блок 16 здійснює у робочій області пошук глобального максимуму КФЕ – EM [ K ] і визначає для нього екстремальне значення радіуса гіперсфери – DOPT [ K ]. Аналогічно будуються оптимальні контейнери для інших класів. Якщо параметри навчання { DOPT [ K ]} і { EV [ K ]} є вхідними даними для екзамену, то значення КФЕ та екстремальних оцінок точнісних характеристик використовуються для аналізу ефективності процесу навчання. Таким чином, основною процедурою базового алгоритму навчання за МФСВ є обчислення на кожному кроці навчання інформаційного КФЕ і організація пошуку його глобального максимуму в робочій області визначення функції критерію.
|