Главная страница Случайная страница Разделы сайта АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Метод обучения и нейросетевого представления Web-классификатора
Метод опорных векторов (Support Vector Machines – SVM) – это алгоритм разделения двух множеств гиперплоскостью, который использует только скалярное произведение векторов [73–76]. Этот метод может быть использован при построении и обучении нейросетевых агентов, обеспечивающих решение задачи классификации текстов [71–73]. Рассмотрим задачу дихотомической классификации в пространстве признаков RN. Уравнение разделяющей гиперплоскости имеет вид , (11.26) где w – нормаль к гиперплоскости. Полупространства, образуемые этой гиперплоскостью, задаются неравенствами вида , . (11.27) Требуется найти классифицирующую функцию в виде , (11.28) описывающую гомогенную нейронную сеть типа “перцептрон” [109] с синаптическими параметрами и синаптическим порогом . Для решения этой задачи синтезируем оптимальную в смысле функционала (11.23) классифицирующую (нейронную) функцию (11.28). Чтобы минимизировать риск классификации (11.23) необходимо минимизировать нормаль к гиперплоскости при условии, что все точки обучающего множества Т классифицируются правильно, т.е. , (11.29) Используя “ядра” вида (11.25) и определяя вектор оптимальных синаптических параметров w и синаптический порог по обучающей выборке (11.1), получим нейронное представление оптимального Web-классификатора текстов в случае двух классов. Это представление по существу определяет архитектуру нейросетевого агента-классификатора Web-сайтов [71, 72].
|