Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Алгоритм оценки главных факторов






 

Ставится задача на основе выборочных данных, представленных в виде матрицы X типа «свойство-объект» с элементами , характеризующими наблюдённое значение i -го признака для j -го объекта выборочной совокупности, , и k велико, снизить размерность признакового пространства методом главных факторов.

На основе выборочных данных можно найти лишь оценки теоретических характеристик, рассмотренных ранее. Это влечет за собой проверку ряда статистических гипотез. Предполагая, что вектор исходных признаков распределен по нормальному закону , где , алгоритм снижения размерности признакового пространства с использованием метода главных факторов представлен ниже.

1. На основе матрицы X типа «свойство-объект» рассчитывается оценка корреляционной матрицы (, где под X понимается матрица центрировано-нормированных значений исходных признаков).

2. Проверка гипотезы о незначимости корреляционной матрицы с помощью критерия Уилкса.

(корреляционная матрица незначима),

(корреляционная матрица отлична от единичной).

Для проверки нулевой гипотезы используется статистика:

 

, (5.25)

 

Статистика (5.25) при и справедливости гипотезы имеет распределение «Хи-квадрат» с числом степеней свободы [43, 33].

3. Расчет оценки редуцированной матрицы .

На главной диагонали редуцированной матрицы в отличие от корреляционной матрицы стоят не единицы, а общности. В литературе предлагаются следующие методы оценки общности [51, 25, 33, 46]:

1. при помощи квадрата множественного коэффициента корреляции j -го признака: , где , где – алгебраическое дополнение к элементу с индексами (j, j) матрицы ;

2. при помощи наибольшего коэффициента корреляции по строке или столбцу: или ;

3. при помощи среднего коэффициента корреляции по строке или столбцу: или ;

4. метод триад: , где и – наибольшие коэффициенты корреляции в j -ой строке корреляционной матрицы;

5. метод первого центроидного фактора: на главную диагональ матрицы ставят набольший коэффициент корреляции в соответствующей строке или столбце. Тогда .

Если числа признаков велико (), то выбор метода оценки общности не оказывает существенного влияния на конечный результат.

4. Реализация метода главных факторов.

5. Проверка гипотезы о достаточности выделенных главных факторов с помощью критерия Лоули. Выдвигаются гипотезы:

m главных факторов достаточно,

m главных факторов не достаточно.

Для проверки нулевой гипотезы используется статистика , которая при справедливости нулевой гипотезы, распределена по закону Хи-квадрат с числом степеней свободы [44, 33].

6. Интерпретация главных факторов.

Интерпретация главных факторов осуществляется субъективно, исходя из того, с какими исходными признаками тесно коррелирует тот или иной главный фактор. Для каждого r -го главного фактора () можно рассчитать коэффициент информативности: , где W – множество весовых коэффициентов при признаках, участвующих в интерпретации r -го главного фактора. Набор признаков считается удовлетворительным, если [43].

7. Нахождение матрицы индивидуальных значений главных факторов.

Рассмотрим апостериорную линейную модель факторного анализа:

 

, , ;

 

или в матричном виде

 

,

 

где – матрица индивидуальных значений главных факторов;

– матрица индивидуальных значений характерных факторов.

Рассмотрим алгоритм оценки матрицы F методом Бартлетта [12]. Обозначим вектор индивидуальных значений главных факторов для j -го объекта , вектор наблюдаемых значений исходных признаков для j -го объекта и рассмотрим апостериорную линейную модель множественной регрессии:

 

, ,

 

или в матричном виде

 

,

 

где ; ;

– вектор регрессионных остатков.

Выясним вид ковариационной матрицы регрессионных остатков. Для этого рассмотрим априорную линейную модель множественной регрессии:

 

, ,

 

где – элемент априорной случайной выборки ;

– случайная величина, элемент априорного случайного вектора регрессионных остатков ;

– центрировано-нормированные некоррелированные меду собой случайные величины, , .

Тогда ковариационная матрица регрессионных остатков имеет вид:

 

 

Вид ковариационной матрицы соответствует обобщенной линейной модели множественной регрессии с гетероскедастичными остатками. Поэтому для оценки вектора коэффициентов воспользуемся обобщенным методом наименьших квадратов:

 

.

 

Таким образом, оценки индивидуальных значений главных факторов для j -го объекта выборочной совокупности рассчитываются по формуле:

 

.

 

Решая аналогичную задачу для каждого объекта наблюдения , получают оценку матрицы индивидуальных значений главных факторов:

 

.

 

5.3 Вращение факторного пространства

 






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.