Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Основные гипотезы






Лекция 2. Множественный регрессионный анализ

Классическая нормальная линейная модель множественной регрессии

Экономические явления, как правило, определяются большим числом одновременно и совокупно действующих факторов. В связи с этим часто возникает задача исследования зависимости одной зависимой переменной у от нескольких объясняющих переменных х1, …, хk. Эта задача решается с помощью множественного регрессионного анализа.

Имеется n наблюдений. Обозначим i-е наблюдение зависимой переменной yi, а объясняющих переменных xi1, xi2, … xik. Тогда модель множественной линейной регрессии можно представить в виде:

(1)

где i = 1, 2, …, n число наблюдений.

ε i – регрессионные ошибки случайного характера.

Основные гипотезы

Гипотезы, лежащие в основе модели множественной регрессии, являются естественным обобщением модели парной регрессии:

1. , i = 1, …, n – спецификация модели.

2. xi1, xi2, … xik – детерминированные (неслучайные) величины. Векторы xs =(x1s, …, xns)Т s = 1, …, k линейно независимы в Rn.

3. a. М(ε t) = 0, т.е. математическое ожидание ошибки равно нулю. М( – не зависит от номера наблюдения i. Означает неизменность дисперсий регрессионной ошибки. (Это свойство наз. гомоскедастичностью регрессионной ошибки).

3. b. М(ε i, ε j)=0 при i≠ j – статистическая независимость (некоррелированность друг с другом) ошибок для разных наблюдений. Некоррелированность ошибок означает, что результат наблюдений одного объекта не может повлиять на результат наблюдений другого.

3. c. Ошибки ε i, i=1, …, n имеют совместное нормальное распределение ε i~N(0, σ 2).

В этом случае модель называется классическойнормальной линейной регрессионной.

Гипотезы, лежащие в основе множественной регрессии удобно записать в матричной форме, которая будет использоваться в дальнейшем.

Пусть:

Y обозначает матрицу (вектор-столбец) (y1, …, yn)Т (Т вверху означает транспонирование),

В = (β 0, β 1, …, β к)Т вектор-столбец коэффициентов (неизвестных значений параметров модели),

Е = (ε 1, ε 2, …, ε n)Т вектор-столбец ошибок,

- матрицу объясняющих переменных, которая соответствует набору векторов-столбцов объясняющих переменных, а также вектору-столбцу из единиц, отвечающему за константу в уравнении модели. Матрица должна быть матрицей полного ранга.

- единичная матрица размерности ;

 

- ковариационная матрица размерности вектора ошибки.

 

Условия 1-3 в матричной записи выглядят следующим образом:

1. Y=XВ+Е – спецификация модели;

2. X – детерминированная матрица, имеет максимальный ранг k+1;

3. a, b. М(ε)= 0; V(ε)=М(ε ε T)=σ 2 In;

дополнительное условие:

3. с. Е ~N(0, σ 2 In ), т.е. Е – нормально распределенный случайный вектор со средним и матрицей ковариаций σ 2 In (нормальная линейная регрессионная модель).

 

Оценкой этой модели по выборке является уравнение:

Y = X + Е,

Где – вектор-столбец оценок неизвестных параметров модели;

E = (e1, e2, …, en)Т – вектор –столбец регрессионных остатков.






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.