Главная страница Случайная страница Разделы сайта АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Ковариация и регрессия. Построение выборочного уравнения линии регрессии. Методические указания.
В приложениях часто требуется оценить характер зависимости между наблюдёнными переменными. Основная задача при этом состоит в выравнивании (сглаживании) экспериментальных данных с помощью специально подобранных кривых, называемых линиями или поверхностями регрессии, которые с большей или меньшей надёжностью характеризуют корреляционную зависимость между наблюдаемыми переменными. Пусть (X, Y)– двумерный случайный вектор, где случайные величины X и Y являются зависимыми. Зависимость y (x) математического ожидания Y от значения x случайной величины X есть функция регрессии Y на X: E (Y/X=x) =y (x). Можно показать, что случайная величина y (X), где y (x) - функция регрессии Y на X, является наилучшим в среднеквадратичном приближением случайной величины Y функциями от случайной величины X, т.е. математическое ожидание E (Y – f (X))2 минимально при f (x) =y (x).
В качестве оценки функции y (x) выбирают, как правило, функции, линейно зависящие от неизвестных параметров, т.е. функцию регрессии ищут в виде: , где - известные функции, - подлежащие оценке параметры. Для оценки параметров по выборке (xi, yi), i= 1, 2, …, n используют метод наименьших квадратов. При этом оценка находится как вектор, минимизирующий сумму . Необходимым (а в данном случае и достаточным) условием минимума функции S является выполнение равенств , j= 1, 2 ,..., n, которые приводят к системе уравнений, линейных относительно . Простейшей функцией регрессии является линейная функция . В этом случае решение задачи имеет вид , где r (X, Y)– коэффициент корреляции X и Y, - среднеквадратичные отклонения X и Y. Функция регрессии при этом задается формулой . (3) В свою очередь метод наименьших квадратов приводит к следующему выражению для выборочной функции регрессии . (4) Здесь и - оценки математических ожиданий E (X)и E (Y), - оценки среднеквадратичных отклонений σ (X) и σ (Y), - оценка коэффициента корреляции r (X, Y); т.е. при построении выборочной регрессии при помощи метода наименьших квадратов все моменты в (3) заменяются своими выборочными оценками (см. пособие с. 96-102). При обработке выборок большого объёма часто предварительно проводят группировку значений Х и Y подобно тому, как это было описано в первой части типового расчёта. При этом для частичных интервалов , i= 1, …, k и , j= 1, …, m определяют число элементов выборки , попавших в прямоугольник , и вычисляют середины интервалов по формулам: , . Все элементы выборки, попавшие в прямоугольник , считают равными (xi*, yj*), причём количество значений xi* будет равно а количество значений yj* будет равно Объём выборки равен Все эти данные заносят в таблицу 6.
Таблица 6
Для расчёта коэффициентов в выборочном уравнении линии регрессии (4) используют формулы: , , (5) , , (6) . (7)
В вариантах заданий предлагается таблица группированных данных, на основании которой необходимо найти величины ni, i= 1, …, k; nj, j= 1, …, m; n; затем, используя формулы (5), (6), (7) определить точечные оценки математических ожиданий - и , средних квадратичных отклонений - и , коэффициента корреляции - и получить выборочное уравнение линии регрессии (4). В качестве примера рассмотрим построение выборочного уравнения линии линейной регрессии по таблице группированных данных 7.
Таблица 7
По формулам (5) находим =35, 75, =35, 9; по формулам (6) находим 11, 06, 12, 09; по формуле (7) находим 0, 603. Подставив найденные величины в формулу (4), получим искомое выборочное уравнение линейной регрессии Y на X. , или, окончательно, . (8)
Сравним оценки условных математических ожиданий, вычисленные а) на основе последнего уравнения, б) по данным таблицы 7, полагая, как и ранее, P (yj*) = pj*=ni j / ni. Например, при x* = 30 имеем: а) ; б) . Как видно, соответствие удовлетворительное. Заметим, что уравнения линейной регрессии (3) и выборочной линейной регрессии (4), (8) являются уравнениями, задающими прямую линию.
Варианты индивидуальных заданий
Вариант 3 Вариант 4
Вариант 5 Вариант 6
Вариант 7 Вариант 8
Вариант 9 Вариант 10
Вариант 9 Вариант 10
Вариант 11 Вариант 12
Вариант 13 Вариант 14
Вариант 15 Вариант 16
Вариант 17 Вариант 18
Вариант19
Вариант 19 Вариант 20
Вариант 21 Вариант 22
Вариант23
Вариант 23 Вариант 24
Вариант 25 Вариант 26
Вариант 27 Вариант 28
Вариант 29 Вариант 30
Приложение 1 Приближённые значения функции стандартного нормального распределения , умноженные на 105
|