Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Дати означення корельованості (некорельованості) двох в.в. Пояснити різнцю і зв’язок між корельованістю (некорельованістю) і залежністю двох в.в.






Две случайные величины X и Y называют коррелированными, если их корреляционный момент (или, что то же, коэффициент корреляцыии) отличен от нуля; X и Y называют некоррелированными величинами, если их корреляционный момент равен нулю. Две коррелированные величины также и зависимы. Действительно, допустив противное, мы должны заключить, что μ xy = 0, а это противоречит условию, так как для коррелированных величин μ xy не равняется 0. Обратное предположение не всегда имеет место, т.е. если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными. Другими словами, корреляционный момент двух зависимых величин может быть не равен нулю, но может и равнятся нулю. Для нормально распределенных составляющих двумерной случайной величины понятия независимости и некоррелированности равносильны.

Зв’язок між корел-тю(некорел-тю) та залежністю:

1) якщо Х, Y некорельовані μ xy =0, то залежність невідома.

2) якщо Х, Y корельовані, то вони залежні

3) якщо X, Y незалежні, то вони некорельовані X, Y =0

4) якщо X, Y залежні, то вони можуть бути як корельованими так і некорельованими

μ xy – індикатор залежності і незалежності X, Y

Різниця: із незалежності 2 величин слідує їх некорельованість, але із некорельваності неможна зробити висновок о незалежності цих величин.

Вивести рівняння лінійної середньоквадратичної регресії Y на Х(Х на Y). Пояснити зміст позначень.Дати означення коефіцієнту регресії, залишкової дисперсії та пояснити, що вони характеризують.

Лінійна середньоквадратична регресія Y на Х має вигляд

g(X)=my+ (X – mx), де mx=М(Х), my=М(Y), σ x= , σ y= , r=μ xy/(σ xσ y) – коефіцієнт кореляції величин Х та Y.

Виведення:

Введем у розгляд функцію двох незалежних аргументів та :

F(, )=M[Y - - X]2. (*)

Враховуючи, що М(Х – mx)=M(Y – my)=0,

M[(X - mx)*(Y - my)]= μ xy=r σ xσ y та виконав викладки, отримаємо

F(, )= + - 2r σ xσ y +(my - - mx)2

Дослідим функцію F(, ) на екстремум, для чого прирівняєм 0 часткові похідні:

, σ xσ y=0

Звідси , mx

Легко впевнитися, що при цих значеннях та розглянута функція приймає найменше значення. Звідси лінійна середньоквадратична регресія Y та X має вигляд

g (X)= X= - mx+ X, або g(X)=my+ (X – mx),

Коефіцієнт = наз. коефіцієнтом регресії Y на X

Підставимо знайдені значення та у співвідношення (*), отримаємо мінімальне значення значення функції F(, ), яке дорівнює (1 – r2). Величину (1 – r2) наз. залишковою дисперсією в.в. Y відносно в.в. Х..Вона характеризує величину похибки, яку допускають при заміні Y лінійної функції g(X)= X. При r=+ -1 залишкова дисперсія =0

Аналогічно можно отримати пряму середньоквадратичної регресії Х на Y

X - mx=r (Y- my), де r - коефіцієнт регресії Х на Y.Залишкова дисперсія (1-r2) величини Х відносно Y.

 






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.