![]() Главная страница Случайная страница Разделы сайта АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника |
Пример вычисления дисперсии
Среднее квадратичное отклонение подтверждает типичность и показательность средней арифметической, отражает меру колебания численных значений признаков, из которых выводится средняя величина. Оно равно корню квадратному из дисперсии и определяется по формуле: где: s – средняя квадратическая. При малом числе наблюдения (действий) – менее 100 – в значении формулы следует ставить не «N», а «N – 1». Средняя арифметическая и средняя квадратическая являются основными характеристиками полученных результатов в ходе исследования. Они позволяют обобщить данные, сравнить их, установить преимущества одной психолого-педагогической системы (программы) над другой. Среднее квадратическое (стандартное) отклонение широко применяется как мера разброса для различных характеристик. Оценивая результаты исследования важно определить рассеивание случайной величины около среднего значения. Это рассеивание описывается с помощью закона Гауса (закона нормального распределения вероятности случайной величины). Суть закона заключается в том, что при измерении некоторого признака в данной совокупности элементов всегда имеют место отклонения в обе стороны от нормы вследствие множества неконтролируемых причин, при этом, чем больше отклонения, тем реже они встречаются. При дальнейшей обработке данных могут быть выявлены: коэффициент вариации (устойчивости) исследуемого явления, представляющий собой процентное отношение среднеквадратического отклонения к средней арифметической; мера косости, показывающая, в какую сторону направлено преимущественное число отклонений; мера крутости, которая показывает степень скопления значений случайной величины около среднего и др. Все эти статистические данные помогают более полно выявить признаки изучаемых явлений. Меры связи между переменными. Связи (зависимости) между двумя и более переменными в статистике называют корреляцией. Она оценивается с помощью значения коэффициента корреляции, который является мерой степени и величины этой связи. Забиваем Сайты В ТОП КУВАЛДОЙ - Уникальные возможности от SeoHammer
Каждая ссылка анализируется по трем пакетам оценки: SEO, Трафик и SMM.
SeoHammer делает продвижение сайта прозрачным и простым занятием.
Ссылки, вечные ссылки, статьи, упоминания, пресс-релизы - используйте по максимуму потенциал SeoHammer для продвижения вашего сайта.
Что умеет делать SeoHammer
— Продвижение в один клик, интеллектуальный подбор запросов, покупка самых лучших ссылок с высокой степенью качества у лучших бирж ссылок. — Регулярная проверка качества ссылок по более чем 100 показателям и ежедневный пересчет показателей качества проекта. — Все известные форматы ссылок: арендные ссылки, вечные ссылки, публикации (упоминания, мнения, отзывы, статьи, пресс-релизы). — SeoHammer покажет, где рост или падение, а также запросы, на которые нужно обратить внимание. SeoHammer еще предоставляет технологию Буст, она ускоряет продвижение в десятки раз, а первые результаты появляются уже в течение первых 7 дней. Зарегистрироваться и Начать продвижение Коэффициентов корреляции много. Рассмотрим лишь часть из них, которые учитывают наличие линейной связи между переменными. Их выбор зависит от шкал измерения переменных, зависимость между которыми необходимо оценить. Наиболее часто в психологии и педагогике применяются коэффициенты Пирсона и Спирмена. Рассмотрим вычисление значений коэффициентов корреляции на конкретных примерах. Пример 1. Пусть две сравниваемые переменные X (семейное положение) и Y (исключение из университета) измеряются в дихотомической шкале (частный случай шкалы наименований). Для определения связи используем коэффициент Пирсона. В тех случаях, когда нет необходимости подсчитывать частоту появления различных значений переменных X и Y, удобно проводить вычисления коэффициента корреляции с помощью таблицы сопряженности (см. табл. 6.2, 6.3, 6.4)1, показывающей количество совместных появлений пар значений по двум переменным (признакам). А – количество случаев, когда переменная X имеет значение равное нулю, и, одновременно переменная Y имеет значение равное единице; В – количество случаев, когда переменные X и Y имеют одновременно значения, равные единице; С – количество случаев, когда переменные X и Y имеют одновременно значения равные нулю; D – количество случаев, когда переменная X имеет значение, равное единице, и, одновременно, переменная Y имеет значение, равное нулю. Таблица 6.2 Общая таблица сопряженности
В общем виде формула коэффициента корреляции Пирсона для дихотомических данных имеет вид
Таблица 6.3
|