Студопедия

Главная страница Случайная страница

Разделы сайта

АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатикаИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханикаОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторикаСоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансыХимияЧерчениеЭкологияЭкономикаЭлектроника






Суммирование случайных величин






Очень многие виды случайностей, если суммировать их в большом количестве, образуют итоговую случайную величину с одной и той же плотностью распределения – гауссоидой. Поэтому гауссоида оказывается наиболее важной плотностью распределения, отчего само гауссово распределение получило имя нормального.

Сто лет назад французский математик Анри Пуанкаре[1999, гл. 10–11] подробно исследовал феномен гауссовости и пришел к выводу, что его широкая распространенность – итог объективного существования в природе суммирования малых величин. Это объяснение негласно царит до сих пор.

Для читателей, далеких от ТВ, поясню смысл суммирования независимых случайных величин, поскольку это важно для понимания дальнейшего. Вероятность совместного осуществления пары исходов независимых испытаний по определению равна произведению вероятностей этих исходов; эти произведения надо, для получения функции распределения суммы двух независимых случайных величин, сложить, а если величины непрерывны, проинтегрировать. Плотность распределения суммы, получаемая интегрированием произведения плотностей двух складываемых случайных величин, называется свёрткой. Для получения плотности распределения трех независимых случайных величин надо произведение свертки (двух величин) на плотность третьей величины снова проинтегрировать, т.е. получить свертку свертки. При этом порядок суммирования (какую величину считать третьей) не имеет значения. То есть для изучения суммы n+1 независимых непрерывных случайных величин надо получить n-кратную свертку. Формулы можно найти в разных учебниках, из которых рекомендую [Шметтерер, 1976, c. 85; Тутубалин, 1992, с. 89].

Смысл ЦПТ удобно пояснить двумя примерами. На рис. 2 показано, как гауссоида образуется из совсем не похожих на нее прямоугольников. Если случайная величина X 1 распределена равномерно на интервале –1< х< 1, то плотность ее распределения изобразится отрезком y=1/2 (график всякой плотности распределения содержит под собой фигуру единичной площади). Если случайная величина X 2 распределена точно так же, причем принимает отличные от нуля значения на интервале –1< х< 1 независимо от X 1, то их сумма распределена согласно треугольной плотности: пределы возможных изменений расширятся (–2< х< 2), а центральные значения окажутся более вероятными. Аналогично, сумма трех таких величин обладает гладкой плотностью y(x), образованной отрезками парабол, причем область изменения суммы снова расширилась: –3< х< 3. Вот почему мы ограничиваемся на практике тремя измерениями (простаферезис Лейбница– см. гл. 2): в большинстве реальных процедур измерений среднее по первой тройке измерений дает основную информацию об измеряемой величине; усреднение больше чем по трем точкам полезно лишь для тех редких случаев, когда хотя бы одно из первых трех слагаемых дало сильное отклонение от истины. Заодно здесь виден и ответ на вопрос Симпсона.

Вот почему мы пользуемся одними и теми же приемами (например, оценкой Муавра, т.е. ) всюду, где видим многократную однотипную случайность. Как видим, ТВ вполне подтвердила ту " природную математику", о которой писал Лейбниц.

Однако подтверждение это может быть иллюзорным. Пример, изображенный на рис. 3, показывает, что безоглядно верить в ЦПТ не следует. Здесь суммируются величины , где X i – одинаковые независимо распределенные нормальные случайные величины. – хорошо известное в статистике распределение " хи-квадрат". Казалось бы, здесь сходимость к гауссоиде должна быть лучше, чем на рис. 2, но выходит не так.

Рассмотрим случайную величину Z, значения которой z являются квадратами величин х. Если случайная величина X принимает любые числовые значения, то Z – только неотрицательные, поэтому ее плотность g(z) имеет максимум при z=0 и монотонно убывает с ростом z (как говорят, является однохвостой). Чтобы найти g(x), надо вспомнить, что реальный вероятностный смысл имеет функция распределения, тогда как плотность распределения (ее производная) – скорее иллюстративный.

Функция распределения G(z) случайной величины Z есть вероятность того, что
x2 < z. Имеем: если x2 < z, то , а потому

.

Введя переменную z = x2, получим:

,

где функция под знаком интеграла как раз и есть функция g(z).

Удивительно и, пожалуй, контр-интуитивно то, что g(z) при z=0 обращается в бесконечность. Однако при суммировании даже двух таких случайных величин получаем ограниченную плотность, а плотности всех последующих сумм обращаются при z=0 в нуль, что тоже неожиданно.

Плотности величин Z i на рис. 3 резко асимметричны (" однохвосты") за счет того, что отрицательные значения аргументов x случайных величин X i отображаются в положительные значения аргументов z величин Z i. Поэтому симметрия суммы складывается медленно и нечетко, приближение ее к гауссоиде достигается путем расползания самой этой гауссоиды и смещением ее вершины вправо [Варден, 1960, с. 118; Шметтерер, 1976, с. 93]. Хотя формально ЦПТ и тут верна, пользоваться ею практически нет возможности.

Поскольку сама по себе сумма Sn случайных величин с ростом n стремится, как правило, к бесконечности, вместо нее в ЦПТ рассматривается нормированная сумма

sn = (Sn — M(Sn))/D(Sn),

где M(Sn) – математическое ожидание суммы Sn, а D(Sn) – ее дисперсия.

В нынешней формулировке ЦПТ – очень сильная теорема. В частности, в ней не требуется, чтобы случайные величины были распределены одинаково. Она в форме, какую придал ей финский математик Ярл Линдеберг(1922 г.), звучит так: нормированная сумма взаимно независимых случайных величин имеет распределение, сходящееся к нормальному, если дисперсии слагаемых равномерно ограничены (т.е. не превосходят некоторого общего для всех слагаемых числа D0).

Независимость величин не является необходимой – существуют различные виды зависимости слагаемых, не нарушающие ЦПТ (см. например, работы, указанные у Феллера[1984, c. 304], и гл. 7 книги [Ширяев, 1989]). Наоборот, ограниченность дисперсий необходима [Феллер, 1984, c. 301]. Мы вернемся к этому в главе 4.

Изменился и ЗБЧ: он выражается теперь формулами типа (1) и мало похож на ту теорему, что доказал Я. Бернулли. Индивидуальное испытание исчезло: вместо него исследуется распределение вероятностей случайной величины. Само существование вероятности этим постулируется, так что прежний смысл (существование предела, к которому стремится частота в длинной серии испытаний) утрачен, и встает вопрос: в чем же теперь смысл ЗБЧ? Только в выяснении условий сходимости? А разве возможна вероятность, к которой частота не сходится? (Этим вопросом мы займемся в гл. 4.) В частности, выяснено, что для сходимости частоты к вероятности достаточно, чтобы дисперсия этой частоты существовала, т.е. не обращалась в бесконечность при бесконечном числе испытаний.

Это условие не является необходимым – существуют более слабые требования, например, в теореме Хинчина. Она гласит: если независимые случайные величины распределены одинаково, то их нормированная сумма сходится к пределу (математическому ожиданию) даже если их дисперсии бесконечны [Тутубалин, 1992, c. 100; Стоянов, 1999, c. 152]. (ЗБЧ в форме сходимости частоты к вероятности и в форме сходимости суммы к мат. ожиданию равносильны.) Теорему Хинчинамы рассмотрим в главе 7.

ЗБЧ – более широкое утверждение, чем ЦПТ: есть много случайных величин, у которых частоты сходятся к вероятностям, но суммы этих величин к нормальному распределению не сходятся. Дело, как легко понять, в том, что для дисперсий при этом не существует единого числа D0. Точнее см. [Феллер, 1964, с. 260]. Это важно помнить, чтобы не применять (как часто делают) ЦПТ ко всем стохастическим случайностям.

 

3-6. От Лапласак Пуассону – изменение смысла вероятности

Лаплас[Laplace, 1812] дал новое изящное доказательство теоремы Кардано–Бернулли. Еще через 25 лет проблему фундаментально разработал Симон Пуассон[Poisson, 1837]. Он обратился к вероятностям в связи с правовыми задачами. Статистическое понимание вероятности он увязывал не с априорным, а с моральным (со степенью уверенности). Пуассонначал книгу с того, что отделил " абстрактную вероятность", или шанс (chance), от " субъективной, или моральной вероятности", которую далее в основном и рассматривал просто как вероятность (probabilité).

Пуассонбыл уверен, например, что каждому судье можно приписать вероятность вынесения им правильного приговора. В чисто математическом смысле его занимало обобщение теоремы Кардано–Бернуллина те ситуации, когда вероятность меняется от опыта к опыту (например, от судьи к судье). Ему это удалось (путем введения средней вероятности), и тем самым познавательный статус ТВ очень вырос: теперь стало понятно, почему ее результаты применимы к сложным процессам.

Данное чисто аналитическое достижение Пуассоназаслонило от историков тот факт, что столь же сильно изменилось само понимание вероятности: вместо априорной и апостериорной вероятностей, так или иначе измеримых, главным стало внеопытное, так сказать, внутреннее понимание вероятности. Ведь никакие наблюдения или вычисления не помогут нам исчислить, например, вероятность (хотя бы среднюю) вынесения верного приговора, ибо нет критерия верности.

В ТВ является классическим мысленный эксперимент с урной, из которой надо извлекать, не глядя, шары различных окрасок. Вероятность при этом вводится просто: если в урне находятся 30 шаров, 20 из которых – белые, то вероятность извлечь белый шар равна 2/3. (Отсюда и был сделан первый шаг к пониманию вероятности как меры.) Схема опыта настолько проста, что кажется очевидной, хотя в сущности все вопросы, возникающие в отношении полета монеты или кости, попросту упрятаны здесь во тьму урны. Как и все, Бернулли, Лапласи Пуассоншироко пользовались урновой схемой, но смысл извлекали из нее различный. Если Бернуллиперечислял равновозможности и, исчерпав их, писал итоговую формулу, то Пуассонкак бы извлекал из урны мнения.

Идея равновозможности оказалась весьма продуктивной, так как основанный на ней ЗБЧ в форме Кардано– Бернулливыполняется с достаточной точностью на практике (но не абсолютной – частота к вероятности не сходится). Проведя вычисления, можно оценить, насколько редко возможна серия из 500 бросаний, в которой число гербов не уложится в интервал от 200 до 300. Это, оказывается, приблизительно одна из 100 тысяч серий по 500 бросаний в каждой. Проверить это практически невозможно – если речь идет не о компьютерном эксперименте, а о реальных бросаниях реальной монеты. Поэтому в ЗБЧ приходится верить, и тут становится ясно, зачем Бернуллиупотребил в своей формулировке слово " вероятнее".

Если теперь обратиться к нынешнему ЗБЧ, т.е., например, к формуле (1), то придется признать, что вероятности р и Р имеют различный познавательный статус: первая – частота, которую можно извлечь из опыта, тогда как вторая – мера уверенности, извлечь которую из опыта нереально. Как же тогда пользоваться подобными формулами? Да очень просто – ими все пользуются только тогда, когда из самого смысла задачи ясно, что степень уверенности высока, т.е. достаточно близка к единице. Но именно при этом ее оценка опытом нереальна [Fine, 1973, c. 88]. По-видимому, это и имел в виду Бернулли, когда вероятности-частоте дал чисто арифметическую формулировку, а вероятности-уверенности – описательную (" вероятнее"). Хотя в схеме Бернуллиобе вероятности можно выразить на языке комбинаторики, сам он предпочел этого не делать, ибо видел в теореме больше, чем доказал, – всеобщий закон природы, где вероятность-уверенность понемногу обращается в рок.

Пуассонсделал следующий шаг – предпочел даже вероятность отдельного исхода (в наших терминах: р из (1)) трактовать не как частоту, а тоже как внутренний параметр индивида (уверенность, предрасположенность и т.д.). Возник вековой спор о смысле вероятности, унаследованный через сто лет философией квантовой механики. Не вступая в него, отметим лишь, что следует отличать ЗБЧ в его первичной форме Кардано– Бернуллиот того ЗБЧ, который выражается формулой (1) и фигурирует в нынешних книгах. Хотя Пуассонне знал еще подобных обозначений, в сущности идея формулы (1) идет от него: придав вероятности субъективный характер, он открыл математикам путь к формулировкам, определяющим одну вероятность через другую, без попытки объяснить, что же это такое.

Как бы то ни было, ЗБЧ фигурирует в форме (1) и ей подобным; мы будем далее называть эту форму теоремой БернуллиПуассона. Пуассону, кстати, принадлежит и сам термин " закон больших чисел".

В литературе две формы ЗБЧ не различают, а зря: в одной массовая случайность выступает как исчерпание равновозможностей, а в другой – как соединение душевных актов (суждений, оценок, надежд). Естественно, различно и их математическое содержание: первая – чисто комбинаторный результат, а вторая определяет связь заданных величин р и Р, смысл которых до сих пор обсуждается. Обе теоремы едины лишь в том, что обходят феномен случайности. Мы будем там, где не сказано иное, иметь в виду ЗБЧ в его исходной форме Кардано– Бернулли.

 






© 2023 :: MyLektsii.ru :: Мои Лекции
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав.
Копирование текстов разрешено только с указанием индексируемой ссылки на источник.