Біографії Характеристики Аналіз

Незалежні випадкові величини. Операції над випадковими величинами

Для вирішення багатьох практичних завдань необхідно знати комплекс умов, завдяки якому результат сукупного впливу великої кількостівипадкових чинників майже залежить від випадку. Дані умови описані в кількох теоремах, які мають загальна назвазакону великих чисел, де випадкова величина дорівнює 1 або 0 в залежності від того, чи буде результатом k-го випробування успіх або невдача. Таким чином, Sn є сумою n взаємно незалежних випадкових величин, Кожна з яких набуває значення 1 і 0 з ймовірностями р і q.

Найпростіша форма закону великих чисел - теорема Бернуллі, яка стверджує, що й ймовірність події однакова переважають у всіх випробуваннях, зі збільшенням числа випробувань частота події прагне ймовірності події і перестає бути випадковою.

Теорема Пуассонастверджує, що частота події у серії незалежних випробуваньпрагне середнього арифметичного його ймовірностей і перестає бути випадковою.

Граничні теореми теорії ймовірностей теореми Муавра-Лапласа пояснюють природу стійкості частоти появи події. Природа ця полягає в тому, що граничним розподілом числа події при необмеженому зростанні числа випробувань (якщо ймовірність події у всіх випробуваннях однакова) є нормальний розподіл.

Центральна гранична теорема пояснює широке розповсюдженнянормального закону розподілу. Теорема стверджує, що завжди, коли випадкова величина утворюється в результаті додавання великої кількостінезалежних випадкових величин із кінцевими дисперсіями, закон розподілу цієї випадкової величини виявляється практично нормальним законом.

Теорема Ляпуновапояснює широке поширення нормального закону розподілу та пояснює механізм його утворення. Теорема дозволяє стверджувати, що завжди, коли випадкова величина утворюється в результаті додавання великої кількості незалежних випадкових величин, дисперсії яких малі в порівнянні з дисперсією суми, закон розподілу цієї випадкової величини виявляється практично нормальним законом. А оскільки випадкові величини завжди породжуються нескінченною кількістю причин і найчастіше жодна з них не має дисперсії, порівнянної з дисперсією самої випадкової величини, більшість випадкових величин, що зустрічаються в практиці, підпорядковано нормальному закону розподілу.

В основі якісних та кількісних тверджень закону великих чисел лежить нерівність Чебишева. Воно визначає верхню межу ймовірності того, що відхилення значення випадкової величини від її математичного очікування більше певного заданого числа. Чудово, що нерівність Чебишева дає оцінку ймовірності події для випадкової величини, розподіл якої невідомий, відомі лише її. математичне очікуваннята дисперсія.

Нерівність Чебишева. Якщо випадкова величина x має дисперсію, то для будь-якого x > 0 справедлива нерівність, де M x та D x - математичне очікування та дисперсія випадкової величини x.

Теорема Бернуллі. Нехай x n – число успіхів у n випробуваннях Бернуллі та p – ймовірність успіху в окремому випробуванні. Тоді за будь-якого s > 0 справедливо.

Теорема Ляпунова. Нехай s 1 , s 2 , …, s n , …- необмежена послідовність незалежних випадкових величин з математичними очікуваннями m 1 , m 2 , …, m n , … та дисперсіями s 1 2 , s 2 2 , …, s n 2 … . Позначимо.

Тоді = Ф(b) - Ф(a) для будь-яких дійсних чисел a і b де Ф(x) - функція розподілу нормального закону.

Нехай дано дискретну випадкову величину. Розглянемо залежність числа успіхів Sn від випробувань n. При кожному випробуванні Sn зростає на 1 або 0. Це твердження можна записати у вигляді:

Sn = 1 + ... + n. (1.1)

Закон великих чисел. Нехай (к) - послідовність взаємно незалежних випадкових величин з однаковими розподілами. Якщо математичне очікування = М(к) існує, то будь-якого > 0 при n

Інакше висловлюючись, ймовірність те, що середнє S n /n відрізняється від математичного очікування менше, ніж довільно задане, прагне одиниці.

Центральна гранична теорема.Нехай (к) - послідовність взаємно незалежних випадкових величин з однаковими розподілами. Припустимо, що існують. Нехай Sn = 1 + ... + n , Тоді для будь-яких фіксованих

Ф() - Ф() (1.3)

Тут Ф(х) - нормальна функціярозподіляю. Цю теорему сформулював та довів Лінлберг. Ляпунов та інші автори доводили її раніше за більш обмежувальних умов. Необхідно уявити собі, що сформульована вище теорема є лише досить окремим випадком набагато більше загальної теореми, що у своє чергу тісно пов'язані з багатьма іншими граничними теоремами. Зазначимо, що (1.3) набагато сильніше, ніж (1.2), оскільки (1.3) дає оцінку для ймовірності того, що різниця більша, ніж. З іншого боку, закон великих чисел (1.2) вірний, навіть якщо випадкові величини k не мають кінцевої дисперсії, тому він застосовується до більш загального випадку, Чим центральна гранична теорема (1.3). Проілюструємо останні дві теореми прикладами.

приклади.а) Розглянемо послідовність незалежних кидань симетричної кістки. Нехай k - Число очок, що випали при k-му киданні. Тоді

M(k)=(1+2+3+4+5+6)/6=3.5,

a D(k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3.5) 2 =35/12 і S n /n

є середнім числом очок, що випали внаслідок n кидань.

Закон великих чисел стверджує: правдоподібно, що за великих п це середнє виявиться близьким до 3,5. Центральна гранична теорема встановлює можливість, що |Sn - 3,5n |< (35n/12) 1/2 близка к Ф() -- Ф(-). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф(0)-- Ф(-- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

б) Вибірка. Припустимо, що в генеральної сукупності,

що складається з N сімей, Nk сімей мають рівно k дітей

(k = 0, 1...; Nk = N). Якщо сім'я обрана навмання, число дітей у ній є випадковою величиною, яка набуває значення з ймовірністю p = N/N. При виборі з поверненням можна розглядати вибірку обсягу n як сукупність n незалежних випадкових величин або «спостережень» 1 , ..., n , які мають однакову розподіл; S n /n є середнім значенням вибірки. Закон великих чисел стверджує, що для досить великого випадкової вибіркиїї середнє значення буде, ймовірно, близьким до, тобто, до середнього значення генеральної сукупності. Центральна гранична теорема дозволяє оцінити ймовірну величину розбіжності між цими середніми значеннями та визначити обсяг вибірки, необхідний надійної оцінки. Насправді і зазвичай невідомі; однак у більшості випадків вдається легко отримати попередню оцінку і завжди можна укласти в надійні межі. Якщо ми бажаємо, щоб із ймовірністю 0,99 або більшою середнє значення вибірки S n /n відрізнялося від невідомого середнього значення генеральної сукупності менш ніж на 1/10, то обсяг вибірки повинен бути взятий таким, щоб

Корінь х рівняння Ф(х) - Ф(-х) = 0,99 дорівнює х = 2,57 ..., і, отже, n має бути таким, що 2,57 або n > 660 . Обережна попередня оцінка дозволяє знайти необхідний обсяг вибірки.

в) Розподіл Пуассона.

Припустимо, що довільні величини k мають розподіл Пуассона (p(k;)). Тоді Sn має розподіл Пуассона з математичним очікуванням та дисперсією, рівними n.

Написавши замість n, ми робимо висновок, що при n

Підсумовування провадиться по всіх k від 0 до. Ф-ла (1.5) має місце і тоді, коли довільним чином.

Нехай відомі середні відхилення квадратичних кількох взаємно незалежних випадкових величин. Як знайти середнє квадратичне відхиленнясуми цих величин? Відповідь це питання дає така теорема.

Теорема. Середнє квадратичне відхилення суми кінцевого числавзаємно незалежних випадкових величин одно квадратного кореняіз суми квадратів середніх квадратичних відхилень цих величин".

Доведення. Позначимо через Xсуму аналізованих взаємно незалежних величин:

Дисперсія суми кількох взаємно незалежних випадкових величин дорівнює сумі дисперсій доданків (див. § 5, слідство 1), тому

або остаточно

Однаково розподілені взаємно незалежні випадкові величини

Вже відомо, що згідно із законом розподілу можна знайти числові характеристикидовільної величини. Звідси випливає, що й кілька випадкових величин мають однакові розподіли, їх числові характеристики однакові.

Розглянемо пвзаємно незалежних випадкових величин X v X v ..., X fi ,які мають однакові розподіли, а отже, і однакові характеристики (математичне очікування, дисперсію та ін.). Найбільший інтереспредставляє вивчення числових характеристик середнього арифметичного цих величин, ніж ми й займемося у цьому параграфі.

Позначимо середнє арифметичне аналізованих випадкових величин через X:

Наступні три положення встановлюють зв'язок між числовими характеристиками середнього арифметичного Xта відповідними характеристиками кожної окремої величини.

1. Математичне очікування середнього арифметичного однаково розподілених взаємно незалежних випадкових величин дорівнює математичному очікуванню а кожної з величин:

Доведення. Користуючись властивостями математичного очікування (постійний множник можна винести за знак математичного очікування; математичне очікування суми дорівнює сумі математичних очікувань доданків), маємо


Взявши до уваги, що математичне очікування кожної з величин за умовою дорівнює а, отримаємо

2. Дисперсія середнього арифметичного п однаково розподілених взаємно незалежних випадкових величин у п разів менше дисперсії D кожної з величин:

Доведення. Користуючись властивостями дисперсії (постійний множник можна винести за знак дисперсії, звівши його у квадрат; дисперсія суми незалежних величин дорівнює сумі дисперсій доданків), маємо

§ 9. Однаково розподілені взаємно незалежні випадкові величини 97

Взявши до уваги, що дисперсія кожної з величин за умовою дорівнює Д отримаємо

3. Середнє квадратичне відхилення середнього арифметичного п однаково розподілених взаємно незалежних випадкових

величин у 4п разів менше середнього квадратичного відхилення, а кожної з величин:

Доведення. Так як D(X) = D/n,то середнє квадратичне відхилення Xодно

Загальний висновок з формул (*) і (**): згадуючи, що дисперсія та середнє квадратичне відхилення є заходами розсіювання випадкової величини, укладаємо, що середнє арифметичне досить великої кількості взаємно незалежних випадкових величин має

значно менше розсіювання, ніж кожна окрема величина.

Пояснимо з прикладу значення цього висновку для практики.

приклад. Зазвичай для вимірювання деякої фізичної величинивиробляють кілька вимірювань, а потім знаходять середнє арифметичне отриманих чисел, яке приймають за наближене значення вимірюваної величини. Припускаючи, що вимірювання проводяться в одних і тих самих умовах, довести:

  • а) середнє арифметичне дає результат надійніший, ніж окремі виміри;
  • б) із збільшенням числа вимірів надійність цього результату зростає.

Рішення, а) Відомо, що окремі виміри дають неоднакові значення вимірюваної величини. Результат кожного виміру залежить від багатьох випадкових причин (зміна температури, коливання приладу тощо), які нс можуть бути повністю враховані.

Тому ми маємо право розглядати можливі результати покремих вимірів як випадкові величини X v Х 2 ,..., Х п(індекс вказує номер виміру). Ці величини мають однаковий розподіл ймовірностей (вимірювання виробляються за однією і тією ж методикою і тими самими приладами), а отже, і однакові числові характеристики; крім того, вони взаємно незалежні (результат кожного окремого виміру не залежить від інших вимірів).

Ми вже знаємо, що середнє арифметичне таких величин має менше розсіювання, ніж кожна окрема величина. Інакше кажучи, середнє арифметичне виявляється ближчим до справжнього значення вимірюваної величини, ніж результат окремого виміру. Це означає, що середнє арифметичне кількох вимірів дає більш відмінковий результат, ніж окреме вимір.

б) Нам відомо, що з зростанні числа окремих випадкових величин розсіяння середнього арифметичного убуває. Це означає, що зі збільшенням числа вимірів середнє арифметичне кількох вимірів все менш відрізняється від справжнього значеннявимірюваної величини. Таким чином, збільшуючи кількість вимірювань, одержують надійніший результат.

Наприклад, якщо середнє квадратичне відхилення окремого виміру а = 6 м, а всього зроблено п= 36 вимірів, то середнє квадратичне відхилення середнього арифметичного цих вимірів дорівнює лише 1 м. Дійсно,

Ми бачимо, що середнє арифметичне кількох вимірювань, як і слід очікувати, виявилося ближчим до справжнього значення вимірюваної величини, ніж результат окремого виміру.

Курсова робота

на тему: «Закони великих чисел»


Однаково розподілені випадкові величини

Для вирішення багатьох практичних завдань необхідно знати комплекс умов, завдяки якому результат сукупного впливу великої кількості випадкових чинників майже залежить від випадку. Дані умови описані в декількох теоремах, що носять загальну назву закону великих чисел, де випадкова величина дорівнює 1 або 0 в залежності від того, чи буде результатом k-го випробування успіх або невдача. Таким чином, Sn є сумою n взаємно незалежних випадкових величин, кожна з яких приймає значення 1 та 0 з ймовірностями р і q.

Найпростіша форма закону великих чисел - теорема Бернуллі, яка стверджує, що й ймовірність події однакова переважають у всіх випробуваннях, зі збільшенням числа випробувань частота події прагне ймовірності події і перестає бути випадковою.

Теорема Пуассона стверджує, що частота події у серії незалежних випробувань прагне середнього арифметичного його ймовірностей і перестає бути випадковою.

Граничні теореми теорії ймовірностей теореми Муавра-Лапласа пояснюють природу стійкості частоти появи події. Природа ця полягає в тому, що граничним розподілом числа події при необмеженому зростанні числа випробувань (якщо ймовірність події у всіх випробуваннях однакова) є нормальний розподіл.

Центральна гранична теорема пояснює стала вельми поширеною нормального закону розподілу. Теорема стверджує, що завжди, коли випадкова величина утворюється в результаті додавання великої кількості незалежних випадкових величин з кінцевими дисперсіями, закон розподілу цієї випадкової величини виявляється практично нормальним законом.

Теорема Ляпунова пояснює широке поширення нормального закону розподілу та пояснює механізм його утворення. Теорема дозволяє стверджувати, що завжди, коли випадкова величина утворюється в результаті додавання великої кількості незалежних випадкових величин, дисперсії яких малі в порівнянні з дисперсією суми, закон розподілу цієї випадкової величини виявляється практично нормальним законом. А оскільки випадкові величини завжди породжуються нескінченною кількістю причин і найчастіше жодна з них не має дисперсії, порівнянної з дисперсією самої випадкової величини, більшість випадкових величин, що зустрічаються в практиці, підпорядковано нормальному закону розподілу.

В основі якісних та кількісних тверджень закону великих чисел лежить нерівність Чебишева. Воно визначає верхню межу ймовірності того, що відхилення значення випадкової величини від її математичного очікування більше певного заданого числа. Чудово, що нерівність Чебишева дає оцінку ймовірності події для випадкової величини, розподіл якої невідомий, відомі лише її математичне очікування та дисперсія.

Нерівність Чебишева. Якщо випадкова величина x має дисперсію, то для будь-якого x > 0 справедлива нерівність , де M x та D x - математичне очікування та дисперсія випадкової величини x.

Теорема Бернуллі. Нехай x n – число успіхів у n випробуваннях Бернуллі та p – ймовірність успіху в окремому випробуванні. Тоді за будь-якого s > 0 справедливо.

Теорема Ляпунова. Нехай s 1 , s 2 , …, s n , … – необмежена послідовність незалежних випадкових величин з математичними очікуваннями m 1 , m 2 , …, m n , … та дисперсіями s 1 2 , s 2 2 , …, s n 2 … . Позначимо , , , .

Тоді = Ф(b) - Ф(a) для будь-яких дійсних чисел a і b де F(x) - функція розподілу нормального закону.

Нехай дана дискретна випадкова величина. Розглянемо залежність числа успіхів Sn від випробувань n. При кожному випробуванні Sn зростає на 1 або 0. Це твердження можна записати у вигляді:

Sn = 1 + ... + n. (1.1)

Закон великих чисел. Нехай (к)-послідовність взаємно незалежних випадкових величин з однаковими розподілами. Якщо математичне очікування = М(к) існує, то для будь-якого > 0 при n

Інакше висловлюючись, ймовірність те, що середнє S n /n відрізняється від математичного очікування менше, ніж довільно задане , прагне одиниці.

Центральна гранична теорема. Нехай (к)-послідовність взаємно незалежних випадкових величин з однаковими розподілами. Припустимо, що існують. Нехай Sn = 1 + ... + n , Тоді для будь-яких фіксованих

Ф() - Ф() (1.3)

Тут Ф(х) - нормальна функція розподілу. Цю теорему сформулював та довів Лінлберг. Ляпунов та інші автори доводили її раніше за більш обмежувальних умов. Необхідно уявити, що сформульована вище теорема є лише дуже окремим випадком набагато більш загальної теореми, яка у свою чергу тісно пов'язана з багатьма іншими граничними теоремами. Зазначимо, що (1.3) набагато сильніше, ніж (1.2), оскільки (1.3) дає оцінку для ймовірності того, що різниця більша, ніж . З іншого боку, закон великих чисел (1.2) вірний, навіть якщо випадкові величини k не мають кінцевої дисперсії, тому він застосовується до більш загального випадку, ніж центральна гранична теорема (1.3). Проілюструємо останні дві теореми прикладами.

приклади.а) Розглянемо послідовність незалежних кидань симетричної кістки. Нехай k – число очок, що випали при k-му киданні. Тоді

M(k)=(1+2+3+4+5+6)/6=3.5,

a D(k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3.5) 2 =35/12 і S n /n

є середнім числом очок, що випали внаслідок n кидань.

Закон великих чисел стверджує: правдоподібно, що за великих п це середнє виявиться близьким до 3,5. Центральна гранична теорема встановлює можливість, що |Sn - 3,5n |< (35n/12) 1/2 близка к Ф() - Ф(- ). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф( 0)- Ф(- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

б) Вибірка. Припустимо, що у генеральній сукупності,

що складається з N сімей, Nk сімей мають рівно k дітей

(k = 0, 1...; Nk = N). Якщо сім'я обрана навмання, число дітей у ній є випадковою величиною, яка набуває значення з ймовірністю p = N /N. При виборі з поверненням можна розглядати вибірку обсягу n як сукупність n незалежних випадкових величин або «спостережень» 1 , ..., n , які мають однакову розподіл; S n /n є середнім значенням вибірки. Закон великих чисел стверджує, що з досить великий випадкової вибірки її середнє значення буде, мабуть, близьким до , т. е, до середнього значення генеральної сукупності. Центральна гранична теорема дозволяє оцінити ймовірну величину розбіжності між цими середніми значеннями та визначити обсяг вибірки, необхідний надійної оцінки. Насправді і зазвичай невідомі; однак у більшості випадків вдається легко отримати попередню оцінку і завжди можна укласти в надійні межі. Якщо ми бажаємо, щоб із ймовірністю 0,99 або більшою середнє значення вибірки S n /n відрізнялося від невідомого середнього значення генеральної сукупності менш ніж на 1/10, то обсяг вибірки повинен бути взятий таким, щоб

Корінь х рівняння Ф(х) - Ф(-х) = 0,99 дорівнює х = 2,57 ..., і, отже, n має бути таким, що 2,57 чи n > 660 . Обережна попередня оцінка дозволяє знайти необхідний обсяг вибірки.

в) Розподіл Пуассона.

Припустимо, що довільні величини k мають розподіл Пуассона (p(k; )). Тоді Sn має розподіл Пуассона з математичним очікуванням та дисперсією, рівними n .

Написавши замість n ми укладаємо, що при n


Підсумовування проводиться за всіма k від 0 до . Ф-ла (1.5) має місце і тоді, коли довільним чином.

Вище ми розглянули питання перебування ФПВ для суми статистично незалежних випадкових величин. У цьому розділі ми знову розглянемо суму статистично незалежних величин, але наш підхід буде іншим і не залежить від окремих ФПВ випадкових величин у сумі. Зокрема, припустимо, що складові суми – статистично незалежні та однаково розподілені випадкові величини, кожна з яких має обмежені середні значення та обмежену дисперсію.

Нехай визначається як нормована сума, яка називається вибірковим середнім

Спочатку визначимо верхні межі ймовірності хвостів, а потім доведемо дуже важливу теорему, що визначає ФПВ у межі, коли прагне нескінченності.

Випадкова величина, визначена (2.1.187), часто зустрічається при оцінюванні середньої випадкової величини по ряду спостережень. Іншими словами, можуть розглядатися як незалежні вибіркові реалізації з розподілу, а є оцінкою середнього.

Математичне очікування одно

.

Дисперсія дорівнює

Якщо розглядати як оцінку середнього , то бачимо, що його математичне очікування дорівнює , а його дисперсія зменшується зі зростанням обсягу вибірки . Якщо необмежено зростає, дисперсія прагне нуля. Оцінка параметра (у даному випадку), яка задовольняє умовам, що її математичне очікування прагне справжнього значення параметра, а дисперсія суворо до нуля, називається заможною оцінкою.

Хвостову ймовірність випадкової величини можна оцінити зверху, використовуй межі, дані в розд. 2.1.5. Нерівність Чебишева стосовно має вигляд

,

. (2.1.188)

У межі, коли , (2.1.188) слід

. (2.1.189)

Отже, ймовірність того, що оцінка середнього відрізняється від істинного значення більше, ніж на , прагне нуля, якщо необмежено зростає. Це положення є формою закону великих чисел. Оскільки верхня межа сходить до нуля щодо повільно, тобто. зворотньо пропорційно . вираз (2.1.188) називають слабким законом великих чисел.

Якщо до випадкової величини застосувати кордон Чернова, що містить експоненційну залежність від , тоді отримаємо щільну верхню межу для ймовірності одного хвоста. Дотримуючись процедури, викладеної в розд. 2.1.5, знайдемо, що ймовірність хвоста визначається виразом

де і . Але , статистично незалежні і однаково розподілені. Отже,

де - одна з величин. Параметр , який дає найбільш точну верхню межу, виходить диференціюванням (2.1.191) і прирівнюванням похідної нуля. Це веде до рівняння

(2.1.192)

Позначимо рішення (2.1.192) через . Тоді межа для ймовірності верхнього хвоста

, . (2.1.193)

Аналогічно ми знайдемо, що ймовірність нижнього хвоста має межу

, . (2.1.194)

Приклад 2.1.7. Нехай - ряд статистично незалежних випадкових величин, визначених так:

Ми хочемо визначити щільну верхню межу ймовірності того, що сума від більша, ніж нуль. Оскільки , то сума матиме від'ємне значеннядля математичного очікування (середнього), отже, шукатимемо ймовірність верхнього хвоста. При (2.1.193) маємо

, (2.1.195)

де - рішення рівняння

Отже,

. (2.1.197)

Отже, для кордону (2.1.195) отримуємо

Ми бачимо, що верхня межа зменшується експоненційно, як очікувалося. На противагу цьому згідно з кордоном Чебишева ймовірність хвоста зменшується назад пропорційно.

Центральна гранична теорема. У цьому розділі розглянемо надзвичайно корисну теорему, що стосується ІФР суми випадкових величин у межі, коли кількість доданків суми необмежено зростає. Є кілька версій цієї теореми. Доведемо теорему для випадку, коли випадкові сумовані величини , , статистично незалежні і однаково розподілені, кожна з них має обмежену середню та обмежену дисперсію .

Для зручності визначимо нормовану випадкову величину

Таким чином, має нульову середню та одиничну дисперсію.

Тепер нехай

Так як кожне доданок суми має нульову середню та одиничну дисперсію нормована (множником) величина має нульову середню та одиничну дисперсію. Ми хочемо визначити ІФР для межі, коли .

Характеристична функція дорівнює

, (2.1.200).

,

або, що еквівалентно,

. (2.1.206)

Але це якраз характеристична функція гауссівської випадкової величини нульовою середньою та одиничною дисперсією. Таким чином, ми маємо важливий результат; ФПВ суми статистично незалежних та однаково розподілених випадкових величин з обмеженим середнім та дисперсією наближається до гауссівської при . Це результат відомий як центральна гранична теорема.

Хоча ми припустили, що випадкові величини в сумі розподілені однаково, це припущення можна послабити за умови, що певні додаткові обмеженнявсе ж таки накладаються на властивості випадкових сумованих величин. Існує один різновид теореми, наприклад, коли відмовляються від припущення про однаковий розподіл випадкових величин на користь умови, що накладається на третій абсолютний момент випадкових величин суми. Для обговорення цієї та інших версій центральної граничної теореми читач надсилається до книги Крамера (1946).

Центральна гранична теорема є групою теорем, присвячених встановленню умов, за яких виникає нормальний законрозподілу, і порушення яких веде до розподілу, який відрізняється від нормального. Різні формицентральної граничної теореми різняться між собою умовами, що накладаються на розподіли утворюють суму випадкових доданків. Доведемо одну із самих простих формцієї теореми, а саме центральну граничну теорему для незалежних однаково розподілених доданків.

Розглянемо послідовність незалежних однаково розподілених випадкових величин, які мають математичне очікування. Припустимо також, що є дисперсія. Введемо позначення. Закон великих чисел для цієї послідовності можна подати у такій формі:

де збіжність можна розуміти як у сенсі збіжності за ймовірністю (слабкий закон великих чисел), так і в сенсі збіжності з ймовірністю, рівної одиниці(Посилений закон великих чисел).

Теорема (центральна гранична теорема для незалежних однаково розподілених випадкових величин). Нехай – послідовність незалежних однаково розподілених випадкових величин, . Тоді має місце рівномірна щодо () збіжність

де - функція стандартного нормального розподілу(З параметрами):

За умови такої збіжності послідовність називається асимптотично нормальної.

Теореми Ляпунова та Ліндеберга

Розглянемо випадок, коли випадкові величини мають різні розподіли, - незалежні з різними розподілами.

Теорема (Ліндеберг). Нехай – послідовність незалежних випадкових величин із кінцевими дисперсіями. Якщо для цієї послідовності виконується умова Ліндеберга:

де, то для неї виконано центральну граничну теорему.

Оскільки безпосередньо перевірка умови Ліндеберга скрутна, то розглядається деяка інша умова, за якої має місце центральна гранична теорема, а саме умова теореми Ляпунова.

Теорема (Ляпунова). Якщо для послідовності випадкових величин виконується умова Ляпунова:

то послідовність є асимптотично нормальної, тобто. має місце центральна гранична теорема.

З виконання умови Ляпунова слід виконання умови Ліндеберга, та якщо з нього випливає центральна гранична теорема.