Біографії Характеристики Аналіз

Закон великих чисел та граничні теореми. Закон великих чисел

Лемма Чебишева. Якщо випадкова величина х, для якої існує математичне очікування М[x], може набувати лише невід'ємних значень, то для будь-якого позитивного числа a має місце нерівність

Нерівність Чебишева.Якщо х- Випадкова величина з математичним очікуванням М[x] та дисперсією D[x], то для будь-якого позитивного e має місце нерівність

. (2)

Теорема Чебишева.(Закон великих чисел). Нехай х 1 , х 2 , …, x n,… - послідовність незалежних випадкових величин з тим самим математичним очікуванням mта дисперсіями, обмеженими однією і тією самою константою з

. (3)

Доказ теореми ґрунтується на нерівності

, (4)

що випливає з нерівності Чебишева. З теореми Чебишева як наслідок можна отримати

Теорема Бернуллі.Нехай проводиться nнезалежних дослідів, у кожному з яких із ймовірністю рможе настати деяка подія А, і нехай v n– випадкова величина, що дорівнює числу настань події Ав цих nдослідах. Тоді для будь-якого e > 0 має місце гранична рівність

. (5)

Зазначимо, що нерівність (4) стосовно умов теореми Бернуллі дає:

. (6)

Теорему Чебишева можна сформулювати у дещо більш загальному вигляді:

Узагальнена теорема Чебишева.Нехай х 1, х 2, …, x n,… - послідовність незалежних випадкових величин з математичними очікуваннями M[x 1 ] = m 1 , M[x 2] = m 2 ,...та дисперсіями, обмеженими однією і тією ж постійною з. Тоді для будь-якого позитивного числа e має місце гранична рівність

. (7)

Нехай х-число появи 6 очок при 3600 киданнях кістки. Тоді М [ x] = 3600 = 600. Скористаємося тепер нерівністю (1) при a = 900: .

Використовуємо нерівність (6) при n = 10000 р = q = . Тоді

приклад.

Імовірність настання події А в кожному із 1000 незалежних дослідів дорівнює 0,8. Знайдіть ймовірність того, що кількість настань події А у цих 1000 дослідах відхилиться від свого математичного очікування за абсолютною величиною менше ніж на 50.

Нехай х – число настань події А у зазначених 1000 дослідах. Тоді М [ x] = 1000 × 0,8 = 800 та D [ x] = 1000 × 0,8 × 0,2 = 160. Тепер нерівність (2) дає:


приклад.

Дисперсія кожної з 1000 незалежних випадкових величин x k (k = 1, 2,..., 1000) дорівнює 4. Оцініть ймовірність того, що відхилення середньої арифметичної величин від середньої арифметичної їх математичних очікувань за абсолютною величиною не перевищить 0,1.

Відповідно до нерівності (4) при с = 4 та e = 0,1 маємо.

План:

1. Поняття центральної граничної теореми (теорема Ляпунова)

2. Закон великих чисел, ймовірність та частота (теореми Чебишева та Бернуллі)

1. Поняття центральної граничної теореми.

Нормальний розподіл ймовірностей має теоретично ймовірностей велике значення. Нормальному закону підпорядковується ймовірність при стрільбі за метою, у вимірах тощо. п. Зокрема, виявляється, що закон розподілу суми досить великої кількості незалежних випадкових величин із довільними законами розподілу близький до нормального розподілу. Цей факт називається центральною граничною теоремою або теоремою Ляпунова.

Відомо, що нормально розподілені випадкові величини поширені практично. Чим це пояснюється? Відповідь на це питання було дано

Центральна гранична теорема.Якщо випадкова величина X являє собою суму дуже великої кількості взаємно незалежних випадкових величин, вплив кожної з яких на всю суму мізерно мало, то X має розподіл, близький до нормального розподілу.

приклад.Нехай проводиться вимір деякої фізичної величини. Будь-який вимір дає лише наближене значення вимірюваної величини, тому що на результат вимірювання впливають дуже багато незалежних випадкових факторів (температура, коливання приладу, вологість та ін.). Кожен із цих чинників породжує нікчемну "приватну помилку". Однак, оскільки кількість цих факторів дуже велика, їхня сукупна дія породжує вже помітну «сумарну помилку».

Розглядаючи сумарну помилку як суму дуже великої кількості взаємно незалежних приватних помилок, ми маємо право зробити висновок, що сумарна помилка має розподіл, близьке до нормального розподілу. Досвід підтверджує справедливість такого висновку.

Розглянемо умови, за яких виконується "центральна гранична теорема"

Х1,Х2, ..., Хn- Послідовність незалежних випадкових величин,

M(Х1),M(Х2), ...,Mn) - кінцеві математичні очікування цих величин відповідно рівні М(Xk)= ak

D (Х1),D(Х2), ...,Dn) - кінцеві дисперсії їх, відповідно рівні D(X k)= bk2

Введемо позначення: S = Х1 + Х2 + ... + Хn;

A k = Х1 + Х2 + ... + Хn =; B2 = D (Х1)+D(Х2)+...+Dn) =

Запишемо функцію розподілу нормованої суми:

Говорять, що до послідовності Х1,Х2, ..., Хnзастосовна центральна гранична теорема, якщо за будь-якого xфункція розподілу нормованої суми при n ® ¥ прагне нормальної функції розподілу:

Right " style="border-collapse:collapse;border:none;margin-left:6.75pt;margin-right: 6.75pt">

Розглянемо дискретну випадкову величину X, задану таблицею розподілу:

Поставимо собі завдання оцінити ймовірність того, що відхилення випадкової величини від її математичного очікування не перевищує за абсолютною величиною позитивного числа ε

Якщо ε досить мало, то ми оцінимо, таким чином, ймовірність того, що Xприйме значення, досить близькі до свого математичного очікування. довів нерівність, що дозволяє дати цікаву для нас оцінку.

Лемма Чебишева.Дано випадкову величину X, що приймає лише невід'ємні значення з математичним очікуванням M(X). Для будь-якого числа α>0 має місце вираз:

Нерівність Чебишева.Імовірність того, що відхилення випадкової величини X від її математичного очікування за абсолютною величиною менше позитивного числа ε , не менше ніж 1 – D(X) / ε 2:

Р(|X-M(X) |< ε ) ³ 1 - D (Х) / ε 2.

Зауваження.Нерівність Чебишева має практики обмежене значення, оскільки часто дає грубу, котрий іноді тривіальну (що не становить інтересу) оцінку.

Теоретичне значення нерівності Чебишева дуже велике. Нижче скористаємося цією нерівністю для виведення теореми Чебишева.

2.2. Теорема Чебишева

Якщо Х1, Х2, ...,Хn..- попарно незалежні випадкові величини, причому дисперсії їх рівномірно обмежені (не перевищують постійного числа С), то, як мало не було позитивне число ε , ймовірність нерівності

÷ (Х1 + Х2 + ... + Хn) / n - (M (Х1) + M (Х2) + ... + M (Хn)) / n |< ε

буде як завгодно близька до одиниці, якщо кількість випадкових величин досить велика.

P (÷ (Х1 + Х2 + ... + Хn) / n - (M (Х1) + M (Х2) + ... + M (Хn)) / n |< ε )=1.

Теорема Чебишева стверджує:

1. Розглядається досить велика кількість незалежних випадкових величин, що мають обмежені дисперсії,

Формулюючи теорему Чебишева, ми припускали, що випадкові величини мають різні математичні очікування. Насправді часто буває, що випадкові величини мають те саме математичне очікування. Очевидно, якщо знову припустити, що дисперсії цих величин обмежені, то до них буде застосовна теорема Чебишева.

Позначимо математичне очікування кожної з випадкових величин через а;

У цьому випадку середнє арифметичне математичних очікувань, як легко бачити, також дорівнює а.

Можна сформулювати теорему Чебишева для окремого випадку.

"Якщо Х1, Х2, ..., Хn ..- попарно незалежні випадкові величини, що мають одне й те саме математичне очікування а, і якщо дисперсії цих величин рівномірно обмежені, то, як би мало не було число ε > О, ймовірність нерівності

÷ (Х1 + Х2 + ... + Хn) / n - a | < ε

буде як завгодно близька до одиниці, якщо кількість випадкових величин досить велика. .

Іншими словами, в умовах теореми

P (÷ (Х1 + Х2 + ... + Хn) / n - a |< ε ) = 1.

2.3. Сутність теореми Чебишева

Хоча окремі незалежні випадкові величини можуть приймати значення, далекі від своїх математичних очікувань, середнє арифметичне досить великої кількості випадкових величин з великою ймовірністю приймає значення, близькі до певного постійного числа, а саме до

(М (Xj) + М (Х2)+... + М (Х„))/пабо до числа а вокремому випадку.

Інакше кажучи, окремі випадкові величини може мати значний розкид, які середнє арифметичне розсіяно мало.

Таким чином, не можна впевнено передбачити, яке можливе значення набуде кожна з випадкових величин, але можна передбачити, яке значення прийме їхнє середнє арифметичне.

Отже, середнє арифметичне досить великої кількості незалежних випадкових величин (дисперсії яких рівномірно обмежені) втрачає характер випадкової величини.

Пояснюється це тим, що відхилення кожної з величин від своїх математичних очікувань може бути як позитивними, і негативними, а середньому арифметичному вони взаємно погашаються.

Теорема Чебишева справедлива як дискретних, але й безперервних випадкових величин; вона є прикладом, що підтверджує справедливість вчення про зв'язок між випадковістю та необхідністю.

2.4. Значення теореми Чебишева для практики

Наведемо приклади застосування теореми Чебишева до вирішення практичних завдань.

Зазвичай для вимірювання деякої фізичної величини виробляють кілька вимірювань і їх середнє арифметичне приймають як шуканий розмір. За яких умов цей спосіб виміру можна вважати правильним? Відповідь це питання дає теорема Чебишева (її окремий випадок).

Справді, розглянемо результати кожного виміру як випадкові величини

Х1, Х2, ..., Хn

цим величинам можна застосувати теорему Чебишева, якщо:

1) Вони попарно незалежні.

2) мають те саме математичне очікування,

3) дисперсії їх рівномірно обмежені.

Перша вимога виконується, якщо результат кожного виміру залежить від результатів інших.

Друга вимога виконується, якщо виміри зроблено без систематичних (одного знаку) помилок. У цьому випадку математичні очікування всіх випадкових величин однакові і дорівнюють істинному розміру а.

Третя вимога виконується, якщо прилад забезпечує певну точність вимірів. Хоча у своїй результати окремих вимірів різні, але розсіювання їх обмежено.

Якщо всі зазначені вимоги виконані, ми маємо право застосувати до результатів вимірювань теорему Чебишева: за досить великого пймовірність нерівності

| (Х1 + Хя + ... + Х„) / п - а |< ε як завгодно близька до одиниці.

Іншими словами, при досить великій кількості вимірів майже достовірно, що їхнє середнє арифметичне як завгодно мало відрізняється від справжнього значення вимірюваної величини.

Теорема Чебишева вказує умови, за яких описаний спосіб виміру може бути застосований. Однак помилково думати, що, збільшуючи кількість вимірювань, можна досягти як завгодно великої точності. Справа в тому, що сам прилад дає показання лише з точністю ± α, тому кожен з результатів вимірювань, а отже, і їхнє середнє арифметичне будуть отримані лише з точністю, яка не перевищує точності приладу.

На теоремі Чебишева заснований широко застосовуваний у статистиці вибірковий метод, суть якого у тому, що у порівняно невеликий випадкової вибірці судять про всієї сукупності (генеральної сукупності) досліджуваних об'єктів.

Наприклад, про якість стосу бавовни укладають по невеликому пучку, що складається з волокон, навмання відібраних з різних місць стосу. Хоча число волокон у пучку значно менше, ніж у стосі, сам пучок містить досить велику кількість волокон, що обчислюється сотнями.

Як інший приклад можна зазначити визначення якості зерна по невеликий його пробі. І в цьому випадку число навмання відібраних зерен мало порівняно з усією масою зерна, але саме по собі воно досить велике.

Вже з наведених прикладів можна зробити висновок, що для практики теорема Чебишева має неоціненне значення.

2.5. ТеоремаБернуллі

Виготовляється пнезалежних випробувань (не подій, а випробувань). У кожному їх ймовірність появи події Aдорівнює нар.

Виникає питання,якою буде приблизно відносна частота появи події? На це питання відповідає теорема, доведена Бернуллі, яка отримала назву "закону великих чисел" і започаткувала теорію ймовірностей як науці.

Теорема Бернуллі.Якщо у кожному з пнезалежних випробувань ймовірність рпояви події Апостійна, то як завгодно близька до одиниці ймовірність того, що відхилення відносної частоти від ймовірності рпо абсолютній величині буде як завгодно малим, якщо кількість випробувань досить велика.

Іншими словами, якщо ε >0 скільки завгодно мале число, то при дотриманні умов теореми має місце рівність

Р(|m / п - р |< ε)= 1

Зауваження.Було б неправильним на підставі теореми Бернуллі зробити висновок, що зі зростанням числа випробувань відносна частота неухильно прагне ймовірності р;іншими словами, з теореми Бернуллі не випливає рівність (Т/п) = р,

Утеоремі йдеться лише про ймовірність того, що при досить великій кількості випробувань відносна частота буде, як завгодно мало відрізнятиметься від постійної ймовірності появи події у кожному випробуванні.

Завдання 7-1.

1. Оцінити ймовірність того, що при 3600 киданнях кістки кількість появи 6 очок буде не меншою за 900.

Рішення.Нехай x - Число появи 6 очок при 3600 кидання монети. Імовірність появи 6 очок за одного кидання дорівнює p=1/6, тоді M(x)=3600·1/6=600. Скористаємося нерівністю (лемою) Чебишева за заданого α = 900

= P(x³ 900) £ 600 / 900 = 2 / 3

Відповідь 2 / 3.

2. Проведено 1000 незалежних випробувань p=0,8. Знайти ймовірність числа наступів події A у цих випробуваннях відхилиться від свого математичного очікування за модулем менше, ніж 50.

Рішення. x – число настань події A у n – 1000 випробуваннях.

М (Х) = 1000 · 0,8 = 800. D(x)=100·0,8·0,2=160

Скористаємося нерівністю Чебишева за заданого ε = 50

Р(|х-M(X) |< ε) ³ 1 - D(х) / ε 2

Р(|х-800 |< 50) ³ / 50 2 = 1-160 / 2500 = 0,936.

Відповідь. 0,936

3. Використовуючи нерівність Чебишева, оцінити ймовірність того, що |Х - М(Х)|< 0,1, если D (X) = 0,001. Ответ Р³0,9.

4. Дано: Р(|Х- М(Х)\< ε) ³ 0,9; D (X)= 0,004. Використовуючи нерівність Чебишева, знайти ε . Відповідь. 0,2.

Контрольні питання та завдання

1. Призначення центральної граничної теореми

2. Умови застосування теореми Ляпунова.

3. Відмінність леми та теореми Чебишева.

4. Умови застосування теореми Чебишева.

5. Умови застосування теореми Бернуллі (закону великих чисел)

Вимоги до знань умінь та навичок

Студент повинен знати загальносмислове формулювання центральної граничної теореми. Вміти формулювати приватні теореми для незалежних однаково розподілених випадкових величин. Розуміти нерівність Чебишева та закон великих чисел у формі Чебишева. Мати уявлення про частоту події, взаємовідносини між поняттями "ймовірність" та "частота". Мати уявлення про закон великих чисел у формі Бернуллі.

(1857-1918), видатний російський математик

На початку курсу ми вже говорили, що математичні закони теорії ймовірностей отримані абстрагуванням реальних статистичних закономірностей, властивих масовим випадковим явищам. Наявність цих закономірностей пов'язана саме з масовістю явищ, тобто з великою кількістю виконуваних однорідних дослідів або з великою кількістю випадкових впливів, що складаються у своїй сукупності випадкову величину, підпорядковану цілком певному закону. Властивість стійкості масових випадкових явищ відоме людству ще з давніх-давен. У якій області воно не виявлялося, суть його зводиться до наступного: конкретні особливості кожного окремого випадкового явища майже не позначаються на середньому результаті мас і таких явищ; випадкові відхилення від середнього, неминучі у кожному окремому явище, у масі взаємно погашаються, нівелюються, вирівнюються. Саме ця стійкість середніх і є фізичний зміст «закону великих чисел», що розуміється у широкому значенні слова: за дуже великому числі випадкових явищ середній їх результат практично перестає бути випадковим і може бути передбачений з великим ступенем визначеності.

У вузькому значенні слова під «законом великих чисел» теоретично ймовірностей розуміється ряд математичних теорем, у кожному з яких тих чи інших умов встановлюється факт наближення середніх показників величезної кількості дослідів до певним постійним.

У 2.3 ми вже формулювали найпростішу з цих теорем – теорему Я. Бернуллі. Вона стверджує, що з великої кількості дослідів частота події наближається (точніше - сходиться ймовірно) до ймовірності цієї події. З іншими, найбільш загальними формами закону високих чисел ми познайомимося у цій главі. Всі вони встановлюють факт та умови збіжності за ймовірністю тих чи інших випадкових величин до постійних, не випадкових величин.

Закон великих чисел відіграє у практичних застосуваннях теорії ймовірностей. Властивість випадкових величин за певних умов поводитися практично як не випадково дозволяє впевнено оперувати з цими величинами, передбачати результати масових випадкових явищ майже з повною визначеністю.

Можливості таких передбачень у сфері масових випадкових явищ ще більше розширюються наявністю іншої групи граничних теорем, що стосуються не граничних значень випадкових величин, а граничних законів розподілу. Йдеться групі теорем, відомих під назвою «центральної граничної теореми». Ми вже говорили про те, що при підсумовуванні досить великої кількості випадкових величин закон розподілу суми необмежено наближається до нормального за дотримання деяких умов. Ці умови, які математично можна формулювати різним чином - у більш менш загальному вигляді, - по суті зводяться до вимоги, щоб вплив на суму окремих доданків було рівномірно малим, тобто щоб до складу суми не входили члени, явно переважають над сукупністю решти за своїм впливом на розсіювання суми. Різні форми центральної граничної теореми різняться між собою тими умовами, котрим встановлюється це граничне властивість суми випадкових величин.

Різні форми закону великих чисел разом із різними формами центральної граничної теореми утворюють сукупність про граничних теорем теорії ймовірностей. Граничні теореми дають можливість як здійснювати наукові прогнози у сфері випадкових явищ, а й оцінювати точність цих прогнозів.

У цьому розділі ми розглянемо лише деякі, найпростіші форми граничних теорем. Спочатку будуть розглянуті теореми, які стосуються групи «закону великих чисел», потім - теореми, які стосуються групи «центральної граничної теореми».

1. /PB-MS-theory/Лекції-1(4с.).doc
2. /PB-MS-theory/Лекції-2(4с.).doc
3. /PB-MS-theory/Лекції-3(4с.).doc
4. /PB-MS-theory/Лекції-4(4с.).doc
5. /PB-MS-theory/Зміст.doc
Лекція 1
Лекція 19. Статистична перевірка статистичних гіпотез. Загальні засади перевірки гіпотез. Поняття статистичної гіпотези (простої та складної), нульової та конкуруючої гіпотези,
Закон великих чисел. Нерівність Чебишева. Теореми Чебишева та Бернуллі
Лекція Основні числові характеристики дискретних та безперервних випадкових величин: математичне очікування, дисперсія та середнє квадратичне відхилення. Їх властивості та приклади
Предмет теорії ймовірностей. Випадкові події Алгебра подій. Відносна частота і ймовірність випадкової події. Повна група подій. Класичне визначення ймовірності. Основні властивості імовірності. Основні формули комбінаторики

лекція 13.

Закон великих чисел. Нерівність Чебишева. Теореми Чебишева та Бернуллі.
Вивчення статистичних закономірностей дозволило встановити, що за деяких умов сумарна поведінка великої кількості випадкових величин майже втрачає випадковий характер і стає закономірним (інакше кажучи, випадкові відхилення від деякої середньої поведінки взаємно погашаються). Зокрема, якщо вплив на суму окремих доданків є рівномірно малим, закон розподілу суми наближається до нормального. Математичне формулювання цього твердження дається в групі теорем, яка називається законом великих чисел.

Нерівність Чебишева.
Нерівність Чебишева, використовуване на підтвердження подальших теорем, справедливо як безперервних, так дискретних випадкових величин. Доведемо його дискретних випадкових величин.
Теорема 13.1 (нерівність Чебишева). p( | XM(X)| D( X) / ε². (13.1)

Доведення. Нехай Хзадається рядом розподілу


Х

х 1

х 2



х п

р

р 1

р 2



р п

Оскільки події | XM(X)| X M(X)| ≥ ε протилежні, то р (|XM(X)| р (| XM(X)| ≥ ε) = 1, отже, р (|XM(X)| р (| XM(X)| ≥ ε). Знайдемо р (|XM(X)| ≥ ε).

D(X) = (x 1 – M(X))² p 1 + (x 2 – M(X))² p 2 + … + (x n M(X))² p n . Виключимо із цієї суми ті доданки, для яких | XM(X)| k доданків. Тоді

D(X) ≥ (x k + 1 – M(X))² p k + 1 + (x k + 2 – M(X))² p k +2 + … + (x n M(X))² p n ≥ ε² ( p k + 1 + p k + 2 + … + p n).

Відмітимо, що p k + 1 + p k + 2 + … + p nІснує ймовірність того, що | XM(X)| ≥ ε, оскільки це сума ймовірностей усіх можливих значень Хдля яких ця нерівність справедлива. Отже, D(X) ≥ ε² р(|XM(X)| ≥ ε), або р (|XM(X)| ≥ ε) ≤ D(X) / ε². Тоді ймовірність протилежної події p( | XM(X)| D( X) / ε², що і потрібно довести.
Теореми Чебишева та Бернуллі.

Теорема 13.2 (теорема Чебишева). Якщо Х 1 , Х 2 ,…, Х п- Попарно незалежні випадкові величини, дисперсії яких рівномірно обмежені ( D(X i) ≤ C), то для скільки завгодно малого ε ймовірність нерівності

буде скільки завгодно близька до 1, якщо число випадкових величин досить велике.

Зауваження.Інакше кажучи, під час виконання цих умов

Доведення. Розглянемо нову випадкову величину
і знайдемо її математичне очікування. Використовуючи властивості математичного очікування, отримаємо, що . Застосуємо до Нерівність Чебишева: Оскільки аналізовані випадкові величини незалежні, то, враховуючи умову теореми, маємо: Використовуючи цей результат, представимо попередню нерівність у вигляді:

Перейдемо до межі при
: Оскільки ймовірність не може бути більше 1, можна стверджувати, що

Теорему доведено.
Слідство.

Якщо Х 1 , Х 2 , …, Х п- попарно незалежні випадкові величини з рівномірно обмеженими дисперсіями, що мають однакове математичне очікування, рівне а, то для будь-якого скільки завгодно малого ε > 0 ймовірність нерівності
буде як завгодно близька до 1, якщо кількість випадкових величин досить велика. Інакше кажучи,
.

Висновок:середнє арифметичне досить великої кількості випадкових величин приймає значення, близькі до суми їх математичних очікувань, тобто втрачає характер випадкової величини. Наприклад, якщо проводиться серія вимірів будь-якої фізичної величини, причому: а) результат кожного виміру залежить від результатів інших, тобто всі результати є попарно незалежні випадкові величини; б) виміри проводяться без систематичних помилок (їх математичні очікування рівні між собою і дорівнюють істинному значенню авимірюваної величини); в) забезпечена певна точність вимірювань, отже, дисперсії аналізованих випадкових величин рівномірно обмежені; то при досить великому числі вимірів їхнє середнє арифметичне виявиться як завгодно близьким до справжнього значення вимірюваної величини.
Теорема Бернуллі.
Теорема 13.3 (теорема Бернуллі). Якщо у кожному з пнезалежних дослідів ймовірність рпояви події Апостійна, то при досить великій кількості випробувань імовірність того, що модуль відхилення відносної частоти появи Ав пдослідах від рбуде як завгодно малим, як завгодно близька до 1:

(13.2)

Доведення. Введемо випадкові величини Х 1 , Х 2 , …, Х п, де X i кількість появи Ав i-му досвіді. При цьому X i можуть приймати лише два значення: 1(з ймовірністю р) та 0 (з ймовірністю q = 1 – p). З іншого боку, аналізовані випадкові величини попарно незалежні та його дисперсії рівномірно обмежені (оскільки D(X i) = pq, p + q = 1, звідки pq ≤ ¼). Отже, до них можна застосувати теорему Чебишева при M i = p:

.

Але
, так як X i приймає значення, що дорівнює 1, при появі Ау цьому досвіді, і значення, що дорівнює 0, якщо Ане відбулося. Таким чином,

що і потрібно було довести.
Зауваження.З теореми Бернуллі не слід, що
Йдеться лише про ймовірностітого, що різниця відносної частоти та ймовірності по модулю може стати як завгодно малою. Різниця полягає в наступному: при звичайній збіжності, що розглядається в математичному аналізі, для всіх п, починаючи з деякого значення, нерівність
виконується завжди; у нашому випадку можуть знайтись такі значення п, у яких ця нерівність неправильна. Цей вид збіжності називають збіжністю за ймовірністю.

лекція 14.

Центральна гранична теорема Ляпунова. Гранична теорема Муавра-Лапласа.
Закон великих чисел не досліджує вигляду граничного закону розподілу суми випадкових величин. Це питання розглянуто у групі теорем, званих центральної граничної теореми.Вони стверджують, що закон розподілу суми випадкових величин, кожна з яких може мати різні розподіли, наближається до нормального за достатньо великої кількості доданків. Цим пояснюється важливість нормального закону для практичних додатків.
Характеристичні функції.

Для доказу центральної граничної теореми використовується метод характеристичних функцій.
Визначення 14.1.Характеристичною функцією випадкової величини Хназивається функція

g(t) = M (e itX ) (14.1)

Таким чином, g (t) являє собою математичне очікування деякої комплексної випадкової величини U = e itX, пов'язаної з величиною Х. Зокрема, якщо Х– дискретна випадкова величина, задана поруч розподілу, то

. (14.2)

Для безперервної випадкової величини із щільністю розподілу f(x)

(14.3)

Приклад 1. Нехай Х- Число випадінь 6 очок при одному кидку гральної кістки. Тоді за формулою (14.2) g(t) =

Приклад 2. Знайдемо характеристичну функцію для безперервної нормованої випадкової величини, розподіленої за нормальним законом
. За формулою (14.3) (використовувалася формула
і те, що i² = -1).

Властивості характеристичних функций.
1. Функцію f(x) можна знайти за відомою функцією g(t) за формулою

(14.4)

(перетворення (14.3) називається перетворенням Фур'є, а перетворення (14.4) – зворотним перетворенням Фур'є).

2. Якщо випадкові величини Хі Yпов'язані співвідношенням Y = aX, їх характеристичні функції пов'язані співвідношенням

g y (t) = g x (at). (14.5)

3. Характеристична функція суми незалежних випадкових величин дорівнює добутку характеристичних функцій доданків:

(14.6)
Теорема 14.1 (центральна гранична теорема для однаково розподілених доданків). Якщо Х 1 , Х 2 ,…, Х п,… - незалежні випадкові величини з однаковим законом розподілу, математичним очікуванням тта дисперсією σ 2 , то при необмеженому збільшенні пзакон розподілу суми
необмежено наближається до нормального.

Доведення.

Доведемо теорему для безперервних випадкових величин Х 1 , Х 2 ,…, Х п(Доказ для дискретних величин аналогічно). Відповідно до умови теореми, характеристичні функції доданків однакові:
Тоді за якістю 3 характеристична функція суми Y nбуде
Розкладемо функцію g x (t) у ряд Маклорена:

, де
при
.

Якщо припустити, що т= 0 (тобто перенести початок відліку в точку т), то
.

(так як т= 0). Підставивши отримані результати до формули Маклорена, знайдемо, що

.

Розглянемо нову випадкову величину
, відмінну від Y n тим, що її дисперсія за будь-якого пдорівнює 0. Y nі Z nпов'язані лінійною залежністю, достатньо довести, що Z n розподілена за нормальним законом, або, що те саме, що її характерна функція наближається до характеристичної функції нормального закону (див. приклад 2). За якістю характеристичних функцій

Прологарифмуємо отриманий вираз:

де

Розкладемо
у ряд при п→ ∞, обмежившись двома членами розкладання, тоді ln(1 - k) ≈ - k. Звідси

Де остання межа дорівнює 0, тому що при . Отже,
, тобто
- Характеристична функція нормального розподілу. Отже, при необмеженому збільшенні числа доданків характеристична функція величини Z nнеобмежено наближається до характеристичної функції нормального закону; отже, закон розподілу Z n Y n) необмежено наближається до нормального. Теорему доведено.

А.М.Ляпунов довів центральну граничну теорему для більш загального виду:
Теорема 14.2 (теорема Ляпунова). Якщо випадкова величина Хє сумою дуже великої кількості взаємно незалежних випадкових величин, для яких виконано умову:

, (14.7)

де b k - Третій абсолютний центральний момент величини Х до, а D k- Її дисперсія, то Хмає розподіл, близький до нормального (умова Ляпунова означає, що вплив кожного доданка на суму мізерно мало).
Практично можна використовувати центральну граничну теорему при досить невеликій кількості доданків, оскільки ймовірні розрахунки вимагають порівняно малої точності. Досвід показує, що для суми навіть десяти і менш складових закон їхнього розподілу можна замінити нормальним.

Окремим випадком центральної граничної теореми для дискретних випадкових величин є теорема Муавра-Лапласа.

Теорема 14.3 (теорема Муавра-Лапласа). Якщо виробляється пнезалежних дослідів, у кожному з яких подія Аз'являється з ймовірністю р, то справедливе співвідношення:

(14.8)

де Y - Число появи події Ав пдослідах, q = 1 – p.

Доведення.

Вважатимемо, що
, де Х i- Число появи події Ав i-му досвіді. Тоді випадкову величину
(див. теорему 14.1) можна вважати розподіленою за нормальним законом і нормованою, отже, ймовірність її потрапляння в інтервал (α, β) можна знайти за формулою

Оскільки Yмає біномне розподіл, . Тоді
. Підставляючи цей вислів у попередню формулу, отримаємо рівність (14.8).

Слідство.

У разі теореми Муавра-Лапласа ймовірність
того, що подія Аз'явиться в пдослідах рівно kраз, при великій кількості дослідів можна знайти за формулою:

(14.9)

де
, а
(Значення цієї функції наводяться в спеціальних таблицях).

Приклад 3. Знайти можливість, що з 100 кидках монети число випадань герба виявиться не більше від 40 до 60.

Застосуємо формулу (14.8), враховуючи, що п= 0,5. Тоді пр= 100 · 0,5 = 50, Тоді, якщо
Отже,

Приклад 4. У разі попереднього прикладу знайти ймовірність те, що випаде 45 гербів.

Знайдемо
тоді

лекція 15.

Основні поняття математичної статистики. Генеральна сукупність та вибірка. варіаційний ряд, статистичний ряд. Групована вибірка. Групований статистичний ряд. Полігон частот. Вибіркова функція розподілу та гістограма.
Математична статистика займається встановленням закономірностей, яким підпорядковані масові випадкові явища, з урахуванням обробки статистичних даних, отриманих результаті спостережень. Двома основними завданнями математичної статистики є:

Визначення способів збирання та угруповання цих статистичних даних;

Розробка методів аналізу отриманих даних в залежності від цілей дослідження, до яких належать:

а) оцінка невідомої ймовірності події; оцінка невідомої функції розподілу; оцінка параметрів розподілу, вид якого відомий; оцінка залежності від інших випадкових величин тощо;

б) перевірка статистичних гіпотез про вид невідомого розподілу чи значення параметрів відомого розподілу.

Для вирішення цих завдань необхідно вибрати із великої сукупності однорідних об'єктів обмежену кількість об'єктів, за результатами вивчення яких можна зробити прогноз щодо досліджуваної ознаки цих об'єктів.

Визначимо основні поняття математичної статистики.

Генеральна сукупність - Все безліч наявних об'єктів.

Вибірка- Набір об'єктів, випадково відібраних з генеральної сукупності.

Обсяг генеральної сукупностіN та обсяг вибіркиn - Число об'єктів в аналізованої мій сукупності.

Види вибірки:

Повторна- Кожен відібраний об'єкт перед вибором наступного повертається в генеральну сукупність;

Неповторна- відібраний об'єкт у генеральну сукупність не повертається.
Зауваження.Для того, щоб з дослідження вибірки можна було зробити висновки про поведінку цікавого для нас ознаки генеральної сукупності, потрібно, щоб вибірка правильно представляла пропорції генеральної сукупності, тобто була репрезентативної(представницькою). З огляду на закон великих чисел можна стверджувати, що ця умова виконується, якщо кожен об'єкт обраний випадково, причому для будь-якого об'єкта ймовірність потрапити у вибірку однакова.
Первинне опрацювання результатів.

Нехай цікава для нас випадкова величина Хприймає у вибірці значення х 1 п 1 раз, х 2 – п 2 разів, …, х до - П дораз, причому
де п- Обсяг вибірки. Тоді спостерігаються значення випадкової величини х 1 , х 2 ,…, х до називають варіантами, а п 1 , п 2 ,…, п дочастотами. Якщо поділити кожну частоту на обсяг вибірки, то отримаємо відносні частоти
Послідовність варіант, записаних у порядку зростання, називають варіаційнимпоряд, а перелік варіантів і відповідних їм частот або відносних частот – статистичним рядом:


x i

x 1

x 2



x k

n i

n 1

n 2



n k

w i

w 1

w 2



w k

При проведенні 20 серій з 10 кидків ігральної кістки кількість випадень шести очок дорівнювала 1,1,4,0,1,2,1,2,2,0,5,3,3,1,0,2,2,3 ,4,1.Складемо варіаційний ряд: 0,1,2,3,4,5. Статистичний ряд для абсолютних та відносних частот має вигляд:


x i

0

1

2

3

4

5

n i

3

6

5

3

2

1

w i

0,15

0,3

0,25

0,15

0,1

0,05

Якщо досліджується деяка безперервна ознака, то варіаційний ряд може складатися з великої кількості чисел. У цьому випадку зручніше використовувати груповану вибірку. Для її отримання інтервал, в якому укладені всі значення ознаки, що спостерігаються, розбивають на кілька рівних часткових інтервалів завдовжки h, а потім знаходять для кожного часткового інтервалу n i- Суму частот варіант, що потрапили в i-і інтервал. Складена за цими результатами таблиця називається групованим статистичним рядом:

Полігон частот. Вибіркова функція розподілу та гістограма.
Для наочного уявлення про поведінку досліджуваної випадкової величини вибірці можна будувати різні графіки. Один з них - полігон частот: ламана, відрізки якої з'єднують точки з координатами ( x 1 , n 1), (x 2 , n 2),…, (x k , n k), де x i відкладаються на осі абсцис, а n i - На осі ординат. Якщо на осі ординат відкладати не абсолютні ( n i), а відносні ( w i) частоти, то отримаємо полігон відносних частот(Рис.1) . Рис. 1.

За аналогією з функцією розподілу випадкової величини можна задати деяку функцію, відносну частоту події X x.

Визначення 15.1.Вибірковою (емпіричною) функцією розподілуназивають функцію F* (x), визначальну для кожного значення хвідносну частоту події X x. Таким чином,

, (15.1)

де п х– число варіантів, менших х, п- Обсяг вибірки.
Зауваження.На відміну від емпіричної функції розподілу, знайденої дослідним шляхом, функцію розподілу F(x) генеральної сукупності називають теоретичною функцією розподілу. F(x) визначає ймовірність події X x, а F* (x) – його відносну частоту. При досить великих п, як випливає з теореми Бернуллі, F* (x) прагне по ймовірності до F(x).

З визначення емпіричної функції розподілу видно, що її властивості збігаються з властивостями F(x), а саме:


  1. 0 ≤F* (x) ≤ 1.

  2. F* (x) - Незменшуюча функція.

  3. Якщо х 1 – найменша варіанта, то F* (x) = 0 при хх 1; якщо х до - Найбільша варіанта, то F* (x) = 1 при х> х до .
Для безперервної ознаки графічною ілюстрацією є гістограма, тобто ступінчаста фігура, що складається з прямокутників, основами яких є часткові інтервали завдовжки h, а висотами відрізки завдовжки n i / h(гістограма частот) або w i / h (Гістограма відносних частот). У першому випадку площа гістограми дорівнює обсягу вибірки, у другому одиниці (рис.2). Рис.2.

лекція 16.

Числові характеристики статистичного розподілу: вибіркове середнє, оцінки дисперсії, оцінки моди та медіани, оцінки початкових та центральних моментів. Статистичний опис та обчислення оцінок параметрів двовимірного випадкового вектора.
Одне із завдань математичної статистики: за наявною вибіркою оцінити значення числових характеристик досліджуваної випадкової величини.

Визначення 16.1.Вибірковим середнімназивається середнє арифметичне значень випадкової величини, що приймаються у вибірці:

, (16.1)

де x i- варіанти, n i- Частоти.

Зауваження.Вибіркове середнє служить з метою оцінки математичного очікування досліджуваної випадкової величини. Надалі буде розглянуто питання, наскільки точною є така оцінка.

Визначення 16.2.Вибірковою дисперсієюназивається

, (16.2)

а вибірковим середнім квадратичним відхиленням

(16.3)

Так само, як у теорії випадкових величин, можна довести, що справедлива наступна формула для обчислення вибіркової дисперсії:

. (16.4)

Приклад 1. Знайдемо числові характеристики вибірки, заданої статистичним рядом


x i

2

5

7

8

n i

3

8

7

2

Іншими характеристиками варіаційного ряду є:

- модаМ 0 – варіанти, що мають найбільшу частоту (у попередньому прикладі М 0 = 5).

- медіанат е - Варіанту, яка ділить варіаційний ряд на дві частини, рівні за кількістю варіант. Якщо число варіант непарне ( n = 2k+ 1), то m e = x k + 1 , а при парному n = 2k
. Зокрема, у прикладі 1

Оцінки початкових та центральних моментів (так звані емпіричні моменти) визначаються аналогічно відповідним теоретичним моментам:

- Початковим емпіричним моментом порядкуk називається

. (16.5)

Зокрема,
, Тобто початковий емпіричний момент першого порядку дорівнює вибірковому середньому.

- центральним емпіричним моментом порядкуk називається

. (16.6)

Зокрема,
, тобто центральний емпіричний момент другого порядку дорівнює вибірковій дисперсії.
Статистичний опис та обчислення характеристик

двовимірний випадковий вектор.
При статистичному дослідженні двовимірних випадкових величин основним завданням зазвичай є виявлення зв'язку між складовими.

Двовимірна вибірка є набором значень випадкового вектора: ( х 1 , у 1), (х 2 , у 2), …, (х п , у п). Для неї можна визначити середні вибіркові складові:

та відповідні вибіркові дисперсії та середні квадратичні відхилення. Крім того, можна обчислити умовні середні: - середнє арифметичне спостерігалися значень Y, відповідних Х = х, і - Середнє значення значень, що спостерігалися Х, відповідних Y = y.

Якщо існує залежність між складовими двовимірної випадкової величини, вона може мати різний вигляд: функціональна залежність, якщо кожному можливому значенню Хвідповідає одне значення Y, і статистична, коли він зміна однієї величини призводить до зміни розподілу інший. Якщо у результаті зміни однієї величини змінюється середнє значення інший, то статистичну залежність з-поміж них називають кореляційної.

лекція 17.

Основні властивості статистичних характеристик параметрів розподілу: незміщеність, спроможність, ефективність. Незміщеність та спроможність вибіркового середнього як оцінки математичного очікування. Зміщення вибіркової дисперсії. Приклад незміщеної оцінки дисперсії. Асимптотично незміщені оцінки. Способи побудови оцінок: метод найбільшої правдоподібності, метод моментів, метод квантили, метод найменших квадратів, байєсівський підхід до отримання оцінок.
Отримавши статистичні оцінки параметрів розподілу (вибіркове середнє, вибіркову дисперсію і т.д.), потрібно переконатися, що вони достатньою мірою служать наближенням відповідних характеристик генеральної сукупності. Визначимо вимоги, які мають виконуватися.

Нехай Θ* - статистична оцінка невідомого параметра Θ теоретичного розподілу. Витягнемо з генеральної сукупності кілька вибірок одного і того ж обсягу пта обчислимо для кожної з них оцінку параметра Θ:
Тоді оцінку Θ* можна розглядати як випадкову величину, що приймає можливі значення Якщо математичне очікування Θ* не дорівнює параметру, що оцінюється, ми будемо отримувати при обчисленні оцінок систематичні помилки одного знака (з надлишком, якщо М(Θ*) >Θ, і з нестачею, якщо М(Θ*) М (Θ*) = Θ.
Визначення 17.2.Статистична оцінка Θ* називається незміщеною, якщо її математичне очікування дорівнює оцінюваному параметру при будь-якому обсязі вибірки:

М(Θ*) = Θ. (17.1)

Зміщеноюназивають оцінку, математичне очікування якої не дорівнює параметру, що оцінюється.

Однак незміщеність не є достатньою умовою гарного наближення до істинного значення оцінюваного параметра. Якщо при цьому можливі значення Θ* можуть значно відхилятися від середнього значення, тобто дисперсія Θ* велика, то значення, знайдене за даними однієї вибірки, може значно відрізнятися від параметра, що оцінюється. Отже, потрібно накласти обмеження дисперсію.
Визначення 17.2.Статистична оцінка називається ефективноюякщо вона при заданому обсязі вибірки пмає найменшу можливу дисперсію.
При розгляді вибірок великого обсягу статистичним оцінкам пред'являється ще й вимога спроможності.
Визначення 17.3.Заможноюназивається статистична оцінка, яка при п→∞ спрямується за ймовірністю до оцінюваного параметра (якщо ця оцінка незміщена, то вона буде заможною, якщо при п→∞ її дисперсія прагне 0).
Переконаємося, що є незміщеною оцінкою математичного очікування М(Х).

Розглянемо як випадкову величину, а х 1 , х 2 ,…, х п, тобто значення досліджуваної випадкової величини, що становлять вибірку, – як незалежні, однаково розподілені випадкові величини Х 1 , Х 2 ,…, Х п, що мають математичне очікування а. З властивостей математичного очікування випливає, що

Але, оскільки кожна з величин Х 1 , Х 2 ,…, Х п має такий самий розподіл, як і генеральна сукупність, а = М(Х), тобто М(
) = М(Х), що і потрібно було довести. Вибіркове середнє є не лише незміщеною, а й заможною оцінкою математичного очікування. Якщо припустити, що Х 1 , Х 2 ,…, Х пмають обмежені дисперсії, то з теореми Чебишева випливає, що їх середнє арифметичне, тобто при збільшенні ппрагне ймовірності до математичного очікування акожної їх величин, тобто до М(Х). Отже, вибіркове середнє є заможною оцінкою математичного очікування.

На відміну від вибіркового середнього, вибіркова дисперсія є зміщеною оцінкою дисперсії генеральної сукупності. Можна довести, що

, (17.2)

де D Г - Справжнє значення дисперсії генеральної сукупності. Можна запропонувати іншу оцінку дисперсії – виправлену дисперсіюs ² , що обчислюється за формулою

. (17.3)

Така оцінка буде незміщеною. Їй відповідає виправлене середнє квадратичне відхилення

. (17.4)

Визначення 17.4.Оцінка деякої ознаки називається асимптотично незміщеною, якщо для вибірки х 1 , х 2 , …, х п

, (17.5)

де Х- Справжнє значення досліджуваної величини.
Способи побудови оцінок.
1. Метод найбільшої правдоподібності.
Нехай Х- дискретна випадкова величина, яка в результаті пвипробувань набула значення х 1 , х 2 , …, х п. Припустимо, що нам відомий закон розподілу цієї величини, який визначається параметром Θ, але невідомо чисельне значення цього параметра. Знайдемо його точкову оцінку.

Нехай р(х i, Θ) – ймовірність того, що в результаті випробування величина Хнабуде значення х i. Назвемо функцією правдоподібностідискретної випадкової величини Хфункцію аргументу Θ, що визначається за формулою:

L (х 1 , х 2 , …, х п ; Θ) = p(x 1 ,Θ) p(x 2 ,Θ)… p(x n ,Θ).

Тоді як точкову оцінку параметра Θ приймають таке його значення Θ* = Θ( х 1 , х 2 , …, х п), при якому функція правдоподібності досягає максимуму. Оцінку Θ* називають оцінкою найбільшої правдоподібності.

Оскільки функції Lта ln Lдосягають максимуму при тому самому значенні Θ, зручніше шукати максимум ln Lлогарифмічної функції правдоподібності. Для цього потрібно:


Переваги методу найбільшої правдоподібності: отримані оцінки спроможні (хоча можуть бути зміщеними), розподілені асимптотично нормально при великих значеннях пі мають найменшу дисперсію порівняно з іншими асимптотично нормальними оцінками; якщо для параметра Θ, що оцінюється, існує ефективна оцінка Θ*, то рівняння правдоподібності має єдине рішення Θ*; метод найповніше використовує дані вибірки і тому особливо корисний у разі малих вибірок.

Недолік методу найбільшої правдоподібності: складність обчислень.
Для безперервної випадкової величини з відомим видом щільності розподілу f(x) і невідомим параметром Θ функція правдоподібності має вигляд:

L (х 1 , х 2 , …, х п ; Θ) = f(x 1 ,Θ) f(x 2 ,Θ)… f(x n ,Θ).

Оцінка найбільшої правдоподібності невідомого параметра проводиться як і, як для дискретної випадкової величини.
2. Метод моментів.
Метод моментів заснований на тому, що початкові та центральні емпіричні моменти є заможними оцінками відповідно до початкових і центральних теоретичних моментів, тому можна прирівняти теоретичні моменти відповідним емпіричним моментам того ж порядку.

Якщо заданий вид густини розподілу f(x, Θ), яка визначається одним невідомим параметром Θ, то для оцінки цього параметра достатньо мати одне рівняння. Наприклад, можна прирівняти початкові моменти першого порядку:

,

отримавши цим рівняння визначення Θ. Його рішення Θ* буде точковою оцінкою параметра, яка є функцією від вибіркового середнього і, отже, і варіант вибірки:

Θ = ψ ( х 1 , х 2 , …, х п).

Якщо відомий вид густини розподілу f(x, Θ 1 , Θ 2) визначається двома невідомими параметрами Θ 1 і Θ 2 , то потрібно скласти два рівняння, наприклад

ν 1 = М 1 , μ 2 = т 2 .

Звідси
- система двох рівнянь із двома невідомими Θ 1 та Θ 2 . Її рішеннями будуть точкові оцінки Θ 1 * та Θ 2 * - функції варіант вибірки:

Θ 1 = ψ 1 ( х 1 , х 2 , …, х п),

Θ 2 = ψ 2 ( х 1 , х 2 , …, х п).
3. Метод найменших квадратів.

Якщо потрібно оцінити залежність величин уі х, причому відомий вид пов'язує їх функції, але невідомі значення входять до неї коефіцієнтів, їх величини можна оцінити за наявною вибіркою з допомогою методу найменших квадратів. Для цього функція у = φ ( х) вибирається так, щоб сума квадратів відхилень значень, що спостерігаються у 1 , у 2 ,…, у пвід φ( х i) була мінімальною:

При цьому потрібно знайти стаціонарну точку функції? x; a, b, c), тобто вирішити систему:

(Рішення, звичайно, можливе лише у випадку, коли відомий конкретний вид функції φ).

Розглянемо як приклад добір параметрів лінійної функції шляхом найменших квадратів.

Для того щоб оцінити параметри аі bу функції y = ax + b, знайдемо
Тоді
. Звідси
. Розділивши обидва отримані рівняння на пі згадавши визначення емпіричних моментів, можна отримати вирази аі bу вигляді:

. Отже, зв'язок між хі уможна поставити у вигляді:


4. Байєсовський підхід до отримання оцінок.
Нехай ( Y, X) – випадковий вектор, для якого відома щільність р(у|x) умовного розподілу-ня Yпри кожному значенні Х = х. Якщо в результаті експерименту отримано лише значення Y, а відповідні значення Хневідомі, то оцінки деякої заданої функції φ( х) як її наближеного значення пропонується шукати умовне математичне очікування М (φ‌‌( х)‌‌‌‌‌‌|Y), що обчислюється за формулою:

де , р(х Х, q(y) – щільність безумовного розподілу Y. Завдання може бути вирішене тільки тоді, коли відоме р(х). Іноді, однак, вдається побудувати заможну оцінку для q(y), що залежить тільки від отриманих у вибірці значень Y.

лекція 18.

Інтервальне оцінювання невідомих параметрів. Точність оцінки, вірогідність (надійність), довірчий інтервал. Побудова довірчих інтервалів для оцінки математичного очікування нормального розподілу за відомої та невідомої дисперсії. Довірчі інтервали для оцінки середнього відхилення квадратичного нормального розподілу.
При вибірці малого обсягу точкова оцінка може значно відрізнятися від параметра, що оцінюється, що призводить до грубих помилок. Тому в такому разі краще користуватися інтервальними оцінками, тобто вказувати інтервал, в який із заданою ймовірністю потрапляє справжнє значення параметра, що оцінюється. Зрозуміло, що менше довжина цього інтервалу, то точніше оцінка параметра. Тому, якщо оцінки Θ* деякого параметра Θ справедливо нерівність | Θ* - Θ | 0 характеризує точність оцінки(Чим менше δ, тим точніше оцінка). Але статистичні методи дозволяють говорити лише про те, що ця нерівність виконується з певною ймовірністю.

Визначення 18.1.Надійністю (довірчою ймовірністю) оцінки Θ* параметра Θ називається ймовірність γ того, що виконується нерівність | Θ* - Θ |
p (Θ* - δ
Таким чином, є ймовірність того, що Θ потрапляє в інтервал (Θ* - δ, Θ* + δ).

Визначення 18.2.Довірчимназивається інтервал, який потрапляє невідомий параметр із заданою надійністю γ.
Побудова довірчих інтервалів.
1. Довірчий інтервал для оцінки математичного очікування нормального розподілу за відомої дисперсії.

Нехай досліджувана випадкова величина Хрозподілена за нормальним законом із відомим середнім квадратичним σ, і потрібно за значенням вибіркового середнього оцінити її математичне очікування а. Розглянемо вибіркове середнє як випадкову величину а значення варіант вибірки х 1 , х 2 ,…, х пяк однаково розподілені незалежні випадкові величини Х 1 , Х 2 ,…, Х п, кожна з яких має математичне очікування ата середнє квадратичне відхилення σ. При цьому М() = а,
(використовуємо властивості математичного очікування та дисперсії суми незалежних випадкових величин). Оцінимо можливість виконання нерівності
. Застосуємо формулу для ймовірності попадання нормально розподіленої випадкової величини заданий інтервал:

р (
) = 2Ф
. Тоді, з урахуванням того, що , р() = 2Ф
=

2Ф( t), де
. Звідси
, і попередню рівність можна переписати так:

. (18.1)

Отже, значення математичного очікування аз ймовірністю (надійністю) γ потрапляє в інтервал
, де значення tвизначається з таблиць для функції Лапласа так, щоб виконувалася рівність 2Ф( t) = γ.
приклад. Знайдемо довірчий інтервал для математичного очікування нормально розподіленої випадкової величини, якщо обсяг вибірки п = 49,
σ = 1,4, а довірча ймовірність γ = 0,9.

Визначимо t, При якому Ф( t) = 0,9:2 = 0,45: t= 1,645. Тоді

, або 2,471 а з надійністю 0,9.
2. Довірчий інтервал для оцінки математичного очікування нормального розподілу за невідомої дисперсії.

Якщо відомо, що досліджувана випадкова величина Хрозподілена за нормальним законом із невідомим середнім квадратичним відхиленням, то для пошуку довірчого інтервалу для її математичного очікування побудуємо нову випадкову величину

, (18.2)

де - вибіркове середнє, s- Виправлена ​​дисперсія, п- Обсяг вибірки. Ця випадкова величина, можливі значення якої будемо позначати tмає розподіл Стьюдента (див. лекцію 12) з k = n- 1 ступенями свободи.

Оскільки щільність розподілу Стьюдента
, де
, явно не залежить від аі σ, можна задати ймовірність її попадання в певний інтервал (- t γ , t γ ), враховуючи парність щільності розподілу, так:
. Звідси отримуємо:

(18.3)

Таким чином, отримано довірчий інтервал для а, де t γ можна знайти за відповідною таблицею при заданих пта γ.

приклад. Нехай обсяг вибірки п = 25, = 3, s= 1,5. Знайдемо довірчий інтервал для апри γ = 0,99. З таблиці знаходимо, що t γ (п= 25, γ = 0,99) = 2,797. Тоді
, або 2,161 а з ймовірністю 0,99.
3. Довірчі інтервали з метою оцінки середнього квадратичного відхилення нормального розподілу.

Шукатимемо для середнього квадратичного відхилення нормально розподіленої випадкової величини довірчий інтервал виду ( s – δ, s), де s- Виправлене вибіркове середнє квадратичне відхилення, а для δ виконується умова: p (|σ – s|
Запишемо цю нерівність у вигляді:
або, позначивши
,

Розглянемо випадкову величину χ, що визначається за формулою

,

яка розподілена за законом «хі-квадрат» з п-1 ступенями свободи (див. лекцію 12). Щільність її розподілу

не залежить від параметра σ, що оцінюється, а залежить тільки від обсягу вибірки п. Перетворимо нерівність (18.4) так, щоб вона набула вигляду χ 1 Припустимо, що q

,

або, після множення на
,
. Отже,
. Тоді
Існують таблиці для розподілу "хі-квадрат", з яких можна знайти qза заданими пта γ, не вирішуючи цього рівняння. Таким чином, обчисливши за вибіркою значення s та визначивши за таблицею значення q, можна знайти довірчий інтервал (18.4), який значення σ потрапляє із заданою ймовірністю γ.
Зауваження.Якщо q> 1, то з урахуванням умови σ > 0 довірчий інтервал для σ матиме межі

. (18.5)

Нехай п = 20, s= 1,3. Знайдемо довірчий інтервал для при заданій надійності γ = 0,95. З відповідної таблиці знаходимо q (n= 20, γ = 0,95) = 0,37. Отже, межі довірчого інтервалу: 1,3(1-0,37) = 0,819 та 1,3(1+0,37) = 1,781. Отже, 0,819

Проведемо цей доказ у два етапи. Спочатку припустимо, що існує, і зауважимо, що в цьому випадку D(S„) за теоремою про дисперсію суми. Згідно з нерівністю Чебишева, за будь-якого t > 0

При t > n ліва частина менша, ніж, а остання величина прагне нуля. Це завершує першу частину підтвердження.

Відкинемо тепер обмежувальну умову існування D(). Цей випадок зводиться до попереднього шляхом усічення.

Визначимо два нових набори випадкових величин, що залежать від наступним чином:

U k =, V k =0, якщо (2.2)

U k =0, V k =, якщо

Тут k = 1, ..., п і фіксовано. Тоді

за всіх k.

Нехай (f(j)) - розподіл ймовірностей випадкових величин (однаковий всім j). Ми припустили, що = M() існує, тому сума

кінцева. Тоді існує і

де підсумовування проводиться у разі тим j, у яких. Зазначимо, що хоч і залежить від п, але воно однаково для

U 1 , U 2 ..., U n . Крім того, при, і, отже, для довільного > 0 і всіх досить великих n

U k взаємно незалежні, і з їхньою сумою U 1 +U 2 +…+U n можна вчинити так само, як і з X k у разі кінцевої дисперсії, застосувавши нерівність Чебишева, ми отримаємо аналогічно (2.1)


Внаслідок (2.6) звідси випливає, що

Оскільки ряд (2.4) сходиться, остання сума прагне нулю у разі зростання n. Таким чином, за досить великого п

і, отже

P(V1+…+Vn0). (2.12)

Але, і (2.9) і (2.12) отримуємо

Так як і довільні, права частина може бути зроблена як завгодно малою, що і завершує підтвердження.

Теорія «нешкідливих» ігор

При подальшому аналізі сутності закону великих чисел користуватимемося традиційною термінологією гравців, хоча наші розгляди допускають в рівній мірі і більш серйозні додатки, а наші два основні припущення більш реальні в статистиці та фізиці, ніж в азартних іграх. По-перше, припустимо, що гравець має необмежений капітал, так що ніякий програш не може викликати закінчення гри. (Відкидання цього припущення призводить до завдання про руйнування гравця, яка завжди інтригує ймовірностей, що вивчають теорію.) По-друге, припустимо, що гравець не має характеру перервати гру, коли йому заманеться: число п випробувань повинно бути фіксовано заздалегідь і не повинно залежати від ходу ігри. Інакше гравець, ощасливлений необмеженим капіталом, дочекався б серії успіхів і в слушний момент припинив би гру. Такого гравця цікавить не ймовірне коливання у заданий момент, а максимальні коливання у довгій серії партій, які описуються скоріше законом повторного логарифму, аніж законом великих чисел.

Введемо випадкову величину k як (позитивний чи негативний) виграш при k-му повторенні гри. Тоді сума S n = 1 + ... + k є сумарним виграшем при п повторення гри. Якщо перед кожним повторенням гравець сплачує за право участі у грі (не обов'язково позитивний) внесок, то п являє собою загальний сплачений ним внесок, a S n - п загальний чистий виграш. Закон великих чисел застосовується, якщо p=M(k) існує. Грубо кажучи, при великих п дуже правдоподібно, що різниця S п - здасться малою в порівнянні з п. Отже, якщо менше, ніж р, то при великих п гравець, ймовірно, матиме виграш порядку. З тих самих міркувань внесок практично напевно призводить до збитків. Коротше випадок сприятливий для гравця, а випадок несприятливий.

Зауважимо, що ми ще нічого не говорили про випадок. В цьому випадку єдино можливим висновком є ​​те, що при досить великому і загальний виграш або програш S n - п буде з дуже великою ймовірністю малим порівняно з п. Але при цьому невідомо, чи виявиться S n - п позитивним або негативним, тобто буде гра вигідною або руйнівною. Це не було враховано класичною теорією, яка називала невинною ціною, а гру з «нешкідливою». Потрібно розуміти, що «нешкідлива» гра може насправді бути явно вигідною і руйнівною.

Зрозуміло, що у «нормальному випадку» існує як M(k), а й D(k). У цьому випадку закон великих чисел доповнюється центральною граничною теоремою, а остання говорить про те, що дуже правдоподібно, що при «нешкідливій» грі чистий виграш в результаті тривалої гри S n - п буде мати величину порядку n 1/2 і що достатньо великих п цей виграш буде з приблизно рівними шансами позитивним чи негативним. Таким чином, якщо застосовна центральна гранична теорема, то термін «нешкідлива» гра виявляється виправданим, хоча навіть у цьому випадку ми маємо справу з граничною теоремою, що підкреслюється словами «в результаті тривалої гри». Ретельний аналіз показує, що збіжність (1.3) погіршується при зростанні дисперсії. Якщо велике, то нормальне наближення виявиться ефективним лише за надзвичайно великих п.

Для певності представимо машину, при опусканні в яку рубля гравець може з ймовірністю 10 виграти (10-1) рублів, а в інших випадках втрачає опущений рубль. Тут ми маємо випробування Бернуллі і гра є «нешкідливою». Зробивши мільйон випробувань, гравець сплатить за це мільйон рублів. За цей час він може виграти 0, 1,2... разів. Згідно з наближенням Пуассона для біномного розподілу, з точністю до декількох десяткових знаків ймовірність виграти рівно до разу дорівнює e -1 /k!. Таким чином, з ймовірністю 0,368. . . гравець втратить мільйон, і з тією ж ймовірністю він лише окупить свої витрати; він має можливість 0,184... придбати рівно один мільйон і т. д. Тут 10 6 випробувань еквівалентні одному-єдиному випробуванню при грі з виграшем, що має розподіл Пуассона.

Очевидно, безглуздо застосовувати закон великих чисел у таких ситуаціях. До цієї схеми належить страхування від пожежі, автомобільних катастроф тощо. п. Ризику піддається велика сума, зате відповідна ймовірність дуже мала. Однак тут відбувається зазвичай тільки одне випробування на рік, так що число випробувань ніколи не стає великим. Для застрахованого гра обов'язково не є «нешкідливою», хоча, можливо, економічно цілком вигідною. Закон великих чисел тут ні до чого. Що стосується страхової компанії, то вона має справу з великою кількістю ігор, але через велику дисперсію все ж таки виявляються випадкові коливання. Розмір страхових премій має бути встановлений таким, щоб запобігти великому збитку в окремі роки, і, отже, компанію цікавить швидше завдання про руйнування, ніж закон великих чисел.

Коли дисперсія нескінченна, термін «нешкідлива» гра стає безглуздим; немає підстав вважати, що загальний чистий виграш S n -- п коливається близько нуля. Справді. Існують приклади «нешкідливих» ігор, в яких ймовірність того, що в результаті гравець зазнає чистого збитку, прагне одиниці. Закон великих чисел стверджує лише, що цей збиток буде величиною меншого порядку, ніж п. Проте нічого більшого затверджувати не можна. Якщо а п утворюють довільну послідовність, причому а п /n0 можна влаштувати «нешкідливу» гру, у якій ймовірність того, що загальний чистий збиток в результаті п повторень гри перевищуємо a n прагне до одиниці.