Біографії Характеристики Аналіз

Біноміальний розподіл його властивості та числові характеристики. Властивості біномного розподілу

Доброго дня! Ми вже знаємо, що такий розподіл імовірностей. Воно може бути дискретним чи безперервним, і ми дізналися, що його називають густотою розподілу ймовірностей. Тепер давайте вивчимо кілька найбільш поширених розподілів. Припустимо, у мене є монета, причому правильна монета, і я збираюся підкинути її 5 разів. Також я визначу випадкову величину Х, позначу її великою літерою X, вона дорівнюватиме кількості «орлів» при 5 підкиданнях. Може, у мене є 5 монет, я підкину їх усі одразу і порахую, скільки у мене випало «орлів». Або в мене могла бути одна монета, я могла б її підкинути 5 разів і порахувати, скільки разів у мене випав «орел». Це, власне, не має значення. Але припустимо, що в мене одна монета, і я підкину її 5 разів. Тоді ми не матимемо невизначеності. Отже, ось визначення моєї випадкової величини. Як ми знаємо, випадкова величина трохи відрізняється від звичайної змінної, вона більше схожа на функцію. Вона надає якесь значення експерименту. І ця випадкова величина досить проста. Ми просто вважаємо, скільки разів випав «орел» після 5 підкидань – це і є наша випадкова величина X. Давайте подумаємо, які можуть бути ймовірності різних значеньу нашому випадку? Так, яка ймовірність того, що Х (головна Х) дорівнює 0? Тобто. яка ймовірність того, що після 5 підкидань жодного разу не випаде орел? Ну, це, по суті, те саме, що ймовірність випадання одних «решічок» (це так, невеликий огляд теорії ймовірностей). У вас мають випасти одні «решки». Яка ймовірність кожної з цих «грашок»? Це 1/2. Тобто. тут має бути 1/2 помножити на 1/2, 1/2, 1/2 і знову на 1/2. Тобто. (1/2)⁵. 1⁵=1, розділити на 2⁵, тобто. на 32. Цілком логічно. Так… Я трохи повторю те, що ми проходили з теорії ймовірностей. Це важливо для того, щоб розуміти, куди ми зараз рухаємось і як, власне, формується дискретний розподіл ймовірностей. Отже, а яка ймовірність того, що в нас рівно один раз випаде орел? Ну, орел міг би випасти при першому підкиданні. Тобто. могло бути так: «орел», «решка», «решка», «решка», «решка». Або "орел" міг би випасти при другому підкиданні. Тобто. могла б бути така комбінація: «решка», «орел», «решка», «решка», «решка» тощо. Один "орел" міг би випасти після будь-якого з 5 підкидань. Якою є ймовірність кожної з цих ситуацій? Імовірність випадання "орла" дорівнює 1/2. Потім можливість випадання «решки», що дорівнює 1/2, помножити на 1/2, на 1/2, на 1/2. Тобто. ймовірність кожної з цих ситуацій дорівнює 1/32. Так само, як і можливість ситуації, де Х=0. По суті, ймовірність будь-якого особливого порядку випадень «орла» та «решки» дорівнюватиме 1/32. Отже, ймовірність цього дорівнює 1/32. І ймовірність цього дорівнює 1/32. І ось такі ситуації мають місце тому, що «орел» міг би випасти за будь-якого з 5 підкидань. Отже, ймовірність те, що точно випаде один «орел», дорівнює 5*1/32, тобто. 5/32. Цілком логічно. Тепер починається цікаве. Яка ймовірність… (писатиму кожен із прикладів іншим кольором)… яка ймовірність того, що моя випадкова величина дорівнює 2? Тобто. я підкину монету 5 разів, і якою є ймовірність того, що 2 рази точно випаде «орел»? Це вже цікавіше, правда? Які можливі комбінації? Могла б бути "орел", "орел", "решка", "решка", "решка". Також могла бути «орел», «решка», «орел», «решка», «решка». І якщо подумати, що ці два «орли» можуть стояти у різних місцях комбінації, то можна трохи заплутатися. Вже не можна думати про розміщення так, як ми це робили тут, вгорі. Хоча… можна тільки ризикуєте заплутатися. Ви маєте зрозуміти одне. Для кожної з цих комбінацій ймовірність дорівнює 1/32. ½*½*½*½*½. Тобто. ймовірність кожної з цих комбінацій дорівнює 1/32. І ми маємо подумати над тим, скільки існує таких комбінацій, що задовольняють нашу умову (2 «орли»)? Тобто. по суті, потрібно уявити, що є 5 підкидань монети, і потрібно з них вибрати 2, за яких випадає «орел». Давайте уявимо, що наші 5 підкидань зібралися в кружальце, також уявімо, що у нас є лише два стільці. І ми кажемо: «Добре, хто з вас сяде на ці стільці для орлів? Тобто. хто з вас буде орлом? І нас не цікавить те, як вони сядуть. Я наводжу такий приклад, сподіваючись, що так вам буде зрозуміліше. І може, вам захочеться подивитися деякі уроки з теорії ймовірностей на цю тему, коли я говоритиму про біном Ньютона. Тому що там я більш детально заглиблюся у все це. Але якщо ви міркуватимете таким шляхом, то зрозумієте, що таке біноміальний коефіцієнт. Бо якщо думатимете так: добре, у мене 5 підкидань, при якому підкиданні випаде перший «орел»? Ну, тут 5 можливостей того , за якого за рахунком підкидання випаде перший «орел». А скільки можливостей для другого орла? Ну, перше підкидання, яке ми вже використовували, забрало можливість випадання «орла». Тобто. одна позиція «орла» у комбінації вже зайнята одним із підкидань. Тепер залишилося 4 підкидання, отже, другий «орел» може випасти за одного з 4 підкидань. І ви це бачили, ось тут. Я вибрала так, що «орел» випав при 1-му підкиданні, і припустила, що при 1 з 4 кидків, що залишилися, також повинен випасти «орел». Отже, тут лише 4 можливості. Все, що я говорю, означає, що для першого "орла" у вас є 5 різних позицій, на які він може випасти. А для другого вже залишається лише 4 позиції. Подумайте про це. Коли ми обчислюємо так, то порядок враховується. Але для нас зараз не має значення, в якій послідовності випадають «орли» та «решки». Ми не говоримо, що це орел 1 або що це орел 2. В обох випадках це просто орел. Ми могли б припустити, що це орел 1, а це орел 2. Або могло бути навпаки: це міг би бути другий «орел», а це – «перший». І я говорю це тому, що важливо зрозуміти, де використовувати розміщення, а де – поєднання. Нас не цікавить послідовність. Тож, власне, є лише 2 способи походження нашої події. Значить, ділимо це на 2. І як ви побачите пізніше, тут 2! способів походження нашої події Якби було 3 «орла», тоді тут було б 3!, і я покажу вам чому. Отже, це буде одно… 5*4=20 і розділити на 2 – вийде 10. Тому тут 10 різних комбінацій із 32, у яких у вас точно буде 2 «орли». Отже, 10*(1/32) дорівнює 10/32, а чому це одно? 5/16. Запишу через біноміальний коефіцієнт. Це значення, ось тут, вгорі. Якщо подумати, то це – те саме, що й 5!, поділений на… Що означає ось це 5*4? 5! - Це 5 * 4 * 3 * 2 * 1. Тобто. якщо мені тут потрібно лише 5*4, то для цього я можу поділити 5! на 3! Це одно 5*4*3*2*1, поділений на 3*2*1. І залишається лише 5*4. Значить, це те саме, що і цей чисельник. І потім, т.к. нас не цікавить послідовність, нам потрібно тут 2. Власне, 2! Помножити на 1/32. Такою була б ймовірність того, що в нас випало б точно 2 «орли». Яка ймовірність того, що у нас точно 3 рази випаде орел? Тобто. ймовірність того, що Х = 3. Отже, за тією ж логікою, перший випадок випадання «орла» може мати місце за 1 з 5 підкидань. Другий випадок випадання «орла» може мати місце при 1 з 4 підкидів, що залишилися. А третій випадок випадання «орла» може мати місце при 1 з 3 підкидів, що залишилися. А скільки існує різних способіврозставити 3 підкидання? Загалом, скільки є способів, щоб розставити 3 предмети на місця? Це 3! І ви можете це вирахувати або, можливо, захочете переглянути ті уроки, в яких я докладніше це пояснювала. Але якщо ви, наприклад, візьмете літери A, B і C, то є 6 способів, за допомогою яких ви їх можете розставити. Можете розглядати це як випадки випадання орлів. Тут могли бути ACB, CAB. Могло б бути BAC, BCA, та… Який останній варіант, Який я не назвала? CBA. Є 6 способів розставити 3 різні предмети. Ми ділимо на 6, тому що не хочемо повторно зараховувати ці 6 різних способів, тому що розглядаємо їх як рівнозначні. Тут нас не цікавить, за якого за рахунком підкидання випаде «орел». 5*4*3… Це можна переписати, як 5!/2! І розділити це ще на 3! Це і є. 3! дорівнює 3*2*1. Трійки скорочуються. Це стає рівним 2. Це – рівним 1. Ще раз, 5*2, тобто. одно 10. Кожна ситуація має можливість 1/32, тому це знову одно 5/16. І це цікаво. Імовірність того, що у вас випаде 3 «орли» дорівнює ймовірності того, що у вас є 2 орли. І причина цього… Ну, є багато причин, що так вийшло. Але якщо подумати, що ймовірність того, що випаде 3 «орла» – те саме, що ймовірність випадання 2 «решічок». І ймовірність випадання 3 «решічок» має бути такою самою, як і ймовірність випадання 2-х «орлів». І добре, що значення ось так спрацьовують. Добре. Яка ймовірність того, що Х = 4? Ми можемо використовувати ту саму формулу, що використовували раніше. Це могло бути 5*4*3*2. Отже, тут запишемо 5 * 4 * 3 * 2 ... Скільки є різних способів розставити 4 предмети? Це 4! 4! - Це, по суті, ось ця частина, ось тут. Це 4*3*2*1. Так, це скорочується, залишається 5. Потім кожна комбінація має ймовірність 1/32. Тобто. це одно 5/32. І ще раз зауважте, що ймовірність того, що 4 рази випаде «орел», дорівнює ймовірності того, що 1 раз випаде «орел». І це є сенс, т.к. 4 «орла» – це те саме, що випадок випадання 1 «решки». Ви скажете: ну, і за якого ж підкидання випаде ця одна «решка»? Ага, для цього тут є 5 різних комбінацій. І кожна з них має можливість 1/32. І нарешті, яка ймовірність того, що Х = 5? Тобто. випадає "орел" 5 разів поспіль. Має бути так: «орел», «орел», «орел», «орел», «орел». Кожен із «орлів» має ймовірність 1/2. Ви їх перемножуєте та отримуєте 1/32. Можна піти іншим шляхом. Якщо всього є 32 способи, за допомогою яких ви можете отримати «орли» і «решки» у цих експериментах, це лише один із цих способів. Тут таких способів було 5 із 32. Тут – 10 із 32. Проте обчислення ми провели, а тепер готові намалювати розподіл ймовірностей. Але мій час минув. Дозвольте продовжити на наступному уроці. А якщо ви в настрої, то може намалюєте перед тим, як дивитися наступний урок? До скорої зустрічі!

Розділ 7.

Конкретні закони розподілу випадкових величин

Види законів розподілу дискретних випадкових величин

Нехай дискретна випадкова величина може набувати значення х 1 , х 2 , …, х n, …. Імовірності цих значень можуть бути обчислені за різними формулами, наприклад, за допомогою основних теорем теорії ймовірностей, формули Бернуллі або інших формул. Для деяких із цих формул закон розподілу має свою назву.

Найбільш поширеними законами розподілу дискретної випадкової величини є біноміальний, геометричний, гіпергеометричний, закон розподілу Пуассона.

Біноміальний закон розподілу

Нехай проводиться nнезалежних випробувань, у кожному з яких може з'явитися чи не з'явитися подія А. Імовірність появи цієї події в кожному одиничному випробуванні постійна, не залежить від номера випробування і дорівнює р=Р(А). Звідси ймовірність не появи події Ау кожному випробуванні також постійна і рівна q=1–р. Розглянемо випадкову величину Хрівну числу події Ав nвипробуваннях. Очевидно, що значення цієї величини дорівнюють

х 1 = 0 - подія Ав nвипробуваннях не з'явилося;

х 2 = 1 - подія Ав nвипробування з'явилося один раз;

х 3 = 2 - подія Ав nвипробування з'явилося двічі;

…………………………………………………………..

х n +1 = n– подія Ав nвипробуваннях з'явилося все nразів.

Імовірності цих значень можуть бути обчислені за формулою Бернуллі (4.1):

де до=0, 1, 2, …,n .

Біноміальним законом розподілу Х, рівною числууспіхів у nвипробуваннях Бернуллі, з ймовірністю успіху р.

Отже, дискретна випадкова величина має біномний розподіл (або розподілена за біноміальним законом), якщо її можливі значення 0, 1, 2, …, n, А відповідні ймовірності обчислюються за формулою (7.1).

Біноміальний розподілзалежить від двох параметрів рі n.

Ряд розподілу випадкової величини, розподіленої за біноміальним законом, має вигляд:

Х k n
Р

приклад 7.1 . Здійснюється три незалежні постріли по мішені. Імовірність влучення при кожному пострілі дорівнює 0,4. Випадкова величина Х- Число попадань в ціль. Побудувати її низку розподілу.

Рішення. Можливими значеннями випадкової величини Хє х 1 =0; х 2 =1; х 3 =2; х 4 =3. Знайдемо відповідні можливості, використовуючи формулу Бернуллі. Неважко показати, що застосування цієї формули тут цілком виправдане. Зазначимо, що ймовірність не влучення в ціль при одному пострілі дорівнюватиме 1-0,4 = 0,6. Отримаємо

Ряд розподілу має наступний вигляд:

Х
Р 0,216 0,432 0,288 0,064

Неважко перевірити, що сума всіх ймовірностей дорівнює 1. Сама випадкова величина Хрозподілено за біноміальним законом. ■

Знайдемо математичне очікуваннята дисперсію випадкової величини, розподіленої за біноміальним законом.

При рішенні прикладу 6.5 було показано, що математичне очікування кількості події Ав n незалежних випробуваннях, якщо ймовірність появи Ау кожному випробуванні постійна і рівна р, одно n· р

У цьому прикладі використовувалася випадкова величина, розподілена за біноміальним законом. Тому рішення прикладу 6.5 по суті є доказом наступної теореми.

Теорема 7.1.Математичне очікування дискретної випадкової величини, розподіленої за біноміальним законом, дорівнює добутку числа випробувань на можливість " успіху " , тобто. М(Х)=n· нар.

Теорема 7.2.Дисперсія дискретної випадкової величини, розподіленої по биномиальному закону, дорівнює добутку числа випробувань на ймовірність " успіху " і ймовірність " невдачі " , тобто. D(Х)=nрq.

Асиметрія та ексцес випадкової величини, розподіленої за біноміальним законом, визначаються за формулами

Ці формули можна отримати, скориставшись поняттям початкових та центральних моментів.

Біноміальний закон розподілу є основою багатьох реальних ситуацій. При великих значеннях nбіномний розподіл може бути апроксимований за допомогою інших розподілів, зокрема за допомогою розподілу Пуассона.

Розподіл Пуассона

Нехай є nвипробувань Бернуллі, при цьому кількість випробувань nдосить велике. Раніше було показано, що в цьому випадку (якщо до того ж ймовірність рподії Адуже мала) для знаходження ймовірності того, що подія Аз'явитися траз у випробуваннях можна скористатися формулою Пуассона (4.9). Якщо випадкова величина Хозначає кількість появи події Ав nвипробуваннях Бернуллі, то ймовірність того, що Хнабуде значення kможе бути обчислена за формулою

, (7.2)

де λ = .

Законом розподілу Пуассонаназивається розподіл дискретної випадкової величини Х, для якої можливими значеннями є цілі невід'ємні числа, а ймовірності р тцих значень перебувають за формулою (7.2).

Величина λ = називається параметромрозподілу Пуассона.

Випадкова величина, розподілена згідно із законом Пуассона, може приймати нескінченна безлічзначень. Так як для цього розподілу ймовірність рПоява події в кожному випробуванні мала, то цей розподіл іноді називають законом рідкісних явищ.

Ряд розподілу випадкової величини, розподіленої згідно із законом Пуассона, має вигляд

Х т
Р

Неважко переконатися, що сума ймовірностей другого рядка дорівнює 1. Для цього необхідно згадати, що функцію можна розкласти до ряду Маклорена, який сходиться для будь-якого х. У даному випадкумаємо

. (7.3)

Як зазначалося, закон Пуассона у певних граничних випадках замінює биномиальный закон. Як приклад можна навести випадкову величину Хзначення якої рівні кількості збоїв за певний проміжок часу при багаторазовому застосуванні технічного пристрою. У цьому передбачається, що це пристрій високої надійності, тобто. ймовірність збою при одному застосуванні дуже мала.

Крім таких граничних випадків, на практиці трапляються випадкові величини, розподілені за законом Пуассона, не пов'язані з біномним розподілом. Наприклад, розподіл Пуассона часто використовується тоді, коли мають справу з кількістю подій, що з'являються в проміжку часу (кількість надходжень викликів на телефонну станцію протягом години, кількість машин, що прибули на автомийку протягом доби, кількість зупинок верстатів на тиждень і т.п. .). Всі ці події повинні утворювати так званий потік подій, який є одним з основних понять теорії масового обслуговування. Параметр λ характеризує середню інтенсивність потоку подій.


Звичайно, при обчисленні кумулятивної функції розподілу слід скористатися згаданим зв'язком біномного та бета-розподілу. Цей спосіб наперед краще безпосереднього підсумовування, коли n > 10.

У класичних підручниках зі статистики для отримання значень біномного розподілу часто рекомендують використовувати формули, що базуються на граничних теоремах (типу формули Муавра-Лапласа). Необхідно відмітити, що з суто обчислювальної точки зоруЦінність цих теорем близька до нуля, особливо зараз, коли практично на кожному столі стоїть потужний комп'ютер. Основний недолік наведених апроксимацій – їх зовсім недостатня точність при значеннях n, характерних більшості додатків. Не меншим недоліком є ​​і відсутність скільки-небудь чітких рекомендацій щодо застосування тієї чи іншої апроксимації (у стандартних текстах наводяться лише асимптотичні формулювання, вони не супроводжуються оцінками точності і, отже, мало корисні). Я б сказав, що обидві формули придатні лише за n< 200 и для совсем грубых, ориентировочных расчетов, причем делаемых “вручную” с помощью статистических таблиц. А вот связь между биномиальным распределением и бета-распределением позволяет вычислять биномиальное распределение достаточно экономно.

Не розглядаю тут завдання пошуку квантилей: для дискретних розподілів вона тривіальна, а тих завданнях, де такі розподіли виникають, вона, зазвичай, і актуальна. Якщо ж кванти все-таки знадобляться, рекомендую так переформулювати завдання, щоб працювати з p-значеннями (спостереженими значущістю). Ось приклад: при реалізації деяких перебірних алгоритмів на кожному кроці потрібно перевіряти статистичну гіпотезупро біноміальну випадкову величину. Згідно класичного підходуна кожному кроці потрібно обчислити статистику критерію та порівняти її значення з межею критичної множини. Оскільки, однак, алгоритм перебірний, доводиться визначати межу критичної множини щоразу заново (адже від кроку до кроку обсяг вибірки змінюється), що непродуктивно збільшує тимчасові витрати. Сучасний підхідрекомендує обчислювати спостережене значення і порівнювати її з довірчою ймовірністюекономити на пошуку квантилей.

Тому в наведених нижче кодах відсутнє обчислення зворотної функції, натомість наведена функція rev_binomialDF , яка обчислює ймовірність p успіху в окремому випробуванні за заданою кількістю n випробувань, числу m успіхів в них і значення y ймовірності отримати ці m успіхів. При цьому використовується вищезгаданий зв'язок між біноміальним та бета-розподілом.

Фактично ця функція дозволяє отримувати межі довірчих інтервалів. Справді, припустимо, що у n біноміальних випробуваннях ми здобули m успіхів. Як відомо, ліва межа двостороннього довірчого інтервалудля параметра p з довірчим рівнем дорівнює 0, якщо m = 0, а є рішенням рівняння . Аналогічно, права межа дорівнює 1, якщо m = n, а є рішенням рівняння . Звідси випливає, що для пошуку лівого кордону ми маємо вирішувати щодо рівняння , а для пошуку правої – рівняння . Вони і вирішуються у функціях binom_leftCI та binom_rightCI , що повертають верхню та нижню межі двостороннього довірчого інтервалу відповідно.

Хочу зауважити, що якщо не потрібна зовсім неймовірна точність, то при досить великих n можна скористатися наступною апроксимацією [Б.Л. ван дер Варден, математична статистика. М: ІЛ, 1960, гол. 2, розд. 7]: де g – квантиль нормального розподілу. Цінність цієї апроксимації в тому, що є дуже прості наближення, що дозволяють обчислювати квантил нормального розподілу (див. текст про обчислення нормального розподілу та відповідний розділ даного довідника). У моїй практиці (в основному, при n > 100) ця апроксимація давала приблизно 3-4 знаки, чого, як правило, цілком достатньо.

Для обчислень за допомогою нижченаведених кодів будуть потрібні файли betaDF.h , betaDF.cpp (див. розділ про бета-розподіл), а також logGamma.h , logGamma.cpp (див. додаток А). Ви також можете подивитися приклад використання функцій.

Файл binomialDF.h

#ifndef __BINOMIAL_H__ #include "betaDF.h" double binomialDF(double trials, double successes, double p); /* * Нехай є "trials" незалежних спостережень * з ймовірністю "p" успіху в кожному. * Обчислюється ймовірність B(successes|trials,p) те, що число * успіхів укладено між 0 і "successes" (включно). */ double rev_binomialDF(double trials, double successes, double y); /* * Нехай відома ймовірність y настання не менше m успіхів * у trials випробуваннях схеми Бернуллі. Функція знаходить можливість p * успіху в окремому випробуванні. * * У обчисленнях використовується наступне співвідношення * * 1 - p = rev_Beta(trials-successes| successes+1, y). */ double binom_leftCI(double trials, double successes, double level); /* Нехай є "trials" незалежних спостережень * з ймовірністю "p" успіху в кожному * і кількість успіхів дорівнює "successes". * Обчислюється ліва межа двостороннього довірчого інтервалу * з рівнем значущості level. */ double binom_rightCI(double n, double successes, double level); /* Нехай є "trials" незалежних спостережень * з ймовірністю "p" успіху в кожному * і кількість успіхів дорівнює "successes". * Обчислюється правий кордон двостороннього довірчого інтервалу * з рівнем значущості level. */ #endif /* Ends #ifndef __BINOMIAL_H__ */

Файл binomialDF.cpp

/************************************************* **********/ /* Біноміальний розподіл */ /************************************* ***************************/ #include #include #include "betaDF.h" ENTRY double binomialDF(double n, double m, double p) /* * Нехай є "n" незалежних спостережень * з ймовірністю "p" успіху в кожному. * Обчислюється ймовірність B(m|n,p) те, що кількість успіхів укладено * між 0 і "m" (включно), тобто. * суму біномних ймовірностей від 0 до m: * * m * -- (n) j n-j * > () p (1-p) * -- (j) * j=0 * * Обчислення не мають на увазі тупе сумування - використовується * наступний зв'язок із центральним бета-розподілом: * * B(m|n,p) = Beta(1-p|n-m,m+1). * * Аргументи повинні бути позитивними, причому 0<= p <= 1. */ { assert((n >0) && (p >= 0) && (p<= 1)); if (m < 0) return 0; else if (m == 0) return pow(1-p, n); else if (m >= n) return 1; else return BetaDF(n-m, m+1).value(1-p); )/* binomialDF */ ENTRY double rev_binomialDF(double n, double m, double y) /* * Нехай відома ймовірність y настання не менше m успіхів * у n випробуваннях схеми Бернуллі. Функція знаходить можливість p * успіху в окремому випробуванні. * * У обчисленнях використовується наступне співвідношення * * 1 - p = rev_Beta(y|n-m, m+1). */ ( assert((n > 0) && (m >= 0) && (m<= n) && (y >= 0) && (y<= 1)); return 1-BetaDF(n-m, m+1).inv(y); }/*rev_binomialDF*/ ENTRY double binom_leftCI(double n, double m, double y) /* Пусть имеется "n" независимых наблюдений * с вероятностью "p" успеха в каждом * и количество успехов равно "m". * Вычисляется левая граница двухстороннего доверительного интервала * с уровнем значимости y. */ { assert((n >0) && (m >= 0) && (m<= n) && (y >= 0.5) && (y< 1)); return BetaDF(m, n-m+1).inv((1-y)/2); }/*binom_leftCI*/ ENTRY double binom_rightCI(double n, double m, double y) /* Пусть имеется "n" независимых наблюдений * с вероятностью "p" успеха в каждом * и количество успехов равно "m". * Вычисляется правая граница доверительного интервала * с уровнем значимости y. */ { assert((n >0) && (m >= 0) && (m<= n) && (y >= 0.5) && (y< 1)); return BetaDF(m+1, n-m).inv((1+y)/2); }/*binom_rightCI*/

Розподіл ймовірностей дискретних випадкових величин. Біноміальний розподіл. Розподіл Пуассон. Геометричний розподіл. Виробляюча функція.

6. Розподіл ймовірностей дискретних випадкових величин

6.1. Біноміальний розподіл

Нехай проводиться nнезалежних випробувань, у кожному з яких подія Aможе або з'явиться, або з'явиться. Ймовірність pпояви події Aу всіх випробуваннях постійна та не змінюється від випробування до випробування. Розглянемо як випадкову величину X число появи події Aу цих випробуваннях. Формула, що дозволяє знайти ймовірність появи події Aрівно kраз на nвипробуваннях, як відомо, описується формулою Бернуллі

Розподіл ймовірностей, що визначається формулою Бернуллі, називається біномним .

Цей закон названий "біноміальним" тому, що праву частину можна розглядати як спільний член розкладання бінома Ньютона

Запишемо біномний закон у вигляді таблиці

p n

np n –1 q

q n

Знайдемо числові показники цього розподілу.

За визначенням математичного очікування для ДСВ маємо

.

Запишемо рівність, що є біном Ньютона

.

і продиференціюємо його з p. В результаті отримаємо

.

Помножимо ліву та праву частинуна p:

.

Враховуючи що p+ q=1, маємо

(6.2)

Отже, математичне очікування числа події вnнезалежних випробуваннях дорівнює добутку числа випробуваньnна ймовірністьpпояви події у кожному випробуванні.

Дисперсію обчислимо за формулою

.

Для цього знайдемо

.

Попередньо продиференціюємо формулу бінома Ньютона двічі по p:

і помножимо обидві частини рівності на p 2:

Отже,

Отже, дисперсія біномного розподілу дорівнює

. (6.3)

Ці результати можна отримати і з суто якісних міркувань. Загальне число X події A у всіх випробуваннях складаються з числа події в окремих випробуваннях. Тому якщо X 1 – число появи події у першому випробуванні, X 2 – у другому тощо, то загальне числопояви події A у всіх випробуваннях дорівнює X=X 1 +X 2 +…+X n. За якістю математичного очікування:

Кожна з доданків правої частини рівності є математичне очікування числа подій в одному випробуванні, яке дорівнює ймовірності події. Таким чином,

За якістю дисперсії:

Оскільки математичне очікування випадкової величини , яке може набувати лише двох значень, а саме 1 2 з ймовірністю pта 0 2 з ймовірністю q, то
. Таким чином,
В результаті, отримуємо

Скориставшись поняттям початкових та центральних моментів, можна отримати формули для асиметрії та ексцесу:

. (6.4)

Рис. 6.1

Багатокутник біномного розподілу має такий вигляд (див. рис. 6.1). Імовірність n (k) спочатку зростає при збільшенні k, досягає найбільшого значенняі далі починає зменшуватися. Біноміальний розподіл асиметричний, за винятком випадку p=0,5. Зазначимо, що за великому числівипробувань nБіноміальний розподіл дуже близький до нормального. (Обґрунтування цієї пропозиції пов'язане з локальною теоремою Муавра-Лапласа.)

Числоm 0 настання події називаєтьсянайімовірнішим якщо ймовірність настання події дана кількість разів у цій серії випробувань найбільша (максимум у багатокутнику розподілу). Для біномного розподілу

Зауваження. Цю нерівність можна довести, використовуючи рекурентну формулудля біномних ймовірностей:

(6.6)

Приклад 6.1.Частка виробів вищого гатунку цьому підприємстві становить 31%. Чому дорівнює математичного очікування і дисперсія, а також найімовірніше число виробів вищого гатунку у випадково відібраної партії з 75 виробів?

Рішення. Оскільки p=0,31, q=0,69, n=75, то

M[ X] = np= 750,31 = 23,25; D[ X] = npq = 750,310,69 = 16,04.

Для знаходження найімовірнішого числа m 0 , складемо подвійну нерівність

Звідси слідує що m 0 = 23.