Биографии Характеристики Анализ

Вывод распределения пуассона. Закон распределения пуассона

Снова напомним ситуацию, которая была названа схемой Бернулли: производится n независимых испытаний, в каждом из которых некоторое событие А может появиться с одной и той же вероятностью р . Тогда для определения вероятности того, что в этих n испытаниях событие А появится ровно k раз (такая вероятность обозначалась P n (k ) ) может быть точно вычислена по формуле Бернулли , гдеq =1− p . Однако при большом числе испытаний n расчеты по формуле Бернулли становятся очень неудобными, так как приводят к действиям с очень большими числами. Поэтому (если помните это когда-то проходилось при изучении схемы и формулы Бернулли при изучении первой части теории вероятностей «Случайные события») при больших n предлагались значительно более удобные (хотя и приближенные) формулы, которые оказывались тем точнее, чем больше n (формула Пуассона, локальная и интегральная формула Муавра-Лапласа). Если в схеме Бернулли число опытов n велико, а вероятность р появления события А в каждом испытании мала, то хорошее приближение дает упомянутая формула Пуассона
, где параметра = n p . Эта формула и приводит к распределению Пуассона. Дадим точные определения

Дискретная случайная величина Х имеет распределение Пуассона , если она принимает значения 0, 1, 2, ... с вероятностями р 0 , р 1 , ... , которые вычисляются по формуле

а число а является параметром распределения Пуассона. Обращаем внимание, что возможных значений с.в. Х бесконечно много это все целые неотрицательные числа. Таким образом, д.с.в Х с распределением Пуассона имеет следующий закон распределения:

При вычислении математического ожидания (по их определению для д.с.в. с известным законом распределения) придется теперь считать не конечные суммы, а суммы соответствующих бесконечных рядов (так как таблица закона распределения имеет бесконечно много столбцов). Если же посчитать суммы этих рядов, то окажется, что и математическое ожидание, и дисперсия случайной величины Х с распределением Пуассона совпадает с параметром а этого распределения:

,
.

Найдем моду d (X ) распределенной по Пуассону случайной величины Х . Применим тот же самый прием, что был использован для вычисления моды биномиально распределенной случайной величины. По определению моды d (X )= k , если вероятность
наибольшая среди всех вероятностей р 0 , р 1 , ... . Найдем такое число k (это целое неотрицательное число). При таком k вероятность p k должна быть не меньше соседних с ней вероятностей: p k −1 p k p k +1 . Подставив вместо каждой вероятности соответствующую формулу, получим, что число k должно удовлетворять двойному неравенству:

.

Если расписать формулы для факториалов и провести простые преобразования, можно получить, что левое неравенство дает k ≤ а , а правое k ≥ а −1 . Таким образом, число k удовлетворяет двойному неравенству а −1 ≤ k ≤ а , т.е. принадлежит отрезку [а −1, а ] . Поскольку длина этого отрезка, очевидно, равна 1 , то в него может попасть либо одно, либо 2 целых числа. Если число а целое, то в отрезке [а −1, а ] имеется 2 целых числа, лежащих на концах отрезка. Если же число а не целое, то в этом отрезке есть только одно целое число.

Таким образом, если число а целое, то мода распределенной по Пуассону случайной величины Х принимает 2 соседних значения: d (X )=а−1 и d (X )=а . Если же число а не целое, то мода имеет одно значение d (X )= k , где k есть единственное целое число, удовлетворяющее неравенству а −1 ≤ k ≤ а , т.е. d (X )= [а ] .

Пример . Завод отправил на базу 5000 изделий. Вероятность того, что в пути изделие повредится, равно 0.0002 . Какова вероятность, что повредится 18 изделий? Каково среднее значение поврежденных изделий? Каково наивероятнейшее число поврежденных изделий и какова его вероятность?

Наиболее общим случаем различного рода вероятностных распределений является биномиальное распределение. Воспользуемся его универсальностью для определения наиболее часто встречающихся на практике частных видов распределений.

Биномиальное распределение

Пусть имеется некое событие A . Вероятность появления события A равна p , вероятность непоявления события A равна 1 – p , иногда ее обозначают как q . Пусть n — число испытаний, m — частота появления события A в этих n испытаниях.

Известно, что суммарная вероятность всех возможных комбинаций исходов равна единице, то есть:

1 = p n + n · p n – 1 · (1 – p ) + C n n – 2 · p n – 2 · (1 – p ) 2 + … + C n m · p m · (1 – p ) n – m + … + (1 – p ) n .

p n — вероятность того, что в n n раз;

n · p n – 1 · (1 – p ) — вероятность того, что в n n – 1) раз и не произойдет 1 раз;

C n n – 2 · p n – 2 · (1 – p ) 2 — вероятность того, что в n испытаниях событие A произойдет (n – 2) раза и не произойдет 2 раза;

P m = C n m · p m · (1 – p ) n – m — вероятность того, что в n испытаниях событие A произойдет m раз и не произойдет (n – m ) раз;

(1 – p ) n — вероятность того, что в n испытаниях событие A не произойдет ни разу;

— число сочетаний из n по m .

Математическое ожидание M биномиального распределения равно:

M = n · p ,

где n — число испытаний, p — вероятность появления события A .

Среднеквадратичное отклонение σ :

σ = sqrt(n · p · (1 – p )) .

Пример 1 . Вычислить вероятность того, что событие, имеющее вероятность p = 0.5 , в n = 10 испытаниях произойдет m = 1 раз. Имеем: C 10 1 = 10 , и далее: P 1 = 10 · 0.5 1 · (1 – 0.5) 10 – 1 = 10 · 0.5 10 = 0.0098 . Как видим, вероятность наступления этого события достаточно мала. Объясняется это, во-первых, тем, что абсолютно не ясно, произойдет ли событие или нет, поскольку вероятность равна 0.5 и шансы здесь «50 на 50»; а во-вторых, требуется исчислить то, что событие произойдет именно один раз (не больше и не меньше) из десяти.

Пример 2 . Вычислить вероятность того, что событие, имеющее вероятность p = 0.5 , в n = 10 испытаниях произойдет m = 2 раза. Имеем: C 10 2 = 45 , и далее: P 2 = 45 · 0.5 2 · (1 – 0.5) 10 – 2 = 45 · 0.5 10 = 0.044 . Вероятность наступления этого события стала больше!

Пример 3 . Увеличим вероятность наступления самого события. Сделаем его более вероятным. Вычислить вероятность того, что событие, имеющее вероятность p = 0.8 , в n = 10 испытаниях произойдет m = 1 раз. Имеем: C 10 1 = 10 , и далее: P 1 = 10 · 0.8 1 · (1 – 0.8) 10 – 1 = 10 · 0.8 1 · 0.2 9 = 0.000004 . Вероятность стала меньше, чем в первом примере! Ответ, на первый взгляд, кажется странным, но поскольку событие имеет достаточно большую вероятность, вряд ли оно произойдет только один раз. Более вероятно, что оно произойдет большее, чем один, количество раз. Действительно, подсчитывая P 0 , P 1 , P 2 , P 3 , …, P 10 (вероятность того, что событие в n = 10 испытаниях произойдет 0, 1, 2, 3, …, 10 раз), мы увидим:

C 10 0 = 1 , C 10 1 = 10 , C 10 2 = 45 , C 10 3 = 120 , C 10 4 = 210 , C 10 5 = 252 ,
C 10 6 = 210 , C 10 7 = 120 , C 10 8 = 45 , C 10 9 = 10 , C 10 10 = 1 ;

P 0 = 1 · 0.8 0 · (1 – 0.8) 10 – 0 = 1 · 1 · 0.2 10 = 0.0000… ;
P 1 = 10 · 0.8 1 · (1 – 0.8) 10 – 1 = 10 · 0.8 1 · 0.2 9 = 0.0000… ;
P 2 = 45 · 0.8 2 · (1 – 0.8) 10 – 2 = 45 · 0.8 2 · 0.2 8 = 0.0000… ;
P 3 = 120 · 0.8 3 · (1 – 0.8) 10 – 3 = 120 · 0.8 3 · 0.2 7 = 0.0008… ;
P 4 = 210 · 0.8 4 · (1 – 0.8) 10 – 4 = 210 · 0.8 4 · 0.2 6 = 0.0055… ;
P 5 = 252 · 0.8 5 · (1 – 0.8) 10 – 5 = 252 · 0.8 5 · 0.2 5 = 0.0264… ;
P 6 = 210 · 0.8 6 · (1 – 0.8) 10 – 6 = 210 · 0.8 6 · 0.2 4 = 0.0881… ;
P 7 = 120 · 0.8 7 · (1 – 0.8) 10 – 7 = 120 · 0.8 7 · 0.2 3 = 0.2013… ;
P 8 = 45 · 0.8 8 · (1 – 0.8) 10 – 8 = 45 · 0.8 8 · 0.2 2 = 0.3020… (самая большая вероятность!);
P 9 = 10 · 0.8 9 · (1 – 0.8) 10 – 9 = 10 · 0.8 9 · 0.2 1 = 0.2684… ;
P 10 = 1 · 0.8 10 · (1 – 0.8) 10 – 10 = 1 · 0.8 10 · 0.2 0 = 0.1074…

Разумеется, P 0 + P 1 + P 2 + P 3 + P 4 + P 5 + P 6 + P 7 + P 8 + P 9 + P 10 = 1 .

Нормальное распределение

Если изобразить величины P 0 , P 1 , P 2 , P 3 , …, P 10 , которые мы подсчитали в примере 3, на графике, то окажется, что их распределение имеет вид, близкий к нормальному закону распределения (см. рис. 27.1 ) (см. лекцию 25. Моделирование нормально распределенных случайных величин).

Рис. 27.1. Вид биномиального распределения
вероятностей для различных m при p = 0.8, n = 10

Биномиальный закон переходит в нормальный, если вероятности появления и непоявления события A примерно одинаковы, то есть, условно можно записать: p ≈ (1 – p ) . Для примера возьмем n = 10 и p = 0.5 (то есть p = 1 – p = 0.5 ).

Содержательно к такой задаче мы придем, если, например, захотим теоретически посчитать, сколько будет мальчиков и сколько девочек из 10 родившихся в роддоме в один день детей. Точнее, считать будем не мальчиков и девочек, а вероятность, что родятся только мальчики, что родится 1 мальчик и 9 девочек, что родится 2 мальчика и 8 девочек и так далее. Примем для простоты, что вероятность рождения мальчика и девочки одинакова и равна 0.5 (но на самом деле, если честно, это не так, см. курс «Моделирование систем искусственного интеллекта»).

Ясно, что распределение будет симметричное, так как вероятность рождения 3 мальчиков и 7 девочек равна вероятности рождения 7 мальчиков и 3 девочек. Наибольшая вероятность рождения будет у 5 мальчиков и 5 девочек. Эта вероятность равна 0.25, кстати, не такая уж она и большая по абсолютной величине. Далее, вероятность того, что родится сразу 10 или 9 мальчиков намного меньше, чем вероятность того, что родится 5 ± 1 мальчик из 10 детей. Как раз биномиальное распределение нам поможет сделать этот расчет. Итак.

C 10 0 = 1 , C 10 1 = 10 , C 10 2 = 45 , C 10 3 = 120 , C 10 4 = 210 , C 10 5 = 252 ,
C 10 6 = 210 , C 10 7 = 120 , C 10 8 = 45 , C 10 9 = 10 , C 10 10 = 1 ;

P 0 = 1 · 0.5 0 · (1 – 0.5) 10 – 0 = 1 · 1 · 0.5 10 = 0.000977… ;
P 1 = 10 · 0.5 1 · (1 – 0.5) 10 – 1 = 10 · 0.5 10 = 0.009766… ;
P 2 = 45 · 0.5 2 · (1 – 0.5) 10 – 2 = 45 · 0.5 10 = 0.043945… ;
P 3 = 120 · 0.5 3 · (1 – 0.5) 10 – 3 = 120 · 0.5 10 = 0.117188… ;
P 4 = 210 · 0.5 4 · (1 – 0.5) 10 – 4 = 210 · 0.5 10 = 0.205078… ;
P 5 = 252 · 0.5 5 · (1 – 0.5) 10 – 5 = 252 · 0.5 10 = 0.246094… ;
P 6 = 210 · 0.5 6 · (1 – 0.5) 10 – 6 = 210 · 0.5 10 = 0.205078… ;
P 7 = 120 · 0.5 7 · (1 – 0.5) 10 – 7 = 120 · 0.5 10 = 0.117188… ;
P 8 = 45 · 0.5 8 · (1 – 0.5) 10 – 8 = 45 · 0.5 10 = 0.043945… ;
P 9 = 10 · 0.5 9 · (1 – 0.5) 10 – 9 = 10 · 0.5 10 = 0.009766… ;
P 10 = 1 · 0.5 10 · (1 – 0.5) 10 – 10 = 1 · 0.5 10 = 0.000977…

Разумеется, P 0 + P 1 + P 2 + P 3 + P 4 + P 5 + P 6 + P 7 + P 8 + P 9 + P 10 = 1 .

Отразим на графике величины P 0 , P 1 , P 2 , P 3 , …, P 10 (см. рис. 27.2 ).

Рис. 27.2. График биномиального распределения при параметрах
p = 0.5 и n = 10, приближающих его к нормальному закону

Итак, при условиях m n /2 и p ≈ 1 – p или p ≈ 0.5 вместо биномиального распределения можно использовать нормальное. При больших значениях n график сдвигается вправо и становится все более пологим, так как математическое ожидание и дисперсия возрастают с увеличением n : M = n · p , D = n · p · (1 – p ) .

Кстати, биномиальный закон стремится к нормальному и при увеличении n , что вполне естественно, согласно центральной предельной теореме (см. лекцию 34. Фиксация и обработка статистических результатов).

Теперь рассмотрим, как изменится биномиальный закон в случае, когда p q , то есть p –> 0 . В этом случае применить гипотезу о нормальности распределения нельзя, и биномиальное распределение переходит в распределение Пуассона.

Распределение Пуассона

Распределение Пуассона — это частный случай биномиального распределения (при n >> 0 и при p –> 0 (редкие события)).

Из математики известна формула, позволяющая примерно подсчитать значение любого члена биномиального распределения:

где a = n · p — параметр Пуассона (математическое ожидание), а дисперсия равна математическому ожиданию. Приведем математические выкладки, поясняющие этот переход. Биномиальный закон распределения

P m = C n m · p m · (1 – p ) n – m

может быть написан, если положить p = a /n , в виде

Так как p очень мало, то следует принимать во внимание только числа m , малые по сравнению с n . Произведение

весьма близко к единице. Это же относится к величине

Величина

очень близка к e –a . Отсюда получаем формулу:

Пример . В ящике находится n = 100 деталей, как качественных, так и бракованных. Вероятность достать бракованное изделие составляет p = 0.01 . Допустим, что мы вынимаем изделие, определяем, бракованное оно или нет, и кладем его обратно. Поступая таким образом, получилось, что из 100 изделий, которые мы перебрали, два оказались бракованными. Какова вероятность этого?

По биномиальному распределению получаем:

По распределению Пуассона получаем:

Как видно, величины получились близкими, поэтому в случае редких событий вполне допустимо применять закон Пуассона, тем более что он требует меньших вычислительных затрат.

Покажем графически вид закона Пуассона. Возьмем для примера параметры p = 0.05 , n = 10 . Тогда:

C 10 0 = 1 , C 10 1 = 10 , C 10 2 = 45 , C 10 3 = 120 , C 10 4 = 210 , C 10 5 = 252 ,
C 10 6 = 210 , C 10 7 = 120 , C 10 8 = 45 , C 10 9 = 10 , C 10 10 = 1 ;

P 0 = 1 · 0.05 0 · (1 – 0.05) 10 – 0 = 1 · 1 · 0.95 10 = 0.5987… ;
P 1 = 10 · 0.05 1 · (1 – 0.05) 10 – 1 = 10 · 0.05 1 · 0.95 9 = 0.3151… ;
P 2 = 45 · 0.05 2 · (1 – 0.05) 10 – 2 = 45 · 0.05 2 · 0.95 8 = 0.0746… ;
P 3 = 120 · 0.05 3 · (1 – 0.05) 10 – 3 = 120 · 0.05 3 · 0.95 7 = 0.0105… ;
P 4 = 210 · 0.05 4 · (1 – 0.05) 10 – 4 = 210 · 0.05 4 · 0.95 6 = 0.00096… ;
P 5 = 252 · 0.05 5 · (1 – 0.05) 10 – 5 = 252 · 0.05 5 · 0.95 5 = 0.00006… ;
P 6 = 210 · 0.05 6 · (1 – 0.05) 10 – 6 = 210 · 0.05 6 · 0.95 4 = 0.0000… ;
P 7 = 120 · 0.05 7 · (1 – 0.05) 10 – 7 = 120 · 0.05 7 · 0.95 3 = 0.0000… ;
P 8 = 45 · 0.05 8 · (1 – 0.05) 10 – 8 = 45 · 0.05 8 · 0.95 2 = 0.0000… ;
P 9 = 10 · 0.05 9 · (1 – 0.05) 10 – 9 = 10 · 0.05 9 · 0.95 1 = 0.0000… ;
P 10 = 1 · 0.05 10 · (1 – 0.05) 10 – 10 = 1 · 0.05 10 · 0.95 0 = 0.0000…

Разумеется, P 0 + P 1 + P 2 + P 3 + P 4 + P 5 + P 6 + P 7 + P 8 + P 9 + P 10 = 1 .

Рис. 27.3. График распределения Пуассона при p = 0.05 и n = 10

При n –> ∞ распределение Пуассона переходит в нормальный закон, согласно центральной предельной теореме (см.

Распределение Пуассона.

Рассмотрим наиболее типичную ситуацию, в которой возникает распределение Пуассона. Пусть событие А появляется некоторое число раз в фиксированном участке пространства (интервале, площади, объеме) или промежутке времени с постоянной интенсивностью. Для определенности рассмотрим последовательное появление событий во времени, называемое потоком событий. Графически поток событий можно иллюстрировать множеством точек, расположенных на оси времени.

Это может быть поток вызовов в сфере обслуживания (ремонт бытовой техники, вызов скорой помощи и др.), поток вызовов на АТС, отказ в работе некоторых частей системы, радиоактивный распад, куски ткани или металлические листы и число дефектов на каждом из них и др. Наиболее полезным распределение Пуассона оказывается в тех задачах, где требуется определить лишь число положительных исходов («успехов»).

Представим себе булку с изюмом, разделенную на маленькие кусочки равной величины. Вследствие случайного распределения изюминок нельзя ожидать, что все кусочки будут содержать их одинаковое число. Когда среднее число изюминок, содержащееся в этих кусочках, известно, тогда распределение Пуассона задает вероятность того, что любой взятый кусочек содержит X =k (k = 0,1,2,...,)число изюминок.

Иначе говоря, распределение Пуассона определяет, какая часть длинной серии кусочков будет содержать равное 0, или 1, или 2, или и т.д. число изюминок.

Сделаем следующие предположения.

1. Вероятность появления некоторого числа событий в данном промежутке времени зависит только от длины этого промежутка, а не от его положения на временной оси. Это свойство стационарности.

2. Появление более одного события в достаточно малом промежутке времени практически невозможно, т.е. условная вероятность появления в этом же интервале другого события стремится к нулю при ® 0. Это свойство ординарности.

3. Вероятность появления данного числа событий на фиксированном промежутке времени не зависит от числа событий, появляющихся в другие промежутки времени. Это свойство отсутствия последействия.

Поток событий, удовлетворяющий перечисленным предложениям, называется простейшим .

Рассмотрим достаточно малый промежуток времени . На основании свойства 2 событие может появиться на этом промежутке один раз или совсем не появиться. Обозначим вероятность появления события через р , а непоявления – через q = 1-p. Вероятность р постоянна (свойство 3) и зависит только от величины (свойство 1). Математическое ожидание числа появлений события в промежутке будет равно 0×q + 1×p = p . Тогда среднее число появления событий в единицу времени называется интенсивностью потока и обозначается через a, т.е. a = .

Рассмотрим конечный отрезок времени t и разделим его на n частей = . Появления событий в каждом из этих промежутков независимы (свойство 2). Определим вероятность того, что в отрезке времени t при постоянной интенсивности потока а событие появится ровно X = k раз и не появится n – k . Так как событие может в каждом из n промежутков появиться не более чем 1 раз, то для появления его k раз на отрезке длительностью t оно должно появиться в любых k промежутках из общего числа n. Всего таких комбинаций , а вероятность каждой равна . Следовательно, по теореме сложения вероятностей получим для искомой вероятности известную формулу Бернулли

Это равенство записано как приближенное, так как исходной посылкой при его выводе послужило свойство 2, выполняемое тем точнее, чем меньше . Для получения точного равенства перейдем к пределу при ® 0 или, что то же, n ® . Получим после замены

P = a = и q = 1 – .

Введем новый параметр = at , означающий среднее число появлений события в отрезке t . После несложных преобразований и переходу к пределу в сомножителях получим.

= 1, = ,

Окончательно получим

, k = 0, 1, 2, ...

е = 2,718... –основание натурального логарифма.

Определение . Случайная величина Х , которая принимает только целые, положительные значения 0, 1, 2, ... имеет закон распределения Пуассона с параметром , если

для k = 0, 1, 2, ...

Распределение Пуассона было предложено французским математиком С.Д. Пуассоном (1781-1840 гг). Оно используется для решения задач исчисления вероятностей относительно редких, случайных взаимно независимых событий в единицу времени, длины, площади и объема.

Для случая, когда а) – велико и б) k = , справедлива формула Стирлинга:

Для расчета последующих значений используется рекуррентная формула

P (k + 1) = P (k ).

Пример 1. Чему равна вероятность того, что из 1000 человек в данный день родились: а) ни одного, б) один, в) два, г) три человека?

Решение. Так как p = 1/365, то q = 1 – 1/365 = 364/365 » 1.

Тогда

а) ,

б) ,

в) ,

г) .

Следовательно, если имеются выборки из 1000 человек, то среднее число человек, которые родились в определенный день, соответственно будут равны 65; 178; 244; 223.

Пример 2. Определить значение , при котором с вероятностью Р событие появилось хотя бы один раз.

Решение. Событие А = {появиться хотя бы один раз} и = {не появиться ни одного раза}. Следовательно .

Отсюда и .

Например, для Р = 0,5 , для Р = 0,95 .

Пример 3. На ткацких станках, обслуживаемых одной ткачихой, в течение часа происходит 90 обрывов нити. Найти вероятность того, что за 4 минуты произойдет хотя бы один обрыв нити.

Решение. По условию t = 4 мин. и среднее число обрывов за одну минуту , откуда . Требуемая вероятность равна .

Свойства . Математическое ожидание и дисперсия случайной величины, имеющей распределение Пуассона с параметром , равны:

M (X ) = D (X ) = .

Эти выражения получаются прямыми вычислениями:

Здесь была осуществлена замена n = k – 1 и использован тот факт, что .

Выполнив преобразования, аналогичные использованным при выводе М (X ), получим

Распределение Пуассона используется для аппроксимации биноминального распределения при больших n

Во многих практически важных приложениях большую роль играет распределение Пуассона. Многие из числовых дискретных величин являются реализациями пуассоновского процесса, обладающего следующими свойствами:

  • Нас интересует, сколько раз происходит некое событие в заданной области возможных исходов случайного эксперимента. Область возможных исходов может представлять собой интервал времени, отрезок, поверхность и т.п.
  • Вероятность данного события одинакова для всех областей возможных исходов.
  • Количество событий, происходящих в одной области возможных исходов, не зависит от количества событий, происходящих в других областях.
  • Вероятность того, что в одной и той же области возможных исходов данное событие происходит больше одного раза, стремится к нулю по мере уменьшения области возможных исходов.

Чтобы глубже понять смысл пуассоновского процесса, предположим, что мы исследуем количество клиентов, посещающих отделение банка, расположенное в центральном деловом районе, во время ланча, т.е. с 12 до 13 часов. Предположим, требуется определить количество клиентов, приходящих за одну минуту. Обладает ли эта ситуация особенностями, перечисленными выше? Во-первых, событие, которое нас интересует, представляет собой приход клиента, а область возможных исходов - одноминутный интервал. Сколько клиентов придет в банк за минуту - ни одного, один, два или больше? Во-вторых, разумно предположить, что вероятность прихода клиента на протяжении минуты одинакова для всех одноминутных интервалов. В-третьих, приход одного клиента в течение любого одноминутного интервала не зависит от прихода любого другого клиента в течение любого другого одноминутного интервала. И, наконец, вероятность того, что в банк придет больше одного клиента стремится к нулю, если временной интервал стремится к нулю, например, становится меньше 0,1 с. Итак, количество клиентов, приходящих в банк во время ланча в течение одной минуты, описывается распределением Пуассона.

Распределение Пуассона имеет один параметр, обозначаемый символом λ (греческая буква «лямбда») – среднее количество успешных испытаний в заданной области возможных исходов. Дисперсия распределения Пуассона также равна λ, а его стандартное отклонение равно . Количество успешных испытаний Х пуассоновской случайной величины изменяется от 0 до бесконечности. Распределение Пуассона описывается формулой:

где Р(Х) - вероятность X успешных испытаний, λ - ожидаемое количество успехов, е - основание натурального логарифма, равное 2,71828, X - количество успехов в единицу времени.

Вернемся к нашему примеру. Допустим, что в течение обеденного перерыва в среднем в банк приходят три клиента в минуту. Какова вероятность того, что в данную минуту в банк придут два клиента? А чему равна вероятность того, что в банк придут более двух клиентов?

Применим формулу (1) с параметром λ = 3. Тогда вероятность того, что в течение данной минуты в банк придут два клиента, равна

Вероятность того, что в банк придут более двух клиентов, равна Р(Х > 2) = Р(Х = 3) + Р(Х = 4) + … + Р(Х = ∞) . Поскольку сумма всех вероятностей должна быть равной 1, члены ряда, стоящего в правой части формулы, представляют собой вероятность дополнения к событию Х≤ 2. Иначе говоря, сумма этого ряда равна 1 – Р(Х ≤ 2). Таким образом, Р(Х> 2) = 1 – Р(Х≤2) = 1 – [Р(Х = 0) + Р(Х = 1) + Р(Х = 2)]. Теперь, используя формулу (1), получаем:

Таким образом, вероятность того, что в банк в течение минуты придут не больше двух клиентов, равна 0,423 (или 42,3%), а вероятность того, что в банк в течение минуты придут больше двух клиентов, равна 0,577 (или 57,7%).

Такие вычисления могут показаться утомительными, особенно если параметр λ достаточно велик. Чтобы избежать сложных вычислений, многие пуассоновские вероятности можно найти в специальных таблицах (рис. 1). Например, вероятность того, что в заданную минуту в банк придут два клиента, если в среднем в банк приходят три клиента в минуту, находится на пересечении строки X = 2 и столбца λ = 3. Таким образом, она равна 0,2240 или 22,4%.

Рис. 1. Пуассоновская вероятность при λ = 3

Сейчас вряд ли кто-то будет пользоваться таблицами, если под рукой есть Excel с его функцией =ПУАССОН.РАСП() (рис. 2). Эта функция имеет три параметра: число успешных испытаний Х , среднее ожидаемое количество успешных испытаний λ, параметр Интегральная , принимающий два значения: ЛОЖЬ – в этом случае вычисляется вероятность числа успешных испытаний Х (только Х), ИСТИНА – в этом случае вычисляется вероятность числа успешных испытаний от 0 до Х.

Рис. 2. Расчет в Excel вероятностей распределения Пуассона при λ = 3

Аппроксимация биноминального распределения с помощью распределения Пуассона

Если число n велико, а число р - мало, биномиальное распределение можно аппроксимировать с помощью распределения Пуассона. Чем больше число n и меньше число р , тем выше точность аппроксимации. Для аппроксимации биномиального распределения используется следующая модель Пуассона.

где Р(Х) - вероятность X успехов при заданных параметрах n и р , n - объем выборки, р - истинная вероятность успеха, е - основание натурального логарифма, X - количество успехов в выборке (X = 0, 1, 2, …, n ).

Теоретически случайная величина, имеющая распределение Пуассона, принимает значения от 0 до ∞. Однако в тех ситуациях, когда распределение Пуассона применяется для приближения биномиального распределения, пуассоновская случайная величина - количество успехов среди n наблюдений - не может превышать число n . Из формулы (2) следует, что с увеличением числа n и уменьшением числа р вероятность обнаружить большое количество успехов уменьшается и стремится к нулю.

Как говорилось выше, математическое ожидание µ и дисперсия σ 2 распределения Пуассона равны λ. Следовательно, при аппроксимации биномиального распределения с помощью распределения Пуассона для приближения математического ожидания следует применять формулу (3).

(3) µ = Е(Х) = λ = np

Для аппроксимации стандартного отклонения используется формула (4).

Обратите внимание на то, что стандартное отклонение, вычисленное по формуле (4), стремится к стандартному отклонению в биномиальной модели – , когда вероятность успеха p стремится к нулю, и, соответственно, вероятность неудачи 1 – р стремится к единице.

Предположим, что 8% шин, произведенных на некотором заводе, являются бракованными. Чтобы проиллюстрировать применение распределения Пуассона для аппроксимации биномиального распределения, вычислим вероятность обнаружить одну дефектную шину в выборке, состоящей из 20 шин. Применим формулу (2), получим

Если бы мы вычислили истинное биномиальное распределение, а не его приближение, то получили бы следующий результат:

Однако эти вычисления довольно утомительны. В то же время, если вы используете Excel для вычисления вероятностей, то применение аппроксимации в виде распределения Пуассона становится излишним. На рис. 3 показано, что трудоемкость вычислений в Excel одинакова. Тем не менее, этот раздел, на мой взгляд, полезен понимаем того, что при некоторых условиях биноминальное распределение и распределение Пуассона дают близкие результаты.

Рис. 3. Сравнение трудоемкости расчетов в Excel: (а) распределение Пуассона; (б) биноминальное распределение

Итак, в настоящей и двух предыдущих заметках были рассмотрены три дискретных числовых распределения: , и Пуассона. Чтобы лучше представлять, как эти распределения соотносятся друг с другом приведем небольшое дерево вопросов (рис. 4).

Рис. 4. Классификация дискретных распределений вероятностей

Используются материалы книги Левин и др. Статистика для менеджеров. – М.: Вильямс, 2004. – с. 320–328

$Х$ имеет распределение Пуассона с параметром $\lambda$ ($\lambda$$>$0), если эта величина принимает целые неотрицательные значения $к=0, 1, 2,\dots$ с вероятностями $рк$=$\frac{\lambda ^{:} }{:!} \cdot 5^{-\lambda } .$ (Это распределение впервые было рассмотрено французским математиком и физиком Симеоном Дени Пуассоном в 1837 г.)

Распределение Пуассона также называют законом редких событий, потому, что вероятности рк дают приближенное распределение числа наступлений некоторого редкого события при большом количестве независимых испытаний. В этом случае полагают $\lambda =n \cdot р$ , где $n$- число испытаний Бернулли, $р$- вероятность осуществления события в одном испытании.

Правомерность использования закона Пуассона вместо биномиального распределения при большом числе испытаний дает следующая теорема.

Теорема 1

Теорема Пуассона.

Если в схеме Бернулли n$\rightarrow$$\infty$, p$\rightarrow$0, так что $n \cdot p$$\rightarrow$$\lambda$ (конечному числу), то

$!_{n}^{k} p^{k} (1-p)^{n-k} \to \frac{\lambda ^{k} }{k!} e^{-\lambda } $ при любых $k=0, 1, 2,... $

Без доказательства.

Примечание 1

Формула Пуассона становится точнее, при малениких $p$ и больших чисел $n$, причём $n \cdot p $

Математическое ожидание случайной величины, имеющей распределение Пуассона с параметром $\lambda$:

$М(Х)$=$\sum \limits _{k=0}^{\infty }k\cdot \frac{\lambda ^{k} }{k!} e^{-\lambda } =\lambda \cdot e^{-\lambda } \sum \limits _{k=1}^{\infty }\frac{\lambda ^{k} }{k!} =\lambda \cdot e^{-\lambda } \cdot e^{\lambda } = $$\lambda$.

Дисперсия случайной величины, имеющей распределение Пуассона параметром $\lambda$:

$D(X)$=$\lambda$ .

Применение формулы Пуассона при решении задач

Пример 1

Вероятность появления бракованного изделия при массовом производстве равна $0,002$. Найти вероятность того, что в партии из $1500$ изделий будет не более 3-х бракованных. Найти среднее число бракованных изделий.

  • Пусть $А$-число бракованных изделий в партии из $1500$ изделий. Тогда искомая вероятность, это вероятность того, что $А$ $\leq$ $3$. В данной задаче мы имеем схему Бернулли с $n=1500$ и $р=0,002$. Для применения теоремы Пуассона положим $\lambda=1500 \cdot 0,002=3$. Тогда искомая вероятность
\
  • Среднее число бракованных изделий $М(А)$=$\lambda$=3.

Пример 2

Коммутатор учреждения обслуживает $100$ абонентов. Вероятность того, что в течение $1$ минуты абонент позвонит, равна $0,01$. Найти вероятность того, что в течение $1$ минуты никто не позвонит.

Пусть $А$- число позвонивших на коммутатор в течение $1$ минуты. Тогда искомая вероятность -- это вероятность того, что $А=0$. В данной задаче применима схема Бернулли с $n=100$, $p=0,01$. Для использования теоремы Пуассона положим

$\lambda=100 \cdot 0,01=1$.

Тогда искомая вероятность

$Р = е^-1$ $\approx0,37$.

Пример 3

Завод отправил на базу $500$ изделий. Вероятность повреждения изделия в пути равна $0,002$. Найти вероятности того, что в пути будет повреждено

  1. ровно три изделия;
  2. менее трех изделий.

    Рассмотрев замечание к формуле Пуассона, поскольку вероятность $р=0,002$ повреждения изделия мала, а число изделий $n=500$ велико, и $a=n\cdot p=1

    Для решения второй задачи применима формула, где $k1=0$ и $k2=2$. Имеем:

\

Пример 4

Учебник издан тиражом $100000$ экземпляров. Вероятность того, что один учебник сброшюрован неправильно, равна $0,0001$. Какова вероятность того, что тираж содержит $5$ бракованных книг?

По условию задачи $n = 100000$, $p = 0,0001$.

События "из $n$ книг ровно $m$ книг сброшюрованы неправильно", где $m = 0,1,2, \dots ,100000$, являются независимыми. Так как число $n$ велико, а вероятность $p$ мала, вероятность $P_n (m)$ можно вычислить по формуле Пуассона: $P_n$(m)$\approx \frac{{\lambda }^m\cdot e^{-\lambda }}{m!}$ , где $\lambda = np$.

В рассматриваемой задаче

$\lambda = 100000 \cdot 0,0001 = 10$.

Поэтому искомая вероятность $P_{100000}$(5) определяется равенством:

$P_{100000}$ (5)$\approx \frac{e^{-10}\cdot {10}^5}{5!}\approx $ ${10}^5$ $\frac{0,000045}{120}$ = $0,0375$.

Ответ: $0,0375$.

Пример 5

Завод отправил на базу $5000$ доброкачественных изделий. Вероятность того, что в пути изделие повредиться равно $0,0002$. Найти вероятность того, что на базу прибудут три негодных изделия.

По условию $n=5000$; $р = 0,0002$; $k = 3$. Найдем $\lambda $:

$\lambda = n \cdot p = 5000 \cdot 0,0002 = 1$.

Искомая вероятность по формуле Пуассона равна:

Пример 6

Вероятность того, что на телефонную станцию в течение одного часа позвонит один абонент, равна 0,01. В течение часа позвонили 200 абонентов. Найти вероятность того, что в течение часа позвонят 3 абонента.

Рассматрев условие задачи видим, что:

Найдем $\lambda $ для формуллы Пуассона:

\[\lambda =np=200\cdot 0,01=2.\]

Подставим значения в формулу Пуассона и получим значение:

Пример 7

На факультете насчитывается 500 студентов. Какова вероятность того, что 1 сентября является днем рождения одновременно для 2-х студентов?

Имеем $n=500$; $p=1/365 \approx 0,0027$, $q=0,9973$. Поскольку количество испытаний велико, а вероятность выполнения очень мала и $npq=1,35 \