Распределение Пуассона. Закон редких событий. Распределение пуассона дискретной случайной величины Вероятность распределения пуассона

Наиболее общим случаем различного рода вероятностных распределений является биномиальное распределение. Воспользуемся его универсальностью для определения наиболее часто встречающихся на практике частных видов распределений.

Биномиальное распределение

Пусть имеется некое событие A . Вероятность появления события A равна p , вероятность непоявления события A равна 1 – p , иногда ее обозначают как q . Пусть n — число испытаний, m — частота появления события A в этих n испытаниях.

Известно, что суммарная вероятность всех возможных комбинаций исходов равна единице, то есть:

1 = p n + n · p n – 1 · (1 – p ) + C n n – 2 · p n – 2 · (1 – p ) 2 + … + C n m · p m · (1 – p ) n – m + … + (1 – p ) n .

p n — вероятность того, что в n n раз;

n · p n – 1 · (1 – p ) — вероятность того, что в n n – 1) раз и не произойдет 1 раз;

C n n – 2 · p n – 2 · (1 – p ) 2 — вероятность того, что в n испытаниях событие A произойдет (n – 2) раза и не произойдет 2 раза;

P m = C n m · p m · (1 – p ) n – m — вероятность того, что в n испытаниях событие A произойдет m раз и не произойдет (n – m ) раз;

(1 – p ) n — вероятность того, что в n испытаниях событие A не произойдет ни разу;

— число сочетаний из n по m .

Математическое ожидание M биномиального распределения равно:

M = n · p ,

где n — число испытаний, p — вероятность появления события A .

Среднеквадратичное отклонение σ :

σ = sqrt(n · p · (1 – p )) .

Пример 1 . Вычислить вероятность того, что событие, имеющее вероятность p = 0.5 , в n = 10 испытаниях произойдет m = 1 раз. Имеем: C 10 1 = 10 , и далее: P 1 = 10 · 0.5 1 · (1 – 0.5) 10 – 1 = 10 · 0.5 10 = 0.0098 . Как видим, вероятность наступления этого события достаточно мала. Объясняется это, во-первых, тем, что абсолютно не ясно, произойдет ли событие или нет, поскольку вероятность равна 0.5 и шансы здесь «50 на 50»; а во-вторых, требуется исчислить то, что событие произойдет именно один раз (не больше и не меньше) из десяти.

Пример 2 . Вычислить вероятность того, что событие, имеющее вероятность p = 0.5 , в n = 10 испытаниях произойдет m = 2 раза. Имеем: C 10 2 = 45 , и далее: P 2 = 45 · 0.5 2 · (1 – 0.5) 10 – 2 = 45 · 0.5 10 = 0.044 . Вероятность наступления этого события стала больше!

Пример 3 . Увеличим вероятность наступления самого события. Сделаем его более вероятным. Вычислить вероятность того, что событие, имеющее вероятность p = 0.8 , в n = 10 испытаниях произойдет m = 1 раз. Имеем: C 10 1 = 10 , и далее: P 1 = 10 · 0.8 1 · (1 – 0.8) 10 – 1 = 10 · 0.8 1 · 0.2 9 = 0.000004 . Вероятность стала меньше, чем в первом примере! Ответ, на первый взгляд, кажется странным, но поскольку событие имеет достаточно большую вероятность, вряд ли оно произойдет только один раз. Более вероятно, что оно произойдет большее, чем один, количество раз. Действительно, подсчитывая P 0 , P 1 , P 2 , P 3 , …, P 10 (вероятность того, что событие в n = 10 испытаниях произойдет 0, 1, 2, 3, …, 10 раз), мы увидим:

C 10 0 = 1 , C 10 1 = 10 , C 10 2 = 45 , C 10 3 = 120 , C 10 4 = 210 , C 10 5 = 252 ,
C 10 6 = 210 , C 10 7 = 120 , C 10 8 = 45 , C 10 9 = 10 , C 10 10 = 1 ;

P 0 = 1 · 0.8 0 · (1 – 0.8) 10 – 0 = 1 · 1 · 0.2 10 = 0.0000… ;
P 1 = 10 · 0.8 1 · (1 – 0.8) 10 – 1 = 10 · 0.8 1 · 0.2 9 = 0.0000… ;
P 2 = 45 · 0.8 2 · (1 – 0.8) 10 – 2 = 45 · 0.8 2 · 0.2 8 = 0.0000… ;
P 3 = 120 · 0.8 3 · (1 – 0.8) 10 – 3 = 120 · 0.8 3 · 0.2 7 = 0.0008… ;
P 4 = 210 · 0.8 4 · (1 – 0.8) 10 – 4 = 210 · 0.8 4 · 0.2 6 = 0.0055… ;
P 5 = 252 · 0.8 5 · (1 – 0.8) 10 – 5 = 252 · 0.8 5 · 0.2 5 = 0.0264… ;
P 6 = 210 · 0.8 6 · (1 – 0.8) 10 – 6 = 210 · 0.8 6 · 0.2 4 = 0.0881… ;
P 7 = 120 · 0.8 7 · (1 – 0.8) 10 – 7 = 120 · 0.8 7 · 0.2 3 = 0.2013… ;
P 8 = 45 · 0.8 8 · (1 – 0.8) 10 – 8 = 45 · 0.8 8 · 0.2 2 = 0.3020… (самая большая вероятность!);
P 9 = 10 · 0.8 9 · (1 – 0.8) 10 – 9 = 10 · 0.8 9 · 0.2 1 = 0.2684… ;
P 10 = 1 · 0.8 10 · (1 – 0.8) 10 – 10 = 1 · 0.8 10 · 0.2 0 = 0.1074…

Разумеется, P 0 + P 1 + P 2 + P 3 + P 4 + P 5 + P 6 + P 7 + P 8 + P 9 + P 10 = 1 .

Нормальное распределение

Если изобразить величины P 0 , P 1 , P 2 , P 3 , …, P 10 , которые мы подсчитали в примере 3, на графике, то окажется, что их распределение имеет вид, близкий к нормальному закону распределения (см. рис. 27.1 ) (см. лекцию 25. Моделирование нормально распределенных случайных величин).

Рис. 27.1. Вид биномиального распределения
вероятностей для различных m при p = 0.8, n = 10

Биномиальный закон переходит в нормальный, если вероятности появления и непоявления события A примерно одинаковы, то есть, условно можно записать: p ≈ (1 – p ) . Для примера возьмем n = 10 и p = 0.5 (то есть p = 1 – p = 0.5 ).

Содержательно к такой задаче мы придем, если, например, захотим теоретически посчитать, сколько будет мальчиков и сколько девочек из 10 родившихся в роддоме в один день детей. Точнее, считать будем не мальчиков и девочек, а вероятность, что родятся только мальчики, что родится 1 мальчик и 9 девочек, что родится 2 мальчика и 8 девочек и так далее. Примем для простоты, что вероятность рождения мальчика и девочки одинакова и равна 0.5 (но на самом деле, если честно, это не так, см. курс «Моделирование систем искусственного интеллекта»).

Ясно, что распределение будет симметричное, так как вероятность рождения 3 мальчиков и 7 девочек равна вероятности рождения 7 мальчиков и 3 девочек. Наибольшая вероятность рождения будет у 5 мальчиков и 5 девочек. Эта вероятность равна 0.25, кстати, не такая уж она и большая по абсолютной величине. Далее, вероятность того, что родится сразу 10 или 9 мальчиков намного меньше, чем вероятность того, что родится 5 ± 1 мальчик из 10 детей. Как раз биномиальное распределение нам поможет сделать этот расчет. Итак.

C 10 0 = 1 , C 10 1 = 10 , C 10 2 = 45 , C 10 3 = 120 , C 10 4 = 210 , C 10 5 = 252 ,
C 10 6 = 210 , C 10 7 = 120 , C 10 8 = 45 , C 10 9 = 10 , C 10 10 = 1 ;

P 0 = 1 · 0.5 0 · (1 – 0.5) 10 – 0 = 1 · 1 · 0.5 10 = 0.000977… ;
P 1 = 10 · 0.5 1 · (1 – 0.5) 10 – 1 = 10 · 0.5 10 = 0.009766… ;
P 2 = 45 · 0.5 2 · (1 – 0.5) 10 – 2 = 45 · 0.5 10 = 0.043945… ;
P 3 = 120 · 0.5 3 · (1 – 0.5) 10 – 3 = 120 · 0.5 10 = 0.117188… ;
P 4 = 210 · 0.5 4 · (1 – 0.5) 10 – 4 = 210 · 0.5 10 = 0.205078… ;
P 5 = 252 · 0.5 5 · (1 – 0.5) 10 – 5 = 252 · 0.5 10 = 0.246094… ;
P 6 = 210 · 0.5 6 · (1 – 0.5) 10 – 6 = 210 · 0.5 10 = 0.205078… ;
P 7 = 120 · 0.5 7 · (1 – 0.5) 10 – 7 = 120 · 0.5 10 = 0.117188… ;
P 8 = 45 · 0.5 8 · (1 – 0.5) 10 – 8 = 45 · 0.5 10 = 0.043945… ;
P 9 = 10 · 0.5 9 · (1 – 0.5) 10 – 9 = 10 · 0.5 10 = 0.009766… ;
P 10 = 1 · 0.5 10 · (1 – 0.5) 10 – 10 = 1 · 0.5 10 = 0.000977…

Разумеется, P 0 + P 1 + P 2 + P 3 + P 4 + P 5 + P 6 + P 7 + P 8 + P 9 + P 10 = 1 .

Отразим на графике величины P 0 , P 1 , P 2 , P 3 , …, P 10 (см. рис. 27.2 ).

Рис. 27.2. График биномиального распределения при параметрах
p = 0.5 и n = 10, приближающих его к нормальному закону

Итак, при условиях m n /2 и p ≈ 1 – p или p ≈ 0.5 вместо биномиального распределения можно использовать нормальное. При больших значениях n график сдвигается вправо и становится все более пологим, так как математическое ожидание и дисперсия возрастают с увеличением n : M = n · p , D = n · p · (1 – p ) .

Кстати, биномиальный закон стремится к нормальному и при увеличении n , что вполне естественно, согласно центральной предельной теореме (см. лекцию 34. Фиксация и обработка статистических результатов).

Теперь рассмотрим, как изменится биномиальный закон в случае, когда p q , то есть p –> 0 . В этом случае применить гипотезу о нормальности распределения нельзя, и биномиальное распределение переходит в распределение Пуассона.

Распределение Пуассона

Распределение Пуассона — это частный случай биномиального распределения (при n >> 0 и при p –> 0 (редкие события)).

Из математики известна формула, позволяющая примерно подсчитать значение любого члена биномиального распределения:

где a = n · p — параметр Пуассона (математическое ожидание), а дисперсия равна математическому ожиданию. Приведем математические выкладки, поясняющие этот переход. Биномиальный закон распределения

P m = C n m · p m · (1 – p ) n – m

может быть написан, если положить p = a /n , в виде

Так как p очень мало, то следует принимать во внимание только числа m , малые по сравнению с n . Произведение

весьма близко к единице. Это же относится к величине

Величина

очень близка к e –a . Отсюда получаем формулу:

Пример . В ящике находится n = 100 деталей, как качественных, так и бракованных. Вероятность достать бракованное изделие составляет p = 0.01 . Допустим, что мы вынимаем изделие, определяем, бракованное оно или нет, и кладем его обратно. Поступая таким образом, получилось, что из 100 изделий, которые мы перебрали, два оказались бракованными. Какова вероятность этого?

По биномиальному распределению получаем:

По распределению Пуассона получаем:

Как видно, величины получились близкими, поэтому в случае редких событий вполне допустимо применять закон Пуассона, тем более что он требует меньших вычислительных затрат.

Покажем графически вид закона Пуассона. Возьмем для примера параметры p = 0.05 , n = 10 . Тогда:

C 10 0 = 1 , C 10 1 = 10 , C 10 2 = 45 , C 10 3 = 120 , C 10 4 = 210 , C 10 5 = 252 ,
C 10 6 = 210 , C 10 7 = 120 , C 10 8 = 45 , C 10 9 = 10 , C 10 10 = 1 ;

P 0 = 1 · 0.05 0 · (1 – 0.05) 10 – 0 = 1 · 1 · 0.95 10 = 0.5987… ;
P 1 = 10 · 0.05 1 · (1 – 0.05) 10 – 1 = 10 · 0.05 1 · 0.95 9 = 0.3151… ;
P 2 = 45 · 0.05 2 · (1 – 0.05) 10 – 2 = 45 · 0.05 2 · 0.95 8 = 0.0746… ;
P 3 = 120 · 0.05 3 · (1 – 0.05) 10 – 3 = 120 · 0.05 3 · 0.95 7 = 0.0105… ;
P 4 = 210 · 0.05 4 · (1 – 0.05) 10 – 4 = 210 · 0.05 4 · 0.95 6 = 0.00096… ;
P 5 = 252 · 0.05 5 · (1 – 0.05) 10 – 5 = 252 · 0.05 5 · 0.95 5 = 0.00006… ;
P 6 = 210 · 0.05 6 · (1 – 0.05) 10 – 6 = 210 · 0.05 6 · 0.95 4 = 0.0000… ;
P 7 = 120 · 0.05 7 · (1 – 0.05) 10 – 7 = 120 · 0.05 7 · 0.95 3 = 0.0000… ;
P 8 = 45 · 0.05 8 · (1 – 0.05) 10 – 8 = 45 · 0.05 8 · 0.95 2 = 0.0000… ;
P 9 = 10 · 0.05 9 · (1 – 0.05) 10 – 9 = 10 · 0.05 9 · 0.95 1 = 0.0000… ;
P 10 = 1 · 0.05 10 · (1 – 0.05) 10 – 10 = 1 · 0.05 10 · 0.95 0 = 0.0000…

Разумеется, P 0 + P 1 + P 2 + P 3 + P 4 + P 5 + P 6 + P 7 + P 8 + P 9 + P 10 = 1 .

Рис. 27.3. График распределения Пуассона при p = 0.05 и n = 10

При n –> ∞ распределение Пуассона переходит в нормальный закон, согласно центральной предельной теореме (см.

Введение

Теория вероятностей – это математическая наука, изучающая закономерности в случайных явлениях. На сегодняшний день это полноценная наука, имеющая большое практическое значение.

История теории вероятности восходит к XVII веку, когда были предприняты первые попытки систематического исследования задач, относящихся к массовым случайным явлениям, и появился соответствующий математический аппарат. С тех пор, многие основы были разработаны и углублены до нынешних понятий, были открыты другие важные законы и закономерности. Множество ученых работало и работает над проблемами теории вероятностей.

Среди них нельзя не обратить внимание на труды Симеона Дени Пуассона ((1781–1840) – французский математик), доказавшего более общую, чем у Якова Бернулли, форму закона больших чисел, а также впервые применившего теорию вероятностей к задачам стрельбы. С именем Пуассона связан один из законов распределения, играющий большую роль в теории вероятностей и ее приложениях.

Число наступлений определённого случайного события за единицу времени, когда факт наступления этого события в данном эксперименте не зависят от того, сколько раз и в какие моменты времени оно осуществлялось в прошлом, и не влияет на будущее. А испытания производятся в стационарных условиях, то для описания распределения такой случайной величины обычно используют закон Пуассона (данное распределение впервые предложено и опубликовано этим учёным в 1837 г.).

Этот закон можно также описывать как предельный случай биноминального распределения, когда вероятность p осуществления интересующего нас события в единичном эксперименте очень мала, но число экспериментов m, производимых в единицу времени, достаточно велико, а именно такое, что в процессе p

0 и m произведение mp стремится к некоторой положительной постоянной величине (т.е. mp ).

Поэтому закон Пуассона часто называют также законом редких событий.


Распределение Пуассона в теории вероятностей

Функция и ряд распределения

Распределение Пуассона – это частный случай биномиального распределения (при n >> 0 и при p –> 0 (редкие события)).

Из математики известна формула, позволяющая примерно подсчитать значение любого члена биномиального распределения:

где a = n · p – параметр Пуассона (математическое ожидание), а дисперсия равна математическому ожиданию. Приведем математические выкладки, поясняющие этот переход. Биномиальный закон распределения

P m = C n m · p m · (1 – p ) n m

может быть написан, если положить p = a /n , в виде

Так как p очень мало, то следует принимать во внимание только числа m , малые по сравнению с n . Произведение


весьма близко к единице. Это же относится к величине

очень близка к e a . Отсюда получаем формулу:

число Эйлера (2,71…). ,

Для производящей функции

величины имеем:

Интегральная функция вероятности распределения равна

Классическим примером случайной величины, распределенной по Пуассону, является количество машин, проезжающих через какой-либо участок дороги за заданный период времен. Также можно отметить такие примеры, как количество звезд на участке неба заданной величины, количество ошибок в тексте заданной длины, количество телефонных звонков в call-центре или количество обращений к веб-серверу за заданный период времени.

Ряд распределения случайной величины Х, распределенной по закону Пуассона, выглядит следующим образом:

х m 0 1 2 m
P m e -a

На рис. 1 представлены многоугольники распределения случайной величины Х по закону Пуассона, соответствующие различным значениям параметра а .

Для начала убедимся, что последовательность вероятностей, может представлять собой ряд распределения, т.е. что сумма всех вероятностей Р m равна единице.


Используем разложение функции е х в ряд Маклорена:

Известно, что этот ряд сходится при любом значении х , поэтому, взяв х=а , получим

следовательно

Числовые характеристики положения о распределении Пуассона

Математическим ожиданием дискретной случайной величины называют сумму произведений всех ее возможных значений на их вероятности.

По определению, когда дискретная случайная величина принимает счетное множество значений:

Первый член суммы (соответствующий m =0 ) равен нулю, следовательно, суммирование можно начинать с m =1 :


Таким образом, параметр а представляет собой не что иное, как математическое ожидание случайной величины Х .

Кроме математического ожидания, положение случайной величины характеризуется модой и медианой.

Модой случайной величины называется её наиболее вероятное значение.

Для непрерывной величины модой называется точкой локального максимума функции плотности распределения вероятностей. Если многоугольник или кривая распределения имеют один максимум (рис. 2 а), то распределение называется унимодальным, при наличии более одного максимума – мультимодальным (в частности, распределение, имеющее две моды, называется бимодальным). Распределение, имеющее минимум, называется антимодальным (рис. 2 б)

x mod x 0 x 1 x 2 x 3 x 4 x

Наивероятнейшим значением случайной величины называется мода, доставляющая глобальный максимум вероятности для дискретной случайной величины или плотности распределения для непрерывной случайной величины.

Медиана – это такое значение х l , которое делит площадь под графиком плотности вероятности пополам, т.е. медиана является любым корнем уравнения. Математическое ожидание может не существовать, а медиана существует всегда и может быть неоднозначно определенной.

Медианой случайной величины

называется такое её значение = x med , что P ( < x med) = Р ( > x med) = .

Числовые характеристики разброса

Дисперсией случайной величины Х называют математической ожидание квадрата отклонения случайной величины от ее математического ожидания.

Где λ равна среднему числу появления событий в одинаковых независимых испытаниях, т.е. λ = n × p, где p – вероятность события при одном испытании, e = 2,71828 .

Ряд распределения закона Пуассона имеет вид:


Назначение сервиса . Онлайн-калькулятор используется для построения Пуассоновского распределения и вычисления всех характеристик ряда: математического ожидания, дисперсии и среднеквадратического отклонения. Отчет с решением оформляется в формате Word .

В случае, когда n велико, а λ = p·n > 10 формула Пуассона дает очень грубое приближение и для расчета P n (m) используют локальную и интегральную теоремы Муавра-Лапласа .

Числовые характеристики случайной величины Х

Математическое ожидание распределения Пуассона
M[X] = λ

Дисперсия распределения Пуассона
D[X] = λ

Пример №1 . Семена содержат 0.1% сорняков. Какова вероятность при случайном отборе 2000 семян обнаружить 5 семян сорняков?
Решение.
Вероятность р мала, а число n велико. np = 2 P(5) = λ 5 e -5 /5! = 0.03609
Математическое ожидание : M[X] = λ = 2
Дисперсия : D[X] = λ = 2

Пример №2 . Среди семян ржи имеется 0.4% семян сорняков. Составить закон распределения числа сорняков при случайном отборе 5000 семян. Найти математическое ожидание и дисперсию этой случайной величины.
Решение. Математическое ожидание: M[X] = λ = 0.004*5000 = 20. Дисперсия: D[X] = λ = 20
Закон распределения:

X 0 1 2 m
P e -20 20e -20 200e -20 20 m e -20 /m!

Пример №3 . На телефонной станции неправильное соединение происходит с вероятностью 1/200. Найдите вероятность того, что среди 200 соединений произойдет:
а) ровно одно неправильное соединение;
б) меньше чем три неправильных соединения;
в) больше чем два неправильных соединения.
Решение. По условию задачи вероятность события мала, поэтому используем формулу Пуассона (15).
а) Задано: n = 200, p = 1/200, k = 1. Найдем P 200 (1).
Получаем: . Тогда P 200 (1) ≈ e -1 ≈ 0,3679.
б) Задано: n = 200, p = 1/200, k < 3. Найдем P 200 (k < 3).
Имеем: a = 1.

в) Задано: n = 200, p = 1/200, k > 2. Найдем P 200 (k > 2).
Эту задачу можно решить проще: найти вероятность противоположного события, так как в этом случае нужно вычислить меньше слагаемых. Принимая во внимание предыдущий случай, имеем

Рассмотрим случай, когда n является достаточно большим, а p - достаточно малым; положим np = a, где a - некоторое число. В этом случае искомая вероятность определяется формулой Пуассона:


Вероятность появления k событий за время длительностью t можно также найти по формуле Пуассона:
где λ - интенсивность потока событий, то есть среднее число событий, которые появляются в единицу времени.

Пример №4 . Вероятность того, что деталь бракованная, равна 0.005. проверяется 400 деталей. Укажите формулу вычисления вероятности того, что больше 3 деталей оказались с браком.

Пример №5 . Вероятность появления бракованных деталей при их массовом производстве равна p. определить вероятность того, что в партии из N деталей содержится а) ровно три детали; б) не более трех бракованных деталей.
p=0,001; N = 4500
Решение.
Вероятность р мала, а число n велико. np = 4.5 < 10. Значит случайная величина Х – распределена по Пуассоновскому распределению. Составим закон.
Случайная величина X имеет область значений (0,1,2,...,m). Вероятности этих значений можно найти по формуле:

Найдем ряд распределения X.
Здесь λ = np = 4500*0.001 = 4.5
P(0) = e - λ = e -4.5 = 0.01111
P(1) = λe -λ = 4.5e -4.5 = 0.04999

Тогда вероятность того, что в партии из N деталей содержится ровно три детали, равна:

Тогда вероятность того, что в партии из N деталей содержится не более трех бракованных деталей:
P(x<3) = P(0) + P(1) + P(2) = 0,01111 + 0,04999 + 0,1125 = 0,1736

Пример №6 . Автоматическая телефонная станция получает в среднем за час N вызовов. Определить вероятность того, что за данную минуту она получит: а) ровно два вызова; б) более двух вызовов.
N = 18
Решение.
За одну минуту АТС в среднем получает λ = 18/60 мин. = 0,3
Считая, что случайное число X вызовов, поступивших на АТС за одну минуту,
подчиняется закону Пуассона, по формуле найдем искомую вероятность

Найдем ряд распределения X.
Здесь λ = 0.3
P(0) = e - λ = e -0.3 = 0.7408
P(1) = λe -λ = 0.3e -0.3 = 0.2222

Вероятность того, что за данную минуту она получит ровно два вызова:
P(2) = 0,03334
Вероятность того, что за данную минуту она получит более двух вызовов:
P(x>2) = 1 – 0,7408 – 0,2222 – 0,03334 = 0,00366

Пример №7 . Рассматриваются два элемента, работающих независимо друг от друга. Продолжительность времени безотказной работы имеет показательное распределение с параметром λ1 = 0,02 для первого элемента и λ2 = 0,05 для второго элемента. Найти вероятность того, что за 10 часов: а) оба элемента будут работать безотказно; б) только Вероятность того, что за 10 часов элемент №1 не выйдет из строя:
Рещение.
P 1 (0) = e -λ1*t = e -0.02*10 = 0,8187

Вероятность того, что за 10 часов элемент №2 не выйдет из строя:
P 2 (0) = e -λ2*t = e -0.05*10 = 0,6065

а) оба элемента будут работать безотказно;
P(2) = P 1 (0)*P 2 (0) = 0,8187*0,6065 = 0,4966
б) только один элемент выйдет из строя.
P(1) = P 1 (0)*(1-P 2 (0)) + (1-P 1 (0))*P 2 (0) = 0.8187*(1-0.6065) + (1-0.8187)*0.6065 = 0.4321

Пример №7 . Производство даёт 1% брака. Какова вероятность того, что из взятых на исследование 1100 изделий выбраковано будет не больше 17?
Примечание : поскольку здесь n*p =1100*0.01=11 > 10, то необходимо использовать

При рассмотрении маловероятных событий, имеющих место в большой серии независимых испытаний некоторое (конечное) число раз, вероятности появления этих событий подчиняются закону Пуассона или закону редких событий , где λ равна среднему числу появления событий в одинаковых независимых испытаниях, т.е. λ = n × p, где p – вероятность события при одном испытании, e = 2,71828 , m -частота данного события, математическое ожидание M[X] равно λ.

Ряд распределения закона Пуассона имеет вид:

Числовые характеристики случайной величины Х

Математическое ожидание распределения Пуассона
M[X] = λ

Дисперсия распределения Пуассона
D[X] = λ

Закон Пуассона можно применять для совокупностей, достаточно больших по объему (n > 100) и имеющих достаточно малую долю единиц, обладающих данным признаком (p < 0,1).
При этом распределение Пуассона можно применить, когда на только не известно значение n – общего числа возможных результатов, но и когда не известно конечное число, которое n может представлять. Там, где есть среднее число случаев наступления события, вероятность наступления события описывается членами разложения:
.
Поэтому соответствующие вероятности равны:

Поэтому, если среднее число землетрясений равно одному в месяц, то m=1 и вероятность случаев в месяц будет следующей, рассчитанной по приблизительному значению e - m =0,3679:

Пример . В результате проверки 1000 партий одинаковых изделий получено следующее распределение количества бракованных изделий в партии:

Определим среднее число бракованных изделий в партии:
.
Находим теоретические частоты закона Пуассона:


Эмпирически и найденное теоретическое распределение Пуассона:

604 306 77 12 1
606 303 76 13 2

Сопоставление свидетельствует о соответствии эмпирического распределения распределению Пуассона.

Пример №2 . Отдел технического контроля проверил n партий однотипных изделий и установил, что число Х нестандартных изделий в одной партии имеет эмпирическое распределение, приведенное в таблице, в одной строке которой указано количество x i нестандартных изделий в одной партии, а в другой строке – количество n i партий, содержащих x i нестандартных изделий. Требуется при уровне значимости α=0.05 проверить гипотезу о том, что случайная величина Х (число нестандартных изделий в одной партии) распределена по закону Пуассона .

x i 0 1 2 3 4 5
n i 370 360 190 63 14 3

Проверим гипотезу о том, что Х распределено по закону Пуассона с помощью сервиса проверка статистических гипотез .


где p i - вероятность попадания в i-й интервал случайной величины, распределенной по гипотетическому закону; λ = x ср.
i = 0: p 0 = 0.3679, np 0 = 367.88
i = 1: p 1 = 0.3679, np 1 = 367.88
i = 2: p 2 = 0.1839, np 2 = 183.94
i = 3: p 3 = 0.0613, np 3 = 61.31
i = 4: p 4 = 0.0153, np 4 = 15.33
i = 5: p 5 = 0.0031, np 5 = 3.07
i = 6: 17=14 + 3
i = 6: 18.39=15.33 + 3.07
i Наблюдаемая частота n i p i Ожидаемая частота np i
0 370 0.37 367.88 0.0122
1 360 0.37 367.88 0.17
2 190 0.18 183.94 0.2
3 63 0.0613 61.31 0.0464
4 17 0.0153 18.39 0.11
1000 0.53

Определим границу критической области. Так как статистика Пирсона измеряет разницу между эмпирическим и теоретическим распределениями, то чем больше ее наблюдаемое значение K набл, тем сильнее довод против основной гипотезы.
Поэтому критическая область для этой статистики всегда правосторонняя: }