Tiểu sử Đặc điểm Phân tích

Định luật số lớn và định lý giới hạn. Luật số lớn

Nếu hiện tượng bền vững vừa phải diễn ra trong thực tế, thì trong mô hình toán học mà chúng ta nghiên cứu các hiện tượng ngẫu nhiên, phải có một định lý phản ánh thực tế này.
Theo các điều kiện của định lý này, chúng tôi đưa ra các hạn chế đối với các biến ngẫu nhiên X 1 , X 2 , …, X n:

a) mỗi biến ngẫu nhiên Tôi có kỳ vọng toán học

M(Tôi) = một;

b) phương sai của mỗi biến ngẫu nhiên là hữu hạn, hoặc chúng ta có thể nói rằng các phương sai được giới hạn từ phía trên bởi cùng một số, chẳng hạn TỪ, I E.

D(Tôi) < C, i = 1, 2, …, N;

c) các biến ngẫu nhiên độc lập theo từng cặp, tức là hai biến bất kỳ X tôiXj tại tôi¹ j sống độc lập.

Vậy thì rõ ràng là

D(X 1 + X 2 + … + X n)=D(X 1) + D(X 2) + ... + D(X n).

Hãy để chúng tôi xây dựng luật số lớn ở dạng Chebyshev.

Định lý Chebyshev: với sự gia tăng không giới hạn về số lượng N kiểm tra độc lập " trung bình cộng của các giá trị quan sát của một biến ngẫu nhiên hội tụ về xác suất thành kỳ vọng toán học của nó ”, Tức là cho bất kỳ tích cực nào ε

R(| a | < ε ) = 1. (4.1.1)

Ý nghĩa của biểu thức "trung bình cộng = hội tụ theo xác suất thành một " đó có phải là xác suất mà sẽ khác tùy ý một chút so với một, tiếp cận 1 vô thời hạn dưới dạng số N.

Bằng chứng.Đối với một số hữu hạn N kiểm tra độc lập, chúng tôi áp dụng bất đẳng thức Chebyshev cho một biến ngẫu nhiên = :

R(| –M()| < ε ) ≥ 1 – . (4.1.2)

Có tính đến các hạn chế a - b, chúng tôi tính M( ) và D( ):

M( ) = = = = = = một;

D( ) = = = = = = .

Thay thế M( ) và D( ) thành bất đẳng thức (4.1.2), chúng ta thu được

R(| a | < ε )≥1 .

Nếu theo bất đẳng thức (4.1.2), chúng ta lấy một giá trị nhỏ tùy ý ε > 0 và N® ¥, sau đó chúng tôi nhận được

= 1,

chứng minh định lý Chebyshev.

Một kết luận thực tế quan trọng sau định lý đã xem xét: chúng ta có quyền thay thế giá trị chưa biết của kỳ vọng toán học của một biến ngẫu nhiên bằng giá trị trung bình cộng thu được từ một số lượng đủ lớn các thí nghiệm. Trong trường hợp này, càng nhiều thử nghiệm để tính toán, thì càng có nhiều khả năng (đáng tin cậy) rằng lỗi liên quan đến sự thay thế này ( - một) sẽ không vượt quá giá trị đã cho ε .

Ngoài ra, các vấn đề thực tế khác có thể được giải quyết. Ví dụ, theo các giá trị của xác suất (độ tin cậy) R=R(| a |< ε ) và sai số tối đa cho phép ε xác định số lượng thử nghiệm cần thiết N; trên RPđịnh nghĩa ε; trên ε P xác định xác suất của một sự kiện | a |< ε.

trương hợp đặc biệt. Để tại N các thử nghiệm được quan sát N giá trị của một biến ngẫu nhiên x, có kỳ vọng toán học M(X) và sự phân tán D(X). Các giá trị thu được có thể được coi là các biến ngẫu nhiên X 1 ,X 2 ,X 3 , ... ,X n,. Nó nên được hiểu như sau: một loạt các P các thử nghiệm được thực hiện lặp đi lặp lại, do đó, kết quả là tôi bài kiểm tra thứ, tôi= l, 2, 3, ..., P, trong mỗi chuỗi thử nghiệm, một hoặc một giá trị khác của biến ngẫu nhiên sẽ xuất hiện X, không được biết trước. Do đó, tôi-e giá trị x tôi biến ngẫu nhiên thu được trong tôi thử nghiệm thứ, thay đổi ngẫu nhiên nếu bạn chuyển từ một loạt thử nghiệm này sang một loạt thử nghiệm khác. Vì vậy, mọi giá trị x tôi có thể được coi là ngẫu nhiên X i.


Giả sử rằng các bài kiểm tra đáp ứng các yêu cầu sau:

1. Các bài kiểm tra là độc lập. Điều này có nghĩa là kết quả X 1 , X 2 ,
X 3 , ..., X n các phép thử là các biến ngẫu nhiên độc lập.

2. Các thử nghiệm được thực hiện trong các điều kiện giống nhau - điều này có nghĩa là, theo quan điểm của lý thuyết xác suất, rằng mỗi biến ngẫu nhiên X 1 ,X 2 ,X 3 , ... ,X n có cùng luật phân phối với giá trị ban đầu X, đó là lý do tại sao M(X tôi) = M(X)và D(X tôi) = D(X), tôi = 1, 2, .... P.

Xét các điều kiện trên, chúng ta nhận được

R(| a | < ε )≥1 . (4.1.3)

Ví dụ 4.1.1. X bằng 4. Cần có bao nhiêu thí nghiệm độc lập để với xác suất ít nhất là 0,9 có thể kỳ vọng trung bình cộng của biến ngẫu nhiên này chênh lệch với kỳ vọng toán học nhỏ hơn 0,5?

Dung dịch.Tùy theo tình trạng của vấn đề ε = 0,5; R(| a |< 0,5) 0,9. Áp dụng công thức (4.1.3) cho biến ngẫu nhiên X, chúng tôi nhận được

P(| –M(X)| < ε ) ≥ 1 .

Từ mối quan hệ

1 = 0,9

định nghĩa

P= = = 160.

Câu trả lời: yêu cầu thực hiện 160 thí nghiệm độc lập.

Giả sử rằng trung bình cộng được phân phối bình thường, chúng tôi nhận được:

R(| a |< ε )= 2Φ () 0,9.

Từ đó, bằng cách sử dụng bảng của hàm Laplace, chúng ta nhận được
1,645 hoặc ≥ 6,58 tức là N ≥49.

Ví dụ 4.1.2. Phương sai của một biến ngẫu nhiên X bằng D ( X) = 5. 100 thí nghiệm độc lập đã được thực hiện, theo đó . Thay vì giá trị chưa biết của kỳ vọng toán học mộtĐã được chấp nhận . Xác định mức sai số tối đa cho phép trong trường hợp này với xác suất ít nhất là 0,8.

Dung dịch. Theo nhiệm vụ N= 100, R(| a |< ε ) ≥0,8. Chúng tôi áp dụng công thức (4.1.3)

R(| a |< ε ) ≥1 .

Từ mối quan hệ

1 = 0,8

định nghĩa ε :

ε 2 = = = 0,25.

Do đó, ε = 0,5.

Câu trả lời: giá trị lỗi lớn nhất ε = 0,5.

4.2. Luật số lớn dạng Bernoulli

Mặc dù khái niệm xác suất là cơ sở của bất kỳ suy luận thống kê nào, chúng ta chỉ có thể xác định trực tiếp xác suất của một sự kiện trong một số trường hợp. Đôi khi xác suất này có thể được thiết lập từ các cân nhắc về tính đối xứng, cơ hội bình đẳng, v.v., nhưng không có phương pháp phổ quát nào cho phép người ta chỉ ra xác suất của nó cho một sự kiện tùy ý. Định lý Bernoulli giúp chúng ta có thể tính gần đúng xác suất nếu đối với sự kiện mà chúng ta quan tâm NHƯNG các thử nghiệm độc lập lặp đi lặp lại có thể được thực hiện. Hãy để sản xuất P các bài kiểm tra độc lập, trong mỗi bài kiểm tra xác suất xảy ra một số sự kiện NHƯNG không đổi và bằng nhau R.

Định lý Bernoulli. Với sự gia tăng không giới hạn về số lượng các thử nghiệm độc lập P tần suất xuất hiện tương đối của một sự kiện NHƯNG hội tụ trong xác suất thành xác suất P sự kiện xảy ra NHƯNG, t. e.

P(½ - P½≤ ε) = 1, (4.2.1)

ở đâu ε là một số dương nhỏ tùy ý.

Cho trận chung kết N miễn là , bất đẳng thức Chebyshev cho một biến ngẫu nhiên sẽ có dạng:

P(| –P |< ε ) 1 .(4.2.2)

Bằng chứng. Chúng tôi áp dụng định lý Chebyshev. Để cho X tôi- số lần xuất hiện của sự kiện NHƯNG Trong tôi bài kiểm tra thứ, tôi= 1, 2, . . . , N. Mỗi số lượng X tôi chỉ có thể nhận hai giá trị:

X tôi= 1 (sự kiện NHƯNGđã xảy ra) với một xác suất P,

X tôi= 0 (sự kiện NHƯNG không xảy ra) với một xác suất q= 1-P.

Để cho Y n=. Tổng X 1 + X 2 + … + X n bằng số m sự kiện xảy ra NHƯNG Trong N kiểm tra (0 m N), nghĩa là Y n= - tần suất xuất hiện tương đối của sự kiện NHƯNG Trong N các bài kiểm tra. Kỳ vọng toán học và phương sai X tôi tương ứng bằng nhau:

M( ) = 1∙P + 0∙q = P,

Lý thuyết xác suất nghiên cứu tính quy luật vốn có trong các hiện tượng ngẫu nhiên hàng loạt. Giống như bất kỳ ngành khoa học nào khác, lý thuyết xác suất được thiết kế để dự đoán càng chính xác càng tốt kết quả của một hiện tượng hoặc thí nghiệm cụ thể. Nếu hiện tượng chỉ có tính chất đơn lẻ, thì lý thuyết xác suất chỉ có thể dự đoán xác suất của kết quả trong một phạm vi rất rộng. Tính quy luật chỉ xuất hiện với một số lượng lớn các hiện tượng ngẫu nhiên xảy ra trong điều kiện đồng nhất.

Nhóm các định lý thiết lập sự tương ứng giữa các đặc tính lý thuyết và thực nghiệm của các biến ngẫu nhiên và các sự kiện ngẫu nhiên với một số lượng lớn các phép thử về chúng, cũng như liên quan đến các luật phân phối giới hạn, được kết hợp dưới tên chung định lý giới hạn của lý thuyết xác suất.

Có hai loại định lý giới hạn: định luật số lớn và định lý giới hạn trọng tâm.

Luật số lớn, chiếm một vị trí quan trọng trong lý thuyết xác suất, là mối liên hệ giữa lý thuyết xác suất với tư cách là một khoa học toán học và các quy luật của các hiện tượng ngẫu nhiên trong quá trình quan sát hàng loạt chúng.

Quy luật đóng một vai trò rất quan trọng trong các ứng dụng thực tế của lý thuyết xác suất vào các hiện tượng tự nhiên và các quá trình kỹ thuật gắn liền với sản xuất hàng loạt.

Các luật phân phối giới hạn là chủ đề của một nhóm các định lý - một dạng định lượng của luật số lớn. Những thứ kia. luật số lớn là một loạt các định lý, mỗi định lý thiết lập một thực tế là các đặc tính trung bình của một số lượng lớn các phép thử gần đúng với các hằng số nhất định, tức là thiết lập thực tế về sự hội tụ trong xác suất của một số biến ngẫu nhiên thành hằng số. Đây là các định lý của Bernoulli, Poisson, Lyapunov, Markov, Chebyshev.

1. một) Định lý Bernoulli - luật số lớn (đã được xây dựng và chứng minh trước đó trong phần 3 của § 6 khi xem xét định lý tích phân giới hạn của Moivre-Laplace.)

Với sự gia tăng không giới hạn về số lượng các thí nghiệm độc lập đồng nhất, tần suất của một sự kiện sẽ khác tùy ý một chút so với xác suất của một sự kiện trong một thí nghiệm riêng biệt. Nếu không, xác suất độ lệch trong tần suất tương đối của sự kiện NHƯNG từ một xác suất không đổi R sự phát triển NHƯNG rất ít có xu hướng là 1 cho bất kỳ: .

b) Định lý Chebyshev.

Với sự gia tăng không giới hạn số lượng thử nghiệm độc lập, giá trị trung bình cộng của các giá trị quan sát của một biến ngẫu nhiên có phương sai hữu hạn sẽ hội tụ về xác suất so với kỳ vọng toán học của nó; ngược lại, nếu các biến ngẫu nhiên độc lập được phân phối giống hệt nhau với kỳ vọng toán học và phương sai giới hạn , thì đối với bất kỳ điều gì, nó là đúng: .

Định lý Chebyshev (tổng quát hóa). Nếu các biến ngẫu nhiên trong dãy độc lập theo từng cặp và phương sai của chúng thỏa mãn điều kiện , thì với bất kỳ ε> 0 dương nào, câu lệnh là đúng:


hoặc cái gì giống nhau .

c) Định lý Markov. (quy luật về số lớn trong một công thức tổng quát)

Nếu phương sai của các biến ngẫu nhiên tùy ý trong dãy thỏa mãn điều kiện: , thì với bất kỳ ε> 0 dương nào, phát biểu của định lý Chebyshev là: .

d) Định lý Poisson.

Với sự gia tăng không giới hạn về số lượng các thử nghiệm độc lập trong các điều kiện thay đổi, tần suất của sự kiện NHƯNG hội tụ xác suất thành giá trị trung bình cộng của các xác suất của nó trong các thử nghiệm này.

Bình luận. Không có dạng nào của quy luật số lớn chúng ta giải quyết quy luật phân phối của các biến ngẫu nhiên. Câu hỏi liên quan đến việc tìm luật phân phối giới hạn cho tổng khi số hạng tăng lên vô hạn được coi là định lý giới hạn trung tâm. được phân phối giống nhau, khi đó chúng ta đi đến định lý tích phân Moivre-Laplace (§ 6 § 3), đây là trường hợp cụ thể đơn giản nhất của định lý giới hạn trung tâm.

Ở phần đầu của khóa học, chúng tôi đã nói rằng các quy luật toán học của lý thuyết xác suất có được bằng cách trừu tượng hóa các quy luật thống kê thực tế vốn có trong các hiện tượng ngẫu nhiên hàng loạt. Sự hiện diện của các mẫu này liên quan chính xác với bản chất khối lượng của hiện tượng, nghĩa là với một số lượng lớn các thí nghiệm đồng nhất được thực hiện hoặc với một số lượng lớn các tác động ngẫu nhiên tạo ra trong tổng thể của chúng một biến ngẫu nhiên tuân theo một quy luật xác định rõ. Tính chất ổn định của các hiện tượng ngẫu nhiên hàng loạt đã được loài người biết đến từ thời cổ đại. Trong bất kỳ lĩnh vực nào mà nó biểu hiện ra, bản chất của nó đều tổng hợp ở những điểm sau: các đặc điểm cụ thể của từng hiện tượng ngẫu nhiên riêng lẻ hầu như không ảnh hưởng đến kết quả trung bình của khối lượng và các hiện tượng đó; những sai lệch ngẫu nhiên so với mức trung bình, tất yếu trong từng hiện tượng riêng lẻ, trong khối lượng đều bị loại bỏ lẫn nhau, san bằng, san bằng. Chính sự ổn định này của số trung bình là nội dung vật lý của “quy luật số lớn”, hiểu theo nghĩa rộng của từ này: với một số lượng rất lớn các hiện tượng ngẫu nhiên, kết quả trung bình của chúng thực tế không còn là ngẫu nhiên và có thể dự đoán được. với độ chắc chắn cao.

Theo nghĩa hẹp của từ này, “quy luật số lớn” trong lý thuyết xác suất được hiểu là một số định lý toán học, trong mỗi định lý, với những điều kiện nhất định, thực tế là tính gần đúng của các đặc trưng trung bình của một số lượng lớn các thí nghiệm. đến một số hằng số cụ thể được thiết lập.

Trong 2.3, chúng ta đã đưa ra công thức đơn giản nhất trong số các định lý này, định lý J. Bernoulli. Cô ấy tuyên bố rằng với một số lượng lớn các thí nghiệm, tần suất của một sự kiện tiếp cận (chính xác hơn là hội tụ trong xác suất) với xác suất của sự kiện này. Các dạng khác, tổng quát hơn của quy luật số lớn sẽ được giới thiệu trong chương này. Tất cả chúng thiết lập thực tế và điều kiện cho sự hội tụ về xác suất của một số biến ngẫu nhiên thành các biến không ngẫu nhiên, không đổi.

Quy luật số lớn đóng một vai trò quan trọng trong các ứng dụng thực tế của lý thuyết xác suất. Tính chất của các biến ngẫu nhiên trong những điều kiện nhất định để hoạt động thực tế như những biến không ngẫu nhiên cho phép chúng ta tự tin vận hành với các đại lượng này, để dự đoán kết quả của các hiện tượng ngẫu nhiên hàng loạt với độ chắc chắn gần như hoàn toàn.

Khả năng của những dự đoán như vậy trong lĩnh vực hiện tượng ngẫu nhiên khối lượng được mở rộng hơn nữa bởi sự hiện diện của một nhóm định lý giới hạn khác, không còn quan tâm đến giá trị giới hạn của các biến ngẫu nhiên, mà là các luật phân phối giới hạn. Đây là một nhóm các định lý được gọi là "định lý giới hạn trung tâm". Chúng ta đã nói rằng khi tính tổng một số lượng đủ lớn các biến ngẫu nhiên, luật phân phối của tổng tiến tới giá trị chuẩn một cách vô hạn, miễn là đáp ứng các điều kiện nhất định. Các điều kiện này, có thể được hình thành bằng toán học theo nhiều cách khác nhau - ở dạng tổng quát hơn hoặc ít hơn - về cơ bản bắt nguồn từ yêu cầu rằng ảnh hưởng đến tổng các số hạng riêng lẻ đều nhỏ, tức là tổng không được bao gồm các số hạng rõ ràng chiếm ưu thế so với tập hợp phần còn lại bởi ảnh hưởng của chúng đối với sự phân tán của số lượng. Các dạng khác nhau của định lý giới hạn trung tâm khác nhau ở các điều kiện mà tính chất giới hạn này của tổng các biến ngẫu nhiên được thiết lập.

Các dạng khác nhau của quy luật số lớn, cùng với các dạng khác nhau của định lý giới hạn trung tâm, tạo thành một tập hợp các định lý giới hạn của lý thuyết xác suất. Các định lý giới hạn không chỉ giúp đưa ra các dự báo khoa học trong lĩnh vực hiện tượng ngẫu nhiên mà còn có thể đánh giá độ chính xác của các dự báo này.

Trong chương này, chúng ta chỉ xem xét một số dạng đơn giản nhất của định lý giới hạn. Đầu tiên, các định lý liên quan đến nhóm “luật số lớn” sẽ được xem xét, sau đó - các định lý liên quan đến nhóm “định lý giới hạn trung tâm”.

Hoàn toàn tự nhiên cần phải định lượng tuyên bố rằng trong chuỗi thử nghiệm "lớn", tần suất xuất hiện của một sự kiện là "gần" với xác suất của nó. Sự tế nhị nhất định của nhiệm vụ này phải được hiểu rõ ràng. Trong các trường hợp điển hình nhất đối với lý thuyết xác suất, tình huống là trong các chuỗi thử nghiệm dài tùy ý, cả hai giá trị cực trị của tần số vẫn có thể về mặt lý thuyết.

\ frac (\ mu) (n) = \ frac (n) (n) = 1 và \ frac (\ mu) (n) = \ frac (0) (n) = 0

Do đó, bất kể số lần thử n là bao nhiêu, không thể khẳng định một cách chắc chắn rằng bất đẳng thức

<\frac{1}{10}

Ví dụ: nếu sự kiện A bao gồm ném một quả sáu khi ném một con súc sắc, thì sau n lần ném với xác suất (\ left (\ frac (1) (6) \ right) \^n>0 !} chúng tôi sẽ luôn chỉ nhận được sáu, tức là với xác suất (\ left (\ frac (1) (6) \ right) \^n !} chúng tôi nhận được tần suất xuất hiện của số sáu bằng một và với xác suất (\ left (1- \ frac (1) (6) \ right) \^n>0 !} sáu không rơi ra dù chỉ một lần, tức là tần suất xuất hiện của sáu sẽ bằng không.

Trong tất cả các vấn đề như vậy, bất kỳ ước tính không tầm thường nào về khoảng cách giữa tần suất và xác suất không hoạt động một cách chắc chắn hoàn toàn, mà chỉ với một số xác suất nhỏ hơn sự thống nhất. Chẳng hạn, có thể chứng minh rằng trong trường hợp các thử nghiệm độc lập với xác suất p không đổi về sự xuất hiện của một sự kiện, thì bất đẳng thức

\ vline \, \ frac (\ mu) (n) -p \, \ vline \,<0,\!02

cho tần suất \ frac (\ mu) (n) sẽ được thực thi ở n = 10 \, 000 (và p bất kỳ) với xác suất

P> 0, \! 9999.

Ở đây, trước hết chúng tôi muốn nhấn mạnh rằng trong công thức trên, ước lượng định lượng về độ gần của tần số \ frac (\ mu) (n) với xác suất p có liên quan đến việc đưa ra xác suất P mới.

Ý nghĩa thực sự của ước lượng (8) như sau: nếu chúng ta thực hiện N chuỗi n phép thử và đếm số M của chuỗi trong đó thỏa mãn bất đẳng thức (7), thì với N đủ lớn, xấp xỉ

\ frac (M) (N) \ khoảng P> 0, \! 9999.

Nhưng nếu chúng ta muốn tinh chỉnh quan hệ (9) cả về mức độ gần gũi \ frac (M) (N) với xác suất P, và về độ tin cậy có thể lập luận rằng sự gần gũi đó sẽ diễn ra, thì chúng ta sẽ phải chuyển sang các cân nhắc tương tự như những gì chúng ta đã làm với sự gần nhau của \ frac (\ mu) (n) và p. Nếu muốn, lý luận như vậy có thể được lặp lại không giới hạn số lần, nhưng rõ ràng là điều này sẽ không cho phép chúng ta giải phóng hoàn toàn bản thân khỏi sự cần thiết phải chuyển ở giai đoạn cuối thành xác suất theo nghĩa thô sơ của thuật ngữ này.

Không nên nghĩ rằng những khó khăn như vậy là một số đặc điểm của lý thuyết xác suất. Trong nghiên cứu toán học về các hiện tượng thực tế, chúng ta luôn toán học hóa chúng. Đến lượt nó, những sai lệch của quá trình hiện tượng thực tế từ sơ đồ lý thuyết có thể là đối tượng của nghiên cứu toán học. Nhưng đối với điều này, bản thân những sai lệch này phải được đặt trong một sơ đồ nhất định, và sơ đồ sau này nên được sử dụng mà không cần phân tích toán học chính thức về các sai lệch từ nó.

Tuy nhiên, lưu ý rằng trong ứng dụng thực tế của ước tính

P \! \ Left \ (\, \ vline \, \ frac (\ mu) (n) -p \, \ vline \,<0,\!02\right\}>0,\!9999.


đối với một chuỗi n phép thử, chúng ta cũng dựa vào một số cân nhắc về tính đối xứng: bất đẳng thức (10) chỉ ra rằng đối với một số N rất lớn của chuỗi, quan hệ (7) sẽ được thỏa mãn trong ít nhất 99,99% trường hợp; tất nhiên chúng ta phải kỳ vọng một cách chắc chắn rằng, cụ thể là, bất đẳng thức (7) sẽ được thực hiện trong một chuỗi n phép thử nào đó mà chúng ta quan tâm, nếu chúng ta có lý do để tin rằng chuỗi này chiếm một vị trí bình thường, không có dấu trong một số của loạt bài khác.

Các xác suất thường bị bỏ qua ở các vị trí thực tế khác nhau là khác nhau. Ở trên đã lưu ý rằng trong các tính toán dự kiến ​​về mức tiêu thụ đạn, đảm bảo hoàn thành nhiệm vụ, họ hài lòng với tốc độ tiêu thụ đạn, tại đó nhiệm vụ được giải quyết với xác suất 0,95, tức là chúng bỏ qua các xác suất không vượt quá 0,05. Điều này được giải thích là do việc chuyển đổi sang các phép tính tiến hành từ việc bỏ qua, chẳng hạn, chỉ xác suất nhỏ hơn 0,01, sẽ dẫn đến sự gia tăng lớn về tốc độ tiêu thụ đạn, tức là trong hầu hết các trường hợp, dẫn đến kết luận rằng nó là không thể hoàn thành nhiệm vụ đặt ra trong khoảng thời gian ngắn đó, hoặc với nguồn cung cấp đạn pháo thực tế có thể được sử dụng.

Đôi khi, ngay cả trong nghiên cứu khoa học, chúng cũng chỉ giới hạn trong các phương pháp thống kê tính toán trên cơ sở bỏ qua xác suất 0,05. Nhưng điều này chỉ nên được thực hiện trong trường hợp rất khó thu thập tài liệu rộng rãi hơn. Hãy xem xét vấn đề sau đây như một ví dụ về các phương pháp như vậy. Giả sử rằng trong một số điều kiện nhất định, một loại thuốc thường được sử dụng để điều trị bệnh cho kết quả dương tính là 50%, tức là với xác suất là 0,5. Một loại thuốc mới được đề xuất và, để kiểm tra ưu điểm của nó so với loại cũ, người ta dự định sử dụng nó trong mười trường hợp, được lựa chọn một cách công bằng giữa những bệnh nhân ở cùng vị trí với những người mà loại thuốc cũ được cho là có hiệu quả 50%. Đồng thời, người ta khẳng định rằng lợi thế của một loại thuốc mới sẽ được coi là đã được chứng minh nếu nó cho kết quả dương tính ở ít nhất tám trong số mười trường hợp. Có thể dễ dàng tính toán rằng một quyết định như vậy có liên quan đến việc bỏ qua xác suất nhận được một kết luận sai lầm (tức là kết luận rằng lợi ích của một loại thuốc mới đã được chứng minh, trong khi nó tương đương hoặc thậm chí tệ hơn thuốc cũ) của chỉ bậc 0,05. Thật vậy, nếu trong mỗi thử nghiệm trong số mười thử nghiệm, xác suất của một kết quả tích cực bằng p, thì xác suất nhận được 10,9 hoặc 8 kết quả tích cực trong mười thử nghiệm tương ứng bằng nhau.

P_ (10) = p ^ (10), \ qquad P_9 = 10p ^ 9 (1-p), \ qquad P_8 = 45p ^ 8 (1-p) ^ 2.

Tóm lại, đối với trường hợp p = \ frac (1) (2), chúng ta nhận được P = P_ (10) + P_9 + P_8 = \ frac (56) (1024) \ khoảng 0, \! 05.

Do đó, giả sử rằng thuốc mới trên thực tế hoàn toàn tương đương với thuốc cũ, chúng ta có nguy cơ suy luận sai rằng thuốc mới tốt hơn thuốc cũ với xác suất khoảng 0,05. Để giảm xác suất này xuống khoảng 0,01, mà không tăng số lần thử nghiệm n = 10, người ta sẽ phải xác định rằng lợi ích của một loại thuốc mới chỉ được coi là đã được chứng minh nếu việc sử dụng nó mang lại kết quả dương tính trong ít nhất chín trường hợp trong số mười trường hợp. . Nếu yêu cầu này có vẻ quá khắc nghiệt đối với những người đề xuất loại thuốc mới, thì số lần thử nghiệm n sẽ phải được đặt lớn hơn đáng kể so với 10. Nếu, ví dụ, ở n = 100, thì lợi ích của thuốc mới được xác định. thuốc sẽ được coi là đã được chứng minh khi \ mu> 65, khi đó xác suất sai sót sẽ chỉ là P \ khoảng0, \! 0015.

Nếu tiêu chuẩn 0,05 rõ ràng là không đủ cho nghiên cứu khoa học nghiêm túc, thì xác suất sai số 0,001 hoặc 0,003 phần lớn bị bỏ qua ngay cả trong các nghiên cứu học thuật và chi tiết như xử lý các quan sát thiên văn. Tuy nhiên, đôi khi các kết luận khoa học dựa trên việc áp dụng các định luật xác suất cũng có độ tin cậy cao hơn nhiều (nghĩa là chúng được xây dựng trên cơ sở bỏ qua các xác suất thấp hơn nhiều). Nhiều hơn sẽ được nói về điều này sau.

Trong các ví dụ được xem xét, chúng tôi đã nhiều lần sử dụng các trường hợp đặc biệt của công thức nhị thức (6)

P_m = C_n ^ mp ^ m (1-p) ^ (n-m)

xác suất P_m nhận được chính xác m kết quả dương tính trong n thử nghiệm độc lập, trong mỗi thử nghiệm có kết quả dương tính có xác suất p. Chúng ta hãy sử dụng công thức này để xem xét câu hỏi được đặt ra ở đầu phần này về xác suất

<\varepsilon\right\},

trong đó \ mu là số lượng kết quả tích cực thực tế. Rõ ràng, xác suất này có thể được viết dưới dạng tổng của P_m mà m thỏa mãn bất đẳng thức

\ vline \, \ frac (m) (n) -p \, \ vline \,<\varepsilon,


nghĩa là, ở dạng

P = \ sum_ (m = m_1) ^ (m_2) P_m,

trong đó m_1 là giá trị nhỏ nhất trong số m thỏa mãn bất đẳng thức (12) và m_2 là giá trị lớn nhất trong số m đó.

Công thức (13) cho bất kỳ n lớn nào ít được sử dụng cho các phép tính trực tiếp. Do đó, phát hiện của Moivre đối với trường hợp p = \ frac (1) (2) và của Laplace, đối với p bất kỳ, của một công thức tiệm cận, giúp dễ dàng tìm và nghiên cứu hành vi của các xác suất P_m đối với n lớn , có tầm quan trọng lớn. Công thức này trông giống như

P \ sim \ frac (1) (\ sqrt (2 \ pi np (1-p))) \ exp \! \ Left [- \ frac ((m-np) ^ 2) (2np (1-p)) \bên phải].

Nếu p không quá gần 0 hoặc một, thì nó đã đủ chính xác cho n của bậc 100. Nếu chúng ta đặt

T = \ frac (m-np) (\ sqrt (np (1-p))),

Khi đó công thức (14) sẽ có dạng

P \ sim \ frac (1) (\ sqrt (2 \ pi np (1-p))) \, e ^ (- t ^ 2/2).


Từ (13) và (16), chúng ta có thể rút ra một biểu diễn gần đúng của xác suất (11)

P \ sim \ frac (1) (\ sqrt (2 \ pi)) \ int \ giới hạn _ (- T) ^ (T) e ^ (- t ^ 2/2) \, dt = F (T),


ở đâu

T = \ varepsilon \ sqrt (\ frac (n) (p (1-p)))

Sự khác biệt giữa các phần bên trái và bên phải trong (17) là không đổi và khác 0 và sự thống nhất có xu hướng bằng 0 tại n \ to \ infty một cách thống nhất đối với \ varepsilon. Các bảng chi tiết đã được biên soạn cho hàm F (T). Đây là một đoạn trích ngắn từ chúng

\ begin (array) (c | c | c | c | c) T & 1 & 2 & 3 & 4 \\\ hline F & 0, \! 68269 & 0, \! 95450 & 0, \! 99730 & 0, \! 99993 \ end (array)


Tại T \ to \ infty, giá trị của hàm F (T) có xu hướng thống nhất.

Chúng ta hãy sử dụng công thức (17) để ước tính xác suất

P = \ mathbf (P) \! \ Left \ (\, \ vline \, \ frac (\ mu) (n) -p \, \ vline \,<0,\!02\right\}\approx F\!\left(\frac{2}{\sqrt{p(1-p)}}\right) tại n = 10 \, 000, ~ \ varepsilon = 0, \! 02, tại vì T = \ frac (2) (\ sqrt (p (1-p))).

Vì hàm F (T) tăng đơn điệu khi T tăng, để ước lượng P độc lập từ bên dưới, người ta phải lấy giá trị T nhỏ nhất có thể (đối với p khác). Giá trị nhỏ nhất này sẽ nhận được với p = \ frac (1) (2), và nó sẽ bằng 4. Do đó, xấp xỉ

P \ geqslant F (4) = 0, \! 99993.

Bất đẳng thức (19) không tính đến sai số do tính chất gần đúng của công thức (17). Bằng cách ước tính lỗi liên quan đến trường hợp này, trong mọi trường hợp, người ta có thể xác định rằng P> 0, \! 9999.

Liên quan đến ví dụ được xem xét về việc áp dụng công thức (17), cần lưu ý rằng các ước lượng về số hạng còn lại của công thức (17), được đưa ra trong các công trình lý thuyết về lý thuyết xác suất, vẫn không khả quan trong một thời gian dài. Do đó, việc áp dụng công thức (17) và các công thức tương tự để tính toán cho n không quá lớn hoặc cho các xác suất p rất gần 0 hoặc 1 (và các xác suất như vậy trong nhiều trường hợp đặc biệt quan trọng) thường chỉ dựa trên kinh nghiệm của kiểm tra các kết quả như vậy. đối với một số ví dụ hạn chế, thay vì dựa trên các ước tính được thiết lập tốt về sai số có thể xảy ra. Hơn nữa, một nghiên cứu chi tiết hơn đã chỉ ra rằng trong nhiều trường hợp thực tế quan trọng, các công thức tiệm cận ở trên không chỉ cần ước lượng của số hạng còn lại, mà còn phải sàng lọc (bởi vì nếu không có sự tinh chỉnh thì số hạng còn lại quá lớn). Trong cả hai hướng, kết quả đầy đủ nhất là do S. N. Bernshtein.

Các mối quan hệ (11), (17) và (18) có thể được viết lại thành

\ mathbf (P) \! \ left \ (\, \ vline \, \ frac (\ mu) (n) -p \, \ vline \,

Đối với t đủ lớn, vế phải của công thức (20), không chứa n, tùy ý gần với sự thống nhất, tức là, với một giá trị xác suất tương ứng với độ chắc chắn hoàn toàn. Do đó, chúng tôi thấy rằng theo quy luật, độ lệch của tần số \ frac (\ mu) (n) so với xác suất p là theo thứ tự \ frac (1) (\ sqrt (n)). Tỷ lệ như vậy về độ chính xác của hành động của các quy định xác suất với căn bậc hai của số lượng quan sát cũng là điển hình cho nhiều câu hỏi khác. Đôi khi họ thậm chí còn nói, theo thứ tự một cách đơn giản hóa phổ biến, về "luật căn bậc hai của n" như là luật cơ bản của lý thuyết xác suất. Ý tưởng này đã trở nên rõ ràng hoàn toàn nhờ sự giới thiệu của nhà toán học vĩ đại người Nga P. L. Chebyshev vào việc sử dụng một cách có hệ thống phương pháp giảm các vấn đề xác suất khác nhau thành các phép tính “kỳ vọng toán học” và “phương sai” cho các tổng và phương tiện số học của “các biến ngẫu nhiên”.

Biến ngẫu nhiên là đại lượng mà trong điều kiện cho trước, S có thể nhận các giá trị khác nhau với xác suất nhất định. Nó đủ để chúng ta xem xét các biến ngẫu nhiên có thể chỉ nhận một số hữu hạn các giá trị khác nhau. Để chỉ ra cách họ nói phân phối xác suất một biến ngẫu nhiên \ xi như vậy, nó đủ để chỉ ra các giá trị có thể có của nó x_1, x_2, \ ldots, x_r và xác suất

P_r = \ mathbf (P) \ (\ xi = x_r \).


Tóm lại, các xác suất này trên tất cả các giá trị có thể khác nhau \ xi luôn bằng một:

\ sum_ (r = 1) ^ (s) P_r = 1.

Một ví dụ về biến ngẫu nhiên là số \ mu kết quả tích cực được nghiên cứu ở trên trong n lần thử nghiệm.

kỳ vọng toán học giá trị \ xi được gọi là biểu thức

M (\ xi) = \ sum_ (r = 1) ^ (s) P_rx_r,


một sự phân tánđại lượng \ xi tham chiếu đến giá trị trung bình của độ lệch bình phương \ xi-M (\ xi), tức là biểu thức

D (\ xi) = \ sum_ (r = 1) ^ (s) P_r (x_r-M (\ xi)) ^ 2.


Căn bậc hai của phương sai

\ sigma _ (\ xi) = \ sqrt (D (\ xi)) = \ sqrt (\ sum_ (r = 1) ^ (s) P_r (x_r-M (\ xi)) ^ 2)


gọi là độ lệch chuẩn(các giá trị từ kỳ vọng toán học M (\ xi)).

Các ứng dụng đơn giản nhất của phương sai và độ lệch chuẩn dựa trên Bất bình đẳng Chebyshev

\ mathbf (P) \ (| \ xi-M (\ xi) | \ leqslant t _ (\ sigma _ (\ xi)) \) \ geqslant1- \ frac (1) (t ^ 2),

Nó cho thấy rằng độ lệch của biến ngẫu nhiên \ xi so với kỳ vọng toán học M (\ xi) của nó, vượt quá đáng kể độ lệch chuẩn \ sigma _ (\ xi), là rất hiếm.

Trong việc hình thành các tổng của các biến ngẫu nhiên \ xi = \ xi ^ ((1)) + \ xi ^ ((2)) + \ cdots + \ xi ^ ((n))đối với những kỳ vọng toán học của họ, sự bình đẳng luôn giữ

M (\ xi) = M (\ xi ^ ((1))) + M (\ xi ^ ((2))) + \ cdots + M (\ xi ^ ((n))).


Bình đẳng tương tự cho các phương sai

D (\ xi) = D (\ xi ^ ((1))) + D (\ xi ^ ((2))) + \ cdots + D (\ xi ^ ((n))).

chỉ đúng với những hạn chế nhất định. Để đẳng thức (23) có giá trị, ví dụ: điều đủ là các đại lượng \ xi ^ ((i)) và \ xi ^ ((j)) với các số khác nhau, như người ta nói, không phải là "tương quan" với nhau, tức là tại tôi

M \ Bigl \ ((\ xi ^ ((i)) - M (\ xi ^ ((i)))) (\ xi ^ ((j)) - M (\ xi ^ ((j)))) \ Bigl \) = 0

Hệ số tương quan giữa các biến ngẫu nhiên \ xi ^ ((i)) và \ xi ^ ((j)) là biểu thức

R = \ frac (M \ Bigl \ (\ Bigl (\ xi ^ ((i)) - M (\ xi ^ ((i))) \ Bigl) \ Bigl (\ xi ^ ((j)) - M ( \ xi ^ ((j))) \ Bigl) \ Bigl \)) (\ sigma _ (\ xi ^ ((i))) \, \ sigma _ (\ xi ^ ((j)))).

Nếu một \ sigma _ (\ xi ^ ((i)))> 0 Trong \ sigma _ (\ xi ^ ((j)))> 0, khi đó điều kiện (24) tương đương với R = 0.

Hệ số tương quan R đặc trưng cho mức độ phụ thuộc giữa các biến ngẫu nhiên. Luôn luôn | R | \ leqslant1 và R = \ pm1 chỉ khi có kết nối tuyến tính

\ eta = a \ xi + b \ quad (a \ ne0).

Đối với các giá trị độc lập R = 0.

Đặc biệt, đẳng thức (24) được thỏa mãn nếu các đại lượng \ xi ^ ((i)) và \ xi ^ ((j)) độc lập với nhau. Do đó, bình đẳng (23) luôn áp dụng cho các điều khoản độc lập lẫn nhau. Đối với trung bình số học

\ zeta = \ frac (1) (n) \ Bigl (\ xi ^ ((1)) + \ xi ^ ((2)) + \ cdots + \ xi ^ ((n)) \ Bigl) từ (23) sau

D (\ zeta _ = \ frac (1) (n ^ 2) \ Bigl (D (\ xi ^ ((1))) + D (\ xi ^ ((2))) + \ cdots + D (\ xi ^ ( (n))) \ Bigl).

Bây giờ chúng ta hãy giả định rằng đối với tất cả các điều khoản, các phương sai không vượt quá một số hằng số

D (\ xi ^ ((i))) \ leqslant C ^ 2. Sau đó bởi (25) D (\ zeta) \ leqslant \ frac (C ^ 2) (n),


và do bất đẳng thức Chebyshev đối với bất kỳ t

\ mathbf (P) \! \ left \ (| \ zeta-M (\ zeta) | \ leqslant \ frac (tC) (\ sqrt (n)) \ right \) \ geqslant1- \ frac (1) (t ^ 2)

Bất đẳng thức (26) chứa cái gọi là quy luật về số lớn ở dạng do Chebyshev thiết lập: nếu các đại lượng \ xi ^ ((i)) độc lập lẫn nhau và có phương sai giới hạn, thì khi n tăng lên, trung bình số học của chúng là \ zeta, ngày càng ít đi lệch đáng kể so với kỳ vọng toán học của họ M (\ zeta).

Chính xác hơn, họ nói rằng chuỗi các biến ngẫu nhiên

\ xi ^ ((1)), \, \ xi ^ ((2)), \, \ ldots \, \ xi ^ ((n)), \, \ ldots


tuân theo quy luật số lớn nếu đối với số trung bình tương ứng \ zeta và đối với bất kỳ hằng số \ varepsilon> 0

\ mathbf (P) \ (| \ zeta-M (\ zeta) | \ leqslant \ varepsilon \) \ to1 \ quad (n \ to \ infty).

Để có được quan hệ giới hạn (27) từ bất đẳng thức (26), chỉ cần đặt

T = \ varepsilon \ cdot \ frac (\ sqrt (n)) (C).

Một số lượng lớn các nghiên cứu của A.A. Markova, S.N. Bernstein, A.Ya. Khinchin và những người khác dành cho câu hỏi về khả năng mở rộng các điều kiện cho khả năng áp dụng của quan hệ giới hạn (27), tức là, các điều kiện để áp dụng luật số lượng lớn. Những nghiên cứu này có tầm quan trọng cơ bản. Tuy nhiên, điều quan trọng hơn nữa là nghiên cứu chính xác về phân phối xác suất sai lệch \ zeta-M (\ zeta).

Công lao to lớn của trường phái cổ điển Nga trong lý thuyết xác suất là đã xác lập được thực tế rằng, trong những điều kiện rất rộng, sự bình đẳng

\ mathbf (P) \! \ left \ (t_1 \ sigma _ (\ zeta)<\zeta-M(\zeta)

Chebyshev đã đưa ra một bằng chứng gần như hoàn chỉnh của công thức này cho trường hợp các điều khoản độc lập và có giới hạn. Markov đã điền vào liên kết còn thiếu trong lý luận của Chebyshev và mở rộng các điều kiện cho khả năng áp dụng của công thức (28). Lyapunov đưa ra các điều kiện tổng quát hơn. Câu hỏi về việc mở rộng công thức (28) cho các tổng của các số hạng phụ thuộc đã được S. N. Bernshtein nghiên cứu một cách đặc biệt.

Công thức (28) bao hàm một số lượng lớn các vấn đề cụ thể đến nỗi trong một thời gian dài nó được gọi là định lý giới hạn trung tâm của lý thuyết xác suất. Mặc dù, với sự phát triển mới nhất của lý thuyết xác suất, nó đã được đưa vào một số định luật tổng quát hơn, tầm quan trọng của nó không thể được đánh giá quá cao ngay cả ngày nay.

Thời gian.

Nếu các điều khoản độc lập và phương sai của chúng giống nhau và bằng nhau: D (\ xi ^ ((i))) = \ sigma ^ 2, sau đó thuận tiện cho công thức (28), có tính đến quan hệ (25), để đưa ra dạng

\ mathbf (P) \! \ left \ (\ frac (t_1 \ sigma) (\ sqrt (n))<\zeta-M(\zeta)<\frac{t_2\sigma}{\sqrt{n}}\right\}\sim\frac{1}{\sqrt{2\pi}}\int\limits_{t_1}^{t_2}e^{-t^2/2}\,dt\,.

Hãy để chúng tôi chỉ ra rằng quan hệ (29) chứa một giải pháp cho vấn đề sai lệch của tần số \ frac (\ mu) (n) so với xác suất p, mà chúng tôi đã giải quyết trước đó. Để làm điều này, chúng tôi giới thiệu các biến ngẫu nhiên \ xi ^ ((i)) xác định chúng theo điều kiện sau:

\ xi ^ ((i)) = 0 nếu thử nghiệm thứ i có kết quả tiêu cực,

\ xi ^ ((i)) = 1 nếu thử nghiệm thứ i có kết quả tích cực.

Thật dễ dàng để kiểm tra điều đó sau đó


và công thức (29) cho

\ mathbf (P) \! \ left \ (t_1 \ sqrt (\ frac (p (1-p)) (n))<\frac{\mu}{n}-p
mà đối với t_1 = -t, ~ t_2 = t lại dẫn đến công thức (20).
Xem thêm Định lý giới hạn trong lý thuyết xác suất Javascript bị tắt trong trình duyệt của bạn.
Các điều khiển ActiveX phải được kích hoạt để thực hiện các phép tính!

Bổ đề Chebyshev. Nếu biến ngẫu nhiên X, mà có một kỳ vọng toán học M[x], chỉ có thể nhận các giá trị không âm, khi đó với bất kỳ số dương a nào, chúng ta có bất đẳng thức

Bất đẳng thức Chebyshev. Nếu một X là một biến ngẫu nhiên với kỳ vọng toán học M[x] và sự phân tán D[x], thì với bất kỳ e dương nào, chúng ta có bất đẳng thức

. (2)

Định lý Chebyshev.(luật số lớn). Để cho X 1 , X 2 , …, x n,… - một chuỗi các biến ngẫu nhiên độc lập với cùng một kỳ vọng toán học m và các phương sai được giới hạn bởi cùng một hằng số Với

. (3)

Việc chứng minh định lý dựa trên bất đẳng thức

, (4)

theo sau từ bất đẳng thức Chebyshev. Từ định lý Chebyshev, như một hệ quả, người ta có thể nhận được

Định lý Bernoulli. Hãy để nó được sản xuất N các thử nghiệm độc lập, trong mỗi thử nghiệm có xác suất R một số sự kiện có thể xảy ra NHƯNG, để nó đi v n là một biến ngẫu nhiên bằng số lần xuất hiện của sự kiện NHƯNG trong những N các thí nghiệm. Khi đó, với bất kỳ e> 0 nào, chúng ta có bình đẳng giới hạn

. (5)

Lưu ý rằng bất đẳng thức (4) được áp dụng cho các điều kiện của định lý Bernoulli cho:

. (6)

Định lý Chebyshev có thể được xây dựng ở dạng tổng quát hơn:

Định lý Chebyshev tổng quát.Để cho x 1, x 2, …, x n,… - chuỗi các biến ngẫu nhiên độc lập với các kỳ vọng toán học M[x 1 ] = m 1, M[x2] = m 2,… và sự phân tán được giới hạn bởi cùng một hằng số Với. Khi đó, với bất kỳ số dương e nào, chúng ta có đẳng thức giới hạn

. (7)

Gọi x là số lần xuất hiện của 6 điểm trong 3600 lần ném chết. Sau đó M [ x] = 3600 = 600. Bây giờ chúng ta hãy sử dụng bất đẳng thức (1) cho a = 900: .

Chúng ta sử dụng bất đẳng thức (6) cho n = 10000, p =, q =. sau đó

Thí dụ.

Xác suất xảy ra biến cố A trong mỗi 1000 thí nghiệm độc lập là 0,8. Tìm xác suất để số lần xuất hiện của biến cố A trong 1000 thí nghiệm này sẽ sai lệch so với kỳ vọng toán học của nó về giá trị tuyệt đối nhỏ hơn 50.

Gọi x là số lần xuất hiện biến cố A trong 1000 thí nghiệm xác định. Sau đó M [ x] = 1000 × 0,8 = 800 và D [ x] = 1000 × 0,8 × 0,2 = 160. Bây giờ bất đẳng thức (2) cho:


Thí dụ.

Phương sai của mỗi trong số 1000 biến ngẫu nhiên độc lập x k (k = 1, 2, ..., 1000) là 4. Ước lượng xác suất để độ lệch của trung bình cộng của các biến này so với trung bình cộng của các kỳ vọng toán học của chúng ở giá trị tuyệt đối sẽ không vượt quá 0,1.

Theo bất đẳng thức (4), với c = 4 và e = 0,1, ta có