Biografier Kjennetegn Analyse

Identisk fordelte gjensidig uavhengige tilfeldige variabler. Uavhengige identisk fordelte tilfeldige variabler

To tilfeldige variabler $X$ og $Y$ kalles uavhengige hvis distribusjonsloven til en tilfeldig variabel ikke endres avhengig av hvilke mulige verdier den andre tilfeldige variabelen har. Det vil si at for alle $x$ og $y$ er hendelsene $X=x$ og $Y=y$ uavhengige. Siden hendelsene $X=x$ og $Y=y$ er uavhengige, er det produkt av sannsynlighetsteoremet uavhengige arrangementer$P\venstre(\venstre(X=x\høyre)\venstre(Y=y\høyre)\høyre)=P\venstre(X=x\høyre)P\venstre(Y=y\høyre)$.

Eksempel 1 . La den tilfeldige variabelen $X$ uttrykke pengegevinstene fra lodd i ett lotteri " Russisk lotto”, og den tilfeldige variabelen $Y$ uttrykker pengegevinstene fra lodd til et annet lotteri “Golden Key”. Det er åpenbart at de tilfeldige variablene $X,\Y$ vil være uavhengige, siden gevinstene fra lodd i ett lotteri ikke er avhengig av loven om fordeling av gevinster fra lodd i et annet lotteri. I tilfellet hvor de tilfeldige variablene $X,\Y$ vil uttrykke gevinstene fra det samme lotteriet, så vil selvsagt disse tilfeldige variablene være avhengige.

Eksempel 2 . To arbeidere jobber i forskjellige verksteder og lager ulike produkter, uten tilknytning til hverandre av produksjonsteknologier og råmaterialer som brukes. Distribusjonsloven for antall defekte produkter produsert av den første arbeideren per skift har følgende form:

$\begin(array)(|c|c|)
\hline
Antall \ defekte \ produkter \ x & 0 & 1 \\
\hline
Sannsynlighet & 0,8 & 0,2 \\
\hline
\end(array)$

Antallet defekte produkter produsert av den andre arbeideren per skift overholder følgende distribusjonslov.

$\begin(array)(|c|c|)
\hline
Antall \ defekte \ produkter \ y & 0 & 1 \\
\hline
Sannsynlighet & 0,7 & 0,3 \\
\hline
\end(array)$

La oss finne distribusjonsloven for antall defekte produkter produsert av to arbeidere per skift.

La den tilfeldige variabelen $X$ være antall defekte produkter produsert av den første arbeideren per skift, og $Y$ antall defekte produkter produsert av den andre arbeideren per skift. Etter betingelse er de tilfeldige variablene $X,\Y$ uavhengige.

Antallet defekte produkter produsert av to arbeidere per skift er en tilfeldig variabel $X+Y$. Dens mulige verdier er $0,\ 1$ og $2$. La oss finne sannsynlighetene som den tilfeldige variabelen $X+Y$ tar verdiene med.

$P\venstre(X+Y=0\høyre)=P\venstre(X=0,\ Y=0\høyre)=P\venstre(X=0\høyre)P\venstre(Y=0\høyre) =0.8\cdot 0.7=0.56.$

$P\venstre(X+Y=1\høyre)=P\venstre(X=0,\ Y=1\ eller\ X=1,\ Y=0\høyre)=P\venstre(X=0\høyre )P\venstre(Y=1\høyre)+P\venstre(X=1\høyre)P\venstre(Y=0\høyre)=0.8\cdot 0.3+0.2\cdot 0.7 =0.38.$

$P\venstre(X+Y=2\høyre)=P\venstre(X=1,\ Y=1\høyre)=P\venstre(X=1\høyre)P\venstre(Y=1\høyre) =0.2\cdot 0.3=0.06.$

Deretter loven om distribusjon av antall defekte produkter produsert av to arbeidere per skift:

$\begin(array)(|c|c|)
\hline
Antall \ defekte \ produkter & 0 & 1 & 2 \\
\hline
Sannsynlighet & 0,56 & 0,38 & 0,06\\
\hline
\end(array)$

I forrige eksempel utførte vi en operasjon på tilfeldige variabler$X,\ Y$, de fant nemlig summen $X+Y$. La oss nå gi en mer streng definisjon av operasjoner (addisjon, forskjell, multiplikasjon) over tilfeldige variabler og gi eksempler på løsninger.

Definisjon 1. Produktet $kX$ av den tilfeldige variabelen $X$ by konstant verdi$k$ er en tilfeldig variabel som tar verdiene $kx_i$ med samme sannsynlighet $p_i$ $\left(i=1,\ 2,\ \dots ,\ n\right)$.

Definisjon 2. Summen (forskjell eller produkt) av tilfeldige variabler $X$ og $Y$ er en tilfeldig variabel som tar alle mulige verdier av formen $x_i+y_j$ ($x_i-y_i$ eller $x_i\cdot y_i$) , hvor $i=1 ,\ 2,\dots ,\ n$, med sannsynligheter $p_(ij)$ for at den tilfeldige variabelen $X$ vil ta verdien $x_i$, og $Y$ verdien $y_j$:

$$p_(ij)=P\venstre[\venstre(X=x_i\høyre)\venstre(Y=y_j\høyre)\høyre].$$

Siden de tilfeldige variablene $X,\Y$ er uavhengige, så i henhold til sannsyfor uavhengige hendelser: $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\ høyre)= p_i\cdot p_j$.

Eksempel 3 . Uavhengige tilfeldige variabler $X,\ Y$ er spesifisert av deres sannsynlighetsfordelingslover.

$\begin(array)(|c|c|)
\hline
x_i & -8 & 2 & 3 \\
\hline
p_i & 0.4 & 0.1 & 0.5 \\
\hline
\end(array)$

$\begin(array)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0.3 & 0.7 \\
\hline
\end(array)$

La oss formulere fordelingsloven til den tilfeldige variabelen $Z=2X+Y$. Summen av tilfeldige variabler $X$ og $Y$, det vil si $X+Y$, er en tilfeldig variabel som tar alle mulige verdier av formen $x_i+y_j$, der $i=1,\ 2 ,\dots ,\ n$ , med sannsynligheter $p_(ij)$ for at den tilfeldige variabelen $X$ vil ta verdien $x_i$, og $Y$ verdien $y_j$: $p_(ij)=P\venstre [\venstre(X=x_i\høyre)\venstre(Y=y_j\høyre)\høyre]$. Siden de tilfeldige variablene $X,\Y$ er uavhengige, så i henhold til sannsyfor uavhengige hendelser: $p_(ij)=P\left(X=x_i\right)\cdot P\left(Y=y_j\ høyre)= p_i\cdot p_j$.

Så den har distribusjonslover for de tilfeldige variablene $2X$ og $Y$, henholdsvis.

$\begin(array)(|c|c|)
\hline
x_i & -16 & 4 & 6 \\
\hline
p_i & 0.4 & 0.1 & 0.5 \\
\hline
\end(array)$

$\begin(array)(|c|c|)
\hline
y_i & 2 & 8 \\
\hline
p_i & 0.3 & 0.7 \\
\hline
\end(array)$

For å gjøre det lettere å finne alle verdiene av summen $Z=2X+Y$ og deres sannsynligheter, vil vi komponere en hjelpetabell, i hver celle som vi vil plassere verdiene av summen $ i venstre hjørne Z=2X+Y$, og i høyre hjørne - sannsynlighetene for disse verdiene oppnådd som et resultat multipliserer sannsynlighetene for de tilsvarende verdiene av tilfeldige variabler $2X$ og $Y$.

Som et resultat får vi fordelingen $Z=2X+Y$:

$\begin(array)(|c|c|)
\hline
z_i & -14 & -8 & 6 & 12 & 10 & 16 \\
\hline
p_i & 0,12 & 0,28 & 0,03 & 0,07 & 0,15 & 0,35 \\
\hline
\end(array)$

Det er allerede kjent at man ifølge distribusjonsloven kan finne numeriske egenskaper tilfeldig variabel. Det følger at hvis flere tilfeldige variabler har identiske fordelinger, så er deres numeriske egenskaper de samme.

La oss vurdere n gjensidig uavhengige tilfeldige variabler X 1 , X 2 , …,Xn, som har de samme fordelingene, og derfor de samme egenskapene (matematisk forventning, spredning, etc.). Mest interesse representerer studiet av de numeriske egenskapene til det aritmetiske gjennomsnittet av disse størrelsene.

La oss betegne det aritmetiske gjennomsnittet av de tilfeldige variablene som vurderes ved:

.

De følgende tre bestemmelsene etablerer en sammenheng mellom de numeriske karakteristikkene til det aritmetiske gjennomsnittet og de tilsvarende karakteristikkene til hver enkelt mengde.

1. Den matematiske forventningen til det aritmetiske gjennomsnittet av identisk fordelte gjensidig uavhengige tilfeldige variabler er lik den matematiske forventningen a for hver av størrelsene:

Bevis. Ved å bruke egenskapene til matematisk forventning (den konstante faktoren kan tas ut av tegnet til den matematiske forventningen; den matematiske forventningen til summen er lik summen av de matematiske forventningene til leddene), har vi

Tar i betraktning at den matematiske forventningen til hver av mengdene i henhold til betingelsen er lik EN, får vi

.

2. Spredning av det aritmetiske gjennomsnittet n identisk fordelte gjensidig uavhengige tilfeldige variabler i n ganger mindre variasjon D hver av mengdene:

Bevis. Ved å bruke egenskapene til spredning (den konstante faktoren kan tas ut av spredningstegnet ved å kvadrere det; spredningen av summen uavhengige mengder lik summen av variansene til leddene), har vi

Tatt i betraktning at variansen til hver av mengdene i henhold til tilstanden er lik D, får vi

.

3. Gjennomsnittlig standardavvik aritmetisk gjennomsnitt n identisk fordelte gjensidig uavhengige tilfeldige variabler er ganger mindre enn standardavviket a for hver av verdiene:

Bevis. Siden er standardavviket lik

.

Den generelle konklusjonen fra formlene (7.3) og (7.4): Når vi minner om at spredningen og standardavviket fungerer som mål på spredningen av en tilfeldig variabel, konkluderer vi med at det aritmetiske gjennomsnittet er tilstrekkelig stort antall gjensidig uavhengige tilfeldige variabler har betydelig mindre spredning enn hver enkelt variabel.

La oss forklare med et eksempel betydningen av denne konklusjonen for praksis.

Eksempel. Vanligvis for å måle noen fysisk mengde gjør flere målinger, og finn deretter det aritmetiske gjennomsnittet av de oppnådde tallene, som tas som en omtrentlig verdi av den målte verdien. Forutsatt at målingene er gjort under de samme forholdene, bevis:



a) det aritmetiske gjennomsnittet gir et mer pålitelig resultat enn individuelle målinger;

b) med en økning i antall målinger, øker påliteligheten til dette resultatet.

Løsning. a) Det er kjent at individuelle målinger gir ulike verdier av målt mengde. Resultatet av hver måling avhenger av mange tilfeldige årsaker (temperaturendringer, instrumentsvingninger osv.), som ikke fullt ut kan tas i betraktning på forhånd.

Derfor har vi rett til å vurdere mulige resultater n individuelle målinger som tilfeldige variabler X 1 , X 2 , …,Xn(indeksen angir målenummeret). Disse størrelsene har samme sannsynlighetsfordeling (målinger gjøres med samme metode og med samme instrumenter), og derfor de samme numeriske karakteristikkene; i tillegg er de gjensidig uavhengige (resultatet av hver enkelt måling avhenger ikke av andre målinger).

Som det er vist, har det aritmetiske gjennomsnittet av slike mengder mindre spredning enn hver enkelt mengde. Det aritmetiske gjennomsnittet viser seg med andre ord å være nærmere sann mening målt mengde enn resultatet av en enkelt måling. Dette betyr at det aritmetiske gjennomsnittet av flere målinger gir et mer pålitelig resultat enn en enkelt måling.

b) Det er kjent at når antallet individuelle tilfeldige variabler øker, avtar spredningen av det aritmetiske gjennomsnittet. Dette betyr at etter hvert som antall målinger øker, vil det aritmetiske gjennomsnittet av flere målinger avvike mindre og mindre fra den sanne verdien av den målte verdien. Ved å øke antall målinger oppnås således et mer pålitelig resultat.

For eksempel hvis standardavviket for en individuell måling er s = 6 m, og totalt n= 36 målinger, da er standardavviket for det aritmetiske gjennomsnittet for disse målingene faktisk bare 1 m.

.

Det aritmetiske gjennomsnittet av flere målinger viste seg åpenbart, som man kunne forvente, å være nærmere den sanne verdien av den målte verdien enn resultatet av en separat måling.

For å løse mange praktiske problemer, er det nødvendig å kjenne til et sett med forhold på grunn av hvilke resultatet av den kumulative påvirkningen stor mengde tilfeldige faktorer er nesten uavhengige av tilfeldigheter. Disse forholdene er beskrevet i flere teoremer kalt vanlig navn lov store antall, hvor den tilfeldige variabelen k er lik 1 eller 0 avhengig av om resultatet av den kth forsøket er suksess eller fiasko. Dermed er Sn summen av n gjensidig uavhengige tilfeldige variabler, som hver tar verdiene 1 og 0 med sannsynlighetene p og q.

Enkleste form lov om store tall - Bernoullis teorem, som sier at hvis sannsynligheten for en hendelse er den samme i alle forsøk, vil frekvensen av hendelsen tendere til sannsynligheten for hendelsen og slutter å være tilfeldig etter hvert som antallet forsøk øker.

Poissons teorem sier at frekvensen av en hendelse i en serie uavhengige tester har en tendens til det aritmetiske gjennomsnittet av sannsynlighetene og slutter å være tilfeldig.

Grensesetninger for sannsynlighetsteori, Moivre-Laplace-teoremet forklarer arten av stabiliteten til frekvensen av forekomst av en hendelse. Denne naturen ligger i det faktum at den begrensende fordelingen av antall forekomster av en hendelse med en ubegrenset økning i antall forsøk (hvis sannsynligheten for hendelsen er den samme i alle forsøk) er en normalfordeling.

Sentral grensesetning forklarer utbredt normalfordelingsloven. Teoremet sier at når en tilfeldig variabel dannes som et resultat av tillegg av et stort antall uavhengige tilfeldige variabler med endelige varianser, viser fordelingsloven til denne tilfeldige variabelen seg å være en nesten normal lov.

Lyapunovs teorem forklarer den utbredte fordelingen av normalfordelingsloven og forklarer mekanismen for dens dannelse. Teoremet tillater oss å si at når en tilfeldig variabel dannes som et resultat av tillegg av et stort antall uavhengige tilfeldige variabler, hvis varians er små sammenlignet med spredningen av summen, endres fordelingsloven til denne tilfeldige variabelen. ut til å være en nesten normal lov. Og siden tilfeldige variabler alltid genereres av et uendelig antall årsaker og som oftest ingen av dem har en spredning som kan sammenlignes med spredningen av selve tilfeldige variabelen, så er de fleste tilfeldige variabler man møter i praksis underlagt normal lov distribusjoner.

De kvalitative og kvantitative utsagnene til loven om store tall er basert på Chebyshev ulikhet. Den bestemmer den øvre grensen for sannsynligheten for at avviket til verdien av en tilfeldig variabel fra dens matematiske forventning er større enn et visst spesifisert tall. Det er bemerkelsesverdig at Chebyshevs ulikhet gir et estimat av sannsynligheten for en hendelse for en tilfeldig variabel hvis fordeling er ukjent, bare dens matematiske forventning og varians er kjent.

Chebyshevs ulikhet. Hvis en tilfeldig variabel x har varians, er ulikheten sann for enhver x > 0, hvor M x og D x - matematisk forventning og varians til tilfeldig variabel x.

Bernoullis teorem. La x n være antall suksesser i n Bernoulli-forsøk og p sannsynligheten for suksess i en individuell prøve. Så for enhver s > 0 er det sant.

Lyapunovs teorem. La s 1, s 2, …, s n, … være en ubegrenset sekvens av uavhengige tilfeldige variabler med matematiske forventninger m 1, m 2, …, m n, … og varianser s 1 2, s 2 2, …, s n 2 …. La oss betegne.

Deretter = Ф(b) - Ф(a) for en hvilken som helst reelle tall a og b, hvor Ф(x) er normalfordelingsfunksjonen.

La en diskret tilfeldig variabel gis. La oss vurdere avhengigheten av antall suksesser Sn på antall forsøk n. På hvert forsøk øker Sn med 1 eller 0. Dette utsagnet kan skrives som:

Sn = 1 +…+ n. (1.1)

Loven om store tall. La (k) være en sekvens av gjensidig uavhengige tilfeldige variabler med identiske fordelinger. Hvis den matematiske forventningen = M(k) eksisterer, så for enhver > 0 for n

Sannsynligheten for at gjennomsnittlig Sn/n skiller seg fra den matematiske forventningen med mindre enn en vilkårlig spesifisert verdi tenderer med andre ord til én.

Sentral grensesetning. La (k) være en sekvens av gjensidig uavhengige tilfeldige variabler med identiske fordelinger. La oss anta at de eksisterer. La Sn = 1 +…+ n , Deretter for enhver fast

F () -- F () (1,3)

Her F (x) -- normal funksjon jeg deler ut. Denne teoremet ble formulert og bevist av Linlberg. Lyapunov og andre forfattere beviste det tidligere, under mer restriktive forhold. Det er nødvendig å forestille seg at teoremet formulert ovenfor bare er et helt spesielt tilfelle av mye mer generell teorem, som igjen er nært knyttet til mange andre grensesetninger. Merk at (1.3) er mye sterkere enn (1.2), siden (1.3) gir et estimat for sannsynligheten for at forskjellen er større enn. På den annen side er loven om store tall (1.2) sann selv om de tilfeldige variablene k ikke har endelig varians, så den gjelder for flere generell sak enn sentralgrensesetningen (1.3). La oss illustrere de to siste teoremene med eksempler.

Eksempler. a) Betrakt en sekvens av uavhengige kast av en symmetrisk terning. La k være antall poeng oppnådd under det kth kastet. Da

M(k)=(1+2+3+4+5+6)/6=3,5,

a D(k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3,5) 2 =35/12 og S n /n

er gjennomsnittlig antall poeng fra n kast.

Loven om store tall sier at det er sannsynlig at for store n vil dette gjennomsnittet være nær 3,5. The Central Limit Theorem angir sannsynligheten for at |Sn -- 3,5n |< (35n/12) 1/2 близка к Ф() -- Ф(-). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф(0)-- Ф(-- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

b) Prøvetaking. La oss anta at i befolkning,

bestående av N familier, Nk familier har nøyaktig k barn hver

(k = 0, 1 ...; Nk = N). Hvis en familie er valgt tilfeldig, så er antall barn i den en tilfeldig variabel som tar en verdi med sannsynlighet p = N/N. I rygg-til-rygg-seleksjon kan man se et utvalg av størrelse n som en samling av n uavhengige tilfeldige variabler eller "observasjoner" 1, ..., n som alle har samme fordeling; S n /n er prøvegjennomsnittet. Loven om store tall sier at for en tilstrekkelig stor tilfeldig utvalg dens gjennomsnitt vil trolig være nær, det vil si befolkningsgjennomsnittet. Den sentrale grensesetningen lar en estimere den sannsynlige størrelsen på avviket mellom disse middelene og bestemme prøvestørrelsen som kreves for et pålitelig estimat. I praksis, og og er vanligvis ukjente; men i de fleste tilfeller er det enkelt å få et foreløpig estimat for og kan alltid være innelukket innenfor pålitelige grenser. Hvis vi ønsker en sannsynlighet på 0,99 eller større for at utvalgsgjennomsnittet S n /n avviker fra det ukjente populasjonsmiddelet med mindre enn 1/10, må prøvestørrelsen tas slik at

X-roten av ligningen Ф(x) - Ф(-- x) = 0,99 er lik x = 2,57 ..., og derfor må n være slik at 2,57 eller n > 660. Et nøye foreløpig estimat gjør det mulig å finne ønsket utvalgsstørrelse.

c) Giftfordeling.

Anta at de tilfeldige variablene k har en Poisson-fordeling (p(k;)). Da har Sn en Poisson-fordeling med matematisk forventning og varians lik n.

Ved å skrive i stedet for n, konkluderer vi med at for n

Summeringen utføres over alle k fra 0 til. Ph-la (1.5) gjelder også når det er på en vilkårlig måte.

Kursarbeid

om emnet: "Lover om store tall"


Identisk fordelte tilfeldige variabler

For å løse mange praktiske problemer, er det nødvendig å kjenne til et sett med forhold på grunn av hvilke resultatet av den kombinerte påvirkningen av et stort antall tilfeldige faktorer er nesten uavhengig av tilfeldigheter. Disse forholdene er beskrevet i flere teoremer, samlet kalt loven om store tall, der den tilfeldige variabelen k er lik 1 eller 0 avhengig av om resultatet av den k-te forsøket er suksess eller fiasko. Dermed er Sn summen av n gjensidig uavhengige tilfeldige variabler, som hver tar verdiene 1 og 0 med sannsynlighetene p og q.

Den enkleste formen for loven om store tall er Bernoullis teorem, som sier at hvis sannsynligheten for en hendelse er den samme i alle forsøk, vil frekvensen av hendelsen tendere til sannsynligheten for hendelsen når antallet forsøk øker. slutter å være tilfeldig.

Poissons teorem sier at frekvensen av en hendelse i en serie uavhengige forsøk har en tendens til det aritmetiske gjennomsnittet av dens sannsynligheter og slutter å være tilfeldig.

Grensesetninger for sannsynlighetsteori, Moivre-Laplace-teoremet forklarer arten av stabiliteten til frekvensen av forekomst av en hendelse. Denne naturen ligger i det faktum at den begrensende fordelingen av antall forekomster av en hendelse med en ubegrenset økning i antall forsøk (hvis sannsynligheten for hendelsen er den samme i alle forsøk) er en normalfordeling.

Sentralgrensesetningen forklarer den utbredte fordelingen av normalfordelingsloven. Teoremet sier at når en tilfeldig variabel dannes som et resultat av tillegg av et stort antall uavhengige tilfeldige variabler med endelige varianser, viser fordelingsloven til denne tilfeldige variabelen seg å være en nesten normal lov.

Lyapunovs teorem forklarer den utbredte fordelingen av normalfordelingsloven og forklarer mekanismen for dens dannelse. Teoremet tillater oss å si at når en tilfeldig variabel dannes som et resultat av tillegg av et stort antall uavhengige tilfeldige variabler, hvis varians er små sammenlignet med spredningen av summen, endres fordelingsloven til denne tilfeldige variabelen. ut til å være en nesten normal lov. Og siden tilfeldige variabler alltid genereres av et uendelig antall årsaker og som oftest ingen av dem har en spredning som kan sammenlignes med spredningen av selve tilfeldige variabelen, er de fleste tilfeldige variabler man møter i praksis underlagt normalfordelingsloven.

De kvalitative og kvantitative utsagnene til loven om store tall er basert på Chebyshev ulikhet. Den bestemmer den øvre grensen for sannsynligheten for at avviket til verdien av en tilfeldig variabel fra dens matematiske forventning er større enn et visst spesifisert tall. Det er bemerkelsesverdig at Chebyshevs ulikhet gir et estimat av sannsynligheten for en hendelse for en tilfeldig variabel hvis fordeling er ukjent, bare dens matematiske forventning og varians er kjent.

Chebyshevs ulikhet. Hvis en tilfeldig variabel x har varians, er ulikheten sann for enhver x > 0, hvor M x og D x - matematisk forventning og varians til tilfeldig variabel x.

Bernoullis teorem. La x n være antall suksesser i n Bernoulli-forsøk og p sannsynligheten for suksess i en individuell prøve. Så for enhver s > 0, .

Lyapunovs teorem. La s 1 , s 2 , …, s n , … være en ubegrenset sekvens av uavhengige tilfeldige variabler med matematiske forventninger m 1 , m 2 , …, m n , … og varianser s 1 2 , s 2 2 , …, s n 2 … . La oss betegne , , , .

Da = Ф(b) - Ф(a) for alle reelle tall a og b, hvor Ф(x) er normalfordelingsfunksjonen.

La en diskret tilfeldig variabel gis. La oss vurdere avhengigheten av antall suksesser Sn på antall forsøk n. På hvert forsøk øker Sn med 1 eller 0. Dette utsagnet kan skrives som:

Sn = 1 +…+ n. (1.1)

Loven om store tall. La (k) være en sekvens av gjensidig uavhengige tilfeldige variabler med identiske fordelinger. Hvis den matematiske forventningen = M(k) eksisterer, så for enhver > 0 for n

Sannsynligheten for at gjennomsnittlig S n /n skiller seg fra den matematiske forventningen med mindre enn en vilkårlig gitt verdi tenderer med andre ord til én.

Sentral grensesetning. La (k) være en sekvens av gjensidig uavhengige tilfeldige variabler med identiske fordelinger. La oss anta at de eksisterer. La Sn = 1 +…+ n , Deretter for enhver fast

F () - F () (1,3)

Her er Ф(х) normalfordelingsfunksjonen. Denne teoremet ble formulert og bevist av Linlberg. Lyapunov og andre forfattere beviste det tidligere, under mer restriktive forhold. Det er nødvendig å forestille seg at teoremet formulert ovenfor kun er et helt spesielt tilfelle av en mye mer generell teorem, som igjen er nært knyttet til mange andre grensesetninger. Merk at (1.3) er mye sterkere enn (1.2), siden (1.3) gir et estimat for sannsynligheten for at forskjellen er større enn . På den annen side er loven om store tall (1.2) sann selv om de tilfeldige variablene k ikke har endelig varians, så den gjelder for et mer generelt tilfelle enn sentralgrensesetningen (1.3). La oss illustrere de to siste teoremene med eksempler.

Eksempler. a) Betrakt en sekvens av uavhengige kast av en symmetrisk terning. La k være antall poeng oppnådd under det kth kastet. Da

M(k)=(1+2+3+4+5+6)/6=3,5,

a D( k)=(1 2 +2 2 +3 2 +4 2 +5 2 +6 2)/6-(3,5) 2 =35/12 og S n /n

er gjennomsnittlig antall poeng fra n kast.

Loven om store tall sier at det er sannsynlig at for store n vil dette gjennomsnittet være nær 3,5. Sentralgrensesetningen angir sannsynligheten for at |Sn - 3,5n |< (35n/12) 1/2 близка к Ф() - Ф(- ). При n = 1000 и а=1 мы находим, что вероятность неравенства 3450 < Sn < 3550 равна примерно 0,68. Выбрав для а значение а 0 = 0,6744, удовлетворяющее соотношению Ф( 0)- Ф(- 0)=1/2, мы получим, что для Sn шансы находиться внутри или вне интервала 3500 36 примерно одинаковы.

b) Prøvetaking. La oss anta at i befolkningen,

bestående av N familier, Nk familier har nøyaktig k barn hver

(k = 0, 1 ...; Nk = N). Hvis en familie er valgt tilfeldig, så er antall barn i den en tilfeldig variabel som tar en verdi med sannsynlighet p = N /N. I rygg-til-rygg-seleksjon kan man se et utvalg av størrelse n som en samling av n uavhengige tilfeldige variabler eller "observasjoner" 1, ..., n som alle har samme fordeling; S n /n er prøvegjennomsnittet. Loven om store tall sier at for et stort nok tilfeldig utvalg vil gjennomsnittet sannsynligvis være nær , det vil si populasjonsgjennomsnittet. Den sentrale grensesetningen lar en estimere den sannsynlige størrelsen på avviket mellom disse middelene og bestemme prøvestørrelsen som kreves for et pålitelig estimat. I praksis, og og er vanligvis ukjente; men i de fleste tilfeller er det enkelt å få et foreløpig estimat for og kan alltid være innelukket innenfor pålitelige grenser. Hvis vi ønsker en sannsynlighet på 0,99 eller større for at utvalgsgjennomsnittet S n /n avviker fra det ukjente populasjonsmiddelet med mindre enn 1/10, må prøvestørrelsen tas slik at

X-roten av ligningen F(x) - F(- x) = 0,99 er x = 2,57..., og derfor må n være slik at 2,57 eller n > 660. Et nøye foreløpig estimat gjør det mulig å finne ønsket utvalgsstørrelse.

c) Giftfordeling.

Anta at de tilfeldige variablene k har en Poisson-fordeling (p(k; )). Da har Sn en Poisson-fordeling med gjennomsnitt og varians lik n.

Når vi skriver i stedet for n, konkluderer vi med at for n


Summeringen utføres over alle k fra 0 til . Ph-la (1.5) gjelder også når det er på en vilkårlig måte.

De sier de er det uavhengig (og) identisk fordelt, hvis hver av dem har samme fordeling som de andre, og alle mengder er uavhengige i aggregatet. Uttrykket "uavhengig identisk distribuert" blir ofte forkortet som i.i.d.(fra engelsk uavhengig og identisk fordelt ), noen ganger - "n.o.r".

Søknader

Antakelsen om at tilfeldige variabler er uavhengige og identisk fordelt er mye brukt i sannsynlighetsteori og statistikk, da den lar en i stor grad forenkle teoretiske beregninger og bevise interessante resultater.

En av de viktigste teoremene i sannsynlighetsteorien - den sentrale grensesetningen - sier at hvis er en sekvens av uavhengige identisk distribuerte tilfeldige variabler, da, når de har en tendens til uendelig, konvergerer fordelingen av deres gjennomsnittlige - tilfeldige variabel til normalfordelingen.

I statistikk er det generelt antatt at et statistisk utvalg er en sekvens av i.i.d. realiseringer av en tilfeldig variabel (et slikt utvalg kalles enkel).


Wikimedia Foundation.

  • 2010.
  • dvs.

Intel 8048

    Se hva "Uavhengige identisk distribuerte tilfeldige variabler" er i andre ordbøker: Gamblers ruinproblem – Problemet med spillerens ruin er et problem fra feltet sannsynlighetsteori. diskutert i detalj russisk matematiker

    A. N. Shiryaev i monografien "Sannsynlighet" ... Wikipedia Bærekraftig distribusjon

    - i sannsynlighetsteori er dette en fordeling som kan fås som en grense på fordelingen av summer av uavhengige stokastiske variable. Innhold 1 Definisjon 2 Merknader ... Wikipedia Levy-Khinchin formel for stabil distribusjon

    – En stabil fordeling i sannsynlighetsteori er en fordeling som kan fås som en grense på fordelingen av summer av uavhengige stokastiske variabler. Innhold 1 Definisjon 2 Merknader 3 Egenskaper for stabile distribusjoner ... Wikipedia Uendelig delbar fordeling

    - i sannsynlighetsteori er dette fordelingen av en tilfeldig variabel slik at den kan representeres i form av et vilkårlig antall uavhengige, identisk distribuerte ledd. Innhold 1 Definisjon ... Wikipedia Cramer-Lundberg modell - Kramer Lundberg modell matematisk modell , som lar deg vurdere risikoen for ruin av et forsikringsselskap. Innenfor rammen av denne modellen forutsettes det at forsikringspremier mottas likt, med en sats fra den betingede pengeenheter

    per enhet... ... Wikipedia Levy-Khinchin formel for uendelig delbar distribusjon

    - En uendelig delbar fordeling i sannsynlighetsteori er en fordeling av en tilfeldig variabel slik at den kan representeres som et vilkårlig antall uavhengige, identisk fordelte ledd. Innhold 1 Definisjon 2 ... ... Wikipedia Cramer modell

    – Denne artikkelen bør være Wikified. Vennligst formater den i henhold til reglene for artikkelformatering. Cramer Lundberg-modellen er en matematisk modell som lar en vurdere risikoen for konkurs i et forsikringsselskap... Wikipedia Aksept statistisk kontroll - helhet kontroll av masseprodukter for å fastslå at de er i samsvar med spesifiserte krav. P.S. j. et effektivt middel for å sikre god kvalitet på masseprodukter. P.S. til er utført på... ... Stor sovjetisk leksikon

    Multinomial fordeling– Multinomial (polynomisk) fordeling i sannsynlighetsteori er en generalisering binomial fordeling i tilfelle uavhengige forsøk av et tilfeldig eksperiment med flere mulige utfall. Definisjon La uavhengige... ... Wikipedia

    Polynomfordeling- Multinomial (polynomial) fordeling i sannsynlighetsteori er en generalisering av binomialfordelingen til tilfellet med uavhengige tester av et tilfeldig eksperiment med flere mulige utfall. Definisjon: La de uavhengige være like... ... Wikipedia