Nollhypotesen i statistik: ett exempel. Testar nollhypotesen. Konceptet nollhypotes

STATISTISKA HYPOTESER

Provdata som erhållits i experiment är alltid begränsade och är i stort sett slumpmässiga. Det är därför matematisk statistik används för att analysera sådana data, vilket gör det möjligt att generalisera mönstren som erhålls i urvalet och utvidga dem till hela befolkningen.

De data som erhållits som ett resultat av experimentet på valfritt prov tjänar som grund för att bedöma den allmänna befolkningen. På grund av slumpmässiga probabilistiska orsaker kommer dock uppskattningen av parametrarna för den allmänna befolkningen, baserad på experimentella (prov) data, alltid att åtföljas av ett fel, och därför bör sådana uppskattningar betraktas som gissande, och inte som slutliga uttalanden. Sådana antaganden om egenskaperna och parametrarna för den allmänna befolkningen kallas statistiska hypoteser . Enligt G.V. Sukhodolsky: "En statistisk hypotes brukar förstås som ett formellt antagande om att likheten (eller skillnaden) hos vissa parametriska eller funktionella egenskaper är av misstag eller omvänt inte av misstag."

Kärnan i att testa en statistisk hypotes är att fastställa om de experimentella data och den hypotes som läggs fram överensstämmer, om det är tillåtet att tillskriva skillnaden mellan hypotesen och resultatet av den statistiska analysen av experimentella data på grund av slumpmässiga orsaker. Således är en statistisk hypotes en vetenskaplig hypotes som tillåter statistisk testning, och matematisk statistik är en vetenskaplig disciplin vars uppgift är att vetenskapligt testa statistiska hypoteser.

Statistiska hypoteser klassificeras i null och alternativa, riktade och icke-riktade.

Nollhypotesen(H 0) Är hypotesen att det inte finns några skillnader. Om vi ​​vill bevisa skillnadernas betydelse krävs nollhypotesen vederlägga, annars krävs det bekräfta.

Alternativ hypotes (H 1) - en hypotes om skillnadernas betydelse. Detta är vad vi vill bevisa, varför det ibland kallas experimentell hypotes.

Det finns uppgifter när vi vill bevisa rättvisa obetydlighet skillnader, det vill säga för att bekräfta nollhypotesen. Till exempel, om vi behöver se till att olika ämnen får, om än olika, men balanserade i svårigheter, eller att experiment- och kontrollproven inte skiljer sig åt i några signifikanta egenskaper. Men oftare behöver vi fortfarande bevisa skillnadernas betydelse, för de är mer informativa för oss i vårt sökande efter något nytt.

Null och alternativa hypoteser kan vara riktade och icke-riktade.

Riktade hypoteser - om det antas att de karakteristiska värdena är högre i en grupp och lägre i den andra:

H 0: X 1 mindre än X 2,

H 1: X 1överstiger X 2.

Odirigerade hypoteser - om det antas att fördelningsformerna för en egenskap i grupper skiljer sig åt:

H 0: X 1 skiljer sig inte från X 2,

H 1: X 1är annorlunda X 2.

Om vi ​​märkte att i en av grupperna är individernas individuella värden för något kriterium, till exempel för social aktivitet, högre och i den andra lägre, för att testa betydelsen av dessa skillnader behöver vi att formulera riktade hypoteser.

Om vi ​​vill bevisa det i grupp A under påverkan av vissa experimentella influenser inträffade mer uttalade förändringar än i gruppen B, då måste vi också formulera riktade hypoteser.

Om vi ​​vill bevisa att egenskaperna för fördelning av egenskaperna i grupper skiljer sig åt A och B, sedan formuleras ostyrda hypoteser.

Hypotesprovning utförs med hjälp av kriterier för statistisk bedömning av skillnader.

Den accepterade slutsatsen kallas ett statistiskt beslut. Låt oss betona att en sådan lösning alltid är sannolikhet. Vid testning av en hypotes kan experimentella data motsäga hypotesen H 0, då förkastas denna hypotes. Annars, d.v.s. om experimentella data stämmer överens med hypotesen H 0, det avviker inte. Det sägs ofta i sådana fall att hypotesen H 0 accepteras. Detta visar att statistisk testning av hypoteser baserat på experimentella provdata oundvikligen är förknippad med risken (sannolikheten) för att fatta ett falskt beslut. I det här fallet är fel av två slag möjliga. Ett fel av det första slaget kommer att inträffa när ett beslut fattas att avvisa en hypotes. H 0,även om det i verkligheten visar sig vara sant. Ett fel av det andra slaget kommer att inträffa när ett beslut fattas att inte avvisa hypotesen. H 0även om det i verkligheten blir fel. Självklart kan korrekta slutsatser också godtas i två fall. Tabell 7.1 sammanfattar ovanstående.

Tabell 7.1

Det är möjligt att psykologen kan ha fel i sitt statistiska beslut; Som vi kan se från tabell 7.1 kan dessa fel endast vara av två slag. Eftersom det är omöjligt att utesluta fel när man accepterar statistiska hypoteser är det nödvändigt att minimera de möjliga konsekvenserna, d.v.s. accept av en felaktig statistisk hypotes. I de flesta fall är det enda sättet att minimera fel att öka provstorleken.

STATISTISKA KRITERIER

Statistiskt kriterium- detta är en beslutsregel som säkerställer tillförlitligt beteende, det vill säga accept av en sann hypotes och avvisning av en falsk hypotes med stor sannolikhet.

Statistiska kriterier hänvisar också till metoden för att beräkna ett visst tal och själva talet.

När vi säger att skillnadernas tillförlitlighet bestämdes av kriteriet j *(kriteriet är den vinklade Fisher -transformationen), då menar vi att vi använde metoden j * för att beräkna ett specifikt tal.

Med förhållandet mellan kriteriets empiriska och kritiska värden kan vi bedöma om nollhypotesen bekräftas eller motbevisas.

I de flesta fall, för att vi ska känna igen skillnader som betydande, är det nödvändigt att kriteriets empiriska värde överstiger det kritiska, även om det finns kriterier (till exempel Mann-Whitney-kriteriet eller teckenkriteriet) som vi måste följa den motsatta regeln.

I vissa fall inkluderar beräkningsformeln för kriteriet antalet observationer i det studerade urvalet, betecknat som n... I detta fall är kriteriets empiriska värde samtidigt ett test för att testa statistiska hypoteser. Med hjälp av en speciell tabell bestämmer vi vilken nivå av statistisk signifikans av skillnader ett givet empiriskt värde motsvarar. Ett exempel på ett sådant kriterium är kriteriet j * beräknat baserat på den vinklade Fisher -transformen.

I de flesta fall kan emellertid samma empiriska värde för kriteriet visa sig vara signifikant eller obetydligt, beroende på antalet observationer i det undersökta urvalet ( n) eller på det så kallade antalet frihetsgrader, som betecknas som v eller hur df.

Antalet frihetsgrader v lika med antalet klasser variationer minus antalet förhållanden under vilka det bildades. Dessa villkor inkluderar provstorleken ( n), medel och avvikelser.

Låt oss säga att en grupp på 50 personer delades in i tre klasser enligt principen:

Vet hur man arbetar på en dator;

Vet hur man bara utför vissa operationer;

Kan inte fungera på en dator.

Den första och andra gruppen inkluderade 20 personer, den tredje - 10.

Vi är begränsade av ett villkor - provstorleken. Därför, även om vi har tappat data om hur många som inte vet hur man arbetar på en dator, kan vi avgöra detta, med vetskap om att det i första och andra klass finns 20 ämnen vardera. Vi är inte fria att bestämma antalet ämnen i den tredje kategorin, "frihet" sträcker sig bara till de två första cellerna i klassificeringen:

Låt oss bekanta oss med den terminologi som används vid hypotesprovning.

Men - nollhypotesen (skeptikerns hypotes) är en hypotes ingen skillnad mellan de jämförda proverna. Skeptikern anser att skillnaderna mellan de provuppskattningar som erhållits från forskningsresultaten är oavsiktliga.

· Н 1 - en alternativ hypotes (optimisthypotes) är en hypotes om förekomsten av skillnader mellan de jämförda proverna. Optimisten tror att skillnaderna mellan stickprovsuppskattningarna orsakas av objektiva skäl och motsvarar skillnaderna mellan de allmänna populationerna.

Att testa statistiska hypoteser är endast genomförbart när det är möjligt att sammanställa några magnitud(kriterium), vars distributionslag i fallet med giltighet H 0 är känd. Sedan för denna kvantitet kan man ange konfidensintervall, i vilket dess värde faller med en given sannolikhet P d. Detta intervall kallas kritiskt område... Om kriteriets värde faller in i den kritiska regionen, accepteras hypotesen H 0. I annat fall accepteras hypotes H 1.

Inom medicinsk forskning används P d = 0,95 eller P d = 0,99. Dessa värden motsvarar signifikansnivåer a = 0,05 eller a = 0,01.

Vid testning av statistiska hypoteser nivå av betydelse(a) är sannolikheten att förkasta nollhypotesen när den är sann.

Observera att i grund och botten hypotesprovningsproceduren syftar till att upptäcka skillnader, och inte för att bekräfta deras frånvaro. När kriteriets värde går utanför det kritiska området kan vi med rent hjärta säga till "skeptikern" - vad mer vill du ha?! Om det inte fanns några skillnader, med en sannolikhet på 95% (eller 99%), skulle det beräknade värdet ligga inom de angivna gränserna. Men nej! ...

Tja, om kriteriets värde faller in i den kritiska regionen, så finns det ingen anledning att tro att hypotesen H 0 är sann. Detta indikerar troligen en av två möjliga orsaker.



a) Provstorlekarna är inte tillräckligt stora för att upptäcka de befintliga skillnaderna. Det är troligt att fortsatt experiment kommer att ge framgång.

b) Det finns skillnader. Men de är så små att de inte har något praktiskt värde. I det här fallet är fortsättningen av experiment inte meningsfull.

Låt oss gå vidare för att överväga några av de statistiska hypoteser som används inom medicinsk forskning.

§ 3.6. Testa hypoteser om jämlikhet i avvikelser,
F - Fishers kriterium

I vissa kliniska studier bevisas inte den positiva effekten så mycket av magnitud av den undersökta parametern, hur mycket är det stabilisering minskar dess fluktuationer. I detta fall uppstår frågan om att jämföra två generella avvikelser baserat på resultaten från en stickprovsundersökning. Denna uppgift kan lösas med Fishers kriterium.

Formulering av problemet

normal lag distribution. Provstorlekar n 1 och n 2, och provavvikelserär lika. Det krävs att man jämför med varandra allmänna avvikelser.

Testbara hypoteser:

H 0- allmänna avvikelser är samma;

H 1 - allmänna avvikelser annorlunda.

Visas om prover extraheras från allmänna populationer med normal lag fördelning, då om hypotesen H 0 är sann följer förhållandet mellan provvarianser Fisher -fördelningen. Som ett kriterium för att kontrollera giltigheten av H 0 är därför värdet F beräknas med formeln

var är provvariationer.

Detta förhållande lyder Fishers fördelning med antalet frihetsgrader för täljaren n 1 = n 1 -1, och antalet frihetsgrader för nämnaren n 2 = n 2 -1. Gränserna för det kritiska området hittas med hjälp av Fisher -distributionstabellerna eller med hjälp av datorfunktionen FRASPINV.

För exemplet i tabellen. 3.4 får vi: n 1 = n 2 = 20 - 1 = 19; F = 2,16 / 4,05 = 0,53. Vid a = 0,05 är gränserna för den kritiska regionen lika: F lejon = 0,40, F höger = 2,53.

Kriteriets värde föll in i den kritiska regionen, därför accepteras hypotes H 0: generella varianter av prover är samma.

§ 3.7. Testa hypoteser om likvärdighet,
t- Studentprov

Jämförelseuppgift mitten två allmänna populationer uppstår när det är av praktisk betydelse magnitud av den egenskap som studeras. Till exempel när man jämför behandlingsvillkoren med två olika metoder, eller antalet komplikationer som uppstår vid deras användning. I det här fallet kan du använda Studentens t-test.

Formulering av problemet.

Två prover (X 1) och (X 2) erhölls, extraherade från allmänna populationer med normal lag distribution och lika avvikelser... Provstorlekar n 1 och n 2, provmedelär lika och provavvikelser-, respektive. Det krävs att man jämför med varandra allmänna medelvärden.

Testbara hypoteser:

H 0- allmänna medelvärden är samma;

H 1 - allmänna medelvärden annorlunda.

Det visas att i fallet med giltigheten av hypotesen H 0, värdet t beräknas med formeln

, (3.10)

fördelat enligt Studentlag med antalet frihetsgrader n= n 1 + n 2 - 2.

Här, där n 1 = n 1 - 1 - antalet frihetsgrader för det första provet; n 2 = n 2 - 1 är antalet frihetsgrader för det andra provet.

Gränserna för det kritiska området finns från tabeller t-allokering eller användning av datorfunktionen STYUDRASP. Studentens fördelning är symmetrisk om noll, så vänster och höger gränser för den kritiska regionen är desamma i storlek och motsatta i tecken: - t gr och t gr.

För exemplet i tabellen. 3.4 får vi: n 1 = n 2 = 20 - 1 = 19; t= –2,51, n = 38. Vid a = 0,05 t gr = 2,02.

Kriteriets värden går utöver den vänstra gränsen för den kritiska regionen, därför accepterar vi hypotes H 1: allmänna medelvärden annorlunda... Dessutom genomsnittet av den allmänna befolkningen första provet mindre.

5. Huvudproblemen med tillämpad statistik - databeskrivning, uppskattning och hypotesprovning

Grundläggande begrepp som används vid hypotesprovning

Statistisk hypotes - alla antaganden om okänd fördelning av slumpmässiga variabler (element). Här är formuleringarna av flera statistiska hypoteser:

1. Observationsresultaten har en normalfördelning med noll matematisk förväntning.
2. Observationsresultaten har en fördelningsfunktion N(0,1).
3. Observationsresultaten har en normal fördelning.
4. Resultaten av observationer i två oberoende prover har samma normalfördelning.
5. Resultaten av observationer i två oberoende prover har samma fördelning.

Skilj mellan noll och alternativa hypoteser. Nollhypotesen är en hypotes som ska testas. En alternativ hypotes är varje annan tillåten hypotes än null. Nollhypotesen betecknas H 0, alternativ - H 1(från Hypotes - "hypotes" (engelska)).

Valet av en eller annan null eller alternativa hypoteser bestäms av de tillämpade problemen som chef, ekonom, ingenjör och forskare står inför. Låt oss titta på några exempel.

Exempel 11. Låt nollhypotesen vara hypotes 2 från listan ovan, och den alternativa hypotesen 1, vilket innebär att den verkliga situationen beskrivs med en probabilistisk modell, enligt vilken observationsresultaten betraktas som realiseringar av oberoende identiskt fördelade slumpmässiga variabler med en fördelning fungera N(0, σ), där parametern σ är okänd för statistiken. Inom denna modell skrivs nollhypotesen enligt följande:

H 0: σ = 1,

och alternativet är så här:

H 1: σ ≠ 1.

Exempel 12. Låt nollhypotesen fortfarande vara hypotes 2 från listan ovan och den alternativa hypotesen 3 från samma lista. I en sannolikhetsmodell av en lednings-, ekonomisk eller industriell situation antas det sedan att observationsresultaten utgör ett urval från normalfördelningen N(m, σ) för vissa värden m och σ. Hypoteser skrivs så här:

H 0: m= 0, σ = 1

(båda parametrarna tar fasta värden);

H 1: m≠ 0 och / eller σ ≠ 1

(dvs antingen m≠ 0, eller σ ≠ 1, eller och m≠ 0 och σ ≠ 1).

Exempel 13. Låt vara H 0 är hypotes 1 från listan ovan och H 1 - hypotes 3 från samma lista. Då är den probabilistiska modellen densamma som i exempel 12,

H 0: m= 0, σ är godtycklig;

H 1: m≠ 0, σ är godtycklig.

Exempel 14. Låt vara H 0 är hypotes 2 från listan ovan, och enligt H 1 observationsresultat har en fördelningsfunktion F(x), inte samma sak som standard normalfördelningsfunktion F (x). Sedan

H 0: F(x) = Ф (x) Med allt NS(skrivet som F(x) ≡ Ф (x));

H 1: F(x 0) ≠ Ф (x 0) med vissa x 0(dvs det är inte sant det F(x) ≡ Ф (x)).

Notera. Här ≡ är tecknet på identiska sammanfall av funktioner (dvs. sammanträffande för alla möjliga värden för argumentet NS).

Exempel 15. Låt vara H 0 är hypotes 3 från listan ovan, och enligt H 1 observationsresultat har en fördelningsfunktion F(x), inte normal. Sedan

Med vissa m, σ;

H 1: för alla m, σ finns x 0 = x 0(m, σ) så att .

Exempel 16. Låt vara H 0 - hypotes 4 från listan ovan, enligt den probabilistiska modellen extraheras två prover från populationer med distributionsfunktioner F(x) och G(x), som är normala med parametrar m 1, σ 1 och m 2, σ 2 respektive H 1 - negation H 0. Sedan

H 0: m 1 = m 2, σ 1 = σ 2 och m 1 och σ 1 är godtyckliga;

H 1: m 1 ≠ m 2 och / eller σ 1 ≠ σ 2.

Exempel 17. Antag att under villkoren i exempel 16 är det dessutom känt att σ 1 = σ 2. Sedan

H 0: m 1 = m 2, σ> 0 och m 1 och σ är godtyckliga;

H 1: m 1 ≠ m 2, σ> 0.

Exempel 18. Låt vara H 0 - hypotes 5 från listan ovan, enligt den probabilistiska modellen extraheras två prover från populationer med distributionsfunktioner F(x) och G(x) respektive, medan H 1 - negation H 0. Sedan

H 0: F(x) G(x) , var F(x)

H 1: F(x) och G(x) är godtyckliga distributionsfunktioner, och

F(x) G(x) med vissa NS.

Exempel 19. Låt, under villkoren i exempel 17, antas det dessutom att distributionen fungerar F(x) och G(x) skiljer sig bara i skift, d.v.s. G(x) = F(x- a) med vissa a... Sedan

H 0: F(x) G(x) ,

var F(x) - en godtycklig fördelningsfunktion;

H 1: G(x) = F(x- a) och ≠ 0,

var F(x) Är en godtycklig fördelningsfunktion.

Exempel 20. Låt, under förhållandena i exempel 14, det är dessutom känt att enligt den probabilistiska modellen av situationen F(x) är normalfördelningsfunktionen med enhetsvarians, d.v.s. har formen N(m, 1). Sedan

H 0: m = 0 (de där. F(x) = Ф (x)

Med allt NS); (skrivet som F(x) ≡ Ф (x));

H 1: m 0

(dvs det är inte sant det F(x) ≡ Ф (x)).

Exempel 21. I den statistiska regleringen av tekniska, ekonomiska, ledningsmässiga eller andra processer övervägs ett urval, extraherat från en population med normalfördelning och känd varians, och hypoteser

H 0: m = m 0 ,

H 1: m= m 1 ,

där parametervärdet m = m 0 motsvarar processens effektiviserade förlopp och övergången till m= m 1 indikerar oenighet.

Exempel 22. Vid kontroll av statistisk acceptans följer antalet defekta produktenheter i provet en hypergeometrisk fördelning, den okända parametern är sid = D/ N- graden av defekt, var N- produktvolymen, D- det totala antalet defekta artiklar i satsen. Kontrollplaner som används i reglerande, tekniska och kommersiella dokument (standarder, leveransavtal, etc.) syftar ofta till att testa en hypotes

H 0: sid < AQL

H 1: sid > LQ,

var AQL - acceptansnivå för defekt, LQ - avvisningsnivån för defekt (det är uppenbart att AQL < LQ).

Exempel 23. Ett antal egenskaper hos fördelningarna av kontrollerade indikatorer används som indikatorer på stabiliteten i en teknisk, ekonomisk, ledningsmässig eller annan process, i synnerhet variationskoefficienten v = σ/ M(X). Det krävs för att testa nollhypotesen

H 0: v < v 0

under den alternativa hypotesen

H 1: v > v 0 ,

var v 0 - något förutbestämt gränsvärde.

Exempel 24. Låt den probabilistiska modellen för två prover vara desamma som i exempel 18, de matematiska förväntningarna på observationsresultat i det första och andra exemplet kommer att betecknas M(NS) och M(Ha) respektive. I ett antal situationer testas nollhypotesen.

H 0: M (X) = M (Y)

mot alternativ hypotes

H 1: M (X) ≠ M (Y).

Exempel 25... Det noterades ovan stor betydelse i matematisk statistik över fördelningsfunktioner symmetriska med avseende på 0, Vid kontroll av symmetri

H 0: F(- x) = 1 – F(x) Med allt x, annars F slumpmässig;

H 1: F(- x 0 ) ≠ 1 – F(x 0 ) med vissa x 0 , annars F slumpmässig.

I probabilistiskt-statistiska metoder för beslutsfattande används många andra formuleringar av problem för att testa statistiska hypoteser. Några av dem diskuteras nedan.

Den specifika uppgiften att testa en statistisk hypotes beskrivs fullständigt om noll- och alternativhypoteserna ges. Valet av metod för att testa den statistiska hypotesen, metodernas egenskaper och egenskaper bestäms av både noll och alternativa hypoteser. Generellt sett bör olika metoder användas för att testa samma nollhypotes under olika alternativa hypoteser. Så i exemplen 14 och 20 är nollhypotesen densamma, och de alternativa är olika. Därför bör i förhållandena i exempel 14 tillämpas metoder baserade på kriterierna om god passform med en parametrisk familj (av typen Kolmogorov eller omega-square), och i förhållandena i exempel 20, metodbaserade på studentens test eller Cramer-Welch-kriteriet. Om studentens t-test enligt villkoren i exempel 14 används, kommer han inte att lösa de tilldelade uppgifterna. Om vi ​​under villkoren i exempel 20 använder Kolmogorov-typ av godhetstest, kommer det tvärtom att lösa de problem som uppstår, även om det möjligen är värre än studentens t-test speciellt anpassat för detta fall.

Vid behandling av verkliga data är det korrekta valet av hypoteser av stor vikt. H 0 och H 1. De antagna antagandena, till exempel normalfördelningen, måste noggrant underbyggas, särskilt med statistiska metoder. Observera att i den överväldigande majoriteten av specifika applicerade formuleringar skiljer sig fördelningen av observationsresultat från den normala.

En situation uppstår ofta när nollhypotesens form följer av formuleringen av ett tillämpat problem, men den alternativa hypotesens form är inte klar. I sådana fall bör en alternativ hypotes av den mest allmänna typen övervägas och metoder bör användas som löser problemet för alla möjliga H 1. I synnerhet när man testar hypotes 2 (från listan ovan) som noll, bör man använda som en alternativ hypotes H 1 från exempel 14, och inte från exempel 20, om det inte finns någon särskild motivering för normaliteten av fördelningen av observationsresultat under den alternativa hypotesen.

Tidigare

På grundval av de data som samlats in i statistiska studier, efter deras bearbetning, dras slutsatser om de fenomen som studeras. Dessa slutsatser görs genom att lägga fram och testa statistiska hypoteser.

Statistisk hypotes något uttalande om formen eller egenskaperna för fördelningen av experimentellt observerade slumpmässiga variabler kallas. Statistiska hypoteser testas med statistiska metoder.

Hypotesen som ska testas kallas huvud (noll) och betecknas H 0. Förutom noll finns det också alternativ (konkurrerande) hypotes H 1, förnekar det huvudsakliga . Som ett resultat av testning kommer en och endast en av hypoteserna att accepteras. , och det andra kommer att avvisas.

Typer av fel... Hypotesen som läggs fram testas på grundval av en studie av ett urval från den allmänna befolkningen. På grund av stickprovets slumpmässighet leder valideringen inte alltid till den korrekta slutsatsen. I det här fallet kan följande situationer uppstå:
1. Huvudhypotesen är korrekt och accepterad.
2. Huvudhypotesen är korrekt, men den förkastas.
3. Huvudhypotesen är felaktig och den förkastas.
4. Huvudhypotesen är inte korrekt, men den accepteras.
I fall 2 talar man om fel av det första slaget, i det senare fallet vi talar om fel av det andra slaget.
För vissa prover fattas alltså rätt beslut och för andra fel. Beslutet fattas av värdet av någon samplingsfunktion, kallad statistiska egenskaper, statistiskt kriterium eller bara statistik... Uppsättningen av värden för denna statistik kan delas in i två olika delar:

  • H 0 accepteras (avvisas inte), kallas hypotes acceptansområde (genomförbart område);
  • en delmängd av de statistiska värden för vilka hypotesen H 0 avvisas (avvisas) och hypotesen accepteras H 1 kallas kritiskt område.

Slutsatser:

  1. Kriteriumär en slumpmässig variabel K som låter dig acceptera eller avvisa nollhypotesen H0.
  2. Vid testning av hypoteser kan fel av 2 släkter göras.
    Första typ av felär att hypotesen kommer att förkastas H 0 om det är korrekt ("hoppa över mål"). Sannolikheten att göra ett misstag av det första slaget betecknas med α och kallas nivå av betydelse... Oftast antas i praktiken att α = 0,05 eller α = 0,01.
    Typ II -felär att hypotesen H0 accepteras om den är felaktig ("falskt positiv"). Sannolikheten för ett fel av detta slag betecknas med β.

Klassificering av hypoteser

Huvudhypotes H 0 om värdet på den okända parametern q för distributionen ser vanligtvis ut så här:
H 0: q = q 0.
Konkurrerande hypotes H 1 kan således ha följande form:
H 1: q < q 0 , H 1: q> q 0 eller H 1: qq 0 .
Följaktligen visar det sig vänstersidig, högersidig eller bilateral kritiska områden. Gränspunkter för kritiska regioner ( kritiska punkter) bestäms utifrån fördelningstabellerna för motsvarande statistik.

När man testar en hypotes är det klokt att minska sannolikheten för att fatta dåliga beslut. Typ I -feltolerans brukar betecknas a och ringde nivå av betydelse... Dess värde är vanligtvis litet ( 0,1, 0,05, 0,01, 0,001 ...). Men en minskning av sannolikheten för ett typ I -fel leder till en ökning av sannolikheten för ett typ II -fel ( b), d.v.s. önskan att bara acceptera korrekta hypoteser orsakar en ökning av antalet avvisade korrekta hypoteser. Därför bestäms valet av signifikansnivå av problemets betydelse och svårighetsgraden av konsekvenserna av ett felaktigt beslut.
Statistisk hypotesprovning består av följande steg:
1) definiera hypoteser H 0 och H 1 ;
2) urval av statistik och inställning av betydelsen;
3) bestämning av kritiska punkter K cr och kritiskt område;
4) beräkning av det statistiska värdet från provet Till ex;
5) jämförelse av statistikvärdet med det kritiska området ( K cr och Till ex);
6) beslutsfattande: om statistikens värde inte ingår i det kritiska området, accepteras hypotesen H 0 och hypotesen avvisas H 1, och om den kommer in i den kritiska regionen, avvisas hypotesen H 0 och hypotesen accepteras H 1. Samtidigt ska resultaten av testning av den statistiska hypotesen tolkas enligt följande: om hypotesen accepteras H 1 , då kan det anses bevisat, och om hypotesen accepteras H 0 , då insåg man att det inte motsäger resultaten av observationer. Men denna egenskap, tillsammans med H 0 kan också ha andra hypoteser.

Klassificering av hypotesprov

Nedan kommer vi att överväga flera olika statistiska hypoteser och mekanismer för att testa dem.
Jag) Hypotes om det genomsnittliga genomsnittet för normalfördelningen med okänd varians. Vi antar att den allmänna befolkningen har en normal fördelning, dess medelvärde och varians är okända, men det finns anledning att tro att det allmänna genomsnittet är lika med a. På signifikansnivån α bör hypotesen testas H 0: x = a. Som ett alternativ kan en av de tre hypoteser som diskuteras ovan användas. I detta fall är statistik en slumpmässig variabel med en students fördelning med n- 1 frihetsgrad. Motsvarande experimentella (observerade) värde bestäms t ex t cr H 1: x> a den hittas enligt signifikansnivån α och antalet frihetsgrader n- 1. Om t ex < t cr H 1: x ≠ a, det kritiska värdet hittas enligt signifikansnivån α / 2 och samma antal frihetsgrader. Nollhypotesen accepteras om | t ex | II) Hypotesen om likvärdighet mellan två medel för slumpmässigt fördelade allmänna populationer (stora oberoende urval). På signifikansnivån α bör hypotesen testas H 0: x ≠ y. Om storleken på båda proverna är stor kan vi anta att provmedlen har en normal fördelning och deras variationer är kända. I detta fall kan en slumpmässig variabel användas som statistik
,
har en normal fördelning, och M(Z) = 0, D(Z) = 1. Motsvarande experimentvärde bestäms z ex... Det kritiska värdet hittas från funktionstabellen Laplace z cr... Under en alternativ hypotes H 1: x> y hittas det från villkoret F(z cr) = 0,5 – a... Om z ex< z кр , då accepteras nollhypotesen, annars förkastas den. Under en alternativ hypotes H 1: x ≠ y det kritiska värdet hittas från villkoret F(z cr) = 0,5 × (1 - a). Nollhypotesen accepteras om | z ex |< z кр .

III) Hypotesen om likvärdighet mellan två medelvärden för normalt fördelade allmänna populationer, vars variationer är okända och samma (små oberoende prover). På signifikansnivån α bör huvudhypotesen testas H 0: x = y. Som statistik använder vi en slumpmässig variabel
,
ha en students distribution med ( n x + n kl- 2) frihetsgrader. Motsvarande experimentvärde bestäms t ex... Från tabellen över kritiska punkter i studentens fördelning hittas det kritiska värdet t cr... Allt löses på samma sätt som hypotesen (I).

IV) Gissning om likhet mellan två varianter av normalt fördelade allmänna populationer... I det här fallet, på signifikansnivån a måste testa hypotesen H 0: D(NS) = D(Y). Statistiken är en slumpmässig variabel med Fisher - Snedecor -distributionen med f 1 = n b- 1 och f 2 = n m- 1 frihetsgrader (S 2 b - stor varians, volymen på dess prov n b). Motsvarande experimentella (observerade) värde bestäms F ex... Kritiskt värde F cr under den alternativa hypotesen H 1: D(NS) > D(Y) finns från tabellen över kritiska punkter i Fisher - Snedecor -fördelningen efter signifikansnivån a och antalet frihetsgrader f 1 och f 2. Nollhypotesen accepteras om F ex < F cr.

Instruktion. För beräkningen måste du ange dimensionen för källdata.

V) Hypotesen om jämlikhet mellan flera varianter av normalt fördelade allmänna populationer över prover av samma storlek. I det här fallet, på signifikansnivån a måste testa hypotesen H 0: D(NS 1) = D(NS 2) = …= D(X l). Statistiken är en slumpmässig variabel med en Kochren -distribution med frihetsgrader f = n- 1 och l (n - storleken på varje prov, lÄr antalet prover). Denna hypotes testas på samma sätt som den föregående. En tabell med kritiska punkter i Cochren -distributionen används.

Vi) Hypotesen om vikten av korrelationen. I det här fallet, på signifikansnivån a måste testa hypotesen H 0: r= 0. (Om korrelationskoefficienten är noll, är motsvarande värden inte relaterade till varandra). Statistik i detta fall är en slumpmässig variabel
,
att ha en students distribution med f = n- 2 frihetsgrader. Denna hypotes testas på samma sätt som hypotes (I).

Instruktion. Ange mängden källdata.

Vii) Hypotes om betydelsen av sannolikheten för att en händelse inträffar. Ett ganska stort antal n oberoende prövningar där händelsen A inträffade m en gång. Det finns anledning att tro att sannolikheten för att denna händelse inträffar i ett test är s 0... Krävs på signifikansnivå a testa hypotesen att sannolikheten för en händelse Aär lika med den hypotetiska sannolikheten s 0... (Eftersom sannolikheten uppskattas med den relativa frekvensen kan hypotesen som testas formuleras på ett annat sätt: om den observerade relativa frekvensen och den hypotetiska sannolikheten skiljer sig väsentligt eller inte).
Antalet försök är tillräckligt stort, så den relativa frekvensen av händelsen A distribueras enligt normal lag. Om nollhypotesen är sann, så är dess matematiska förväntning s 0 och variansen. I enlighet med detta väljer vi som statistik en slumpmässig variabel
,
som fördelas ungefär enligt normallagen med noll matematisk förväntning och enhetsvarians. Denna hypotes testas på exakt samma sätt som i fall (I).

Instruktion. För beräkningen måste du fylla i de initiala uppgifterna.

I olika stadier av statistisk forskning och modellering blir det nödvändigt att formulera och experimentellt verifiera vissa antaganden (hypoteser) angående arten och storleken på okända parametrar för den analyserade allmänna befolkningen (populationer). Till exempel gör en forskare ett antagande: "urvalet är hämtat från en normal allmän befolkning" eller "det genomsnittliga genomsnittet för den analyserade populationen är fem." Sådana antaganden kallas statistiska hypoteser.

En jämförelse av den angivna hypotesen om den allmänna befolkningen med tillgängliga provdata, åtföljd av en kvantitativ bedömning av tillförlitlighetsgraden för den erhållna slutsatsen, utförs med hjälp av ett eller annat statistiskt kriterium och kallas statistisk hypotesprovning .

Hypotesen som framförs kallas noll (huvud) ... Det är vanligt att beteckna det H 0.

I förhållande till den angivna (huvud) hypotesen kan man alltid formulera alternativ (tävlande) motsäger det. En alternativ (konkurrerande) hypotes brukar betecknas H 1.

Syfte med statistisk hypotesprovning består i att fatta ett beslut om giltigheten av huvudhypotesen baserat på provdata H 0.

Om hypotesen som läggs fram reduceras till påståendet att värdet av någon okänd parameter för den allmänna befolkningen exakt lika givet värde, då kallas denna hypotes enkel, till exempel: "den genomsnittliga totala inkomsten per capita för befolkningen i Ryssland är 650 rubel i månaden"; "Arbetslösheten (andelen arbetslösa i den ekonomiskt aktiva befolkningen) i Ryssland är 9%." I andra fall kallas hypotesen komplicerad.

Som en nollhypotes H 0 det är vanligt att lägga fram en enkel hypotes, eftersom Det är vanligtvis mer bekvämt att kontrollera det strängare påståendet.

Hypoteser om formen för distributionslagen för den undersökta slumpvariabeln;

Hypoteser om de numeriska värdena för parametrarna för den studerade allmänna befolkningen;

Hypoteser om homogeniteten hos två eller flera prover eller några egenskaper hos de analyserade populationerna;

Hypoteser om modellens allmänna form som beskriver det statistiska sambandet mellan funktioner etc.

Eftersom statistiska hypoteser testas på grundval av provdata, dvs. begränsat antal observationer, beslut om nollhypotesen H 0är sannolikhetsartade. Med andra ord åtföljs ett sådant beslut oundvikligen av en viss, om än möjligen mycket liten, sannolikhet för en felaktig slutsats i båda riktningarna.



Så i en liten del av fallen α nollhypotesen H 0 kan avvisas, när det faktiskt är rättvist i allmänheten. Detta misstag kallas fel av det första slaget ... Och dess sannolikhet brukar kallas nivå av betydelse och utse α .

Tvärtom, i en liten del av fallen β nollhypotesen H 0 accepteras, medan det faktiskt är fel i den allmänna befolkningen, och den alternativa hypotesen är giltig H 1... Detta misstag kallas fel av det andra slaget ... Sannolikheten för ett typ II -fel anges vanligtvis β ... Sannolikhet 1 - β kallas kriteriet .

Med en fast urvalsstorlek kan du välja efter eget gottfinnande värdet av sannolikheten för endast ett av felen α eller β ... En ökning av sannolikheten för en av dem leder till en minskning av den andra. Det är vanligt att ställa in sannolikheten för ett fel av det första slaget α - signifikansnivå. Som regel används vissa standardvärden för signifikansnivån. α : 0,1; 0,05; 0,025; 0,01; 0,005; 0,001. Sedan uppenbarligen från två kriterier som kännetecknas av samma sannolikhet α avvisa en giltig hypotes H 0, den med det mindre typ II -felet bör accepteras β , d.v.s. mer kraft. Minska sannolikheten för båda felen α och β kan uppnås genom att öka provstorleken.

Rätt lösning angående nollhypotesen H 0 kan också vara av två typer:

Nollhypotesen accepteras H 0 medan faktiskt i den allmänna befolkningen är nollhypotesen sann H 0; sannolikheten för ett sådant beslut 1 - a;

Nollhypotesen H 0 kommer att avvisas till förmån för ett alternativ H 1, i själva verket, i den allmänna befolkningen, nollhypotesen H 0 avviker för ett alternativ H 1; sannolikheten för ett sådant beslut 1 - β är kriteriet.

Resultaten för att lösa nollhypotesen kan illustreras med hjälp av tabell 8.1.

Tabell 8.1

Statistiska hypoteser testas med statistiskt kriterium(låt oss kalla det i allmän form TILL), som är en funktion av observationsresultaten.

Statistiskt kriterium är en regel (formel) med vilken måttet på diskrepans mellan resultaten från en provobservation och den angivna hypotesen H 0 bestäms.

Ett statistiskt kriterium, liksom vilken funktion som helst av observationsresultat, är en slumpmässig variabel och under antagandet om nollhypotesens giltighet H 0 är föremål för en del välstuderad (och tabellerad) teoretisk fördelningslag med en distributionstäthet f (k).

Valet av ett kriterium för att testa statistiska hypoteser kan utföras utifrån olika principer. Oftast använder de sannolikhetsförhållande, som låter dig bygga det mest kraftfulla kriteriet bland alla möjliga kriterier. Dess väsentlighet beror på valet av ett sådant kriterium TILL med en känd densitetsfunktion f (k) under förutsättning att giltigheten av hypotesen H 0, så att vid en given nivå av betydelse α kunde hitta tipppunkten K cr.distribution f (k), som skulle dela upp värdena för kriteriet i två delar: intervallet för acceptabla värden, där resultaten från en provobservation ser mest troliga ut, och en kritisk region, där resultaten från en provobservation ser ut mindre troligt i förhållande till nollhypotesen H 0.

Om ett sådant kriterium TILL väljs, och densiteten för dess fördelning är känd, reduceras uppgiften att testa den statistiska hypotesen till det faktum att vid en given signifikansnivå α beräkna det observerade värdet av kriteriet baserat på provdata K obl. och avgöra om det är mest eller mindre troligt i förhållande till nollhypotesen H 0.

Varje typ av statistisk hypotes testas med hjälp av lämpligt kriterium, vilket är det mest kraftfulla i varje fall. Till exempel kan testning av hypotesen om formen för fördelningslagen för en slumpmässig variabel utföras med Pearson's goodness-of-fit test χ 2; testa hypotesen om likvärdigheten mellan de okända värdena för variationerna i två allmänna populationer - med hjälp av kriteriet F- Fisher; ett antal hypoteser om okända värden på parametrar för allmänna populationer testas med hjälp av kriteriet Z- normalfördelad slumpmässig variabel och kriterium T- Studentens t, etc.

Kriteriets värde, beräknat enligt särskilda regler baserat på provdata, kallas observerat kriterievärde (K obl.).

Kriterievärden som delar upp uppsättningen kriterievärden i intervall med giltiga värden(mest troligt i förhållande till nollhypotesen H 0) och kritiskt område(värdeintervall mindre troligt i förhållande till fördelningstabeller för en slumpmässig variabel TILL väljs som kriterium kallas kritiska punkter (K ​​cr.).

Området med tillåtna värden (området för acceptans av nollhypotesen H 0) TILL H 0 avviker inte.

Ett kritiskt områdeär uppsättningen värden för kriteriet TILL för vilken nollhypotesen H 0 avviker till förmån för en tävlande H 1 .

Skilja på ensidig(höger- eller vänsterhänt) och bilaterala kritiska områden.

Om den konkurrerande hypotesen är högersidig, till exempel H 1: a> a 0, då är den kritiska regionen höger sida(Figur 1). Med den högersidiga konkurrerande hypotesen, den kritiska punkten (K röd höger sida) tar positiva värden.

Om den konkurrerande hypotesen är vänstersidig, till exempel H 1: a< а 0 , då är den kritiska regionen vänstersidig(Figur 2). Med en vänsterhänt konkurrerande hypotes tar den kritiska punkten negativa värden (Till den röda. Vänster sida).

Om den konkurrerande hypotesen är dubbelsidig, till exempel H 1: a¹ en 0, då är den kritiska regionen bilateral(Figur 3). Med en dubbelsidig konkurrerande hypotes, bestäms två kritiska punkter (Röd vänster sida och Till cr. höger sida).


Tillåtlighetsområde Kritiskt

värdeområde