Statistische Hypothesen. Null- und Alternativhypothesen

Die in der Forschung gewonnenen Stichprobendaten sind stets begrenzt und weitgehend zufällig. Aus diesem Grund wird zur Analyse solcher Daten mathematische Statistik verwendet, die es ermöglicht, die aus der Stichprobe gewonnenen Muster zu verallgemeinern und auf die gesamte Bevölkerung auszudehnen.

Wir betonen noch einmal, dass die als Ergebnis eines Experiments an einer beliebigen Stichprobe gewonnenen Daten als Grundlage für Urteile über die Allgemeinbevölkerung dienen. Aus Gründen der Zufallswahrscheinlichkeit ist jedoch eine Schätzung der Parameter einer Population, die auf der Grundlage experimenteller (Stichproben-)Daten erfolgt, immer mit einem Fehler verbunden, weshalb solche Schätzungen als Vermutungen und nicht als endgültige Aussagen betrachtet werden sollten.

Wie G.V. betont. Sukhodolsky: „Eine statistische Hypothese wird normalerweise als formale Annahme verstanden, dass die Ähnlichkeit (oder der Unterschied) einiger Parameter oder funktionelle Eigenschaften zufällig oder umgekehrt nicht zufällig.“ Ähnlich Annahmen über Eigenschaften und Parameter der Allgemeinbevölkerung, Unterschiede in Stichproben oder Abhängigkeiten zwischen Merkmalen werden als statistische Hypothesen bezeichnet.

Der Kern der Prüfung einer statistischen Hypothese besteht darin, festzustellen, ob die experimentellen Daten und die aufgestellte Hypothese konsistent sind. Ist es zulässig, die Diskrepanz zwischen der Hypothese und dem Ergebnis der statistischen Analyse experimenteller Daten zufälligen Ursachen zuzuschreiben? Somit ist eine statistische Hypothese eine wissenschaftliche Hypothese, die eine statistische Prüfung ermöglicht, und die mathematische Statistik ist eine wissenschaftliche Disziplin, deren Aufgabe die wissenschaftlich fundierte Prüfung statistischer Hypothesen ist.

Beim Testen statistischer Hypothesen werden zwei Konzepte verwendet: die sogenannte Null (Bezeichnung H 0) und Alternativhypothese (Symbol H 1).

Beim Vergleich von Verteilungen wird dies allgemein akzeptiert Nullhypothese H 0 ist eine Hypothese über Ähnlichkeit und Alternative H 1 - Differenzhypothese. Das Akzeptieren der Nullhypothese H 0 zeigt also das Fehlen von Unterschieden an, und das Akzeptieren der Nullhypothese H 1 weist auf das Vorhandensein von Unterschieden hin.

Beispielsweise werden zwei Stichproben aus normalverteilten Populationen gezogen und wir stehen vor der Aufgabe, diese Stichproben zu vergleichen. Eine Probe hat Parameter und σ 1 , und die anderen Parameter und σ 2. Nullhypothese H 0 geht davon aus, dass = uσ 1 = σ 2, also die Differenz zwischen zwei Durchschnittswerten =0 und die Differenz zweier Standardabweichungen σ 1 σ 2 ,=0 (daher der Name der Hypothese – null).

Akzeptieren einer alternativen Hypothese H 1 weist auf das Vorhandensein von Unterschieden hin und geht von der Annahme aus, dass ≠0 und σ 1 σ 2 ,≠0.


Sehr oft wird die Alternativhypothese genannt experimentelle Hypothese, wenn die Studie darauf abzielt, das Vorhandensein von Unterschieden zwischen Stichproben nachzuweisen. Will der Forscher die Abwesenheit von Unterschieden genau beweisen, dann ist die experimentelle Hypothese die Nullhypothese.

Beim Vergleich von Stichproben können alternative statistische Hypothesen gerichtet oder ungerichtet sein.

Wenn wir feststellen, dass in einer Stichprobe die individuellen Werte der Probanden für ein bestimmtes Attribut höher und in einer anderen niedriger sind, formulieren wir, um die Unterschiede zwischen den Stichproben zu überprüfen Richtungshypothese . Wenn wir beweisen wollen, dass es in einer Gruppe unter dem Einfluss einiger experimenteller Einflüsse zu stärkeren Veränderungen kam, ist es auch notwendig, eine Richtungshypothese zu formulieren. Formal ist es so geschrieben H 1: x 1 überschreitet x 2. Die Nullhypothese sieht so aus: H 0: x 1 überschreitet nicht x 2.

Wenn wir beweisen wollen, dass sich die Verteilungsformen unterscheiden, dann formulieren wir ungerichtete Hypothesen . Formal sind sie so geschrieben H 1: x 1 ist verschieden von x 2. Nullhypothese H 0: x 1 unterscheidet sich nicht von x 2.

Generell sind bei der Annahme oder Ablehnung von Hypothesen verschiedene Optionen möglich.

Beim Testen einer Hypothese können experimentelle Daten der Hypothese H 0 widersprechen, dann wird diese Hypothese verworfen. Ansonsten, d.h. Wenn die experimentellen Daten mit der Hypothese H 0 übereinstimmen, wird sie nicht abgelehnt. In solchen Fällen heißt es oft, dass die Hypothese H 0 akzeptiert wird (diese Formulierung ist zwar nicht ganz korrekt, aber weit verbreitet). Dies zeigt, dass die statistische Prüfung von Hypothesen auf der Grundlage experimenteller Stichprobendaten zwangsläufig mit dem Risiko (Wahrscheinlichkeit) einer falschen Entscheidung verbunden ist. In diesem Fall sind Fehler zweier Art möglich. Fehler erster Art wird eintreten, wenn entschieden wird, die Hypothese H 0 abzulehnen, obwohl sie sich in Wirklichkeit als wahr herausstellt. Fehler zweiter Art wird eintreten, wenn entschieden wird, die Hypothese H 0 nicht abzulehnen, obwohl sie in Wirklichkeit falsch sein wird. Es liegt auf der Hand, dass auch in zwei Fällen die richtigen Schlussfolgerungen gezogen werden können. Das Obige kann in Form von Tabelle 25 dargestellt werden.

Da sich die Statistik als Forschungsmethode mit Daten befasst, bei denen die für den Forscher interessanten Muster durch verschiedene Zufallsfaktoren verzerrt sind, gehen die meisten statistischen Berechnungen mit der Prüfung einiger Annahmen oder Hypothesen über die Quelle dieser Daten einher.

Pädagogische Hypothese (wissenschaftliche Hypothese Informationen über den Vorteil der einen oder anderen Methode) im Prozess der statistischen Analyse werden in die Sprache der Statistikwissenschaft übersetzt und in mindestens zwei statistischen Hypothesen umformuliert.

Es gibt zwei Arten von Hypothesen: die erste Art – beschreibend Hypothesen, die Ursachen und mögliche Folgen beschreiben. Zweiter Typ - erläuternd : Sie liefern eine Erklärung möglicher Folgen aus bestimmten Ursachen und charakterisieren auch die Bedingungen, unter denen diese Folgen zwangsläufig eintreten, d. h. sie erklären, aufgrund welcher Faktoren und Bedingungen diese Folge eintreten wird. Beschreibende Hypothesen haben keine Voraussicht, erklärende Hypothesen hingegen schon. Erklärungshypothesen führen dazu, dass Forscher die Existenz bestimmter regelmäßiger Zusammenhänge zwischen Phänomenen, Faktoren und Bedingungen annehmen.

Hypothesen in der Bildungsforschung können darauf hindeuten, dass eines der Mittel (oder eine Gruppe davon) wirksamer ist als andere Mittel. Hierbei wird eine hypothetische Annahme über die vergleichende Wirksamkeit von Mitteln, Methoden, Methoden und Trainingsformen getroffen.

Eine höhere Ebene der hypothetischen Vorhersage besteht darin, dass der Autor der Studie die Hypothese aufstellt, dass ein bestimmtes Maßsystem nicht nur besser als ein anderes ist, sondern dass es unter einer Reihe möglicher Systeme unter dem Gesichtspunkt bestimmter Kriterien optimal erscheint. Eine solche Hypothese bedarf noch strengerer und daher detaillierterer Beweise.

Kulaichev A.P. Methoden und Werkzeuge zur Datenanalyse im Windows-Umfeld. Ed. 3., überarbeitet und zusätzlich - M: InKo, 1999, S. 129-131

Psychologisches und pädagogisches Wörterbuch für Lehrer und Leiter von Bildungseinrichtungen. – Rostov-n/D: Phoenix, 1998, S. 92

Basierend auf den in statistischen Studien gesammelten Daten werden nach der Verarbeitung Rückschlüsse auf die untersuchten Phänomene gezogen. Diese Schlussfolgerungen werden durch die Entwicklung und Prüfung statistischer Hypothesen gezogen.

Statistische Hypothese ist eine Aussage über die Art oder Eigenschaften der in einem Experiment beobachteten Verteilung von Zufallsvariablen. Statistische Hypothesen werden getestet statistische Methoden.

Die zu testende Hypothese wird aufgerufen Haupt (Null) und ist bezeichnet N 0 . Zusätzlich zur Null Eins erstreckt es sich auch alternative (konkurrierende) Hypothese H 1, wobei der Hauptgrund geleugnet wird . Als Ergebnis des Tests wird also nur eine der Hypothesen akzeptiert , und der zweite wird abgelehnt.

Arten von Fehlern. Die aufgestellte Hypothese wird anhand einer Untersuchung einer Stichprobe aus der Allgemeinbevölkerung überprüft. Aufgrund der Zufälligkeit der Stichprobe kommt der Test nicht immer zu der richtigen Schlussfolgerung. Folgende Situationen können auftreten:
1. Die Haupthypothese ist richtig und wird akzeptiert.
2. Die Haupthypothese ist richtig, wird aber abgelehnt.
3. Die Haupthypothese ist nicht korrekt und wird abgelehnt.
4. Die Haupthypothese ist nicht wahr, wird aber akzeptiert.
Im Fall 2 sprechen wir darüber Fehler vom Typ I, im letzteren Fall sprechen wir Fehler zweiter Art.
Somit wird ab einer Probe angenommen richtige Lösung, und laut anderen - falsch. Die Entscheidung wird auf der Grundlage des Werts einer aufgerufenen Abtastfunktion getroffen statistisches Merkmal, statistisches Kriterium oder einfach Statistiken. Die Wertemenge für diese Statistik kann in zwei disjunkte Teilmengen unterteilt werden:

  • N 0 wird akzeptiert (nicht abgelehnt), aufgerufen Bereich der Hypothesenakzeptanz (zulässiger Bereich);
  • Teilmenge der Statistikwerte, bei denen die Hypothese vorliegt N 0 wird abgelehnt (abgelehnt) und die Hypothese wird akzeptiert N 1, genannt Kritischen Bereich.

Schlussfolgerungen:

  1. Kriterium wird als Zufallsvariable K bezeichnet, mit der Sie die Nullhypothese H0 akzeptieren oder ablehnen können.
  2. Beim Testen von Hypothesen können zwei Arten von Fehlern gemacht werden.
    Fehler erster Art ist, dass die Hypothese abgelehnt wird H 0, wenn wahr („fehlendes Ziel“). Die Wahrscheinlichkeit, einen Fehler vom Typ I zu machen, wird mit α bezeichnet und aufgerufen Signifikanzniveau. In der Praxis wird am häufigsten angenommen, dass α = 0,05 oder α = 0,01.
    Fehler zweiter Art ist, dass die Hypothese H0 akzeptiert wird, wenn sie falsch ist (ein „falsch positiv“). Die Wahrscheinlichkeit dieses Fehlertyps wird mit β bezeichnet.

Klassifizierung von Hypothesen

Haupthypothese N 0 über den Wert des unbekannten Parameters q der Verteilung sieht normalerweise so aus:
H 0: q = q 0.
Konkurrierende Hypothese N 1 kann folgende Form haben:
N 1: Q < Q 0 , N 1:q> Q 0 oder N 1: QQ 0 .
Dementsprechend stellt sich heraus Linkshänder, Rechtshänder oder bilateral kritische Bereiche. Grenzpunkte kritischer Bereiche ( kritische Punkte) werden aus den Verteilungstabellen der entsprechenden Statistiken ermittelt.

Beim Testen einer Hypothese ist es ratsam, die Wahrscheinlichkeit falscher Entscheidungen zu verringern. Akzeptable Wahrscheinlichkeit eines Fehlers vom Typ I in der Regel bezeichnet A und heißt Signifikanzniveau. Sein Wert ist normalerweise klein ( 0,1, 0,05, 0,01, 0,001 ...). Aber eine Verringerung der Wahrscheinlichkeit eines Fehlers vom Typ I führt zu einer Erhöhung der Wahrscheinlichkeit eines Fehlers vom zweiten Typ ( B), d.h. Der Wunsch, nur richtige Hypothesen zu akzeptieren, führt zu einem Anstieg der Zahl abgelehnter richtiger Hypothesen. Die Wahl des Signifikanzniveaus richtet sich daher nach der Bedeutung des gestellten Problems und der Schwere der Folgen einer Fehlentscheidung.
Das Testen einer statistischen Hypothese besteht aus den folgenden Schritten:
1) Definition von Hypothesen N 0 und N 1 ;
2) Statistiken auswählen und das Signifikanzniveau festlegen;
3) Bestimmung kritischer Punkte K cr und kritischer Bereich;
4) Berechnung des statistischen Wertes anhand der Stichprobe K ex;
5) Vergleich des Statistikwerts mit dem kritischen Bereich ( K cr Und K ex);
6) Entscheidungsfindung: Wenn der statistische Wert nicht im kritischen Bereich liegt, wird die Hypothese akzeptiert N 0 und die Hypothese wird abgelehnt H 1, und wenn sie den kritischen Bereich erreicht, wird die Hypothese abgelehnt N 0 und die Hypothese wird akzeptiert N 1 . Gleichzeitig sind die Ergebnisse der Prüfung einer statistischen Hypothese wie folgt zu interpretieren: ob die Hypothese akzeptiert wird N 1 , dann können wir es als bewiesen betrachten, und wenn wir die Hypothese akzeptieren N 0 , Dann erkannten sie, dass dies den Ergebnissen der Beobachtungen nicht widerspricht. Allerdings ist diese Eigenschaft zusammen mit N Andere Hypothesen können auch 0 haben.

Klassifizierung von Hypothesentests

Betrachten wir als nächstes verschiedene statistische Hypothesen und Mechanismen zu deren Prüfung.
ICH) Hypothese über den allgemeinen Mittelwert einer Normalverteilung mit unbekannter Varianz. Wir gehen davon aus, dass die Grundgesamtheit eine Normalverteilung aufweist, ihr Mittelwert und ihre Varianz unbekannt sind, es gibt jedoch Grund zu der Annahme, dass der allgemeine Mittelwert gleich a ist. Auf dem Signifikanzniveau α muss die Hypothese getestet werden N 0: x =a. Alternativ kann eine der drei oben diskutierten Hypothesen verwendet werden. IN in diesem Fall Statistiken ist eine Zufallsvariable mit einer Student-t-Verteilung mit N– 1 Freiheitsgrad. Der entsprechende experimentelle (beobachtete) Wert wird ermittelt t ex t cr N 1: x >a wird entsprechend dem Signifikanzniveau α und der Anzahl der Freiheitsgrade ermittelt N– 1. Wenn t ex < t cr N 1: x ≠a Der kritische Wert liegt beim Signifikanzniveau α / 2 und der gleichen Anzahl an Freiheitsgraden. Die Nullhypothese wird akzeptiert, wenn | t ex | II) Die Hypothese über die Gleichheit zweier Durchschnittswerte zufällig verteilter Populationen (große unabhängige Stichproben). Auf dem Signifikanzniveau α muss die Hypothese getestet werden N 0: x ≠y . Wenn das Volumen beider Stichproben groß ist, können wir davon ausgehen, dass die Stichprobenmittelwerte normalverteilt sind und ihre Varianzen bekannt sind. In diesem Fall kann eine Zufallsvariable als Statistik verwendet werden
,
eine Normalverteilung haben und M(Z) = 0, D(Z) = 1. Der entsprechende experimentelle Wert wird ermittelt z.B. Aus der Laplace-Funktionstabelle wird der kritische Wert ermittelt z cr. Unter der Alternativhypothese N 1: x >y wird aus der Bedingung gefunden F(z cr) = 0,5 – A. Wenn z.B< z кр , dann wird die Nullhypothese akzeptiert, andernfalls wird sie abgelehnt. Unter der Alternativhypothese N 1: x ≠y Der kritische Wert wird aus der Bedingung ermittelt F(z cr) = 0,5×(1 – A). Die Nullhypothese wird akzeptiert, wenn | z ex |< z кр .

III) Hypothese über die Gleichheit zweier Durchschnittswerte normalverteilter Populationen, deren Varianzen unbekannt und identisch sind (kleine unabhängige Stichproben). Auf dem Signifikanzniveau α muss die Haupthypothese getestet werden N 0: x =y . Als Statistik verwenden wir eine Zufallsvariable
,
eine Studentenverteilung mit ( n x + nj– 2) Freiheitsgrade. Der entsprechende experimentelle Wert wird ermittelt t ex. Aus der Tabelle der kritischen Punkte der Student-Verteilung wird der kritische Wert ermittelt t cr. Alles wird ähnlich wie bei Hypothese (I) gelöst.

IV) Hypothese über die Gleichheit zweier Varianzen normalverteilter Populationen. In diesem Fall auf der Signifikanzebene A Ich muss die Hypothese testen N 0: D(X) = D(Y). Die Statistik ist eine Zufallsvariable mit einer Fisher-Snedecor-Verteilung mit F 1 = nb– 1 und F 2 = nm– 1 Freiheitsgrad (S 2 b – große Streuung, sein Probenvolumen nb). Der entsprechende experimentelle (beobachtete) Wert wird ermittelt Z.B. Kritischer Wert F cr unter Alternativhypothese N 1: D(X) > D(Y) ergibt sich aus der Tabelle der kritischen Punkte der Fisher-Snedecor-Verteilung nach Signifikanzniveau A und die Anzahl der Freiheitsgrade F 1 und F 2. Die Nullhypothese wird akzeptiert, wenn Z.B < F cr.

Anweisungen. Zur Berechnung müssen Sie die Dimension der Quelldaten angeben.

V) Die Hypothese über die Gleichheit mehrerer Varianzen normalverteilter Populationen über Stichproben gleicher Größe. In diesem Fall auf der Signifikanzebene A Ich muss die Hypothese testen N 0: D(X 1) = D(X 2) = …= D(X l). Statistik ist eine Zufallsvariable , mit einer Cochran-Verteilung mit Freiheitsgraden F = N– 1 und l (N - das Volumen jeder Probe, l- Anzahl von Beispielen). Diese Hypothese wird auf die gleiche Weise wie die vorherige getestet. Es wird die Tabelle der kritischen Punkte der Cochran-Verteilung verwendet.

VI) Hypothese über die Bedeutung der Korrelationsbeziehung. In diesem Fall auf der Signifikanzebene A Ich muss die Hypothese testen N 0: R= 0. (Wenn der Korrelationskoeffizient gleich Null, dann sind die entsprechenden Größen nicht miteinander verknüpft). Die Statistik ist in diesem Fall eine Zufallsvariable
,
eine Studentenverteilung mit haben F = N– 2 Freiheitsgrade. Der Test dieser Hypothese erfolgt ähnlich wie der Test der Hypothese (I).

Anweisungen. Geben Sie die Menge der Eingabedaten an.

VII) Eine Hypothese über den Wert der Wahrscheinlichkeit des Eintretens eines Ereignisses. Genug erledigt große Menge N unabhängige Studien, in denen die Veranstaltung A passiert M einmal. Es gibt Grund zu der Annahme, dass die Wahrscheinlichkeit, dass ein bestimmtes Ereignis in einem Versuch eintritt, gleich ist p 0. Auf der Signifikanzebene erforderlich A Testen Sie die Hypothese, dass die Wahrscheinlichkeit eines Ereignisses A gleich der hypothetischen Wahrscheinlichkeit p 0. (Da die Wahrscheinlichkeit anhand der relativen Häufigkeit beurteilt wird, kann die zu testende Hypothese auch anders formuliert werden: ob sich die beobachtete relative Häufigkeit und die hypothetische Wahrscheinlichkeit signifikant unterscheiden oder nicht.)
Die Anzahl der Versuche ist recht groß, daher auch die relative Häufigkeit des Ereignisses A nach dem Normalgesetz verteilt. Wenn die Nullhypothese wahr ist, dann gilt auch ihr mathematischer Erwartungswert p 0 und Streuung. Dementsprechend wählen wir eine Zufallsvariable als Statistik
,
die ungefähr nach dem Normalgesetz mit einem mathematischen Erwartungswert von Null und einer Einheitsvarianz verteilt ist. Diese Hypothese wird genauso wie im Fall (I) überprüft.

Anweisungen. Zur Berechnung müssen Sie die Ausgangsdaten eingeben.

STATISTISCHE HYPOTHESEN

Die in Experimenten gewonnenen Stichprobendaten sind immer begrenzt und weitgehend zufälliger Natur. Aus diesem Grund wird zur Analyse solcher Daten mathematische Statistik verwendet, die es ermöglicht, die aus der Stichprobe gewonnenen Muster zu verallgemeinern und auf die gesamte Bevölkerung auszudehnen.

Die als Ergebnis eines Experiments an einer beliebigen Stichprobe gewonnenen Daten dienen als Grundlage für die Beurteilung der Allgemeinbevölkerung. Aus Gründen der Zufallswahrscheinlichkeit ist jedoch eine Schätzung der Parameter einer Population, die auf der Grundlage experimenteller (Stichproben-)Daten erfolgt, immer mit einem Fehler verbunden, weshalb solche Schätzungen als Vermutungen und nicht als endgültige Aussagen betrachtet werden sollten. Solche Annahmen über die Eigenschaften und Parameter der Bevölkerung werden aufgerufen statistische Hypothesen . Wie G.V. betont. Sukhodolsky: „Unter einer statistischen Hypothese wird üblicherweise eine formale Annahme verstanden, dass die Ähnlichkeit (oder der Unterschied) bestimmter parametrischer oder funktionaler Merkmale zufällig oder umgekehrt nicht zufällig ist.“

Der Kern der Prüfung einer statistischen Hypothese besteht darin, festzustellen, ob die experimentellen Daten und die vorgeschlagene Hypothese konsistent sind und ob die Diskrepanz zwischen der Hypothese und dem Ergebnis der statistischen Analyse experimenteller Daten auf zufällige Ursachen zurückzuführen ist. Somit ist eine statistische Hypothese eine wissenschaftliche Hypothese, die statistisch überprüft werden kann, und die mathematische Statistik ist eine wissenschaftliche Disziplin, deren Aufgabe darin besteht, statistische Hypothesen wissenschaftlich zu überprüfen.

Statistische Hypothesen werden in Null- und Alternativhypothesen, gerichtete und ungerichtete Hypothesen unterteilt.

Nullhypothese(H 0) ist eine Hypothese ohne Unterschiede. Wenn wir die Bedeutung der Unterschiede beweisen wollen, ist die Nullhypothese erforderlich widerlegen, andernfalls ist es erforderlich bestätigen.

Alternative Hypothese (H 1) – Hypothese über die Bedeutung von Unterschieden. Das wollen wir beweisen, weshalb es manchmal auch so genannt wird Experimental- Hypothese.

Es gibt Probleme, wenn wir gerecht beweisen wollen Bedeutungslosigkeit Unterschiede, das heißt, bestätigen die Nullhypothese. Wenn wir beispielsweise sicherstellen müssen, dass verschiedene Probanden zwar unterschiedliche, aber im Schwierigkeitsgrad ausgewogene Aufgaben erhalten, oder dass sich die Versuchs- und Kontrollproben in einigen wesentlichen Merkmalen nicht voneinander unterscheiden. Allerdings müssen wir noch häufiger beweisen die Bedeutung der Unterschiede, weil sie für uns aufschlussreicher bei der Suche nach Neuem sind.

Die Null- und Alternativhypothese kann gerichtet oder ungerichtet sein.

Richtungshypothesen – wenn angenommen wird, dass die Kennwerte in der einen Gruppe höher und in der anderen niedriger sind:

H0: X 1überschreitet nicht X 2,

H 1: X 1überschreitet X 2.

Ungerichtete Hypothesen – wenn davon ausgegangen wird, dass sich die Verteilungsformen des Merkmals in Gruppen unterscheiden:

H0: X 1 nicht anders als X 2,

H 1: X 1 ist anders X 2.

Wenn wir feststellen, dass in einer der Gruppen die individuellen Werte der Probanden für ein Merkmal, zum Beispiel soziale Aktivität, höher und in der anderen Gruppe niedriger sind, müssen wir die Signifikanz dieser Unterschiede testen Richtungshypothesen formulieren.

Wenn wir das in der Gruppe beweisen wollen A Unter dem Einfluss einiger experimenteller Einflüsse traten stärkere Veränderungen auf als in der Gruppe B, dann müssen wir auch Richtungshypothesen formulieren.

Wenn wir beweisen wollen, dass sich die Verteilungsformen eines Merkmals in Gruppen unterscheiden A Und B, dann werden ungerichtete Hypothesen formuliert.

Hypothesen werden anhand von Kriterien zur statistischen Bewertung von Unterschieden getestet.

Die daraus resultierende Schlussfolgerung wird als statistische Entscheidung bezeichnet. Wir betonen, dass eine solche Entscheidung immer probabilistisch ist. Beim Testen einer Hypothese können experimentelle Daten der Hypothese widersprechen H 0, dann wird diese Hypothese verworfen. Ansonsten, d.h. wenn die experimentellen Daten mit der Hypothese übereinstimmen H 0, sie weicht nicht ab. In solchen Fällen wird oft von einer Hypothese gesprochen H 0 akzeptiert. Dies zeigt, dass die statistische Prüfung von Hypothesen auf der Grundlage experimenteller Stichprobendaten zwangsläufig mit dem Risiko (Wahrscheinlichkeit) einer falschen Entscheidung verbunden ist. In diesem Fall sind Fehler zweier Art möglich. Ein Fehler vom Typ I tritt auf, wenn die Entscheidung getroffen wird, eine Hypothese abzulehnen H 0, obwohl es sich in Wirklichkeit als wahr herausstellt. Ein Fehler vom Typ II tritt auf, wenn entschieden wird, die Hypothese nicht abzulehnen H 0, obwohl es in Wirklichkeit falsch sein wird. Es liegt auf der Hand, dass auch in zwei Fällen die richtigen Schlussfolgerungen gezogen werden können. Tabelle 7.1 fasst das oben Gesagte zusammen.

Tabelle 7.1

Es ist möglich, dass der Psychologe in seiner statistischen Entscheidung einen Fehler macht; Wie wir aus Tabelle 7.1 sehen, können diese Fehler nur zwei Arten haben. Da es unmöglich ist, Fehler bei der Annahme statistischer Hypothesen zu beseitigen, ist eine Minimierung erforderlich mögliche Konsequenzen, d.h. Akzeptieren einer falschen statistischen Hypothese. In den meisten Fällen besteht die einzige Möglichkeit zur Fehlerminimierung darin, die Stichprobengröße zu erhöhen.

STATISTISCHE KRITERIEN

Statistischer Test ist eine entscheidende Regel, die zuverlässiges Verhalten gewährleistet, d. h. die Annahme einer wahren Hypothese und die Ablehnung einer falschen Hypothese mit hoher Wahrscheinlichkeit.

Statistische Kriterien bezeichnen auch die Methode zur Berechnung einer bestimmten Zahl und die Zahl selbst.

Wenn wir sagen, dass die Zuverlässigkeit der Unterschiede durch das Kriterium bestimmt wurde J*(Das Kriterium ist die Fisher-Winkeltransformation), dann meinen wir, dass wir die Methode verwendet haben J* um eine bestimmte Zahl zu berechnen.

Anhand des Verhältnisses der empirischen und kritischen Werte des Kriteriums können wir beurteilen, ob die Nullhypothese bestätigt oder widerlegt wird.

Damit wir die Unterschiede als signifikant erkennen können, ist es in den meisten Fällen notwendig, dass der empirische Wert des Kriteriums den kritischen Wert überschreitet, obwohl es Kriterien gibt (z. B. den Mann-Whitney-Test oder den Vorzeichentest), bei denen wir müssen uns an die entgegengesetzte Regel halten.

In einigen Fällen umfasst die Berechnungsformel für das Kriterium die Anzahl der Beobachtungen in der untersuchten Stichprobe, bezeichnet als N. In diesem Fall ist die empirische Wertigkeit des Kriteriums gleichzeitig ein Test zur Überprüfung statistischer Hypothesen. Anhand einer speziellen Tabelle bestimmen wir, welches Niveau statistische Signifikanz Unterschiede entspricht diesem Erfahrungswert. Ein Beispiel für ein solches Kriterium ist das Kriterium J*, berechnet basierend auf der Fisher-Winkeltransformation.

In den meisten Fällen kann jedoch derselbe empirische Kriteriumswert abhängig von der Anzahl der Beobachtungen in der untersuchten Stichprobe signifikant sein oder auch nicht ( N) oder auf der sogenannten Anzahl der Freiheitsgrade, die als bezeichnet wird v oder wie df.

Anzahl der Freiheitsgrade v ist gleich der Anzahl der Klassen der Variationsreihe minus der Anzahl der Bedingungen, unter denen sie gebildet wurde. Zu diesen Bedingungen gehört die Stichprobengröße ( N), Mittelwerte und Varianzen.

Nehmen wir an, eine Gruppe von 50 Personen wurde nach dem Prinzip in drei Klassen eingeteilt:

Kann am Computer arbeiten;

Kann nur bestimmte Vorgänge ausführen;

Weiß nicht, wie man am Computer arbeitet.

Die erste und zweite Gruppe umfassten 20 Personen, die dritte jeweils 10.

Wir sind durch eine Bedingung eingeschränkt – die Stichprobengröße. Selbst wenn wir Daten darüber verloren haben, wie viele Menschen nicht wissen, wie man am Computer arbeitet, können wir dies feststellen, da wir wissen, dass es in der ersten und zweiten Klasse jeweils 20 Fächer gibt. Es steht uns nicht frei, die Anzahl der Fächer in der dritten Kategorie zu bestimmen; „Freiheit“ erstreckt sich nur auf die ersten beiden Zellen der Klassifizierung:

5. Die Hauptprobleme der angewandten Statistik – Beschreibung von Daten, Schätzung und Prüfung von Hypothesen

Grundlegende Konzepte, die beim Testen von Hypothesen verwendet werden

Eine statistische Hypothese ist jede Annahme über die unbekannte Verteilung von Zufallsvariablen (Elementen). Hier sind die Formulierungen mehrerer statistischer Hypothesen:

1. Die Beobachtungsergebnisse weisen eine Normalverteilung mit einem mathematischen Erwartungswert von Null auf.
2. Beobachtungsergebnisse haben eine Verteilungsfunktion N(0,1).
3. Die Beobachtungsergebnisse weisen eine Normalverteilung auf.
4. Die Ergebnisse von Beobachtungen in zwei unabhängigen Stichproben weisen dieselbe Normalverteilung auf.
5. Die Ergebnisse der Beobachtungen in zwei unabhängigen Stichproben weisen die gleiche Verteilung auf.

Es gibt Null- und Alternativhypothesen. Die Nullhypothese ist die zu testende Hypothese. Eine Alternativhypothese ist jede gültige Hypothese außer der Nullhypothese. Die Nullhypothese wird mit bezeichnet H 0, alternativ – H 1(von Hypothesis – „Hypothese“ (Englisch)).

Die Wahl bestimmter Null- oder Alternativhypothesen wird durch die angewandten Aufgaben bestimmt, vor denen ein Manager, Wirtschaftswissenschaftler, Ingenieur oder Forscher steht. Schauen wir uns Beispiele an.

Beispiel 11. Die Nullhypothese sei Hypothese 2 aus der obigen Liste und die Alternativhypothese 1. Dies bedeutet, dass die reale Situation durch ein probabilistisches Modell beschrieben wird, nach dem die Beobachtungsergebnisse als Realisierungen unabhängiger, identisch verteilter Zufallsvariablen mit einer Verteilung betrachtet werden Funktion N(0,σ), wobei der Parameter σ dem Statistiker unbekannt ist. Innerhalb dieses Modells wird die Nullhypothese wie folgt geschrieben:

N 0: σ = 1,

und eine Alternative wie diese:

N 1: σ ≠ 1.

Beispiel 12. Die Nullhypothese sei Stillhypothese 2 aus der obigen Liste und die Alternativhypothese sei Hypothese 3 aus derselben Liste. Dann wird in einem probabilistischen Modell einer Management-, Wirtschafts- oder Produktionssituation davon ausgegangen, dass die Beobachtungsergebnisse eine Stichprobe aus einer Normalverteilung bilden N(M, σ) für einige Werte M und σ. Hypothesen werden wie folgt geschrieben:

N 0: M= 0, σ = 1

(beide Parameter nehmen feste Werte an);

N 1: M≠ 0 und/oder σ ≠ 1

(also entweder M≠ 0, oder σ ≠ 1, oder M≠ 0 und σ ≠ 1).

Beispiel 13. Lassen N 0 – Hypothese 1 aus der obigen Liste und N 1 – Hypothese 3 aus derselben Liste. Dann ist das Wahrscheinlichkeitsmodell dasselbe wie in Beispiel 12,

N 0: M= 0, σ ist beliebig;

N 1: M≠ 0, σ ist beliebig.

Beispiel 14. Lassen N 0 – Hypothese 2 aus der obigen Liste und gemäß N 1 Beobachtungsergebnisse haben eine Verteilungsfunktion F(X), nicht mit der Sübereinstimmt F(x). Dann

N 0: F(x) = Ф(x) Vor allen X(geschrieben als F(x) ≡ Ф(x));

N 1: F(x 0) ≠ Ф(x 0) bei einigen x 0(d. h. es stimmt nicht F(x) ≡ Ф(x)).

Notiz. Hier ist ≡ das Zeichen identischer Übereinstimmung von Funktionen (d. h. Übereinstimmung für alle möglichen Werte des Arguments). X).

Beispiel 15. Lassen N 0 – Hypothese 3 aus der obigen Liste und gemäß N 1 Beobachtungsergebnisse haben eine Verteilungsfunktion F(X), nicht normal sein. Dann

Für einige M, σ;

N 1: für jeden M, σ ist gefunden x 0 = x 0(M, σ) so dass .

Beispiel 16. Lassen N 0 – Hypothese 4 aus der obigen Liste, gemäß dem Wahrscheinlichkeitsmodell werden zwei Stichproben aus Populationen mit Verteilungsfunktionen gezogen F(X) Und G(X), mit Parametern normal sein M 1 , σ 1 und M 2 , σ 2 bzw. und N 1 – Verneinung N 0 . Dann

N 0: M 1 = M 2, σ 1 = σ 2, und M 1 und σ 1 sind willkürlich;

N 1: M 1 ≠ M 2 und/oder σ 1 ≠ σ 2 .

Beispiel 17. Lassen Sie uns zusätzlich unter den Bedingungen von Beispiel 16 wissen, dass σ 1 = σ 2 . Dann

N 0: M 1 = M 2 , σ > 0 und M 1 und σ sind beliebig;

N 1: M 1 ≠ M 2, σ > 0.

Beispiel 18. Lassen N 0 – Hypothese 5 aus der obigen Liste, gemäß dem Wahrscheinlichkeitsmodell werden zwei Stichproben aus Populationen mit Verteilungsfunktionen gezogen F(X) Und G(X) dementsprechend und N 1 – Verneinung N 0 . Dann

N 0: F(X) G(X) , Wo F(X)

N 1: F(X) Und G(X) - beliebige Verteilungsfunktionen und

F(X) G(X) mit etwas X.

Beispiel 19. Nehmen wir unter den Bedingungen von Beispiel 17 zusätzlich an, dass die Verteilung funktioniert F(X) Und G(X) unterscheiden sich nur in der Verschiebung, d.h. G(X) = F(X- A) bei einigen A. Dann

N 0: F(X) G(X) ,

Wo F(X) – beliebige Verteilungsfunktion;

N 1: G(X) = F(X- a), a ≠ 0,

Wo F(X) – beliebige Verteilungsfunktion.

Beispiel 20. Lassen Sie uns zusätzlich unter den Bedingungen von Beispiel 14 wissen, dass nach dem probabilistischen Modell die Situation vorliegt F(X) - Normalverteilungsfunktion mit Einheitsvarianz, d.h. sieht aus wie N(M, 1). Dann

N 0: M = 0 (diese. F(x) = Ф(x)

Vor allen X);(geschrieben als F(x) ≡ Ф(x));

N 1: M 0

(d. h. es stimmt nicht F(x) ≡ Ф(x)).

Beispiel 21. Bei der statistischen Regulierung technologischer, wirtschaftlicher, betriebswirtschaftlicher oder anderer Prozesse werden eine Stichprobe aus einer Grundgesamtheit mit Normalverteilung und bekannter Varianz sowie Hypothesen berücksichtigt

N 0: M = M 0 ,

N 1: M= M 1 ,

Wo ist der Parameterwert? M = M 0 entspricht dem festgelegten Ablauf des Prozesses und dem Übergang zu M= M 1 weist auf eine Störung hin.

Beispiel 22. Bei der statistischen Akzeptanzkontrolle unterliegt die Anzahl fehlerhafter Produkteinheiten in der Stichprobe einer hypergeometrischen Verteilung; der unbekannte Parameter ist P = D/ N– Grad der Mängel, wo N– Volumen der Produktcharge, D– die Gesamtzahl der fehlerhaften Produkteinheiten in der Charge. Kontrollpläne, die in regulatorischen, technischen und kommerziellen Dokumentationen (Standards, Lieferverträge usw.) verwendet werden, zielen häufig darauf ab, eine Hypothese zu testen

N 0: P < AQL

N 1: P > L.Q.,

Wo AQL – Akzeptanzniveau von Mängeln, L.Q. – Ablehnungsgrad der Mängel (natürlich AQL < L.Q.).

Beispiel 23. Als Indikatoren für die Stabilität eines technologischen, wirtschaftlichen, betriebswirtschaftlichen oder sonstigen Prozesses werden eine Reihe von Merkmalen der Verteilung kontrollierter Indikatoren verwendet, insbesondere der Variationskoeffizient v = σ/ M(X). Wir müssen die Nullhypothese testen

N 0: v < v 0

unter Alternativhypothese

N 1: v > v 0 ,

Wo v 0 – ein vorgegebener Grenzwert.

Beispiel 24. Lassen Sie das probabilistische Modell zweier Stichproben das gleiche wie in Beispiel 18 sein, wir bezeichnen die mathematischen Erwartungen der Beobachtungsergebnisse in der ersten und zweiten Stichprobe M(X) Und M(U) jeweils. In einer Reihe von Situationen wird die Nullhypothese getestet

N 0: M(X) = M(Y)

gegen die Alternativhypothese

N 1: M(X) ≠ M(Y).

Beispiel 25. Es wurde oben erwähnt sehr wichtig in der mathematischen Statistik von Verteilungsfunktionen symmetrisch um 0, Bei der Überprüfung der Symmetrie

N 0: F(- X) = 1 – F(X) Vor allen X, ansonsten F willkürlich;

N 1: F(- X 0 ) ≠ 1 – F(X 0 ) bei einigen X 0 , ansonsten F willkürlich.

In probabilistisch-statistischen Methoden der Entscheidungsfindung werden viele andere Problemformulierungen zum Testen statistischer Hypothesen verwendet. Einige davon werden im Folgenden besprochen.

Bestimmte Aufgabe Das Testen statistischer Hypothesen wird vollständig beschrieben, wenn die Null- und Alternativhypothesen angegeben werden. Die Wahl der Methode zum Testen einer statistischen Hypothese sowie die Eigenschaften und Merkmale der Methoden werden sowohl durch die Null- als auch durch die Alternativhypothese bestimmt. Um dieselbe Nullhypothese unter verschiedenen Alternativhypothesen zu testen, sollte man im Allgemeinen verwenden verschiedene Methoden. In den Beispielen 14 und 20 ist die Nullhypothese also dieselbe, aber die Alternativen sind unterschiedlich. Daher sollten unter den Bedingungen von Beispiel 14 Methoden verwendet werden, die auf Kriterien der Übereinstimmung mit einer parametrischen Familie (Kolmogorov-Typ oder Omega-Quadrat-Typ) basieren, und unter den Bedingungen von Beispiel 20 Methoden, die auf dem Student-Kriterium oder dem Cramer-Kriterium basieren. Welch-Kriterium. Wenn wir unter den Bedingungen von Beispiel 14 das Student-Kriterium verwenden, werden die Probleme dadurch nicht gelöst. Wenn wir unter den Bedingungen von Beispiel 20 ein Anpassungsgütekriterium vom Kolmogorov-Typ verwenden, dann löst es im Gegenteil die gestellten Probleme, wenn auch vielleicht schlechter als der speziell für diesen Fall angepasste Student-t-Test .

Bei der Verarbeitung realer Daten ist dies von großer Bedeutung richtige Wahl Hypothesen N 0 und N 1 . Die getroffenen Annahmen, beispielsweise die Normalität der Verteilung, müssen insbesondere durch statistische Methoden sorgfältig begründet werden. Beachten Sie, dass in den allermeisten spezifischen Anwendungsumgebungen die Verteilung der Beobachtungsergebnisse vom Normalzustand abweicht.

Es kommt häufig vor, dass sich aus der Formulierung des angewandten Problems die Art der Nullhypothese ergibt, die Art der Alternativhypothese jedoch nicht klar ist. In solchen Fällen sollte vor allem die Alternativhypothese in Betracht gezogen werden Gesamtansicht und verwenden Sie Methoden, die das Problem möglichst lösen N 1 . Insbesondere wenn Sie Hypothese 2 (aus der Liste oben) als Null testen, sollten Sie verwenden N 1 aus Beispiel 14 und nicht aus Beispiel 20, es sei denn, es gibt eine besondere Begründung für die Normalverteilung der Beobachtungsergebnisse unter der Alternativhypothese.

Vorherige