Die Varianzanalyse ist eine statistische Methode. Dispersionsanalyse in der Chemie. Sehen Sie in anderen Wörterbüchern nach, was "Varianzanalyse" ist

Wie bereits erwähnt, ist die Streuungsmethode eng verwandt mit statistischen Gruppierungen und geht davon aus, dass die untersuchte Population nach Faktorenmerkmalen in Gruppen eingeteilt wird, deren Einfluss untersucht werden soll.

Basierend auf der Varianzanalyse ergibt sich Folgendes:

1. Einschätzung der Zuverlässigkeit von Unterschieden in Gruppenmittelwerten für ein oder mehrere Faktormerkmale;

2. Einschätzung der Zuverlässigkeit von Faktorinteraktionen;

3. Schätzung partieller Differenzen zwischen Mittelwertpaaren.

Die Anwendung der Streuungsanalyse basiert auf dem Gesetz der Zerlegung von Streuungen (Variationen) eines Merkmals in Komponenten.

Die allgemeine Variation D o des effektiven Merkmals beim Gruppieren kann in folgende Komponenten zerlegt werden:

1. zu intergruppieren D m einem Gruppierungsmerkmal zugeordnet;

2. für Rest(gruppeninterne) D B , die keinem Gruppierungsmerkmal zugeordnet ist.

Das Verhältnis zwischen diesen Indikatoren wird wie folgt ausgedrückt:

D o \u003d D m + D ein. (1.30)

Betrachten wir die Anwendung der Dispersionsanalyse an einem Beispiel.

Angenommen, Sie möchten nachweisen, ob der Zeitpunkt der Aussaat den Weizenertrag beeinflusst. Anfängliche experimentelle Daten für die Varianzanalyse sind in der Tabelle dargestellt. acht.

Tabelle 8

In diesem Beispiel ist N = 32, K = 4, l = 8.

Lassen Sie uns die gesamte Gesamtertragsvariation bestimmen, die die Summe der quadrierten Abweichungen der einzelnen Merkmalswerte vom Gesamtdurchschnitt ist:

wobei N die Anzahl der Bevölkerungseinheiten ist; Y i – individuelle Ertragswerte; Yo ist der durchschnittliche Gesamtertrag für die gesamte Population.

Um die Gesamtvariation zwischen den Gruppen zu bestimmen, die die Variation des resultierenden Merkmals aufgrund des untersuchten Faktors bestimmt, müssen die Durchschnittswerte des resultierenden Merkmals für jede Gruppe bekannt sein. Diese Gesamtvariation ist gleich der Summe der quadrierten Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert des Merkmals, gewichtet mit der Anzahl der Bevölkerungseinheiten in jeder der Gruppen:

Die gruppeninterne Gesamtvariation ist gleich der Summe der quadrierten Abweichungen der einzelnen Merkmalswerte von den Gruppendurchschnitten für jede Gruppe, summiert über alle Gruppen der Population.

Der Einfluss des Faktors auf das resultierende Merkmal zeigt sich im Verhältnis zwischen Dm und Dv: Je stärker der Einfluss des Faktors auf den Wert des untersuchten Merkmals, desto mehr Dm und weniger Dv.

Um eine Varianzanalyse durchzuführen, ist es notwendig, die Variationsquellen eines Merkmals, den Umfang der Variation pro Quelle und die Anzahl der Freiheitsgrade für jede Komponente der Variation zu bestimmen.

Das Variationsvolumen wurde bereits ermittelt, nun gilt es, die Anzahl der Variationsfreiheitsgrade zu bestimmen. Anzahl der Freiheitsgrade ist die Anzahl der unabhängigen Abweichungen der Einzelwerte eines Merkmals von seinem Mittelwert. Die Gesamtzahl der Freiheitsgrade, die der Gesamtsumme der quadrierten Abweichungen in der Varianzanalyse entspricht, wird in die Komponenten der Variation zerlegt. Die Gesamtsumme der quadrierten Abweichungen D о entspricht also der Anzahl der Variationsfreiheitsgrade, gleich N - 1 = 31. Die Gruppenvariation D m ​​entspricht der Anzahl der Variationsfreiheitsgrade, gleich K - 1 = 3. Die gruppeninterne Restvariation entspricht der Anzahl Freiheitsgrade der Variation, gleich N - K = 28.


Wenn wir nun die Summen der quadrierten Abweichungen und die Anzahl der Freiheitsgrade kennen, können wir die Varianzen für jede Komponente bestimmen. Lassen Sie uns diese Varianzen benennen: dm - Gruppe und dv - Intragruppe.

Nach der Berechnung dieser Varianzen fahren wir fort, die Signifikanz des Einflusses des Faktors auf das resultierende Attribut zu ermitteln. Dazu finden wir das Verhältnis: d M /d B = F f,

Der Wert von F f, genannt Fisher-Kriterium , verglichen mit der Tabelle, F-Tabelle. Wie bereits erwähnt, ist der Einfluss des Faktors auf das effektive Merkmal belegt, wenn F f > F table ist. Wenn F f< F табл то можно утверждать, что различие между дисперсиями находится в пределах возможных случайных колебаний и, следовательно, не доказывает с достаточной вероятностью влияние изучаемого фактора.

Der theoretische Wert ist der Wahrscheinlichkeit zugeordnet, und in der Tabelle wird sein Wert bei einer bestimmten Beurteilungswahrscheinlichkeit angegeben. Der Anhang enthält eine Tabelle, mit der Sie den möglichen Wert von F mit der am häufigsten verwendeten Beurteilungswahrscheinlichkeit festlegen können: Das Wahrscheinlichkeitsniveau der „Nullhypothese“ beträgt 0,05. Anstelle der Wahrscheinlichkeiten der "Nullhypothese" kann die Tabelle als Tabelle für die Wahrscheinlichkeit von 0,95 der Signifikanz des Einflusses des Faktors bezeichnet werden. Das Erhöhen des Wahrscheinlichkeitsniveaus erfordert einen Vergleich eines höheren Wertes der F-Tabelle.

Der Wert von F table hängt auch von der Anzahl der Freiheitsgrade der beiden verglichenen Dispersionen ab. Wenn die Anzahl der Freiheitsgrade gegen unendlich geht, dann geht F-Tabelle gegen eins.

Die Wertetabelle F-Tabelle ist wie folgt aufgebaut: Die Spalten der Tabelle geben die Variationsfreiheitsgrade für eine größere Varianz an, und die Zeilen geben die Freiheitsgrade für eine kleinere (gruppeninterne) Varianz an. Der Wert von F liegt am Schnittpunkt der Spalte und Reihe der entsprechenden Variationsfreiheitsgrade.

In unserem Beispiel also F f \u003d 21,3 / 3,8 \u003d 5,6. Der tabellarische Wert der F-Tabelle für eine Wahrscheinlichkeit von 0,95 bzw. Freiheitsgraden gleich 3 und 28, F-Tabelle = 2,95.

Der im Experiment erhaltene Wert von F f übersteigt den theoretischen Wert sogar für eine Wahrscheinlichkeit von 0,99. Folglich belegt die Erfahrung mit einer Wahrscheinlichkeit von mehr als 0,99 den Einfluss des untersuchten Faktors auf den Ertrag, d.h. die Erfahrung kann als zuverlässig, belegt angesehen werden, was bedeutet, dass der Aussaatzeitpunkt einen signifikanten Einfluss auf den Weizenertrag hat. Als optimaler Aussaatzeitpunkt ist der Zeitraum vom 10. Mai bis 15. Mai anzusehen, da in dieser Aussaatzeit die besten Ertragsergebnisse erzielt werden.

Wir haben die Methode der Varianzanalyse bei der Gruppierung nach einem Attribut und der zufälligen Verteilung der Wiederholungen innerhalb der Gruppe betrachtet. Es kommt jedoch häufig vor, dass die Versuchsfläche einige Unterschiede in der Bodenfruchtbarkeit usw. aufweist. Daher kann es vorkommen, dass mehr Flächen einer der Optionen in den besten Teil fallen und ihre Indikatoren überschätzt werden und die andere Option - im schlimmsten Teil, und die Ergebnisse in diesem Fall werden natürlich schlechter sein, d.h. unterschätzt.

Um erfahrungsfremde Ursachen auszuschließen, ist es notwendig, die aus Wiederholungen (Blöcken) errechnete Varianz von der gruppeninternen (Rest-)Varianz zu isolieren.

Die Gesamtsumme der quadrierten Abweichungen wird in diesem Fall bereits in 3 Komponenten unterteilt:

D o \u003d D m + D Wiederholung + D Ruhe. (1.33)

Für unser Beispiel ist die Summe der quadratischen Abweichungen, die durch Wiederholungen verursacht werden, gleich:

Daher ist die tatsächliche Zufallssumme der quadrierten Abweichungen gleich:

D ost \u003d D in - D rep; D Ruhe \u003d 106 - 44 \u003d 62.

Für die Reststreuung beträgt die Anzahl der Freiheitsgrade 28 – 7 = 21. Die Ergebnisse der Varianzanalyse sind in der Tabelle dargestellt. 9.

Tabelle 9

Da die tatsächlichen Werte des F-Kriteriums mit einer Wahrscheinlichkeit von 0,95 die tabellierten Werte überschreiten, ist der Einfluss von Aussaatterminen und -wiederholungen auf den Weizenertrag als signifikant anzusehen. Die betrachtete Methode zum Aufbau eines Experiments, bei der der Standort vorläufig in Blöcke mit relativ gleichen Bedingungen unterteilt wird und die getesteten Optionen innerhalb des Blocks in zufälliger Reihenfolge verteilt werden, wird als Methode der randomisierten Blöcke bezeichnet.

Mit Hilfe der Streuungsanalyse ist es möglich, den Einfluss nicht nur eines Faktors auf das Ergebnis zu untersuchen, sondern von zwei oder mehr. Varianzanalyse wird in diesem Fall aufgerufen Multivariate Varianzanalyse .

Zwei-Wege-Varianzanalyse unterscheidet sich von den beiden einfaktoriellen darin, dass es kann folgende Fragen beantworten:

1. 1Welchen Einfluss haben beide Faktoren zusammen?

2. Welche Rolle spielt die Kombination dieser Faktoren?

Betrachten wir die Varianzanalyse des Experiments, in dem es notwendig ist, den Einfluss nicht nur der Aussaatdaten, sondern auch der Sorten auf den Weizenertrag aufzudecken (Tabelle 10).

Tabelle 10. Experimentelle Daten zur Wirkung von Aussaatdaten und Sorten auf den Weizenertrag

ist die Summe der quadrierten Abweichungen der Einzelwerte vom Gesamtmittel.

Variation im kombinierten Einfluss von Aussaatzeit und Sorte

ist die Summe der quadrierten Abweichungen der Teilgruppenmittelwerte vom Gesamtmittelwert, gewichtet mit der Anzahl der Wiederholungen, also mit 4.

Berechnung der Streuung nur durch den Einfluss der Aussaattermine:

Die Restvariation ist definiert als die Differenz zwischen der Gesamtvariation und der Variation in der kombinierten Wirkung der untersuchten Faktoren:

D Ruhe \u003d D ungefähr - D ps \u003d 170 - 96 \u003d 74.

Alle Berechnungen können in Form einer Tabelle durchgeführt werden (Tabelle 11).

Tabelle 11. Ergebnisse der Varianzanalyse

Die Ergebnisse der Varianzanalyse zeigen, dass der Einfluss der untersuchten Faktoren, d. h. Aussaattermine und Sorten, auf den Weizenertrag signifikant ist, da die tatsächlichen F-Kriterien für jeden der Faktoren die für die entsprechenden tabellarischen gefundenen Kriterien deutlich übersteigen Freiheitsgraden und gleichzeitig mit ziemlich hoher Wahrscheinlichkeit (p = 0,99). Der Einfluss der Kombination von Faktoren entfällt in diesem Fall, da die Faktoren unabhängig voneinander sind.

Die Analyse des Einflusses von drei Faktoren auf das Ergebnis erfolgt nach dem gleichen Prinzip wie bei zwei Faktoren, nur ergeben sich in diesem Fall drei Varianzen für die Faktoren und vier Varianzen für die Kombination der Faktoren. Mit zunehmender Anzahl von Faktoren steigt der Rechenaufwand stark an und zudem wird es schwierig, die Ausgangsinformationen in einer Kombinationstabelle zu ordnen. Daher ist es kaum ratsam, den Einfluss vieler Faktoren auf das Ergebnis mittels Varianzanalyse zu untersuchen; Es ist besser, eine kleinere Anzahl von ihnen zu nehmen, aber die wichtigsten Faktoren aus Sicht der Wirtschaftsanalyse auszuwählen.

Häufig hat es ein Forscher mit sogenannten nicht-proportionalen Dispersionskomplexen zu tun, also solchen, bei denen die Verhältnismäßigkeit der Anzahl der Möglichkeiten nicht beachtet wird.

In solchen Komplexen ist die Variation der Gesamtwirkung von Faktoren nicht gleich der Summe der Variation durch Faktoren und der Variation der Kombination von Faktoren. Sie unterscheidet sich um einen Betrag, der sich nach dem Grad der Verknüpfungen zwischen den einzelnen Faktoren richtet, die sich aus einer Verletzung der Verhältnismäßigkeit ergeben.

In diesem Fall ergeben sich Schwierigkeiten bei der Bestimmung des Einflussgrades jedes Faktors, da die Summe der einzelnen Einflüsse nicht gleich dem Gesamteinfluss ist.

Eine Möglichkeit, einen disproportionierten Komplex in eine einzelne Struktur zu bringen, besteht darin, ihn durch einen proportionalen Komplex zu ersetzen, bei dem die Frequenzen über Gruppen gemittelt werden. Wenn ein solcher Ersatz vorgenommen wird, wird das Problem gemäß den Prinzipien proportionaler Komplexe gelöst.

DISPERSIONSANALYSE

in der mathematischen Statistik - ein statistisches Verfahren zur Identifizierung des Einflusses einzelner Faktoren auf das Ergebnis eines Experiments sowie zur späteren Planung ähnlicher Experimente. Zunächst D. und. wurde von R. Fisher vorgeschlagen, die agronomischen Ergebnisse zu verarbeiten. Experimente, um die Bedingungen zu ermitteln, unter denen die getestete Pflanzensorte den maximalen Ertrag liefert. Moderne Anwendungen von D. und. decken ein breites Spektrum wirtschaftswissenschaftlicher, soziologischer, biologischer und technischer Probleme ab und werden meist statistisch interpretiert. Theorien der Erkennung systematisch. Unterschiede zwischen den Ergebnissen direkter Messungen, die unter diesen oder anderen sich ändernden Bedingungen durchgeführt wurden.

Wenn die Werte der unbekannten Konstanten eine 1 , ... , aI kann mit verschiedenen Methoden oder Messgeräten gemessen werden M1,..., MJ, und jeweils systematisch. Error bij können im Allgemeinen beide von der gewählten Methode abhängen mj, und von einem unbekannten Messwert ein ich, dann sind die Ergebnisse solcher Messungen Summen der Form

wobei K die Anzahl unabhängiger Messungen einer unbekannten Größe ist ein ich Methode M j , a bei ijk- zufälliger Fehler k-te Größenmessungen ein ich Methode Mj(vorausgesetzt alle und ijk- unabhängige identisch verteilte Zufallsvariablen mit Null mathematisch. Erwartung: e bei ijk=0). So eine lineare Zwei-Faktoren-Schema D. und.; der erste ist der wahre Wert des Messwerts, der zweite ist die Messmethode, und in diesem Fall wird für jede mögliche Kombination der Werte des ersten und zweiten Faktors die gleiche Anzahl unabhängiger Messungen durchgeführt ( diese Annahme ist für die Zwecke von D. a. nicht von Bedeutung und wird hier nur zur Vereinfachung der Darstellung eingeführt).

Ein Beispiel für eine solche Situation können Sportwettkämpfe von I-Athleten sein, deren Fähigkeiten bewertet werden J Richter, und jeder Teilnehmer des Wettbewerbs ist Kraz (hat K "Versuche"). In diesem Fall ein ich- der wahre Wert des Indikators für die Fähigkeiten des Athleten mit der Nummer ich, bij- systematisch Fertigkeitsmarkierungsfehler ich-th Athlet als Richter mit der Nummer j, xijk- Bewertung abgegeben j-ten Richter an den -ten Athleten nach dem letzten k-te Versuche und und ijk- die entsprechende zufällige . Dies ist typisch für die sog. subjektive Prüfung der Qualität mehrerer Objekte, durchgeführt von einer Gruppe unabhängiger Experten. Ein weiteres Beispiel ist die Statistik. Untersuchung des Ertrags einer landwirtschaftlichen Kultur in Abhängigkeit von einer der J Bodensorten und J Verfahren zu ihrer Bearbeitung, und für jede Sorte g Boden und jedes Verfahren zur Bearbeitung mit der Nummer J werden k unabhängige Experimente durchgeführt (in diesem Beispiel bij- der wahre Wert des Ertrags für die i-te Bodensorte bei der j-ten Verarbeitungsmethode, xijk ist die entsprechende experimentell beobachtete Ausbeute in k-te Erfahrung und und ijk- sein zufälliger Fehler, der aus bestimmten zufälligen Gründen entsteht; was die Größenordnungen angeht ein ich, dann in der Agrarwissenschaft Experimente, ist es vernünftig, sie gleich Null zu betrachten).

Lasst uns c ij = a i + b ij , Loslassen mit i*, mit *j und mit ** - Ergebnisse der Mittelung mit ij nach den entsprechenden Indizes, d.h.

Lassen Sie zusätzlich a =c** , b ich=mit ich*-Mit **, g j = mit *j-c ** und d ij=mit ij-mit ich*-mit *j+ c ** . Idee D. a. basierend auf der offensichtlichen Identität

Wenn das Symbol ( cij) bezeichnen die Abmessungen IJ, erhalten aus der Matrix ||с ij|| Ordnen Sie IXJ unter Verwendung einer vorab festgelegten Reihenfolge seiner Elemente, dann kann (1) als eine Gleichheit geschrieben werden, bei der alle Vektoren haben IJ, und ein ij=a,b ij=b ich,g ij=g j. Da die vier Vektoren auf der rechten Seite von (2) orthogonal sind, gilt a ij=a - die beste Näherung der Funktion cij aus Argumenten i und j konstanter Wert [im Sinne der minimalen Summe quadrierter Abweichungen ]. Im gleichen Sinne a ij+b ij=a+b ich- der beste cij Funktion nur abhängig von i, a ij+g ij=a+g j- beste Annäherung cij Funktion nur abhängig von j, a a ij+b ij+g ij=a+b ich+g j- beste Annäherung cij die Summe von Funktionen, von denen eine (zum Beispiel a+b ich) hängt nur von r ab, die andere nur von j. Diese von R. Fischer (siehe ) 1918 festgestellte Tatsache diente später als Grundlage für die Theorie der quadratischen Approximationen von Funktionen.

Im sportlichen Wettkampfbeispiel d ij drückt die "Interaktion" des i-ten Athleten und des j-ten Kampfrichters aus (ein positiver Wert von used bedeutet "urteilen", also eine systematische Überschätzung der Fähigkeitseinschätzung des i-ten Kampfrichters durch den i-ten Kampfrichter, und ein negativer Wert des verwendeten Mittels "zaguzhivanie", d.h. eine systematische Abnahme der Punktzahl). Die Gleichheit aller Gebrauchten zu Null ist eine notwendige Forderung, die an die Arbeit einer Expertengruppe gestellt werden muss. Im Fall von agronom Experimenten wird eine solche Gleichheit als Hypothese angesehen, die auf der Grundlage der Ergebnisse von Experimenten zu überprüfen ist, da das Hauptziel hier darin besteht, solche Werte zu finden ich und j, für die Funktion (1) ihren Maximalwert erreicht. Wenn diese Hypothese richtig ist, dann

und daher kann die Ermittlung des besten "Bodens" und "Anbau" getrennt durchgeführt werden, was zu einer erheblichen Verringerung der Anzahl der Experimente führt (z. B. ist es möglich, alle I-Sorten von "Boden" mit zu testen irgendeine Methode der Verarbeitung und die beste Sorte bestimmen, und dann an dieser Sorte alles ausprobieren J Wege zu "verarbeiten" und den besten Weg zu finden; die Gesamtzahl der Experimente mit Wiederholungen ist gleich (I + J) K) . Wenn die Hypothese (alle d ij=0) ist falsch, um dann max c zu bestimmen ij der oben beschriebene "vollständige Plan" ist erforderlich, der mit K Wiederholungen erfordert, IJK Experimente.

In der Situation sportlicher Wettkämpfe wird die Funktion g ij=g j kann als Systematik interpretiert werden ein Fehler des j-ten Schiedsrichters in Bezug auf alle Athleten. Letztendlich g j- Charakterisierung von "Strenge" oder "Liberalismus" des j-ten Richters. Idealerweise möchten wir alle g j waren Null, aber unter realen Bedingungen muss man das Vorhandensein von Nicht-Null-Werten von g in Kauf nehmen j und berücksichtigen Sie diesen Umstand bei der Zusammenfassung der Untersuchungsergebnisse (z. B. kann die Grundlage für den Vergleich der Fähigkeiten von Sportlern nicht als Folge wahrer Werte a + b angesehen werden 1 +g j, ..., a+b ich+g j, und nur die Ergebnisse der Sortierung dieser Zahlen nach ihrem Wert, da für alle j = 1, . . . , J solche Bestellungen sind die gleichen). Schließlich ist die Summe der beiden verbleibenden Funktionen a ij+b ij=a+b ich hängt nur von i ab und kann daher verwendet werden, um die Fähigkeiten des i-ten Athleten zu charakterisieren. Allerdings muss hier beachtet werden, dass daher die Sortierung aller Athleten nach den Werten a+b erfolgt ich(oder durch a+ + b ich+g j für jedes feste j) darf nicht mit der Sortierung nach Werten übereinstimmen ein ich. Bei der praktischen Bearbeitung von Gutachten ist dieser Umstand zu vernachlässigen, da der erwähnte vollständige Versuchsplan eine separate Auswertung nicht zulässt ein ich und b ich*. Also a+b ich=ein ich + b ich* zeichnet nicht nur Können aus ich Athlet, sondern auf die eine oder andere Weise auch Experten in dieser Fähigkeit. Daher können beispielsweise die Ergebnisse subjektiver Experteneinschätzungen, die zu unterschiedlichen Zeitpunkten (insbesondere bei mehreren Olympischen Spielen) durchgeführt wurden, kaum als vergleichbar angesehen werden. Im Fall von agronom Experimente, solche Schwierigkeiten treten nicht auf, da alle ein ich=0 und damit a+b ich=b ich*.

Wahre Werte der Funktionen a, b ich,g ich und d ij sind unbekannt und werden durch unbekannte Funktionen ausgedrückt c ij . Daher ist die erste Stufe von D. a. ist die Statistik zu finden. Schätzungen für c ij auf der Grundlage von Beobachtungen xijk.Unvoreingenommen und mit minimaler Varianz für c ij wird durch die Formel ausgedrückt

Da a, b ich,g j und d ij sind lineare Funktionen von Matrixelementen ||c ij||, dann werden die unverzerrten linearen Schätzungen für diese Funktionen, die die minimale Varianz haben, durch Ersetzen der Argumente c erhalten ij entsprechende Schätzungen, c ij , d.h. außerdem zufällige Vektoren und wie oben eingeführt definiert (a ij), (b ij), (g ij). und (d ij) haben die Orthogonalitätseigenschaft, was bedeutet, dass sie unkorrelierte Zufallsvektoren sind (mit anderen Worten, zwei beliebige Komponenten, die zu verschiedenen Vektoren gehören, haben eine Nullkorrelation). Darüber hinaus jede Art

nicht mit irgendeiner der Komponenten korreliert diese vier Vektoren. Betrachten Sie fünf Sammlungen von Zufallsvariablen (x ijk ), (x ijk-xij* ),Als

dann sind die Varianzen empirisch. Verteilungen, die den angegebenen Populationen entsprechen, werden durch die Formeln ausgedrückt

Diese empirisch Varianzen sind Summen von Quadraten von Zufallsvariablen, von denen jeweils zwei unkorreliert sind, solange sie zu unterschiedlichen Summen gehören; während in Bezug auf alle und ijk Die Identität

erklärt den Ursprung des Begriffs „D. a.“ „Let and let

in diesem Fall

wobei s 2 die Varianz zufälliger Fehler ist und ijk.

Auf der Grundlage dieser Formeln wird die zweite Stufe von D. a. aufgebaut, die der Aufdeckung des Einflusses des ersten und zweiten Faktors auf die Ergebnisse des Experiments gewidmet ist (in agronomischen Experimenten ist der erste Faktor die Art des "Bodens") , die zweite ist die Methode der "Kultivierung"). Wenn zum Beispiel die Hypothese des Fehlens einer „Wechselwirkung“ von Faktoren geprüft werden soll, was durch die Gleichheit ausgedrückt wird, dann ist es sinnvoll, das Dispersionsverhältnis zu berechnen s 2 3 /s 2 0 = F 3 . Wenn dieses Verhältnis signifikant von Eins abweicht, wird die getestete Hypothese verworfen. Ebenso die Relation s 2 2 / s 2 0 \u003d F 2, was auch mit Einheit verglichen werden sollte; wenn gleichzeitig bekannt ist, dass statt F2 Es ist ratsam, mit dem Einheitsverhältnis zu vergleichen

Ebenso können Sie Statistiken erstellen, die es Ihnen erlauben, einen Rückschluss auf die Gültigkeit oder Falschheit der Hypothese zu ziehen

Die genaue Bedeutung des Konzepts eines signifikanten Unterschieds zwischen diesen Verhältnissen von Eins kann nur unter Berücksichtigung des Verteilungsgesetzes zufälliger Fehler bestimmt werden und ijk . In D. a. die am gründlichsten untersuchte Situation, in der alle und ijk normal verteilt. In diesem Fall sind unabhängige Zufallsvektoren und sind unabhängige Zufallsvariablen, und

Verhältnisse gehorchen nicht zentralen Chi-Quadrat-Verteilungen mit FM Freiheitsgrade und Nichtzentralitätsparameter l t, m=0, 1, 2, 3, wobei

Wenn der Nicht-Zentralitätsparameter Null ist, dann ist das nicht-zentrale Chi-Quadrat dasselbe wie die normale Chi-Quadrat-Verteilung. Wenn also die Hypothese l 3 =0 das Verhältnis gehorcht der F-Verteilung (Verteilung des Dispersionsverhältnisses) mit den Parametern f 3 und f 0 . Sei x die Zahl für welches Ereignis (F3 > x) gleich einem gegebenen Wert von e ist, der als Signifikanzniveau bezeichnet wird (Tabellen der Funktion x = x(e; f 3 , f 0) stehen in den meisten mathematischen Lehrbüchern. Statistiken). Kriterium für die Prüfung der Hypothese l 3 = 0 ist die Regel, nach der diese Hypothese verworfen wird, wenn der beobachtete Wert zutrifft F3überschreitet x; andernfalls wird die Hypothese als konsistent mit den Ergebnissen der Beobachtungen betrachtet. In ähnlicher Weise werden Kriterien basierend auf den Statistiken erstellt F2 und F*2.

Weitere Stadien von D. und. nicht nur vom tatsächlichen Inhalt eines bestimmten Problems abhängen, sondern auch von den Ergebnissen statistischer Analysen. Hypothesentest im zweiten Schritt. Zum Beispiel unter agronomischen Bedingungen. Experimente, die Gültigkeit der Hypothese l 3 \u003d 0, wie oben angegeben, ermöglicht es Ihnen, ähnliche weitere Experimente wirtschaftlicher zu planen (wenn zusätzlich zur Hypothese l 3 \u003d 0 auch die Hypothese l 2 \u003d 0 wahr ist , dies bedeutet, dass der Ertrag nur von der Sorte des "Bodens" abhängt, und daher können Sie in weiteren Experimenten das Schema des Einfaktors D verwenden. a.); Wenn die Hypothese l 3 = 0 abgelehnt wird, ist es dann vernünftig zu prüfen, ob es einen unberücksichtigten dritten Faktor in diesem Problem gibt? Wenn die Sorten des "Bodens" und die Methoden seiner "Verarbeitung" nicht am selben Ort, sondern in verschiedenen geografischen Gebieten variierten. Zonen, dann kann ein solcher Faktor klimatisch sein. oder geographisch. Bedingungen, und die "Verarbeitung" von Beobachtungen erfordert die Verwendung von Drei-Faktor-D. a.

Bei Expertenschätzungen liefert die statistisch gesicherte Gültigkeit der Hypothese l 3 = 0 eine Grundlage, um die Vergleichsobjekte (z. B. Sportler) nach den Werten der Größen zu ordnen ich=l, . .. , ICH.

Wenn die Hypothese l 3 =0 verworfen wird (beim Problem sportlicher Wettkämpfe bedeutet dies die statistische Entdeckung des "Zusammenspiels" einiger Athleten und Kampfrichter), dann liegt es nahe, zu versuchen, alle Ergebnisse neu zu berechnen, die zuvor von der Berücksichtigung ausgeschlossen wurden xijk mit solchen Indexpaaren ( ich, j), für die die absoluten Werte der Statistik. Noten d ij einen vorbestimmten zulässigen Pegel überschreiten. Dies bedeutet, dass aus der Matrix ||xij* || bestimmte Elemente sind durchgestrichen, was bedeutet, dass der Plan von D. a. wird unvollständig.

Modelle moderner D. und. decken ein breites Spektrum realer experimenteller Designs ab (z. B. unvollständige Designdesigns mit zufällig oder nicht zufällig ausgewählten Elementen xij*). Die diesen Schemata entsprechenden statistischen Daten Schlussfolgerungen befinden sich in vielen Fällen noch in der Entwicklung. Insbesondere bereits (bis 1978) jene Probleme, bei denen die Ergebnisse von Beobachtungen xijk=cij +yijk nicht gleichverteilte Zufallsvariablen sind; Ein noch schwierigeres Problem ergibt sich bei der Abhängigkeit der Größen x ijk . Unbekannte Faktorenauswahlprobleme (auch im linearen Fall). Die Essenz dieses Problems ist wie folgt: let s=s(und, v)- Loslassen u=u(z, w)und u=u(z, w) - beliebige lineare Funktionen der Variablen r und w. Festlegen der Werte z 1 , . .., z Ich und w1 , . . ., W J , es ist für jede vorgegebene Auswahl an linearen Funktionen u u möglich . definieren cij Formel und baue D. a. diese Mengen entsprechend den Ergebnissen einschlägiger Beobachtungen xijk. Das Problem besteht darin, solche linearen Funktionen u und u zu finden , was dem kleinsten Wert der Quadratsumme entspricht

wobei (es wird angenommen, dass die Funktion c( und, v) ist unbekannt). In Bezug auf D. und. Dieses Problem hängt mit der Statistik zusammen. solche Faktoren zu finden z=z(du, v)und w-w(du, v), auf die Krim entspricht "geringster Interaktion".

Zündete.: Fisher R. A., Statistische Methoden für Forschungsarbeiter, Edinburgh, 1925; Scheffe G., Dispersionsanalyse, übers. aus dem Englischen, M., 1963; Khald A., Mathematik mit technischen Anwendungen, übers. aus dem Englischen, M., 1956; Snedecor J. U., Statistische Methoden in der Anwendung auf landwirtschaftliche und biologische Forschung, übers. aus dem Englischen, M., 1961.

L. N. Mehr.


Mathematische Enzyklopädie. - M.: Sowjetische Enzyklopädie. I. M. Winogradov. 1977-1985.

Sehen Sie in anderen Wörterbüchern, was "VARIAN ANALYSIS" ist:

    Eine Methode in der mathematischen Statistik, die darauf abzielt, Abhängigkeiten in experimentellen Daten zu finden, indem die Signifikanz von Unterschieden in Mittelwerten untersucht wird. Die Bezeichnung ANOVA findet sich auch in der Literatur (aus der englischen ANalysis Of ... ... Wikipedia

    - (Varianzanalyse) Eine statistische Methode, die auf der Zerlegung der Gesamtvarianz (Varianz) eines beliebigen Merkmals der Grundgesamtheit in Komponenten, die mit anderen Merkmalen korrelieren, und der Restvarianz (Restvarianz) basiert. BEI… … Wirtschaftslexikon

    Eine der Methoden der mathematischen Statistik zur Analyse von Beobachtungsergebnissen, die von verschiedenen gleichzeitig wirkenden Faktoren abhängen, die sich in der Regel nicht für Mengen eignen. Bezeichnung. Betrachten wir das einfachste der Probleme von D. a. Lassen … Physikalische Enzyklopädie

    Varianzanalyse- ein Abschnitt der mathematischen Statistik, der Methoden zur Identifizierung des Einflusses einzelner Faktoren auf das Ergebnis eines Experiments gewidmet ist (physikalisches, industrielles, wirtschaftliches Experiment). Ja. entstand als Mittel zur Verarbeitung von Ergebnissen ... ... Wirtschafts- und Mathematikwörterbuch

    Varianzanalyse- - Varianzanalyse Ein Teilgebiet der mathematischen Statistik, das sich Methoden widmet, um den Einfluss einzelner Faktoren auf das Ergebnis eines Experiments (physikalisch, industriell, ... ...) zu identifizieren. Handbuch für technische Übersetzer

Varianzanalyse - Analyse der Variabilität des resultierenden Merkmals unter dem Einfluss von kontrollierten variablen Faktoren. (In der ausländischen Literatur heißt es ANOVA - "Analisis of Variance").

Das wirksame Merkmal wird auch als abhängiges Merkmal bezeichnet, und die Einflussfaktoren werden als unabhängige Merkmale bezeichnet.

Einschränkung der Methode: Unabhängige Merkmale können auf einer nominalen, ordinalen oder metrischen Skala gemessen werden, abhängige Merkmale können nur auf einer metrischen Skala gemessen werden. Zur Varianzanalyse werden mehrere Abstufungen von Faktormerkmalen unterschieden und alle Elemente der Stichprobe entsprechend dieser Abstufungen gruppiert.

Formulierung von Hypothesen in der Varianzanalyse.

Nullhypothese: "Die Mittelwerte des effektiven Merkmals sind in allen Zuständen des Faktors (bzw. der Faktorabstufungen) gleich."

Alternative Hypothese: "Die Durchschnittswerte des effektiven Merkmals unter verschiedenen Bedingungen der Wirkung des Faktors sind unterschiedlich."

Die Varianzanalyse kann in mehrere Kategorien unterteilt werden, abhängig von:

von der Anzahl der betrachteten unabhängigen Faktoren;

über die Anzahl der effektiven Variablen, die der Wirkung von Faktoren unterliegen;

über die Art, die Art der Gewinnung und das Vorhandensein der Beziehung der verglichenen Werteproben.

Bei Vorhandensein eines Faktors, dessen Einfluss untersucht wird, wird die Varianzanalyse als Einfaktoranalyse bezeichnet und in zwei Varianten unterteilt:

- Analyse nicht verwandter (d. h. unterschiedlicher) Proben . Zum Beispiel löst eine Gruppe von Befragten das Problem schweigend, die zweite - in einem lauten Raum. (In diesem Fall würde die Nullhypothese übrigens so lauten: „Die durchschnittliche Zeit, um Probleme dieser Art zu lösen, ist in Stille und in einem lauten Raum gleich“, das heißt, sie hängt nicht vom Lärm ab Faktor.)

- Verwandte Probenanalyse , d. h. zwei Messungen, die an derselben Gruppe von Befragten unter unterschiedlichen Bedingungen durchgeführt wurden. Dasselbe Beispiel: Das erste Mal wurde die Aufgabe schweigend gelöst, das zweite Mal - eine ähnliche Aufgabe - in Gegenwart von Störgeräuschen. (In der Praxis sollten solche Experimente mit Vorsicht angegangen werden, da ein nicht berücksichtigter Faktor der „Lernbarkeit“ ins Spiel kommen kann, dessen Einfluss der Forscher riskiert, einer Änderung der Bedingungen zuzuschreiben, nämlich Lärm.)

Wird der gleichzeitige Einfluss zweier oder mehrerer Faktoren untersucht, handelt es sich um multivariate Varianzanalyse, die auch nach Probenart unterteilt werden können.

Wenn mehrere Variablen von Faktoren beeinflusst werden, sprechen wir von multivariate Analyse . Die Durchführung einer multivariaten Varianzanalyse ist einer eindimensionalen nur dann vorzuziehen, wenn die abhängigen Variablen nicht unabhängig voneinander sind und miteinander korrelieren.

Im Allgemeinen besteht die Aufgabe der Varianzanalyse darin, drei bestimmte Varianzen aus der allgemeinen Variabilität eines Merkmals herauszuheben:

    Variabilität aufgrund der Wirkung jeder der untersuchten unabhängigen Variablen (Faktoren).

    Variabilität aufgrund der Interaktion der untersuchten unabhängigen Variablen.

    Die Variabilität ist aufgrund aller nicht berücksichtigten Umstände zufällig.

Um die Variabilität aufgrund der Wirkung der untersuchten Variablen und ihrer Wechselwirkung zu bewerten, wird das Verhältnis des entsprechenden Indikators für Variabilität und zufällige Variabilität berechnet. Ein Indikator für dieses Verhältnis ist das F-Fisher-Kriterium.

Je mehr die Variabilität eines Merkmals auf das Einwirken von Einflussfaktoren oder deren Zusammenspiel zurückzuführen ist, desto höher sind die Erfahrungswerte des Kriteriums .

Zur Kriterienberechnungsformel Varianzschätzungen sind enthalten, und daher gehört diese Methode zur Kategorie der parametrischen Methoden.

Ein nichtparametrisches Analogon der Einweg-Varianzanalyse für unabhängige Stichproben ist der Kruskal-Wallace-Test. Er ähnelt dem Mann-Whitney-Test für zwei unabhängige Stichproben, außer dass er die Ränge für jede der Stichproben summiert Gruppen.

Darüber hinaus kann das Mediankriterium bei der Varianzanalyse verwendet werden. Bei der Verwendung wird für jede Gruppe die Anzahl der Beobachtungen, die den für alle Gruppen berechneten Median überschreiten, und die Anzahl der Beobachtungen, die kleiner als der Median sind, bestimmt, wonach eine zweidimensionale Kontingenztabelle erstellt wird.

Der Friedman-Test ist eine nichtparametrische Verallgemeinerung des gepaarten t-Tests für den Fall von Stichproben mit wiederholten Messungen, wenn die Anzahl der verglichenen Variablen mehr als zwei beträgt.

Anders als bei der Korrelationsanalyse geht der Forscher bei der Varianzanalyse von der Annahme aus, dass einige Variablen als Einflussfaktoren wirken (sogenannte Faktoren oder unabhängige Variablen), während andere (Ergebniszeichen oder abhängige Variablen) von diesen Faktoren beeinflusst werden. Obwohl eine solche Annahme den mathematischen Berechnungsverfahren zugrunde liegt, erfordert sie dennoch Vorsicht bei der Ableitung von Ursache und Wirkung.

Wenn wir beispielsweise eine Hypothese über die Abhängigkeit des Erfolgs eines Beamten vom Faktor H (Sozialcourage nach Cattell) aufstellen, dann ist das Gegenteil nicht ausgeschlossen: Die Sozialcourage des Befragten kann entstehen (steigen) durch der Erfolg seiner Arbeit - das ist einerseits. Sollte man sich andererseits bewusst sein, wie „Erfolg“ genau gemessen wurde? Basierte er nicht auf objektiven Merkmalen (heute modische „Umsatzmengen“ etc.), sondern auf Experteneinschätzungen von Kollegen, dann besteht die Möglichkeit, dass „Erfolg“ durch Verhaltens- oder Persönlichkeitsmerkmale (willentlich, kommunikativ, äußerlich) ersetzt werden kann Manifestationen von Aggressivität usw.).

In der Praxis von Ärzten bei der Durchführung biomedizinischer, soziologischer und experimenteller Forschung wird es notwendig, den Einfluss von Faktoren auf die Ergebnisse der Untersuchung des Gesundheitszustands der Bevölkerung, bei der Beurteilung der beruflichen Tätigkeit und der Wirksamkeit von Innovationen festzustellen.

Es gibt eine Reihe von statistischen Methoden, mit denen Sie die Stärke, Richtung und Muster des Einflusses von Faktoren auf das Ergebnis in der allgemeinen oder Stichprobenpopulation bestimmen können (Berechnung des Kriteriums I, Korrelationsanalyse, Regression, Χ 2 - (Übereinstimmungskriterium nach Pearson, usw.) Die Varianzanalyse wurde in den 1920er Jahren von dem englischen Wissenschaftler, Mathematiker und Genetiker Ronald Fisher entwickelt und vorgeschlagen.

Die Varianzanalyse wird häufiger in wissenschaftlichen und praktischen Studien der öffentlichen Gesundheit und des Gesundheitswesens verwendet, um den Einfluss eines oder mehrerer Faktoren auf das resultierende Merkmal zu untersuchen. Es basiert auf dem Prinzip „die Vielfalt der Werte des Faktors/der Faktoren auf die Vielfalt der Werte des resultierenden Attributs abzubilden“ und legt die Stärke des Einflusses des Faktors/der Faktoren fest Stichprobenpopulationen.

Das Wesen der Varianzanalysemethode besteht darin, einzelne Varianzen (gesamt, faktoriell, Residuum) zu messen und die Stärke (Anteil) des Einflusses der untersuchten Faktoren weiter zu bestimmen (Bewertung der Rolle jedes der Faktoren oder ihres kombinierten Einflusses). ) für das/die resultierende(n) Attribut(e).

Varianzanalyse- Dies ist eine statistische Methode zur Bewertung der Beziehung zwischen Faktor und Leistungsmerkmalen in verschiedenen zufällig ausgewählten Gruppen, basierend auf der Bestimmung von Unterschieden (Diversität) in den Werten der Merkmale. Die Varianzanalyse basiert auf der Analyse der Abweichungen aller Einheiten der untersuchten Grundgesamtheit vom arithmetischen Mittel. Als Maß für die Abweichungen wird die Streuung (B) genommen - das durchschnittliche Quadrat der Abweichungen. Abweichungen, die durch den Einfluss eines Faktorattributs (Faktor) verursacht werden, werden mit der Größe von Abweichungen verglichen, die durch zufällige Umstände verursacht werden. Wenn die durch das Faktorattribut verursachten Abweichungen signifikanter sind als zufällige Abweichungen, wird davon ausgegangen, dass der Faktor einen signifikanten Einfluss auf das resultierende Attribut hat.

Zur Berechnung der Varianz wird der Abweichungswert jeder Option (jeder eingetragene Zahlenwert des Attributs) vom arithmetischen Mittel quadriert. Dadurch werden negative Zeichen beseitigt. Dann werden diese Abweichungen (Differenzen) aufsummiert und durch die Anzahl der Beobachtungen dividiert, d.h. Abweichungen ausmitteln. So werden die Streuungswerte erhalten.

Ein wichtiger methodischer Wert für die Anwendung der Varianzanalyse ist die korrekte Bildung der Stichprobe. Je nach Ziel und Zielsetzung können zufällig voneinander unabhängige Gruppen gebildet werden (Kontroll- und Versuchsgruppen, um einen Indikator zu untersuchen, zum Beispiel die Wirkung von Bluthochdruck auf die Entwicklung eines Schlaganfalls). Solche Stichproben werden als unabhängig bezeichnet.

Oft werden die Ergebnisse der Exposition gegenüber Faktoren in derselben Stichprobengruppe (z. B. bei denselben Patienten) vor und nach der Exposition (Behandlung, Prävention, Rehabilitationsmaßnahmen) untersucht. Solche Stichproben werden als abhängig bezeichnet.

Die Varianzanalyse, bei der der Einfluss eines Faktors geprüft wird, nennt man Einfaktoranalyse (univariate Analyse). Bei der Untersuchung des Einflusses von mehr als einem Faktor wird die multivariate Varianzanalyse (multivariate Analyse) verwendet.

Faktorzeichen sind jene Zeichen, die das untersuchte Phänomen beeinflussen.
Effektive Zeichen sind solche Zeichen, die sich unter dem Einfluss von Faktorzeichen ändern.

Für die Varianzanalyse können sowohl qualitative (Geschlecht, Beruf) als auch quantitative Merkmale (Anzahl der Injektionen, Patienten auf der Station, Anzahl Betttage) herangezogen werden.

Methoden der Ausbreitungsanalyse:

  1. Methode nach Fisher (Fisher) - Kriterium F (Werte von F, siehe Anhang Nr. 1);
    Die Methode wird bei der Einweg-Varianzanalyse angewendet, wenn die kumulative Varianz aller beobachteten Werte in die Varianz innerhalb einzelner Gruppen und die Varianz zwischen Gruppen zerlegt wird.
  2. Methode des "allgemeinen linearen Modells".
    Es basiert auf Korrelations- oder Regressionsanalysen, die in der multivariaten Analyse verwendet werden.

Üblicherweise werden in der biomedizinischen Forschung nur Ein-Faktor-, maximal Zwei-Faktor-Dispersionskomplexe verwendet. Multifaktorielle Komplexe können untersucht werden, indem nacheinander Ein- oder Zweifaktorkomplexe analysiert werden, die aus der gesamten beobachteten Population isoliert wurden.

Bedingungen für die Verwendung der Varianzanalyse:

  1. Die Aufgabe der Studie besteht darin, die Stärke des Einflusses eines (bis zu 3) Faktors auf das Ergebnis oder die Stärke des kombinierten Einflusses verschiedener Faktoren (Geschlecht und Alter, körperliche Aktivität und Ernährung usw.) zu bestimmen.
  2. Die untersuchten Faktoren sollten unabhängig (ohne Bezug) zueinander sein. Beispielsweise kann man nicht den kombinierten Effekt von Berufserfahrung und Alter, Größe und Gewicht der Kinder usw. untersuchen. über die Inzidenz der Bevölkerung.
  3. Die Auswahl der Gruppen für die Studie erfolgt nach dem Zufallsprinzip (Random Selection). Die Organisation eines Dispersionskomplexes mit der Umsetzung des Prinzips der zufälligen Auswahl von Optionen wird als Randomisierung (übersetzt aus dem Englischen - zufällig) bezeichnet, d.h. zufällig gewählt.
  4. Es können sowohl quantitative als auch qualitative (attributive) Merkmale verwendet werden.

Bei der Durchführung einer einseitigen Varianzanalyse wird empfohlen (notwendige Bedingung für die Anwendung):

  1. Die Normalität der Verteilung der analysierten Gruppen bzw. die Entsprechung der Stichprobengruppen zu normalverteilten Grundgesamtheiten.
  2. Unabhängigkeit (Unverbundenheit) der Verteilung von Beobachtungen in Gruppen.
  3. Vorhandensein von Häufigkeit (Wiederholung) von Beobachtungen.

Die Normalität der Verteilung wird durch die Gauß-Kurve (De Mavour) bestimmt, die durch die Funktion y \u003d f (x) beschrieben werden kann, da dies eines der Verteilungsgesetze ist, die zur Annäherung an die Beschreibung zufälliger Phänomene verwendet werden. probabilistischer Natur. Gegenstand der biomedizinischen Forschung sind Phänomene probabilistischer Natur, die Normalverteilung ist in solchen Studien sehr verbreitet.

Das Prinzip der Anwendung der Methode der Varianzanalyse

Zunächst wird eine Nullhypothese formuliert, das heißt, es wird angenommen, dass die untersuchten Faktoren keinen Einfluss auf die Werte des resultierenden Attributs haben und die resultierenden Unterschiede zufällig sind.

Dann bestimmen wir, wie hoch die Wahrscheinlichkeit ist, die beobachteten (oder stärkeren) Unterschiede zu erhalten, vorausgesetzt, dass die Nullhypothese wahr ist.

Wenn diese Wahrscheinlichkeit klein ist*, verwerfen wir die Nullhypothese und schlussfolgern, dass die Ergebnisse der Studie statistisch signifikant sind. Damit ist die Wirkung der untersuchten Faktoren noch nicht belegt (dies ist in erster Linie eine Frage der Forschungsplanung), aber es ist dennoch unwahrscheinlich, dass das Ergebnis dem Zufall geschuldet ist.
__________________________________
* Die maximal akzeptable Wahrscheinlichkeit, eine wahre Nullhypothese abzulehnen, wird als Signifikanzniveau bezeichnet und mit α = 0,05 bezeichnet.

Wenn alle Bedingungen für die Anwendung der Varianzanalyse erfüllt sind, sieht die Zerlegung der Gesamtvarianz mathematisch so aus:

D-Gen. = D Tatsache + D Rest. ,

D-Gen. - die Gesamtvarianz der beobachteten Werte (Variante), gekennzeichnet durch die Streuung der Variante vom Gesamtdurchschnitt. Misst die Variation eines Merkmals in der gesamten Population unter dem Einfluss aller Faktoren, die diese Variation verursacht haben. Die Gesamtdiversität setzt sich aus Intergroup und Intragroup zusammen;

D Tatsache - faktorielle (Intergruppen-)Varianz, gekennzeichnet durch die Differenz der Durchschnittswerte in jeder Gruppe und hängt vom Einfluss des untersuchten Faktors ab, durch den sich jede Gruppe unterscheidet. Beispielsweise ist in Gruppen mit unterschiedlichen ätiologischen Faktoren des klinischen Verlaufs einer Lungenentzündung das durchschnittliche Niveau des verbrachten Betttages nicht gleich - es wird eine Diversität zwischen den Gruppen beobachtet.

D Ruhe. - Restvarianz (innerhalb der Gruppe), die die Streuung der Variante innerhalb der Gruppen charakterisiert. Spiegelt zufällige Schwankungen wider, d.h. Teil der Variation, der unter dem Einfluss nicht spezifizierter Faktoren auftritt und nicht von der Eigenschaft abhängt – dem Faktor, der der Gruppierung zugrunde liegt. Die Variation des untersuchten Merkmals hängt von der Stärke des Einflusses einiger nicht berücksichtigter Zufallsfaktoren ab, sowohl von organisierten (vom Forscher angegeben) als auch von zufälligen (unbekannten) Faktoren.

Daher setzt sich die Gesamtvariation (Streuung) zusammen aus der Variation, die durch organisierte (gegebene) Faktoren verursacht wird, die faktorielle Variation genannt werden, und unorganisierten Faktoren, d.h. Restvariation (zufällig, unbekannt).

Die klassische Varianzanalyse wird in folgenden Schritten durchgeführt:

  1. Bau eines Dispersionskomplexes.
  2. Berechnung der durchschnittlichen Abweichungsquadrate.
  3. Abweichungsberechnung.
  4. Vergleich von Faktor- und Residualvarianzen.
  5. Auswertung der Ergebnisse anhand der theoretischen Werte der Fisher-Snedekor-Verteilung (Anhang N 1).

ALGORITHMUS ZUR DURCHFÜHRUNG EINER ANOVANE-ANALYSE NACH EINER VEREINFACHTEN VARIANTE

Der Algorithmus zur Durchführung einer Varianzanalyse mit einer vereinfachten Methode ermöglicht es Ihnen, die gleichen Ergebnisse zu erhalten, aber die Berechnungen sind viel einfacher:

Ich inszeniere. Bau eines Dispersionskomplexes

Die Konstruktion eines Dispersionskomplexes bedeutet die Konstruktion einer Tabelle, in der die Faktoren, das effektive Zeichen und die Auswahl der Beobachtungen (Patienten) in jeder Gruppe klar unterschieden würden.

Ein Einfaktorkomplex besteht aus mehreren Abstufungen eines Faktors (A). Abstufungen sind Stichproben aus unterschiedlichen Allgemeinbevölkerungen (A1, A2, AZ).

Zwei-Faktor-Komplex - besteht aus mehreren Abstufungen von zwei Faktoren in Kombination miteinander. Die ätiologischen Faktoren für das Auftreten von Lungenentzündungen sind dieselben (A1, A2, AZ) in Kombination mit unterschiedlichen Formen des klinischen Verlaufs einer Lungenentzündung (H1 - akut, H2 - chronisch).

Ergebniszeichen (Anzahl der Betttage im Durchschnitt) Ätiologische Faktoren bei der Entstehung einer Lungenentzündung
A1 A2 A3
H1 H2 H1 H2 H1 H2
M = 14 Tage

Stufe II. Berechnung des Gesamtdurchschnitts (M obsh)

Berechnung der Summe der Optionen für jede Faktorabstufung: Σ Vj = V 1 + V 2 + V 3

Berechnung der Gesamtsumme der Variante (Σ V gesamt) über alle Abstufungen des Faktorattributs: Σ V gesamt = Σ Vj 1 + Σ Vj 2 + Σ Vj 3

Berechnung der Durchschnittsgruppe (M gr.) Faktor Vorzeichen: M gr. = Σ Vj / N,
wobei N die Summe der Anzahl der Beobachtungen für alle Abstufungen des Faktor-I-Merkmals ist (Σn nach Gruppen).

III. Stadium. Abweichungsberechnung:

Vorbehaltlich aller Bedingungen für die Anwendung der Varianzanalyse lautet die mathematische Formel wie folgt:

D-Gen. = D Tatsache + D Rest.

D-Gen. - Gesamtvarianz, gekennzeichnet durch die Streuung der Variante (beobachtete Werte) vom allgemeinen Durchschnitt;
D Tatsache. - faktorielle Varianz (Intergruppenvarianz) charakterisiert die Streuung der Gruppendurchschnitte vom allgemeinen Durchschnitt;
D Ruhe. - Residual-(Intragruppen-)Varianz kennzeichnet die Streuung der Variante innerhalb der Gruppen.

  1. Berechnung der faktoriellen Varianz (D fact.): D Tatsache. = Σh - H
  2. Die Berechnung h erfolgt nach der Formel: h = (Σ Vj) / N
  3. Die Berechnung von H erfolgt nach der Formel: H = (Σ V) 2 / N
  4. Berechnung der Restabweichung: D Ruhe. = (Σ V) 2 - Σ h
  5. Berechnung der Gesamtvarianz: D-Gen. = (Σ V) 2 - Σ H

IV. Stadium. Berechnung des Hauptindikators für die Einflussstärke des untersuchten Faktors Der Indikator für die Stärke des Einflusses (η 2) eines Faktorattributs auf das Ergebnis wird bestimmt durch den Anteil der faktoriellen Varianz (D Tatsache.) an der Gesamtvarianz (D Allgemein), η 2 (dies) - zeigt, welchen Anteil die Einfluss des untersuchten Faktors nimmt unter allen anderen Faktoren ein und wird durch die Formel bestimmt:

V-Stufe. Die Bestimmung der Zuverlässigkeit der Ergebnisse der Studie nach der Fisher-Methode erfolgt nach der Formel:


F - Fisher-Kriterium;
Fst. - Tabellenwert (siehe Anlage 1).
σ 2 Tatsache, σ 2 Ruhe. - Fakultäts- und Restabweichungen (von lat. de - von, über - Straße) - Abweichung von der Mittellinie, bestimmt durch die Formeln:


r ist die Anzahl der Abstufungen des Faktorattributs.

Der Vergleich des Fisher-Kriteriums (F) mit dem Standard (Tabelle) F erfolgt gemäß den Spalten der Tabelle unter Berücksichtigung der Freiheitsgrade:

v 1 \u003d n - 1
v 2 \u003d N - 1

Bestimmen Sie horizontal v 1 vertikal - v 2 , bestimmen Sie an ihrem Schnittpunkt den Tabellenwert F, wobei der obere Tabellenwert p ≥ 0,05 und der untere p > 0,01 entspricht, und vergleichen Sie mit dem berechneten Kriterium F. Wenn der Wert der berechnetes Kriterium F gleich oder größer als das tabellarische, dann sind die Ergebnisse zuverlässig und H 0 wird nicht verworfen.

Die Aufgabe:

Im Unternehmen von N. nahm die Zahl der Verletzungen zu, in deren Zusammenhang der Arzt eine Studie über individuelle Faktoren durchführte, unter denen die Berufserfahrung der Arbeiter in den Geschäften untersucht wurde. Im Betrieb N. wurden Proben aus 4 Betrieben mit ähnlichen Bedingungen und Art der Arbeit entnommen. Die Verletzungsraten werden pro 100 Mitarbeiter im vergangenen Jahr berechnet.

Bei der Untersuchung des Berufserfahrungsfaktors wurden folgende Daten erhoben:

Auf der Grundlage der Daten der Studie wurde eine Nullhypothese (H 0) über die Auswirkung der Berufserfahrung auf das Verletzungsniveau der Mitarbeiter des Unternehmens A aufgestellt.

Übung
Bestätigen oder widerlegen Sie die Nullhypothese mit einer einfachen Varianzanalyse:

  1. bestimmen Sie die Stärke des Einflusses;
  2. bewerten Sie die Zuverlässigkeit des Einflusses des Faktors.

Phasen der Anwendung der Varianzanalyse
den Einfluss eines Faktors (Berufserfahrung) auf das Ergebnis (Verletzungsrate) zu bestimmen

Fazit. Im Stichprobenkomplex zeigte sich, dass der Einfluss der Berufserfahrung auf das Verletzungsniveau 80 % der Gesamtzahl der anderen Faktoren ausmacht. Für alle Werkstätten des Werks kann mit einer Wahrscheinlichkeit von 99,7 % (13,3 > 8,7) festgestellt werden, dass die Berufserfahrung die Verletzungshäufigkeit beeinflusst.

Damit wird die Nullhypothese (Н 0) nicht verworfen und der Effekt der Berufserfahrung auf die Verletzungshöhe in den Werkstätten des Werks A gilt als belegt.

F-Wert (Fisher-Test) Standard bei p ≥ 0,05 (oberer Wert) bei p ≥ 0,01 (unterer Wert)

1 2 3 4 5 6 7 8 9 10 11
6 6,0
13,4
5,1
10,9
4,8
9,8
4,5
9,2
4,4
8,8
4,3
8,5
4,2
8,3
4,1
8,1
4,1
8,0
4,1
7,9
4,0
7,8
7 5,6
12,3
4,7
9,6
4,4
8,5
4,1
7,9
4,0
7,5
3,9
7,2
3,8
7,0
3,7
6,8
3,7
6,7
3,6
6,6
3,6
6,5
8 5,3
11,3
4,6
8,7
4,1
7,6
3,8
7,0
3,7
6,6
3,6
6,4
3,5
6,2
3,4
6,0
3,4
5,9
3,3
5,8
3,1
5,7
9 5,1
10,6
4,3
8,0
3,6
7,0
3,6
6,4
3,5
6,1
3,4
5,8
3,3
5,6
3,2
5,5
3,2
5,4
3,1
5,3
3,1
5,2
10 5,0
10,0
4,1
7,9
3,7
6,6
3,5
6,0
3,3
5,6
3,2
5,4
3,1
5,2
3,1
5,1
3,0
5,0
2,9
4,5
2,9
4,8
11 4,8
9,7
4,0
7,2
3,6
6,2
3,6
5,7
3,2
5,3
3,1
5,1
3,0
4,9
3,0
4,7
2,9
4,6
2,9
4,5
2,8
4,5
12 4,8
9,3
3,9
6,9
3,5
6,0
3,3
5,4
3,1
5,1
3,0
4,7
2,9
4,7
2,9
4,5
2,8
4,4
2,8
4,3
2,7
4,2
13 4,7
9,1
3,8
6,7
3,4
5,7
3,2
5,2
3,0
4,9
2,9
4,6
2,8
4,4
2,8
4,3
2,7
4,2
2,7
4,1
2,6
4,0
14 4,6
8,9
3,7
6,5
3,3
5,6
3,1
5,0
3,0
4,7
2,9
4,5
2,8
4,3
2,7
4,1
2,7
4,0
2,6
3,9
2,6
3,9
15 4,5
8,7
3,7
6,4
3,3
5,4
3,1
4,9
2,9
4,6
2,8
4,3
2,7
4,1
2,6
4,0
2,6
3,9
2,5
3,8
2,5
3,7
16 4,5
8,5
3,6
6,2
3,2
5,3
3,0
4,8
2,9
4,4
2,7
4,2
2,7
4,0
2,6
3,9
2,5
3,8
2,5
3,7
2,5
3,6
17 4,5
8,4
3,6
6,1
3,2
5,2
3,0
4,7
2,8
4,3
2,7
4,1
2,6
3,9
2,6
3,8
2,5
3,8
2,5
3,6
2,4
3,5
18 4,4
8,3
3,5
6,0
3,2
5,1
2,9
4,6
2,8
4,2
2,7
4,0
2,6
3,8
2,5
3,7
2,7
3,6
2,4
3,6
3,4
3,5
19 4,4
8,2
3,5
5,9
3,1
5,0
2,9
4,5
2,7
4,2
2,6
3,9
2,5
3,8
2,5
3,6
2,4
3,5
2,4
3,4
2,3
3,4
20 4,3
8,1
3,5
5,8
3,1
4,9
2,9
4,4
2,7
4,1
2,6
3,9
2,5
3,7
2,4
3,6
2,4
3,4
2,3
3,4
2,3
3,3

  1. Wlassow V. V. Epidemiologie. - M.: GEOTAR-MED, 2004. 464 p.
  2. Arkhipova G.L., Lavrova I.G., Troshina I.M. Einige moderne Methoden der statistischen Analyse in der Medizin. - M.: Metrosnab, 1971. - 75 S.
  3. Zaitsev V.M., Liflyandsky V.G., Marinkin V.I. Angewandte Medizinische Statistik. - St. Petersburg: LLC "FOLIANT Publishing House", 2003. - 432 p.
  4. Platonov A.E. Statistische Analyse in Medizin und Biologie: Aufgaben, Terminologie, Logik, Computermethoden. - M.: Verlag der Russischen Akademie der Medizinischen Wissenschaften, 2000. - 52 p.
  5. Plochinsky N.A. Biometrie. - Verlag der sibirischen Abteilung der Akademie der Wissenschaften der UdSSR Nowosibirsk. - 1961. - 364 S.

Alle Menschen streben von Natur aus nach Wissen. (Aristoteles. Metaphysik)

Varianzanalyse

Einführende Übersicht

In diesem Abschnitt werden wir die grundlegenden Methoden, Annahmen und Terminologie der ANOVA besprechen.

Beachten Sie, dass in der englischen Literatur die Varianzanalyse üblicherweise Variationsanalyse genannt wird. Aus Gründen der Kürze werden wir daher im Folgenden manchmal den Begriff verwenden ANOVA (Ein Analyse Ö f va ration) für konventionelle ANOVA und den Begriff MANOVA für die multivariate Varianzanalyse. In diesem Abschnitt werden wir nacheinander die Hauptideen der Varianzanalyse betrachten ( ANOVA), Analyse der Kovarianz ( ANCOVA), multivariate Varianzanalyse ( MANOVA) und multivariate Kovarianzanalyse ( MANKOVA). Nach einer kurzen Erörterung der Vorzüge der Kontrastanalyse und Post-Hoc-Tests wollen wir uns die Annahmen ansehen, auf denen ANOVA-Methoden basieren. Gegen Ende dieses Abschnitts werden die Vorteile des multivariaten Ansatzes für die Analyse wiederholter Messungen gegenüber dem traditionellen eindimensionalen Ansatz erläutert.

Schlüsselideen

Der Zweck der Varianzanalyse. Der Hauptzweck der Varianzanalyse besteht darin, die Signifikanz der Differenz zwischen den Mittelwerten zu untersuchen. Kapitel (Kapitel 8) bietet eine kurze Einführung in statistische Signifikanztests. Wenn Sie nur die Mittelwerte zweier Stichproben vergleichen, liefert die Varianzanalyse das gleiche Ergebnis wie die normale Analyse. t- Kriterium für unabhängige Stichproben (wenn zwei unabhängige Gruppen von Objekten oder Beobachtungen verglichen werden), oder t- Kriterium für abhängige Stichproben (wenn zwei Variablen an denselben Objekten oder Beobachtungen verglichen werden). Wenn Sie mit diesen Kriterien nicht vertraut sind, empfehlen wir Ihnen, sich auf die einführende Übersicht des Kapitels zu beziehen (Kapitel 9).

Woher kommt der Name Varianzanalyse? Es mag seltsam erscheinen, dass das Verfahren zum Vergleichen von Mittelwerten als Varianzanalyse bezeichnet wird. Tatsächlich liegt dies daran, dass wir bei der Untersuchung der statistischen Signifikanz der Differenz zwischen den Mittelwerten eigentlich die Varianzen analysieren.

Aufteilen der Quadratsumme

Bei einem Stichprobenumfang von n wird die Stichprobenvarianz als Summe der quadrierten Abweichungen vom Stichprobenmittelwert dividiert durch n-1 (Stichprobenumfang minus eins) berechnet. Somit ist die Varianz für einen festen Stichprobenumfang n eine Funktion der Summe der Quadrate (Abweichungen), die der Kürze halber als SS(aus dem Englischen Summe der Quadrate - Summe der Quadrate). Die Varianzanalyse basiert auf der Teilung (oder Aufspaltung) der Varianz in Teile. Betrachten Sie den folgenden Datensatz:

Die Mittelwerte der beiden Gruppen unterscheiden sich signifikant (2 bzw. 6). Summe der quadrierten Abweichungen Innerhalb jeder Gruppe ist 2. Wenn wir sie zusammenzählen, erhalten wir 4. Wenn wir diese Berechnungen jetzt wiederholen ausschließlich Gruppenzugehörigkeit, das heißt, wenn wir rechnen SS basierend auf dem kombinierten Mittelwert der beiden Stichproben erhalten wir 28. Mit anderen Worten, die Varianz (Summe der Quadrate) basierend auf der gruppeninternen Variabilität ergibt viel kleinere Werte als wenn sie basierend auf der Gesamtvariabilität (relativ zur Gesamtvariabilität) berechnet wird bedeuten). Der Grund dafür ist offensichtlich der signifikante Unterschied zwischen den Mittelwerten, und dieser Unterschied zwischen den Mittelwerten erklärt den bestehenden Unterschied zwischen den Quadratsummen. In der Tat, wenn wir das Modul verwenden Varianzanalyse, werden folgende Ergebnisse erzielt:

Wie aus der Tabelle ersichtlich ist, die Gesamtsumme der Quadrate SS=28 geteilt in die Summe der Quadrate aufgrund konzernintern Variabilität ( 2+2=4 ; siehe zweite Zeile der Tabelle) und der Summe der Quadrate aufgrund der Differenz der Mittelwerte. (28-(2+2)=24; siehe erste Zeile der Tabelle).

SS Fehler uSS Wirkung. Variabilität innerhalb der Gruppe ( SS) wird üblicherweise als Varianz bezeichnet Fehler. Das bedeutet, dass es in der Regel nicht vorhersehbar oder erklärbar ist, wann ein Experiment durchgeführt wird. Andererseits, SS Wirkung(oder Intergruppenvariabilität) kann durch den Unterschied zwischen den Mittelwerten in den untersuchten Gruppen erklärt werden. Mit anderen Worten, Zugehörigkeit zu einer bestimmten Gruppe erklärt Intergruppenvariabilität, weil wir wissen, dass diese Gruppen unterschiedliche Mittel haben.

Bedeutungsprüfung. Die wichtigsten Ideen zum Testen auf statistische Signifikanz werden in diesem Kapitel erörtert Grundbegriffe der Statistik(Kapitel 8). Im selben Kapitel werden die Gründe erläutert, warum viele Tests das Verhältnis von erklärter und nicht erklärter Varianz verwenden. Ein Beispiel für diese Verwendung ist die Varianzanalyse selbst. Signifikanztests in ANOVA basieren auf dem Vergleich der Varianz aufgrund der Variation zwischen den Gruppen (genannt mittlerer quadratischer Effekt oder FRAUWirkung) und Streuung aufgrund der Streuung innerhalb der Gruppe (sog mittlerer quadratischer Fehler oder FRAUError). Wenn die Nullhypothese wahr ist (Gleichheit der Mittelwerte in den beiden Grundgesamtheiten), dann können wir aufgrund zufälliger Variabilität einen relativ kleinen Unterschied in den Mittelwerten der Stichprobe erwarten. Daher wird unter der Nullhypothese die gruppeninterne Varianz praktisch mit der ohne Berücksichtigung der Gruppenzugehörigkeit berechneten Gesamtvarianz übereinstimmen. Die resultierenden gruppeninternen Varianzen können mit verglichen werden F- Test, der prüft, ob das Verhältnis der Varianzen signifikant größer als 1 ist. Im obigen Beispiel gilt F- Der Test zeigt, dass der Unterschied zwischen den Mittelwerten statistisch signifikant ist.

Grundlegende Logik der ANOVA. Zusammenfassend können wir sagen, dass der Zweck der Varianzanalyse darin besteht, die statistische Signifikanz der Differenz zwischen den Mittelwerten (für Gruppen oder Variablen) zu testen. Diese Prüfung erfolgt mittels Varianzanalyse, d.h. indem die Gesamtvarianz (Variation) in Teile aufgeteilt wird, von denen einer auf einen zufälligen Fehler (d. h. gruppeninterne Variabilität) und der zweite auf die Differenz der Durchschnittswerte zurückzuführen ist. Die letzte Komponente der Varianz wird dann verwendet, um die statistische Signifikanz der Differenz zwischen den Mittelwerten zu analysieren. Wenn dieser Unterschied signifikant ist, wird die Nullhypothese verworfen und die Alternativhypothese akzeptiert, dass es einen Unterschied zwischen den Mittelwerten gibt.

Abhängige und unabhängige Variablen. Variablen, deren Werte durch Messungen während eines Experiments bestimmt werden (z. B. eine bei einem Test erzielte Punktzahl), werden aufgerufen abhängig Variablen. Variablen, die in einem Experiment manipuliert werden können (z. B. Trainingsmethoden oder andere Kriterien, mit denen Sie Beobachtungen in Gruppen einteilen können), werden aufgerufen Faktoren oder unabhängig Variablen. Diese Konzepte werden im Kapitel näher beschrieben Grundbegriffe der Statistik(Kapitel 8).

Multivariate Varianzanalyse

In dem einfachen Beispiel oben könnten Sie den t-Test für unabhängige Stichproben mit der entsprechenden Moduloption sofort berechnen Grundlegende Statistiken und Tabellen. Die erhaltenen Ergebnisse stimmen natürlich mit den Ergebnissen der Varianzanalyse überein. Die Varianzanalyse enthält jedoch flexible und leistungsstarke technische Werkzeuge, die für viel komplexere Studien verwendet werden können.

Viele Faktoren. Die Welt ist von Natur aus komplex und mehrdimensional. Situationen, in denen ein Phänomen vollständig durch eine Variable beschrieben wird, sind äußerst selten. Wenn wir zum Beispiel versuchen zu lernen, wie man große Tomaten anbaut, sollten wir Faktoren berücksichtigen, die mit der genetischen Struktur der Pflanzen, der Bodenart, dem Licht, der Temperatur usw. zusammenhängen. Bei der Durchführung eines typischen Experiments müssen Sie sich also mit einer Vielzahl von Faktoren auseinandersetzen. Der Hauptgrund, warum die Verwendung von ANOVA dem erneuten Vergleich von zwei Stichproben auf verschiedenen Ebenen von Faktoren vorzuziehen ist t- Kriterium ist, dass die Varianzanalyse mehr ist Wirksam und für kleine Stichproben informativer.

Faktormanagement. Nehmen wir an, dass wir in dem oben diskutierten Beispiel der Zwei-Stichproben-Analyse einen weiteren Faktor hinzufügen, zum Beispiel Boden- Geschlecht. Lassen Sie jede Gruppe aus 3 Männern und 3 Frauen bestehen. Das Design dieses Experiments kann in Form einer 2-mal-2-Tabelle dargestellt werden:

Experiment. Gruppe 1 Experiment. Gruppe 2
Männer2 6
3 7
1 5
Durchschnitt2 6
Frauen4 8
5 9
3 7
Durchschnitt4 8

Bevor Sie die Berechnungen durchführen, können Sie sehen, dass die Gesamtvarianz in diesem Beispiel mindestens drei Quellen hat:

(1) zufälliger Fehler (innerhalb der Gruppenvarianz),

(2) Variabilität, die mit der Mitgliedschaft in der Versuchsgruppe verbunden ist, und

(3) Variabilität aufgrund des Geschlechts der beobachteten Objekte.

(Beachten Sie, dass es eine weitere mögliche Quelle der Variabilität gibt - Zusammenspiel von Faktoren, worauf wir später noch eingehen werden). Was passiert, wenn wir nicht einschließen BodenGeschlecht als Faktor in die Analyse einbeziehen und das Übliche berechnen t-Kriterium? Wenn wir Quadratsummen berechnen, ignorieren wir Boden -Geschlecht(d.h. das Kombinieren von Objekten unterschiedlichen Geschlechts zu einer Gruppe bei der Berechnung der Varianz innerhalb der Gruppe, wobei die Summe der Quadrate für jede Gruppe gleich ist SS=10 und die Gesamtsumme der Quadrate SS= 10+10 = 20), dann erhalten wir einen größeren Wert der Intragruppenstreuung als bei einer genaueren Analyse mit zusätzlicher Einteilung in Untergruppen gem halb- Geschlecht(In diesem Fall ist der Mittelwert innerhalb der Gruppe gleich 2 und die Summe der Quadrate innerhalb der Gruppe ist gleich SS = 2+2+2+2 = 8). Dieser Unterschied ist darauf zurückzuführen, dass der Mittelwert für Männer - Männchen weniger als der Durchschnitt für Frauen -weiblich, und dieser Mittelwertunterschied erhöht die gesamte Variabilität innerhalb der Gruppe, wenn das Geschlecht nicht berücksichtigt wird. Die Steuerung der Fehlervarianz erhöht die Sensitivität (Power) des Tests.

Dieses Beispiel zeigt einen weiteren Vorteil der Varianzanalyse gegenüber der konventionellen Analyse. t-Kriterium für zwei Stichproben. Die Varianzanalyse ermöglicht es Ihnen, jeden Faktor zu untersuchen, indem Sie die Werte anderer Faktoren kontrollieren. Dies ist in der Tat der Hauptgrund für seine größere statistische Aussagekraft (kleinere Stichprobenumfänge sind erforderlich, um aussagekräftige Ergebnisse zu erhalten). Aus diesem Grund liefert die Varianzanalyse selbst bei kleinen Stichproben statistisch signifikantere Ergebnisse als eine einfache. t- Kriterium.

Interaktionseffekte

Es gibt einen weiteren Vorteil der Verwendung von ANOVA gegenüber der herkömmlichen Analyse. t- Kriterium: Varianzanalyse ermöglicht es Ihnen, zu erkennen Interaktion zwischen den Faktoren und ermöglicht daher die Untersuchung komplexerer Modelle. Betrachten Sie zur Veranschaulichung ein weiteres Beispiel.

Haupteffekte, paarweise (zweifaktorielle) Wechselwirkungen. Nehmen wir an, es gäbe zwei Schülergruppen, und die Schüler der ersten Gruppe seien psychologisch auf die Erfüllung der gestellten Aufgaben eingestellt und zielstrebiger als die Schüler der zweiten Gruppe, die aus fauleren Schülern besteht. Lassen Sie uns jede Gruppe zufällig in zwei Hälften teilen und der einen Hälfte jeder Gruppe eine schwierige und der anderen eine leichte Aufgabe stellen. Danach messen wir, wie hart die Schüler an diesen Aufgaben arbeiten. Die Mittelwerte für diese (fiktive) Studie sind in der Tabelle dargestellt:

Welche Schlussfolgerung lässt sich aus diesen Ergebnissen ziehen? Kann man daraus schließen, dass: (1) die Schüler härter an einer schwierigen Aufgabe arbeiten; (2) Arbeiten motivierte Schüler härter als faule? Keine dieser Aussagen spiegelt die Essenz der systematischen Natur der in der Tabelle angegebenen Durchschnittswerte wider. Wenn man die Ergebnisse analysiert, wäre es richtiger zu sagen, dass nur motivierte Schüler härter an komplexen Aufgaben arbeiten, während nur faule Schüler härter an einfachen Aufgaben arbeiten. Mit anderen Worten, die Art der Schüler und die Komplexität der Aufgabe interagieren wirken sich gegenseitig auf den erforderlichen Aufwand aus. Das ist ein Beispiel Paar Interaktion zwischen der Natur der Schüler und der Komplexität der Aufgabe. Beachten Sie, dass die Aussagen 1 und 2 beschreiben Haupteffekte.

Wechselwirkungen höherer Ordnung. Während paarweise Wechselwirkungen relativ einfach zu erklären sind, sind Wechselwirkungen höherer Ordnung viel schwieriger zu erklären. Stellen wir uns vor, dass in dem oben betrachteten Beispiel ein weiterer Faktor eingeführt wird Boden -Geschlecht und wir haben die folgende Durchschnittstabelle erhalten:

Welche Schlüsse lassen sich nun aus den gewonnenen Ergebnissen ziehen? Mean-Plots erleichtern die Interpretation komplexer Effekte. Mit dem Varianzanalysemodul können Sie diese Diagramme mit fast einem Klick erstellen.

Das Bild in den folgenden Grafiken repräsentiert die untersuchte Dreiwege-Wechselwirkung.

Wenn wir uns die Grafiken ansehen, können wir feststellen, dass es eine Wechselwirkung zwischen der Art und dem Schwierigkeitsgrad des Tests für Frauen gibt: Motivierte Frauen arbeiten härter an einer schwierigen Aufgabe als an einer leichten. Bei Männern ist die gleiche Wechselwirkung umgekehrt. Es ist ersichtlich, dass die Beschreibung der Wechselwirkung zwischen Faktoren verwirrender wird.

Allgemeine Art, Interaktionen zu beschreiben. Im allgemeinen Fall wird die Wechselwirkung zwischen Faktoren als Änderung eines Effekts unter dem Einfluss eines anderen beschrieben. In dem oben diskutierten Beispiel kann die Zwei-Faktoren-Interaktion als eine Änderung des Haupteffekts des Faktors beschrieben werden, der die Komplexität der Aufgabe charakterisiert, unter dem Einfluss des Faktors, der den Charakter des Schülers beschreibt. Für das Zusammenspiel der drei Faktoren aus dem vorigen Absatz können wir sagen, dass sich das Zusammenspiel zweier Faktoren (der Komplexität der Aufgabe und des Charakters des Schülers) unter dem Einfluss von verändert GeschlechtGeschlecht. Wenn das Zusammenspiel von vier Faktoren untersucht wird, können wir sagen, dass sich das Zusammenspiel von drei Faktoren unter dem Einfluss des vierten Faktors ändert, d.h. Es gibt verschiedene Arten von Wechselwirkungen auf verschiedenen Ebenen des vierten Faktors. Es zeigte sich, dass in vielen Bereichen das Zusammenspiel von fünf oder noch mehr Faktoren nicht ungewöhnlich ist.

Komplexe Pläne

Konzerninterne und konzerninterne Pläne (Neubewertungspläne)

Wenn man zwei verschiedene Gruppen vergleicht, verwendet man normalerweise t- Kriterium für unabhängige Stichproben (aus Modul Grundlegende Statistiken und Tabellen). Wenn zwei Variablen auf demselben Satz von Objekten (Beobachtungen) verglichen werden, wird es verwendet t-Kriterium für abhängige Stichproben. Für die Varianzanalyse ist es auch wichtig, ob die Stichproben abhängig sind oder nicht. Bei wiederholten Messungen derselben Variablen (unter verschiedenen Bedingungen oder zu verschiedenen Zeiten) für dieselben Objekte, dann sagen sie über die Anwesenheit Faktor für wiederholte Messungen(auch genannt ein gruppeninterner Faktor da die Summe der Quadrate innerhalb der Gruppe berechnet wird, um ihre Signifikanz zu bewerten). Werden verschiedene Gruppen von Objekten verglichen (zB Männer und Frauen, drei Bakterienstämme etc.), dann wird der Unterschied zwischen den Gruppen beschrieben Intergruppenfaktor. Die Methoden zur Berechnung der Signifikanzkriterien für die beiden beschriebenen Arten von Faktoren sind unterschiedlich, aber ihre allgemeine Logik und Interpretation sind gleich.

Gruppenübergreifende und gruppeninterne Pläne. In vielen Fällen erfordert das Experiment die Einbeziehung sowohl eines Zwischengruppenfaktors als auch eines Faktors für wiederholte Messungen in das Design. Gemessen werden beispielsweise die mathematischen Fähigkeiten von Schülerinnen und Schülern (wobei Boden -Geschlecht-Intergruppenfaktor) zu Beginn und am Ende des Semesters. Die beiden Dimensionen der Fähigkeiten jedes Schülers bilden den Faktor innerhalb der Gruppe (Faktor für wiederholte Messungen). Die Interpretation der Haupteffekte und Wechselwirkungen für Faktoren zwischen Gruppen und wiederholten Messungen ist dieselbe, und beide Arten von Faktoren können offensichtlich miteinander interagieren (z. B. erwerben Frauen während des Semesters Fähigkeiten und Männer verlieren sie).

Unvollständige (verschachtelte) Pläne

In vielen Fällen kann der Interaktionseffekt vernachlässigt werden. Dies tritt entweder auf, wenn bekannt ist, dass es keinen Interaktionseffekt in der Population gibt, oder wenn die Implementierung vollständig erfolgt Fakultät planen ist unmöglich. Untersucht wird beispielsweise die Wirkung von vier Kraftstoffadditiven auf den Kraftstoffverbrauch. Vier Autos und vier Fahrer werden ausgewählt. Voll Fakultät Das Experiment erfordert, dass jede Kombination: Beilage, Fahrer, Auto, mindestens einmal vorkommt. Dies erfordert mindestens 4 x 4 x 4 = 64 Testgruppen, was zu zeitaufwändig ist. Zudem gibt es kaum Wechselwirkungen zwischen Fahrer und Kraftstoffadditiv. In diesem Sinne können Sie den Plan verwenden lateinische Quadrate, die nur 16 Testgruppen enthält (vier Zusatzstoffe sind mit den Buchstaben A, B, C und D bezeichnet):

Lateinische Quadrate werden in den meisten experimentellen Designbüchern beschrieben (z. B. Hays, 1988; Lindman, 1974; Milliken und Johnson, 1984; Winer, 1962) und werden hier nicht im Detail besprochen. Beachten Sie, dass lateinische Quadrate sind nichtnvoll Pläne, die nicht alle Kombinationen von Faktorstufen enthalten. Beispiel: Fahrer 1 fährt Auto 1 nur mit Additiv A, Fahrer 3 fährt Auto 1 nur mit Additiv C. Faktorstufen Additive ( A, B, C und D) in Tabellenzellen verschachtelt Automobil x Fahrer - wie Eier in einem Nest. Diese mnemonische Regel ist nützlich, um die Natur zu verstehen verschachtelt oder verschachtelt Pläne. Modul Varianzanalyse bietet einfache Möglichkeiten, Pläne dieser Art zu analysieren.

Kovarianzanalyse

Hauptidee

Im Kapitel Schlüsselideen Die Idee der Kontrollfaktoren wurde kurz diskutiert und wie die Einbeziehung additiver Faktoren die Summe der quadratischen Fehler reduzieren und die statistische Aussagekraft des Designs erhöhen kann. All dies kann auf Variablen mit einer kontinuierlichen Menge von Werten erweitert werden. Wenn solche kontinuierlichen Variablen als Faktoren in das Design aufgenommen werden, werden sie aufgerufen Kovariaten.

Feste Kovariaten

Angenommen, wir vergleichen die mathematischen Fähigkeiten von zwei Gruppen von Schülern, die aus zwei verschiedenen Lehrbüchern unterrichtet wurden. Nehmen wir außerdem an, dass wir Daten zum Intelligenzquotienten (IQ) für jeden Schüler haben. Wir können davon ausgehen, dass der IQ mit mathematischen Fähigkeiten zusammenhängt, und diese Informationen verwenden. Für jede der beiden Schülergruppen kann der Korrelationskoeffizient zwischen IQ und mathematischen Fähigkeiten berechnet werden. Anhand dieses Korrelationskoeffizienten kann zwischen dem durch den IQ-Einfluss erklärten Anteil der Varianz in Gruppen und dem nicht erklärten Anteil der Varianz unterschieden werden (siehe auch Grundbegriffe der Statistik(Kapitel 8) und Grundlegende Statistiken und Tabellen(Kapitel 9)). Der verbleibende Bruchteil der Varianz wird in der Analyse als Fehlervarianz verwendet. Besteht ein Zusammenhang zwischen IQ und mathematischen Fähigkeiten, können die Fehlervarianzen deutlich reduziert werden. SS/(n-1) .

Wirkung von Kovariaten aufF- Kriterium. F- Das Kriterium bewertet die statistische Signifikanz der Differenz zwischen den Mittelwerten in den Gruppen, während das Verhältnis der Varianz zwischen den Gruppen berechnet wird ( FRAUWirkung) zur Fehlervarianz ( FRAUError) . Wenn ein FRAUError sinkt beispielsweise bei Berücksichtigung des IQ-Faktors der Wert F steigt.

Viele Kovariaten. Die oben für eine einzelne Kovariate (IQ) verwendete Argumentation lässt sich leicht auf mehrere Kovariaten übertragen. Beispielsweise können Sie neben dem IQ auch die Messung von Motivation, räumlichem Denken usw. einbeziehen. Anstelle des üblichen Korrelationskoeffizienten wird ein multipler Korrelationskoeffizient verwendet.

Wenn der WertF -Kriterien sinkt. Manchmal verringert die Einführung von Kovariaten in das Design des Experiments den Wert F- Kriterien . Dies weist normalerweise darauf hin, dass die Kovariaten nicht nur mit der abhängigen Variablen (z. B. mathematische Fähigkeiten), sondern auch mit Faktoren (z. B. verschiedenen Lehrbüchern) korrelieren. Angenommen, der IQ wird am Ende des Semesters gemessen, nachdem zwei Studentengruppen fast ein Jahr lang zwei verschiedene Lehrbücher studiert haben. Obwohl die Schüler nach dem Zufallsprinzip in Gruppen eingeteilt wurden, kann sich herausstellen, dass der Unterschied in den Lehrbüchern so groß ist, dass sowohl der IQ als auch die mathematischen Fähigkeiten in verschiedenen Gruppen stark variieren. In diesem Fall reduzieren die Kovariaten nicht nur die Fehlervarianz, sondern auch die Varianz zwischen den Gruppen. Mit anderen Worten, nachdem der Unterschied im IQ zwischen den Gruppen kontrolliert wurde, ist der Unterschied in den mathematischen Fähigkeiten nicht mehr signifikant. Es kann anders gesagt werden. Nachdem der Einfluss des IQ „eliminiert“ wurde, wird der Einfluss des Lehrbuchs auf die Entwicklung mathematischer Fähigkeiten versehentlich ausgeschlossen.

Angepasste Durchschnittswerte. Wenn die Kovariate den Faktor zwischen den Gruppen beeinflusst, sollte man rechnen angepasste Durchschnittswerte, d.h. solche Mittelwerte, die nach Entfernen aller Schätzungen der Kovariaten erhalten werden.

Interaktion zwischen Kovariaten und Faktoren. So wie Wechselwirkungen zwischen Faktoren untersucht werden, können Wechselwirkungen zwischen Kovariaten und zwischen Gruppen von Faktoren untersucht werden. Angenommen, eines der Lehrbücher ist besonders für intelligente Schüler geeignet. Das zweite Lehrbuch ist für intelligente Schüler langweilig, und das gleiche Lehrbuch ist für weniger intelligente Schüler schwierig. Als Ergebnis gibt es eine positive Korrelation zwischen IQ und Lernergebnissen in der ersten Gruppe (klügere Schüler, bessere Ergebnisse) und keine oder nur eine geringe negative Korrelation in der zweiten Gruppe (je klüger der Schüler, desto unwahrscheinlicher ist es, dass er mathematische Fähigkeiten erwirbt aus dem zweiten Lehrbuch). In einigen Studien wird diese Situation als Beispiel für die Verletzung der Annahmen der Kovarianzanalyse diskutiert. Da das Modul Varianzanalyse jedoch die gebräuchlichsten Methoden zur Analyse der Kovarianz verwendet, ist es insbesondere möglich, die statistische Signifikanz der Wechselwirkung zwischen Faktoren und Kovariaten zu bewerten.

Variable Kovariaten

Während feste Kovariaten in Lehrbüchern häufig diskutiert werden, werden variable Kovariaten viel seltener erwähnt. Normalerweise interessieren uns bei der Durchführung von Experimenten mit wiederholten Messungen Unterschiede in Messungen derselben Größen zu verschiedenen Zeitpunkten. Uns interessiert nämlich die Signifikanz dieser Unterschiede. Wenn gleichzeitig mit den Messungen der abhängigen Variablen eine Kovariatenmessung durchgeführt wird, kann die Korrelation zwischen der Kovariate und der abhängigen Variablen berechnet werden.

So können Sie zum Beispiel zu Beginn und am Ende des Semesters Interesse an Mathematik und Mathematikkenntnissen studieren. Es wäre interessant zu prüfen, ob Änderungen im Interesse an Mathematik mit Änderungen in mathematischen Fähigkeiten korrelieren.

Modul Varianzanalyse in STATISTIKEN bewertet nach Möglichkeit automatisch die statistische Signifikanz von Änderungen in Kovariaten in diesen Plänen.

Multivariate Designs: Multivariate ANOVA und Kovarianzanalyse

Gruppenübergreifende Pläne

Alle zuvor betrachteten Beispiele enthielten nur eine abhängige Variable. Bei mehreren abhängigen Variablen gleichzeitig steigt nur die Komplexität der Berechnungen, Inhalt und Grundprinzipien ändern sich nicht.

Beispielsweise wird eine Studie zu zwei verschiedenen Lehrbüchern durchgeführt. Gleichzeitig wird der Erfolg der Studierenden im Studium der Physik und Mathematik untersucht. In diesem Fall gibt es zwei abhängige Variablen und Sie müssen herausfinden, wie zwei verschiedene Lehrbücher sie gleichzeitig beeinflussen. Dazu können Sie die multivariate Varianzanalyse (MANOVA) verwenden. Statt eindimensional F Kriterium, mehrdimensional F Test (Wilks l-Test) basierend auf dem Vergleich der Fehler-Kovarianz-Matrix und der Intergruppen-Kovarianz-Matrix.

Sind die abhängigen Variablen miteinander korreliert, so sollte diese Korrelation bei der Berechnung des Signifikanztests berücksichtigt werden. Wenn dieselbe Messung zweimal wiederholt wird, kann in diesem Fall natürlich nichts Neues erhalten werden. Wenn eine damit korrelierte Dimension zu einer bestehenden Dimension hinzugefügt wird, erhält man einige neue Informationen, aber die neue Variable enthält redundante Informationen, was sich in der Kovarianz zwischen den Variablen widerspiegelt.

Interpretation der Ergebnisse. Wenn das multivariate Gesamtkriterium signifikant ist, können wir schlussfolgern, dass der entsprechende Effekt (z. B. Lehrbuchtyp) signifikant ist. Allerdings stellen sich folgende Fragen. Beeinflusst die Art des Lehrbuchs nur die Verbesserung der mathematischen Fähigkeiten, nur der körperlichen Fähigkeiten oder beides? Tatsächlich ist nach Erhalt eines sinnvollen multivariaten Kriteriums für einen einzelnen Haupteffekt oder eine Wechselwirkung eindimensional F Kriterium. Mit anderen Worten, abhängige Variablen, die zur Signifikanz des multivariaten Tests beitragen, werden separat untersucht.

Pläne mit wiederholten Messungen

Werden die mathematischen und körperlichen Fähigkeiten der Studierenden zu Beginn und am Ende des Semesters gemessen, handelt es sich um Wiederholungsmessungen. Die Untersuchung des Signifikanzkriteriums in solchen Plänen ist eine logische Weiterentwicklung des eindimensionalen Falls. Beachten Sie, dass multivariate ANOVA-Methoden auch häufig verwendet werden, um die Signifikanz von univariaten Faktoren mit wiederholten Messungen zu untersuchen, die mehr als zwei Ebenen haben. Die entsprechenden Anwendungen werden später in diesem Teil besprochen.

Summierung von Variablenwerten und multivariate Varianzanalyse

Selbst erfahrene Benutzer der univariaten und multivariaten ANOVA sind oft verwirrt, wenn sie unterschiedliche Ergebnisse erhalten, wenn sie die multivariate ANOVA beispielsweise auf drei Variablen anwenden und wenn sie die univariate ANOVA auf die Summe dieser drei Variablen als eine einzelne Variable anwenden.

Idee Summe Variablen besteht darin, dass jede Variable eine wahre Variable enthält, die untersucht wird, sowie einen zufälligen Messfehler. Wenn Sie also die Werte der Variablen mitteln, liegt der Messfehler für alle Messungen näher bei 0 und die gemittelten Werte sind zuverlässiger. Tatsächlich ist in diesem Fall die Anwendung von ANOVA auf die Summe der Variablen sinnvoll und eine leistungsfähige Technik. Wenn die abhängigen Variablen jedoch multivariater Natur sind, ist das Summieren der Werte der Variablen ungeeignet.

Lassen Sie die abhängigen Variablen beispielsweise aus vier Maßen bestehen Erfolg in der Gesellschaft. Jeder Indikator charakterisiert eine völlig unabhängige Seite des menschlichen Handelns (z. B. beruflicher Erfolg, geschäftlicher Erfolg, familiäres Wohlbefinden usw.). Das Addieren dieser Variablen ist wie das Addieren eines Apfels und einer Orange. Die Summe dieser Variablen wäre kein geeignetes univariates Maß. Daher müssen solche Daten als multidimensionale Indikatoren behandelt werden Multivariate Varianzanalyse.

Kontrastanalyse und Post-Hoc-Tests

Warum werden einzelne Mittelwerte verglichen?

Normalerweise werden Hypothesen über experimentelle Daten nicht einfach in Bezug auf Haupteffekte oder Wechselwirkungen formuliert. Ein Beispiel wäre die folgende Hypothese: Ein bestimmtes Lehrbuch verbessert die mathematischen Fähigkeiten nur bei männlichen Schülern, während ein anderes Lehrbuch für beide Geschlechter ungefähr gleich effektiv ist, aber noch weniger effektiv für Männer. Es kann vorhergesagt werden, dass die Schulbuchleistung mit dem Geschlecht der Schüler interagiert. Allerdings trifft auch diese Prognose zu Natur Interaktionen. Für Studierende des einen Buches wird ein signifikanter Unterschied zwischen den Geschlechtern erwartet, für Studierende des anderen Buches praktisch geschlechtsunabhängige Ergebnisse. Diese Art von Hypothese wird normalerweise mithilfe der Kontrastanalyse untersucht.

Kontrastanalyse

Kurz gesagt, die Kontrastanalyse ermöglicht es uns, die statistische Signifikanz einiger linearer Kombinationen komplexer Effekte zu bewerten. Die Kontrastanalyse ist das wichtigste und unverzichtbare Element jedes komplexen ANOVA-Plans. Modul Varianzanalyse verfügt über eine Vielzahl von Kontrastanalysefunktionen, mit denen Sie jede Art von Mittelwertvergleich auswählen und analysieren können.

A posteriori Vergleiche

Manchmal wird als Ergebnis der Verarbeitung eines Experiments ein unerwarteter Effekt entdeckt. Obwohl in den meisten Fällen ein kreativer Forscher in der Lage sein wird, jedes Ergebnis zu erklären, bietet dies keine Möglichkeiten für weitere Analysen und Schätzungen für die Prognose. Dieses Problem ist eines von denen, für die Post-hoc-Kriterien, also Kriterien, die nicht verwendet werden a priori Hypothesen. Betrachten Sie zur Veranschaulichung das folgende Experiment. Angenommen, 100 Karten enthalten Zahlen von 1 bis 10. Nachdem wir alle diese Karten in die Kopfzeile gelegt haben, wählen wir zufällig 20 mal 5 Karten aus und berechnen den Durchschnittswert für jede Stichprobe (den Durchschnitt der auf den Karten geschriebenen Zahlen). Können wir erwarten, dass es zwei Stichproben gibt, deren Mittelwerte signifikant unterschiedlich sind? Das ist sehr plausibel! Indem man zwei Abtastungen mit dem maximalen und minimalen Mittelwert wählt, kann man eine Differenz in den Mittelwerten erhalten, die sich sehr von der Differenz in den Mittelwerten beispielsweise der ersten zwei Abtastungen unterscheidet. Dieser Unterschied kann beispielsweise mittels Kontrastanalyse untersucht werden. Ohne auf Details einzugehen, gibt es mehrere sog A posteriori Kriterien, die genau auf dem ersten Szenario basieren (extreme Mittelwerte aus 20 Stichproben nehmen), d. h. diese Kriterien basieren auf der Auswahl der unterschiedlichsten Mittelwerte, um alle Mittelwerte im Design zu vergleichen. Diese Kriterien werden angewendet, um nicht rein zufällig einen künstlichen Effekt zu erzielen, beispielsweise um einen signifikanten Unterschied zwischen den Mitteln zu finden, wenn es keinen gibt. Modul Varianzanalyse bietet eine breite Palette solcher Kriterien. Wenn bei einem Experiment mit mehreren Gruppen unerwartete Ergebnisse auftreten, wird die A posteriori Verfahren zur Prüfung der statistischen Signifikanz der erzielten Ergebnisse.

Summe der Quadrate Typ I, II, III und IV

Multivariate Regression und Varianzanalyse

Zwischen der Methode der multivariaten Regression und der Varianzanalyse (Varianzanalyse) besteht ein enger Zusammenhang. Bei beiden Verfahren wird ein lineares Modell untersucht. Kurz gesagt, fast alle experimentellen Designs können mit multivariater Regression untersucht werden. Betrachten Sie den folgenden einfachen gruppenübergreifenden 2 x 2-Plan.

DV EIN B AxB
3 1 1 1
4 1 1 1
4 1 -1 -1
5 1 -1 -1
6 -1 1 -1
6 -1 1 -1
3 -1 -1 1
2 -1 -1 1

Die Spalten A und B enthalten Codes, die die Ebenen der Faktoren A und B charakterisieren, die Spalte AxB enthält das Produkt zweier Spalten A und B. Wir können diese Daten mithilfe der multivariaten Regression analysieren. Variable DV definiert als abhängige Variable, Variablen aus EIN Vor AxB als unabhängige Variablen. Die Untersuchung der Signifikanz für die Regressionskoeffizienten wird mit den Berechnungen in der Varianzanalyse der Signifikanz der Haupteffekte der Faktoren zusammenfallen EIN und B und Interaktionseffekt AxB.

Unausgeglichene und ausgewogene Pläne

Bei der Berechnung der Korrelationsmatrix für alle Variablen, beispielsweise für die oben abgebildeten Daten, zeigt sich, dass die Haupteffekte der Faktoren EIN und B und Interaktionseffekt AxB unkorreliert. Diese Eigenschaft von Effekten wird auch als Orthogonalität bezeichnet. Sie sagen, dass die Auswirkungen EIN und B - senkrecht oder unabhängig gegenseitig. Wenn alle Effekte im Plan orthogonal zueinander sind, wie im obigen Beispiel, dann wird der Plan als orthogonal bezeichnet ausgewogen.

Ausgewogene Pläne haben die „gute Eigenschaft“. Die Berechnungen bei der Analyse solcher Pläne sind sehr einfach. Alle Berechnungen reduzieren sich auf die Berechnung der Korrelation zwischen Effekten und abhängigen Variablen. Da die Effekte orthogonal sind, sind partielle Korrelationen (wie in full mehrdimensional Regressionen) werden nicht berechnet. Im wirklichen Leben sind Pläne jedoch nicht immer ausgewogen.

Betrachten Sie reale Daten mit einer ungleichen Anzahl von Beobachtungen in Zellen.

Faktor A Faktor B
B1 B2
A1 3 4, 5
A2 6, 6, 7 2

Wenn wir diese Daten wie oben codieren und die Korrelationsmatrix für alle Variablen berechnen, dann stellt sich heraus, dass die Designfaktoren miteinander korrelieren. Faktoren im Plan sind jetzt nicht orthogonal und solche Pläne werden aufgerufen unausgeglichen. Beachten Sie, dass in diesem Beispiel die Korrelation zwischen den Faktoren vollständig mit der Differenz der Häufigkeiten von 1 und -1 in den Spalten der Datenmatrix zusammenhängt. Mit anderen Worten, experimentelle Designs mit ungleichen Zellvolumina (genauer: disproportionalen Volumina) werden unausgeglichen sein, was bedeutet, dass sich die Haupteffekte und Wechselwirkungen vermischen. In diesem Fall müssen Sie zur Berechnung der statistischen Signifikanz der Effekte die multivariate Regression vollständig berechnen. Hier gibt es mehrere Strategien.

Summe der Quadrate Typ I, II, III und IV

Typ Summe der QuadrateichundIII. Um die Signifikanz jedes Faktors in einem multivariaten Modell zu untersuchen, kann man die partielle Korrelation jedes Faktors berechnen, vorausgesetzt, dass alle anderen Faktoren bereits im Modell berücksichtigt sind. Sie können Faktoren auch schrittweise in das Modell eingeben, indem Sie alle bereits in das Modell eingegebenen Faktoren fixieren und alle anderen Faktoren ignorieren. Im Allgemeinen ist dies der Unterschied zwischen Typ III und Typich Summen von Quadraten (diese Terminologie wurde in SAS eingeführt, siehe z. B. SAS, 1982; eine ausführliche Diskussion findet sich auch in Searle, 1987, S. 461; Woodward, Bonett, and Brecht, 1990, S. 216; oder Milliken and Johnson, 1984, S. 138).

Typ Summe der QuadrateII. Die nächste „Zwischen“-Modellbildungsstrategie ist: alle Haupteffekte bei der Untersuchung der Signifikanz eines einzelnen Haupteffekts zu kontrollieren; bei der Kontrolle aller Haupteffekte und aller paarweisen Wechselwirkungen, wenn die Signifikanz einer einzelnen paarweisen Wechselwirkung untersucht wird; bei der Kontrolle aller Haupteffekte aller paarweisen Wechselwirkungen und aller Wechselwirkungen von drei Faktoren; bei der Untersuchung einer getrennten Wechselwirkung von drei Faktoren usw. Die so berechneten Quadratsummen für Effekte werden aufgerufen TypII Summen von Quadraten. So, Art derII Quadratsummen steuert alle Effekte der gleichen Ordnung und darunter, wobei alle Effekte einer höheren Ordnung ignoriert werden.

Typ Summe der QuadrateIV. Schließlich ist es für einige spezielle Pläne mit fehlenden Zellen (unvollständige Pläne) möglich, die sog Typ IV Summen von Quadraten. Auf diese Methode wird später im Zusammenhang mit unvollständigen Plänen (Pläne mit fehlenden Zellen) eingegangen.

Interpretation der Quadratsummenvermutung der Typen I, II und III

Quadratsumme TypIII am einfachsten zu interpretieren. Daran erinnern, dass die Summen der Quadrate TypIII Untersuchen Sie die Effekte, nachdem Sie alle anderen Effekte kontrolliert haben. Zum Beispiel nach dem Auffinden eines statistisch signifikanten TypIII Effekt für den Faktor EIN im Modul Varianzanalyse, können wir sagen, dass es einen einzigen signifikanten Effekt des Faktors gibt EIN, nach Einführung aller anderen Effekte (Faktoren) und interpretieren Sie diesen Effekt entsprechend. Wahrscheinlich in 99% aller Anwendungen der Varianzanalyse ist diese Art von Kriterium für den Forscher von Interesse. Diese Art der Quadratsumme wird normalerweise im Modul berechnet Varianzanalyse standardmäßig, unabhängig davon, ob die Option ausgewählt ist Regressionsansatz oder nicht (im Modul angenommene Standardansätze Varianzanalyse nachfolgend diskutiert).

Signifikante Effekte, die unter Verwendung von Quadratsummen erhalten werden Typ oder TypII Quadratsummen sind nicht so einfach zu interpretieren. Sie lassen sich am besten im Zusammenhang mit der schrittweisen multivariaten Regression interpretieren. Wenn Sie die Summe der Quadrate verwenden Typich der Haupteffekt von Faktor B signifikant war (nach Einbeziehung von Faktor A in das Modell, aber vor Hinzufügen der Wechselwirkung zwischen A und B), kann gefolgert werden, dass es einen signifikanten Haupteffekt von Faktor B gibt, sofern es keinen gibt Wechselwirkung zwischen den Faktoren A und B. (Bei Verwendung des Kriteriums TypIII, Faktor B ebenfalls signifikant, dann können wir auf einen signifikanten Haupteffekt von Faktor B schließen, nachdem wir alle anderen Faktoren und ihre Wechselwirkungen in das Modell aufgenommen haben).

In Bezug auf die Randmittel der Hypothese Typich und TypII haben normalerweise keine einfache Interpretation. In diesen Fällen wird gesagt, dass man die Signifikanz der Effekte nicht interpretieren kann, indem man nur die Randmittel betrachtet. eher präsentiert p Mittelwerte beziehen sich auf eine komplexe Hypothese, die Mittelwerte und Stichprobengröße kombiniert. Zum Beispiel, Art derII Die Hypothesen für den Faktor A in dem zuvor diskutierten einfachen 2 x 2-Entwurfsbeispiel wären (siehe Woodward, Bonett und Brecht, 1990, S. 219):

nij- Anzahl der Beobachtungen in einer Zelle

uij- Durchschnittswert in einer Zelle

n. j- marginaler Durchschnitt

Ohne ins Detail zu gehen (für weitere Einzelheiten siehe Milliken und Johnson, 1984, Kapitel 10), ist klar, dass dies keine einfachen Hypothesen sind und in den meisten Fällen keine von ihnen für den Forscher von besonderem Interesse ist. Es gibt jedoch Fälle, in denen die Hypothesen Typich kann von Interesse sein.

Der standardmäßige Berechnungsansatz im Modul Varianzanalyse

Standard, wenn die Option nicht aktiviert ist Regressionsansatz, Modul Varianzanalyse Verwendet Zelldurchschnittsmodell. Charakteristisch für dieses Modell ist, dass die Quadratsummen für verschiedene Effekte für Linearkombinationen von Zellmittelwerten berechnet werden. In einem vollfaktoriellen Experiment führt dies zu Quadratsummen, die mit den zuvor besprochenen Quadratsummen identisch sind Art der III. Allerdings in der Option Geplante Vergleiche(im Fenster Analyse der Varianzergebnisse) kann der Benutzer Hypothesen zu jeder linearen Kombination von gewichteten oder ungewichteten Zellenmittelwerten aufstellen. Somit kann der Nutzer nicht nur Hypothesen testen TypIII, aber Hypothesen jeglicher Art (einschließlich Art derIV). Dieser allgemeine Ansatz ist besonders nützlich, wenn Designs mit fehlenden Zellen (sogenannte unvollständige Designs) untersucht werden.

Für vollfaktorielle Versuchspläne ist dieser Ansatz auch nützlich, wenn man gewichtete Randmittel analysieren möchte. Nehmen wir zum Beispiel an, dass wir in dem zuvor betrachteten einfachen 2 x 2-Design die gewichteten (in Bezug auf Faktorstufen) vergleichen möchten. B) marginale Mittelwerte für Faktor A. Dies ist nützlich, wenn die Verteilung der Beobachtungen über Zellen nicht vom Experimentator vorbereitet, sondern zufällig konstruiert wurde, und diese Zufälligkeit sich in der Verteilung der Anzahl der Beobachtungen nach Niveaus von Faktor B im Aggregat widerspiegelt .

Zum Beispiel gibt es einen Faktor - das Alter der Witwen. Eine mögliche Stichprobe von Befragten wird in zwei Gruppen eingeteilt: jünger als 40 und älter als 40 (Faktor B). Der zweite Faktor (Faktor A) im Plan ist, ob Witwen soziale Unterstützung von irgendeiner Stelle erhalten haben oder nicht (während einige Witwen nach dem Zufallsprinzip ausgewählt wurden, dienten andere als Kontrollen). In diesem Fall spiegelt die Altersverteilung der Witwen in der Stichprobe die tatsächliche Altersverteilung der Witwen in der Bevölkerung wider. Bewertung der Wirksamkeit der sozialen Unterstützungsgruppe für Witwen jedes Alter entspricht dem gewichteten Durchschnitt für die beiden Altersgruppen (mit Gewichtungen, die der Anzahl der Beobachtungen in der Gruppe entsprechen).

Geplante Vergleiche

Beachten Sie, dass die Summe der eingegebenen Kontrastverhältnisse nicht unbedingt gleich 0 (Null) sein muss. Stattdessen nimmt das Programm automatisch Anpassungen vor, damit sich die entsprechenden Hypothesen nicht mit dem Gesamtdurchschnitt vermischen.

Um dies zu veranschaulichen, kehren wir zu dem einfachen 2 x 2-Plan zurück, der zuvor besprochen wurde. Erinnern Sie sich, dass die Zellenzahlen dieses unausgeglichenen Designs -1, 2, 3 und 1 sind. Angenommen, wir möchten die gewichteten marginalen Mittelwerte für Faktor A vergleichen (gewichtet mit der Häufigkeit der Faktor-B-Stufen). Sie können Kontrastverhältnisse eingeben:

Beachten Sie, dass sich diese Koeffizienten nicht zu 0 addieren. Das Programm stellt die Koeffizienten so ein, dass sie sich zu 0 addieren, während ihre relativen Werte beibehalten werden, d. h.:

1/3 2/3 -3/4 -1/4

Diese Kontraste vergleichen die gewichteten Mittelwerte für Faktor A.

Hypothesen über den Hauptmittelwert. Die Hypothese, dass der ungewichtete Hauptmittelwert 0 ist, kann mithilfe von Koeffizienten untersucht werden:

Die Hypothese, dass der gewichtete Hauptmittelwert 0 ist, wird getestet mit:

In keinem Fall korrigiert das Programm die Kontrastverhältnisse.

Analyse von Plänen mit fehlenden Zellen (unvollständige Pläne)

Faktorische Versuchspläne mit leeren Zellen (Verarbeitung von Kombinationen von Zellen, in denen keine Beobachtungen vorhanden sind) werden als unvollständig bezeichnet. In solchen Designs sind einige Faktoren normalerweise nicht orthogonal und einige Wechselwirkungen können nicht berechnet werden. Im Allgemeinen gibt es keine bessere Methode zur Analyse solcher Pläne.

Regressionsansatz

In einigen älteren Programmen, die auf der Analyse von ANOVA-Versuchsplänen mittels multivariater Regression basieren, werden die Faktoren in unvollständigen Versuchsplänen standardmäßig auf die übliche Weise gesetzt (als ob der Plan vollständig wäre). Für diese Dummy-codierten Faktoren wird dann eine multivariate Regressionsanalyse durchgeführt. Leider führt diese Methode zu Ergebnissen, die sehr schwierig, wenn nicht sogar unmöglich zu interpretieren sind, da nicht klar ist, wie jeder Effekt zu der linearen Kombination von Mittelwerten beiträgt. Betrachten Sie das folgende einfache Beispiel.

Faktor A Faktor B
B1 B2
A1 3 4, 5
A2 6, 6, 7 Verpasst

Wenn multivariate Regression des Formulars Abhängige Variable = Konstante + Faktor A + Faktor B, dann sieht die Hypothese über die Signifikanz der Faktoren A und B in Bezug auf lineare Mittelwertkombinationen so aus:

Faktor A: Zelle A1,B1 = Zelle A2,B1

Faktor B: Zelle A1, B1 = Zelle A1, B2

Dieser Fall ist einfach. Bei komplexeren Plänen lässt sich nicht genau bestimmen, was genau untersucht wird.

Mittlere Zellen, Varianzanalyse-Ansatz , Typ-IV-Hypothesen

Ein in der Literatur empfohlener und vorzugswürdig erscheinender Ansatz ist die Untersuchung sinnvoller (im Sinne von Forschungsaufgaben) a priori Hypothesen über die in den Zellen des Plans beobachteten Mittel. Eine ausführliche Diskussion dieses Ansatzes findet sich in Dodge (1985), Heiberger (1989), Milliken und Johnson (1984), Searle (1987) oder Woodward, Bonett und Brecht (1990). Quadratsummen, die mit Hypothesen über eine lineare Kombination von Mittelwerten in unvollständigen Designs verbunden sind und Schätzungen eines Teils der Effekte untersuchen, werden auch als Quadratsummen bezeichnet. IV.

Automatische Generierung von TyphypothesenIV. Wenn multivariate Designs ein komplexes fehlendes Zellmuster aufweisen, ist es wünschenswert, orthogonale (unabhängige) Hypothesen zu definieren, deren Untersuchung der Untersuchung von Haupteffekten oder Wechselwirkungen entspricht. Algorithmische (Rechen-)Strategien (basierend auf der pseudoinversen Entwurfsmatrix) wurden entwickelt, um geeignete Gewichtungen für solche Vergleiche zu erzeugen. Leider sind die endgültigen Hypothesen nicht eindeutig bestimmt. Sie hängen natürlich von der Reihenfolge ab, in der die Effekte definiert wurden, und sind selten einfach zu interpretieren. Daher wird empfohlen, die Art der fehlenden Zellen sorgfältig zu untersuchen und dann Hypothesen zu formulieren TypIV, die für die Ziele der Studie am relevantesten sind. Untersuchen Sie diese Hypothesen dann mit der Option Geplante Vergleiche im Fenster Ergebnisse. Der einfachste Weg, Vergleiche in diesem Fall anzugeben, besteht darin, die Einführung eines Kontrastvektors für alle Faktoren zu fordern zusammen im Fenster Geplante Vergleiche. Nach Aufruf des Dialogfensters Geplante Vergleiche alle Gruppen des aktuellen Plans werden angezeigt und die ausgelassenen werden markiert.

Übersprungene Zellen und spezifische Effektprüfung

Es gibt mehrere Arten von Plänen, bei denen die Position der fehlenden Zellen nicht zufällig, sondern sorgfältig geplant ist, was eine einfache Analyse der Haupteffekte ermöglicht, ohne andere Effekte zu beeinflussen. Wenn beispielsweise die erforderliche Anzahl von Zellen in einem Plan nicht verfügbar ist, werden häufig Pläne verwendet. Lateinische Quadrate um die Haupteffekte mehrerer Faktoren mit einer großen Anzahl von Ebenen abzuschätzen. Beispielsweise erfordert ein 4 x 4 x 4 x 4 faktorielles Design 256 Zellen. Gleichzeitig können Sie verwenden Griechisch-lateinisches Quadrat um die Haupteffekte abzuschätzen, mit nur 16 Zellen im Plan (Kap. Versuchsplanung, Band IV, enthält eine detaillierte Beschreibung solcher Pläne). Unvollständige Designs, bei denen die Haupteffekte (und einige Wechselwirkungen) mit einfachen linearen Kombinationen von Mittelwerten geschätzt werden können, werden aufgerufen ausgeglichene unvollständige Pläne.

In balancierten Designs führt die standardmäßige (Standard-)Methode zur Generierung von Kontrasten (Gewichtungen) für Haupteffekte und Wechselwirkungen dann zu einer Varianztabellenanalyse, bei der sich die Quadratsummen für die jeweiligen Effekte nicht miteinander mischen. Möglichkeit Spezifische Effekte Fenster Ergebnisse erzeugt fehlende Kontraste, indem Null in die fehlenden Planzellen geschrieben wird. Unmittelbar nachdem die Option angefordert wurde Spezifische Effekte Für einen Benutzer, der eine Hypothese untersucht, erscheint eine Ergebnistabelle mit den tatsächlichen Gewichten. Beachten Sie, dass in einem ausgewogenen Design die Quadratsummen der jeweiligen Effekte nur dann berechnet werden, wenn diese Effekte orthogonal (unabhängig) zu allen anderen Haupteffekten und Wechselwirkungen sind. Verwenden Sie andernfalls die Option Geplante Vergleiche um aussagekräftige Vergleiche zwischen Mittelwerten zu untersuchen.

Fehlende Zellen und kombinierte Fehlereffekte/Mitglieder

Wenn Option Regressionsansatz im Startbereich des Moduls Varianzanalyse nicht ausgewählt ist, wird das Zellmittelwertmodell verwendet, wenn die Summe der Quadrate für die Effekte berechnet wird (Standardeinstellung). Wenn das Design nicht ausgewogen ist, dann beim Kombinieren von nicht-orthogonalen Effekten (siehe obige Diskussion der Option Fehlende Zellen und spezifische Wirkung) kann man eine Summe von Quadraten erhalten, die aus nicht-orthogonalen (oder überlappenden) Komponenten bestehen. Die so gewonnenen Ergebnisse sind in der Regel nicht interpretierbar. Daher muss man bei der Auswahl und Implementierung komplexer unvollständiger experimenteller Designs sehr vorsichtig sein.

Es gibt viele Bücher mit detaillierten Diskussionen über verschiedene Arten von Plänen. (Dodge, 1985; Heiberger, 1989; Lindman, 1974; Milliken und Johnson, 1984; Searle, 1987; Woodward und Bonett, 1990), aber diese Art von Informationen würde den Rahmen dieses Lehrbuchs sprengen. Eine Analyse verschiedener Arten von Plänen wird jedoch später in diesem Abschnitt demonstriert.

Annahmen und Auswirkungen der Verletzung von Annahmen

Abweichung von der Annahme der Normalverteilung

Angenommen, die abhängige Variable wird auf einer numerischen Skala gemessen. Nehmen wir außerdem an, dass die abhängige Variable innerhalb jeder Gruppe normalverteilt ist. Varianzanalyse enthält eine Vielzahl von Grafiken und Statistiken, um diese Annahme zu untermauern.

Verletzungseffekte. Allgemein F das Kriterium ist sehr widerstandsfähig gegenüber Abweichungen von der Normalität (siehe Lindman, 1974 für detaillierte Ergebnisse). Wenn die Kurtosis größer als 0 ist, dann der Wert der Statistik F kann sehr klein werden. Die Nullhypothese wird akzeptiert, obwohl sie möglicherweise nicht wahr ist. Die Situation ist umgekehrt, wenn die Kurtosis kleiner als 0 ist. Die Schiefe der Verteilung hat normalerweise wenig Einfluss auf F Statistiken. Wenn die Anzahl der Beobachtungen in einer Zelle groß genug ist, dann spielt die Abweichung von der Normalität aufgrund von keine große Rolle zentraler Grenzwertsatz, wonach die Verteilung des Mittelwerts unabhängig von der Ausgangsverteilung nahezu normal ist. Ausführliche Diskussion über Nachhaltigkeit F Statistiken finden sich in Box und Anderson (1955) oder Lindman (1974).

Homogenität der Dispersion

Annahmen. Es wird angenommen, dass die Varianzen verschiedener Gruppen des Plans gleich sind. Diese Annahme wird Annahme genannt Dispersionshomogenität. Erinnern Sie sich daran, dass wir zu Beginn dieses Abschnitts bei der Beschreibung der Berechnung der Summe der quadrierten Fehler eine Summierung innerhalb jeder Gruppe durchgeführt haben. Wenn sich die Varianzen in zwei Gruppen voneinander unterscheiden, ist ihre Addition nicht sehr natürlich und ergibt keine Schätzung der gesamten Varianz innerhalb der Gruppe (da in diesem Fall überhaupt keine allgemeine Varianz vorliegt). Modul Ausbreitungsanalyse -ANOVA/MANOVA enthält einen großen Satz statistischer Kriterien zum Erkennen von Abweichungen von den Annahmen der Varianzhomogenität.

Verletzungseffekte. Lindman (1974, S. 33) zeigt das F das Kriterium ist ziemlich stabil in Bezug auf die Verletzung der Annahmen der Homogenität der Varianz ( Heterogenität Dispersion, siehe auch Box, 1954a, 1954b; Hsu, 1938).

Sonderfall: Korrelation von Mittelwerten und Varianzen. Es gibt Zeiten, in denen F Statistiken können irreführen. Dies geschieht, wenn die Mittelwerte in den Designzellen mit der Varianz korreliert werden. Modul Varianzanalyse können Sie Varianz- oder Standardabweichungs-Streudiagramme gegen Mittelwerte darstellen, um eine solche Korrelation zu erkennen. Der Grund, warum eine solche Korrelation gefährlich ist, ist wie folgt. Stellen wir uns vor, dass es 8 Zellen im Plan gibt, von denen 7 fast den gleichen Durchschnitt haben, und in einer Zelle ist der Durchschnitt viel größer als der Rest. Dann F Der Test kann einen statistisch signifikanten Effekt nachweisen. Aber nehmen Sie an, dass in einer Zelle mit einem großen Mittelwert und der Varianz viel größer als die anderen ist, d.h. der Mittelwert und die Varianz in den Zellen sind voneinander abhängig (je größer der Mittelwert, desto größer die Varianz). In diesem Fall ist der große Mittelwert unzuverlässig, da er durch eine große Varianz in den Daten verursacht werden kann. Jedoch F Statistiken basierend auf vereinigt Die Varianz innerhalb der Zellen erfasst einen großen Mittelwert, obwohl Kriterien, die auf der Varianz in jeder Zelle basieren, nicht alle Unterschiede in den Mittelwerten als signifikant betrachten.

Diese Art der Daten (großer Mittelwert und große Varianz) tritt häufig auf, wenn es Ausreißerbeobachtungen gibt. Ein oder zwei Ausreißerbeobachtungen verschieben den Mittelwert stark und erhöhen die Varianz stark.

Homogenität von Varianz und Kovarianz

Annahmen. In multivariaten Designs mit multivariaten abhängigen Maßen gelten auch die zuvor beschriebenen Annahmen zur Varianzhomogenität. Da es jedoch multivariate abhängige Variablen gibt, ist es auch erforderlich, dass ihre Kreuzkorrelationen (Kovarianzen) über alle Planzellen hinweg einheitlich sind. Modul Varianzanalyse bietet verschiedene Möglichkeiten, diese Annahmen zu testen.

Verletzungseffekte. Mehrdimensionales Analogon F- Kriterium - λ-Test von Wilks. Über die Stabilität (Robustheit) des Wilks-λ-Tests in Bezug auf die Verletzung der obigen Annahmen ist nicht viel bekannt. Da jedoch die Interpretation der Modulergebnisse Varianzanalyse basiert normalerweise auf der Signifikanz univariater Effekte (nach Feststellung der Signifikanz des gemeinsamen Kriteriums), betrifft die Diskussion der Robustheit hauptsächlich die univariate Varianzanalyse. Daher sollte die Signifikanz eindimensionaler Effekte sorgfältig geprüft werden.

Sonderfall: Analyse der Kovarianz. Besonders schwerwiegende Verletzungen der Homogenität von Varianz/Kovarianz können auftreten, wenn Kovariaten in das Design einbezogen werden. Insbesondere wenn die Korrelation zwischen Kovariaten und abhängigen Maßen in verschiedenen Zellen des Designs unterschiedlich ist, kann es zu einer Fehlinterpretation der Ergebnisse kommen. Es sollte daran erinnert werden, dass bei der Analyse der Kovarianz im Wesentlichen eine Regressionsanalyse innerhalb jeder Zelle durchgeführt wird, um den Teil der Varianz zu isolieren, der der Kovariate entspricht. Die Annahme der Homogenität der Varianz/Kovarianz geht davon aus, dass diese Regressionsanalyse unter der folgenden Einschränkung durchgeführt wird: Alle Regressionsgleichungen (Steigungen) für alle Zellen sind gleich. Wenn dies nicht beabsichtigt ist, können große Fehler auftreten. Modul Varianzanalyse hat mehrere spezielle Kriterien, um diese Annahme zu prüfen. Es kann ratsam sein, diese Kriterien zu verwenden, um sicherzustellen, dass die Regressionsgleichungen für verschiedene Zellen ungefähr gleich sind.

Sphärizität und komplexe Symmetrie: Gründe für die Verwendung eines multivariaten Messwiederholungsansatzes bei der Varianzanalyse

In Designs, die Faktoren mit wiederholten Messungen mit mehr als zwei Ebenen enthalten, erfordert die Anwendung der univariaten Varianzanalyse zusätzliche Annahmen: komplexe Symmetrieannahmen und Sphärizitätsannahmen. Diese Annahmen sind selten erfüllt (siehe unten). Daher hat in den letzten Jahren die multivariate Varianzanalyse in solchen Plänen an Popularität gewonnen (beide Ansätze werden im Modul kombiniert Varianzanalyse).

Komplexe Symmetrieannahme Die komplexe Symmetrieannahme ist, dass die Varianzen (gesamt innerhalb der Gruppe) und Kovarianzen (nach Gruppe) für verschiedene Messwiederholungen einheitlich (gleich) sind. Dies ist eine hinreichende Bedingung dafür, dass der univariate F-Test für wiederholte Messungen gültig ist (d. h. die angegebenen F-Werte stimmen im Durchschnitt mit der F-Verteilung überein). In diesem Fall ist diese Bedingung jedoch nicht erforderlich.

Annahme der Sphärizität. Die Annahme der Sphärizität ist eine notwendige und hinreichende Bedingung für die Berechtigung des F-Kriteriums. Sie besteht darin, dass innerhalb der Gruppen alle Beobachtungen unabhängig und gleich verteilt sind. Die Art dieser Annahmen sowie die Auswirkungen ihrer Verletzungen werden in Büchern über Varianzanalysen normalerweise nicht gut beschrieben - diese wird in den folgenden Abschnitten beschrieben. Es wird auch gezeigt, dass die Ergebnisse des univariaten Ansatzes von den Ergebnissen des multivariaten Ansatzes abweichen können, und erläutern, was dies bedeutet.

Die Notwendigkeit der Unabhängigkeit von Hypothesen. Die allgemeine Methode zur Analyse von Daten in der Varianzanalyse ist Modell passt. Wenn es in Bezug auf das den Daten entsprechende Modell einige gibt a priori Hypothesen, dann wird die Varianz aufgeteilt, um diese Hypothesen zu testen (Kriterien für Haupteffekte, Wechselwirkungen). Aus rechnerischer Sicht erzeugt dieser Ansatz eine Reihe von Kontrasten (eine Reihe von Vergleichen von Mittelwerten im Design). Wenn die Kontraste jedoch nicht unabhängig voneinander sind, wird die Aufteilung der Varianzen bedeutungslos. Zum Beispiel, wenn zwei Kontraste EIN und B identisch sind und das entsprechende Teil aus der Varianz ausgewählt wird, dann wird dasselbe Teil zweimal ausgewählt. Zum Beispiel ist es dumm und sinnlos, zwei Hypothesen herauszugreifen: „Der Mittelwert in Zelle 1 ist höher als der Mittelwert in Zelle 2“ und „Der Mittelwert in Zelle 1 ist höher als der Mittelwert in Zelle 2“. Die Hypothesen müssen also unabhängig oder orthogonal sein.

Unabhängige Hypothesen bei wiederholten Messungen. Allgemeiner Algorithmus im Modul implementiert Varianzanalyse, wird versuchen, für jeden Effekt unabhängige (orthogonale) Kontraste zu erzeugen. Für den Faktor der wiederholten Messungen geben diese Kontraste Anlass zu vielen Hypothesen Unterschiede zwischen den Stufen des betrachteten Faktors. Werden diese Unterschiede jedoch innerhalb von Gruppen korreliert, dann sind die resultierenden Kontraste nicht mehr unabhängig. Beispielsweise kann es in einer Ausbildung, in der Lernende dreimal in einem Semester gemessen werden, dazu kommen, dass Wechsel zwischen 1. und 2. Dimension negativ mit dem Wechsel zwischen 2. und 3. Dimension von Fächern korrelieren. Diejenigen, die den größten Teil des Materials zwischen der 1. und 2. Dimension gemeistert haben, beherrschen einen kleineren Teil während der Zeit, die zwischen der 2. und 3. Dimension vergangen ist. Tatsächlich kann in den meisten Fällen, in denen die Varianzanalyse bei wiederholten Messungen verwendet wird, davon ausgegangen werden, dass Änderungen der Werte über die Subjekte hinweg korrelieren. Wenn dies jedoch geschieht, werden die komplexen Symmetrie- und Sphärizitätsannahmen nicht erfüllt und unabhängige Kontraste können nicht berechnet werden.

Die Auswirkungen von Verstößen und Möglichkeiten, sie zu korrigieren. Wenn komplexe Symmetrie- oder Sphärizitätsannahmen nicht erfüllt werden, kann die Varianzanalyse zu fehlerhaften Ergebnissen führen. Bevor multivariate Verfahren ausreichend entwickelt wurden, wurden mehrere Annahmen getroffen, um Verletzungen dieser Annahmen zu kompensieren. (Siehe zum Beispiel Greenhouse & Geisser, 1959 und Huynh & Feldt, 1970). Diese Methoden sind auch heute noch weit verbreitet (weshalb sie im Modul vorgestellt werden Varianzanalyse).

Multivariate Analyse des Varianzansatzes für wiederholte Messungen. Im Allgemeinen beziehen sich die Probleme der komplexen Symmetrie und Sphärizität darauf, dass die in die Untersuchung der Auswirkungen von Messwiederholungsfaktoren (mit mehr als 2 Stufen) einbezogenen Kontrastsätze nicht unabhängig voneinander sind. Sie müssen jedoch nicht unabhängig sein, wenn sie verwendet werden. mehrdimensional ein Kriterium zum gleichzeitigen Testen der statistischen Signifikanz von zwei oder mehr Faktorkontrasten mit wiederholten Messungen. Aus diesem Grund werden zunehmend Methoden der multivariaten Varianzanalyse verwendet, um die Signifikanz von univariaten Messwiederholungsfaktoren mit mehr als 2 Stufen zu testen. Dieser Ansatz ist weit verbreitet, da er im Allgemeinen nicht die Annahme einer komplexen Symmetrie und die Annahme einer Sphärizität erfordert.

Fälle, in denen der Ansatz der multivariaten Varianzanalyse nicht angewendet werden kann. Es gibt Beispiele (Pläne), bei denen der Ansatz der multivariaten Varianzanalyse nicht angewendet werden kann. Dies sind normalerweise Fälle, in denen das Design eine kleine Anzahl von Subjekten und viele Ebenen im Faktor für wiederholte Messungen enthält. Dann gibt es möglicherweise zu wenige Beobachtungen, um eine multivariate Analyse durchzuführen. Wenn es beispielsweise 12 Entitäten gibt, p = 4 Faktor für wiederholte Messungen, und jeder Faktor hat k = 3 Ebenen. Dann wird das Zusammenspiel von 4 Faktoren „aufbrauchen“ (k-1)S = 2 4 = 16 Freiheitsgrade. Es gibt jedoch nur 12 Probanden, daher kann in diesem Beispiel kein multivariater Test durchgeführt werden. Modul Varianzanalyse erkennt diese Beobachtungen selbstständig und berechnet nur eindimensionale Kriterien.

Unterschiede in univariaten und multivariaten Ergebnissen. Wenn die Studie eine große Anzahl von Messwiederholungen umfasst, kann es Fälle geben, in denen der univariate Messwiederholungsansatz der ANOVA zu Ergebnissen führt, die sich stark von denen des multivariaten Ansatzes unterscheiden. Das bedeutet, dass die Unterschiede zwischen den Pegeln der jeweiligen Wiederholungsmessungen fächerübergreifend korreliert werden. Manchmal ist diese Tatsache von einem unabhängigen Interesse.

Multivariate Varianzanalyse und strukturelle Modellierung von Gleichungen

In den letzten Jahren ist die Strukturgleichungsmodellierung als Alternative zur multivariaten Dispersionsanalyse populär geworden (siehe zum Beispiel Bagozzi und Yi, 1989; Bagozzi, Yi und Singh, 1991; Cole, Maxwell, Arvey und Salas, 1993). Mit diesem Ansatz können Sie Hypothesen nicht nur über die Mittelwerte in verschiedenen Gruppen testen, sondern auch über die Korrelationsmatrizen abhängiger Variablen. Beispielsweise können Sie die Annahmen zur Homogenität der Varianz und Kovarianz lockern und Fehler explizit für jede Varianz- und Kovarianzgruppe in das Modell aufnehmen. Modul STATISTIKENStrukturgleichungsmodellierung (SEPATH) (siehe Band III) ermöglicht eine solche Analyse.