SPSS einfaktorielle ANOVA

Was ist eine einfaktorielle ANOVA?

Eine einfaktorielle ANOVA (Analysis of Variance oder Varianzanalyse) ist ein Statistiktest, der verwendet wird, um zu überprüfen, ob es signifikante Unterschiede zwischen den Mittelwerten von zwei oder mehr Gruppen gibt. Es wird angenommen, dass die Gruppen normalverteilt und unabhängig voneinander sind und dass die Varianzen der Gruppen ähnlich sind.

Wenn wir uns die Mittelwerte von Gruppen anschauen, sehen wir häufig Unterschiede. Die durchschnittlichen Mietpreise von Städten wie München, Berlin oder Frankfurt sind unterschiedlich. Und obwohl wir einen Unterschied in den durchschnittlichen Mietpreisen messen können, wissen wir nicht, ob die Unterschiede signifikant sind. Das bedeutet, wir müssen herausfinden, ob die Unterschiede zwischen den Mittelwerten bedeutsam genug sind, um ausschließen zu können, dass es hier nur rein zufällige Unterschiede gibt. Deshalb prüfen wir mit einer Varianzanalyse die Mittelwertsunterschiede und testen, wie hoch Ihre Signifikanzniveausignifikanzniveau Das Signifikanzniveau, auch als alpha-Niveau bezeichnet, ist der Schwellenwert, der verwendet wird, um zu bestimmen, ob ein Ergebnis in einer Studie statistisch signifikant ist. Es gibt an, wie wahrscheinlich es ist, dass ein bestimmtes Ergebnis oder eine Beobachtung durch Zufall entstanden ist, wenn die Nullhypothese wahr ist. In der Regel wird das Signifikanzniveau auf 0,05 oder 0,01 festgelegt, was bedeutet, dass ein Ergebnis als statistisch signifikant angesehen wird, wenn der p-Wert kleiner als dieser Schwellenwert ist. ist (bzw. Ihre Effektstärken).

In dieser Anleitung für eine einfaktorielle ANOVA in SPSS berechnen wir ein Beispiel mit verschiedenen Immobilienpreisen und gehen der Frage nach, wie wir unsere Forschungsfragen am besten beantworten können.

Was berechnen wir bei der ANOVA?

Eine einfaktorielle ANOVA wird verwendet, wenn es nur eine unabhängige Variable gibt, die die Gruppen unterscheidet, die man untersuchen möchte. Die ANOVA berechnet den F-Wert, der angibt, ob es signifikante Unterschiede zwischen den Gruppen gibt. Wenn der F-Wert signifikant ist, bedeutet dies, dass es wahrscheinlich Unterschiede zwischen den Gruppen gibt. Wenn der F-Wert nicht signifikant ist, bedeutet dies, dass es keine Unterschiede zwischen den Gruppen gibt.

Der Versuchsaufbau, der die Mittelwerte von abhängigen Variablen mehrere Gruppen unterscheidet, wird als Between-Subjects-Design bezeichnet. Die ANOVA selbst gibt uns nur einen p-WertP-wert Der p-Wert ist ein Maß für die Wahrscheinlichkeit, dass ein bestimmtes Ergebnis oder eine Beobachtung in einer Studie durch Zufall entstanden ist, wenn die Nullhypothese wahr ist. Er wird verwendet, um zu bestimmen, ob ein Ergebnis statistisch signifikant ist und ob es auf einen wirklichen Unterschied oder eine Beziehung zwischen den Variablen hinweist. Der p-Wert gibt an, wie wahrscheinlich es ist, dass das beobachtete Ergebnis auftreten würde, wenn es tatsächlich keinen Unterschied oder keine Beziehung zwischen den Variablen gibt. Ein niedriger p-Wert bedeutet, dass das Ergebnis wahrscheinlich auf einen Unterschied oder eine Beziehung zurückzuführen ist, während ein hoher p-Wert darauf hinweist, dass das Ergebnis wahrscheinlich auf Zufall zurückzuführen ist., der statistisch signifikant sein kann – oder nicht. Signifikanz bedeutet, dass sich der Mittelwert mindestens einer Gruppe nicht nur zufällig von den anderen Gruppen unterscheidet. Welche Gruppe oder Gruppen das genau sind, kann nur mit weiteren Tests, den sogenannten post-hocPost Hoc Post-hoc-Analysen sind Analysen, die nach der Durchführung einer Studie durchgeführt werden, um die Ergebnisse der Studie zu interpretieren und zu vertiefen. Analysen, festgestellt werden. Eine Schritt-für-Schritt-Anleitung gibt es in den folgenden Tutorials.

Beispielrechnung für eine einfache einfaktorielle ANOVA in SPSS: Drei Städte im Vergleich

Wann verwendet man eine einfaktorielle ANOVA in SPSS?

Eine einfaktorielle ANOVA (Analysis of Variance, Varianzanalyse) wird verwendet, um zu überprüfen, ob es signifikante Unterschiede zwischen den Mittelwerten von zwei oder mehr unabhängigen Gruppen gibt. Es wird angenommen, dass die Gruppen normalverteilt und unabhängig voneinander sind und dass die Varianzen der Gruppen ähnlich sind.

Eine einfaktorielle ANOVA wird verwendet, wenn es nur eine unabhängige Variable gibt, die die Gruppen unterscheidet, die man untersuchen möchte. Wenn es mehrere unabhängige Variablen gibt, die die Gruppen unterscheiden, wird eine mehrfaktorielle ANOVA verwendet. Eine unabhängige Variable könnte die „Stadt“ sein, mit den Ausprägungen „München“, „Frankfurt“, „Berlin“.

Weitere Beispiele für Fragestellungen, die mithilfe einer einfaktoriellen ANOVA untersucht werden könnten, sind:

  • Gibt es signifikante Unterschiede zwischen den Durchschnittszeiten, die von Schülern verschiedener Schulen für einen Test benötigt wurden?
  • Gibt es signifikante Unterschiede zwischen den Durchschnittsgewichten von Tieren, die verschiedenen Fütterungsregimen ausgesetzt waren?
  • Gibt es signifikante Unterschiede zwischen den Durchschnittsverkaufszahlen von Produkten, die in verschiedenen Verpackungen verkauft wurden?

Vorraussetzungen

  • Unabhängige Messungenunabhängige Messungen Unabhängige Messungen sind Messungen, die von verschiedenen Beobachtern oder Messverfahren durchgeführt werden und die vermutlich keine Wechselwirkungen oder Verzerrungen durch die Beobachter oder Messverfahren haben. Sie werden verwendet, um die Zuverlässigkeit und Validität von Messungen und Studien zu verbessern und werden häufig in der Psychologie und Sozialwissenschaften verwendet.: die Varianzanalyse vergleicht unterschiedliche Messobjekte, in unserem Fall Versuchspersonen, zu unterschiedlichen Zeitpunkten. Die Gruppen oder Bedingungen (UV) dürfen sich nicht gegenseitig beeinflussen, dass heißt eine Versuchsperson darf sich unter keinen Umständen in mehreren Gruppen zu befinden.
  • SkalenniveausSkalenniveau Das Skalenniveau bezieht sich auf den Typ von Daten, der in einer Studie erhoben wurde, und gibt an, wie die Daten in Bezug auf die Messbarkeit und die Möglichkeit zur Verwendung von Statistiken kodifiziert sind.: die unabhängige Variable (Zeitpunkt der Messung) ist nominalskaliert, während die abhängige Variableabhängige Variable Die abhängige Variable ist die Variable, die in einer Studie gemessen oder beobachtet wird und die von der unabhängigen Variable abhängig ist. Die unabhängige Variable ist die Variable, die in der Studie manipuliert oder gesteuert wird und die vermutete Ursache für die Veränderungen in der abhängigen Variable ist. (Gewicht) mindestens intervallskaliert ist.
  • AusreißerAusreißer Ausreißer sind Datenpunkte, die deutlich von den übrigen Daten abweichen und die Verteilung der Daten beeinflussen können. Sie können aufgrund von Messfehlern, ungewöhnlichen Ereignissen oder menschlichem Fehler auftreten und sollten in der Regel in der Analyse berücksichtigt werden, um sicherzustellen, dass die Ergebnisse valide sind.: Die ANOVA ist empfindlich gegenüber Ausreißern, weshalb der Datensatz auf Ausreißer hin überprüft werden sollte.
  • NormalverteilungNormalverteilung Die Normalverteilung, auch Gauss-Verteilung genannt, ist eine Art von Verteilung, bei der die Werte einer Variablen symmetrisch um den Mittelwert angeordnet sind und die Wahrscheinlichkeit, dass Werte in bestimmten Bereichen auftreten, durch eine Glockenkurve dargestellt wird. : die abhängige Variable (Gewicht) in jeder Gruppe sollte so weit wie möglich normalverteilt sein – jedoch nicht zwangsläufig. Die Berechnung in SPSS wird später Schritt für Schritt erklärt.
  • HomoskedastizitätHomoskedastizität Homoskedastizität bezieht sich auf die Gleichmäßigkeit der Varianz der Residuen in einem statistischen Modell und bedeutet, dass die Varianz der Residuen über alle Werte der unabhängigen Variablen hinweg konstant ist. Eine Homoskedastizität wird als Vorbedingung für viele statistische Tests und Schätzverfahren angesehen und kann durch eine Gleichmäßigkeit der Streuung der Datenpunkte um die Regressionslinie in einem Scatterplot dargestellt werden.: die Varianzen aller Gruppen sollte ungefähr gleich groß sein, um zu vermeiden eine Nullhypothese zurückzuweisen, die eigentlich war ist. Die Berechnung der Homoskedastizität wird später Schritt für Schritt erklärt.

Einfaktorielle ANOVA in SPSS berechnen

Schritt für Schritt die einfaktorielle ANOVA in SPSS einstellen und die richtigen Analysemethoden wählen

  1. Einfaktorielle Varianzanalyse (ANOVA) auswählen

    Einfaktorielle ANOVA, Analysis of Variance, Auswahl im Menü in SPSS, Beispiel, Verfahren und Methode 1 Auswahl im Menü

    So wird die einfaktorielle ANOVA in SPSS gestartet. Hierzu navigieren wir zu Analysieren > Mittelwerte vergleichen > Einfaktorielle Varianzanalyse (ANOVA

  2. Dialogbox einfaktorielle Varianzanalyse

    Einfaktorielle ANOVA, Analysis of Variance, SPSS, Beispiel, Verfahren und Methode 2: Variablen in SPSS zuordnen

    SPSS öffnet das Dialogfenster „einfaktorielle Varianzanalyse (ANOVA)“. Dieses Fenster ist in zwei Teile getrennt. Auf der linken Seite befinden sich die verfügbaren Variablen aus dem Datensatz. Auf der rechten Seite befindet sich das Feld „Abhängige Variablenabhängige Variable Die abhängige Variable ist die Variable, die in einer Studie gemessen oder beobachtet wird und die von der unabhängigen Variable abhängig ist. Die unabhängige Variable ist die Variable, die in der Studie manipuliert oder gesteuert wird und die vermutete Ursache für die Veränderungen in der abhängigen Variable ist. “.

    In diesem Feld werden die Variablen platziert, die für die Berechnung berücksichtigt werden sollen.
    Wir markieren eine Variable auf der linken Seite und klicken auf den kleinen blauen Pfeil zwischen den beiden Feldern. Ein Klick auf die Pfeiltaste schiebt die markierte Variable von links nach rechts. Alternativ klicken wir mit der linken Maustaste auf eine Variable auf der linken Seite und halten die Maustaste gedrückt. Mit gedrückter Maustaste bewegen wir die Variable auf die linke Seite. Dieses Vorgehen wird „Drag und Drop“ genannt.

    Hinweise:
    Es ist möglich, mehrere abhängige Variablen für die Analyse auszuwählen.
    Beachte, dass Faktor die abhängige Variable (Zwischensubjektfaktor) ist.
    Um eine Variable in das Feld „Faktor“ zu bringen, gehen wir genauso wie bei den abhängigen Variablen vor.

  3. Variablen der Varianzanalyse in SPSS zuordnen

    3: Variablen wurden hinzugefügt für Einfaktorielle ANOVA, Analysis of Variance, SPSS, Beispiel, Verfahren und Methode

    Für unser Beispiel setzen wir die Variable „Preis in EUR“ als abhängige Variable ein und setzen bei Faktor die Variable „Stadt“ ein.

    Hinweis: Mit dieser Einstellung unterscheiden wir die Städte mit ihren Ausprägungen von „Gewinn“.

  4. Wir wählen die Schaltfläche „Optionen“ für die Varianzanalyse aus

    3: Variablen wurden hinzugefügt für Einfaktorielle ANOVA, Analysis of Variance, SPSS, Beispiel, Verfahren und Methode

    Auf der rechten Seite befinden sich ein Menü mit mehreren Auswahlmöglichkeiten. Wir wählen „Optionen“ und klicken darauf.

  5. Einstellung der Optionen der einfaktoriellen ANOVA in SPSS

    4 Optionen für Einfaktorielle Varianzanalyse Einfaktorielle ANOVA, Analysis of Variance, SPSS, Beispiel, Verfahren und Methode

    Es öffnet sich ein Dialogfenster. Hier wählen wir folgende Optionen: „Deskriptive Statistik„, „Test auf Homogenität der Varianzen“, „Welch-Test“, „Diagramm der Mittelwerte“ und „Fallauschluss Analyse für Analyse„.

    Um die Eingaben zu bestätigen, klicken wir auf Weiter.

    Hinweis: Die gewählten Analysen werden wir später benötigen.

  6. Post HocPost Hoc Post-hoc-Analysen sind Analysen, die nach der Durchführung einer Studie durchgeführt werden, um die Ergebnisse der Studie zu interpretieren und zu vertiefen. Test für die einfaktorielle ANOVA in SPSS auswählen

    3: Variablen wurden hinzugefügt für Einfaktorielle ANOVA, Analysis of Variance, SPSS, Beispiel, Verfahren und Methode

    Wir befinden uns wieder in dem ersten Menü und wählen auf der rechten Seite „Post hoc“.

  7. Auswahl der Post Hoc Tests der Varianzanalyse (ANOVA)

    4 Post hoc Mehrfachvergeleiche für Einfaktorielle Varianzanalyse Einfaktorielle ANOVA, Analysis of Variance, SPSS, Beispiel, Verfahren und Methode, Tukey, Games-Howell

    Es öffnet sich ein Dialogfenster mit mehreren Post Hoc Berechnungsalternativen. Alle Verfahren haben Ihre Vor- und Nachteile. In dieser Anleitung verwenden wir Tukey und Games-Howell. Damit haben wir bewährte Verfahren bei angenommener und nicht angenommener Varianzgleichheit.

    Wir klicken auf Weiter, um die Eingaben zu bestätigen.

    Hinweis: Wenn wir in der späteren Analyse der Homoskedastizität bemerken, dass diese Bedingung verletzt wird, haben wir die passenden Berechnungen sofort parat.

    Kurze Erklärung der Analysen:
    Bei den Testverfahren unterscheiden wir zwischen konservativ (streng) und liberale Methoden. Duncan und Scheffé gelten als konservative Verfahren, während SNK und LSD liberaler sind. Der Tukey-Test ist in dieser Hinsicht eine guter Allrounder. Alternativ kann Bonferroni gewählt werden. Andere Vor- und Nachteile kommen bei Kriterien wie der Stichprobengröße zu tragen. Bei sehr kleinen Stichproben kann ein Dunnett-Test empfehlenswert sein.

  8. Berechnung der Varianzanalyse in SPSS starten

    3: Variablen wurden hinzugefügt für Einfaktorielle ANOVA, Analysis of Variance, SPSS, Beispiel, Verfahren und Methode

    Wir befinden uns wieder in unserer ersten Ansicht. Die Einstellungen passen. Wir sind bereit für die Berechnung. Deshalb klicken wir auf OK.

  9. Interpretation der Ergebnisse

    Im nächsten Schritt interpretieren wir die Ergebnisse der Statistiksoftware SPSS. SPSS erzeugt ein neues Fenster mit allen Ergebnissen, die untereinander in Tabellen und Diagrammen aufgelistet sind. Die nächste Anleitung führt dich Schritt für Schritt durch den Prozess.
    Hinweis: Bei der Interpretation werden wir eine andere Reihenfolge verwenden.

Interpretation der Ergebnisse

Deskriptive Analysen

SPSS öffnet im Ausgabefenster mehrere Tabellen zu wichtigen Statistiken wie Mittelwerte, Standardfehler oder VarianzhomogenitätVarianzhomogenität Varianzhomogenität bezieht sich auf die Gleichmäßigkeit der Varianzen zwischen zwei oder mehr Gruppen und ist eine Vorbedingung für viele statistische Tests, die die Gleichheit der Gruppen untersuchen. Eine Varianzhomogenität wird angenommen, wenn die Varianzen der Gruppen ähnlich sind und bedeutet, dass keine Gruppe signifikant von den anderen Gruppen abweicht. Eine nicht vorhandene Varianzhomogenität kann dazu führen, dass die Ergebnisse von Tests verzerrt werden und kann darauf hinweisen, dass es in den Gruppen Unterschiede gibt, die berücksichtigt werden müssen., die wir nacheinander besprechen.. Beginnend mit den deskriptiven Statistiken (Descriptives). Jede Ausprägung des Faktors wird in der Übersicht mit diesen Kennzahlen dargestellt: Der Anzahl (N), dem arithmetischen Mittelwert (Mean), der StandardabweichungStandardabweichung Die Standardabweichung ist ein Maß für die Streuung der Werte einer Variablen um ihren Mittelwert und gibt an, wie sehr die Werte von ihrem Durchschnitt abweichen. Sie wird häufig verwendet, um die Varianz innerhalb einer Population oder Stichprobe zu beschreiben und kann verwendet werden, um die Normverteilung einer Variablen zu beschreiben. Eine kleine Standardabweichung bedeutet, dass die Werte der Variablen dicht um ihren Mittelwert clustern, während eine große Standardabweichung darauf hinweist, dass die Werte der Variablen weiter verteilt sind. (Std. DeviationStandardabweichung Die Standardabweichung ist ein Maß für die Streuung der Werte einer Variablen um ihren Mittelwert und gibt an, wie sehr die Werte von ihrem Durchschnitt abweichen. Sie wird häufig verwendet, um die Varianz innerhalb einer Population oder Stichprobe zu beschreiben und kann verwendet werden, um die Normverteilung einer Variablen zu beschreiben. Eine kleine Standardabweichung bedeutet, dass die Werte der Variablen dicht um ihren Mittelwert clustern, während eine große Standardabweichung darauf hinweist, dass die Werte der Variablen weiter verteilt sind. ), Standardfehler (Std. Error), Untergrenze (Lower Bound), Obergrenze (Upper Bound) des Konfidenzintervalls und den Minima und Maxima.

In unserem Beispiel erkennen wir, dass die meisten untersuchten Fälle aus Frankfurt kommen (N=61) und der durchschnittliche Gewinn m=177.265.57 (sd=120.228,61) beträgt. Die geringsten Gewinne erzielen im Durchschnitt Restaurants in Berlin (m=110.583,33, sd=80.515,21)

Weiter unten in der Ausgabe von SPSS befindet sich ein Diagramm, das die Mittelwerte dieser Tabelle visualisiert.

Varianzhomogenität als Voraussetzung überprüfen

Zu Beginn überprüften wir mehrere Voraussetzungen für eine einfaktorielle ANOVA. Als Letztes überprüfen wir, ob die Varianz in den untersuchten Gruppen des Faktors gleich sind. Hierzu betrachten wir die Ergebnisse des Levene-Tests. Die Varianzhomogenität sollte gegeben sein, deshalb prüfen wir den Signifikanzwert, der über p=.05 liegen sollte. Das bedeutet, dass ein signifikantes Ergebnis (p<.05) die Varianzhomogenität verletzt.

In unserem Beispiel ist die Varianzhomogenität nicht gegeben, weil der Levene-Test mit p=.003 ein signifikantes Ergebnis zeigt (p<0.5). In dieser Anleitung werden wir alle Varianten erklären.

Weiteres Vorgehen

Wenn die Varianzhomogenität gegeben ist, dann verwenden wir zu einem späteren Zeitpunkt den Post Hoc Test: Tukey Test.
Wenn die Varianzhomogenität nicht gegeben ist, dann verwenden wir die Welch ANOVA und den Post Hoc Test: Games-Howel.

Interpretation der Analysis of Variance (ANOVA)

Falls in deinem Datensatz alle Voraussetzungen und die Varianzhomogenität erfüllt sind, kannst du die Tabelle „Einfaktorielle ANOVA“ (ANOVA) betrachten. Die wichtigste Kennzahl ist das Signifikanzniveau in der Spalte Signifikanz (Sig.). Dies sagt aus, ob ie Mittelwertsunterschiede zwischen den Gruppen zufällig waren oder nicht. Wenn die gemessene Signifikanz bei 5% liegt oder geringer ist (p<0.5), sprechen wir von einem signifikanten Ergebnis. Alle anderen Werte deuten auf nicht signifikante Ergebnisse hin.

In unserem Fall kann eine Signifikanz (Between Groups) von p=.002 gemessen werden. Damit ist das Ergebnis signifikant, was bedeutet, dass mindestens zwei Gruppen im Faktor sich signifikant unterscheiden.

Ergebnisse publizieren

Der ökonomische Erfolg, gemessen anhand der Variable „Gewinn“, unterschied sich statistisch signifikant für die verschiedenen Städte der Untersuchung, F(2, 147) = 6.78, p < .01.

Die ANOVA-Schreibweise richtig verwenden

Die ANOVA wird wie folgt dargestellt:

 F(dfZähler, dfNenner) = F-Wert, p = Signifikanz

Die Daten für die Formel befinden sich in der ANOVA-Tabelle. Die erste Zeile in der Spalte df (Freiheitsgrade) zeigt 2 an. Die zweite Zeile den Wert 147. Der F-Wert steht in der vorletzten Spalte (F), die Signifikanz in der letzten Spalte.

  • F: Der F-Wert sagt aus, dass eine F-Statistik benutzt wurde.
  • (2,147): Die Grenzen der F-Verteilung werden von diesen zwei Parametern bestimmt.
  • 6.78: Der sogenannte F-Wert gibt den Wert an, der in der F-Verteilung zur Bestimmung des p-Wertes nachgeschlagen wird.
  • .000: Der p-Wert sagt aus, ob ein Ergebnis signifikant ist oder nicht.

Hinweis: Die Signifikanz kann in der Theorie niemals .000 sein, auch wenn SPSS diesen Wert ausgibt. In einem solchen Fall geben wir den gerundeten Wert p<.001 an. Weil unsere Beispieldaten keine Varianzhomogenität haben, betrachten wir die Ergebnisse der Welch ANOVA weiter unten. Die Welch ANOVA ist etwas „robuster“ bei der Verletzung der Varianzhomogenität. In unserem Beispiel erzielen wir noch immer ein hochsignifikantes Ergebnis (p=.003).

Berechnung mit der Welch-Anova

Mit der Welch-ANOVA testen wir unsere Ergebnisse. Die Gruppenunterschiede sind insgesamt signifikant.

Weiteres Vorgehen

Wenn das Ergebnis der ANOVA-Berechnung signifikant ist, werden wir im nächsten Schritt eine Post Hoc Analyse durchführen, um zu verstehen, welche Gruppen sich im Detail signifikant unterscheiden.

Post Hoc Tests

Post Hoc Analysen sind eine detailliertere Sicht auf die einzelnen Unterschiede in der ANOVA. Wir verwenden die Post Hoc Analyse, weil die vorherige Berechnung ein sogenanntes Omnibusverfahren ist. Wir wissen nur, dass die Gruppen sich signifikant unterscheiden, ohne zu wissen, zwischen welchen Gruppen es signifikante Unterschiede gibt.

In der Tabelle sehen wir zwei größere Bereiche: Tukey HSD und Games-Howell. Wenn die Varianzhomogenität gegeben ist, interpretieren wir den Tukey HSD Test. Bei nicht gegebener Varianzhomogenität betrachten wir die Analysen des Games-Howell Post Hoc Tests.

Starten wir die Analyse. In unserem Beispiel ist die Varianzhomogenität nicht gegeben (siehe oben), weshalb wir die Ergebnisse in den Zeilen „Games-Howell“ betrachten. Wenn wir einen genaueren Blick auf die Ergebnisse in der Spalte Mittelwertsunterschiede (Mean-Difference) werfen, sehen wir, dass die Ergebnisse doppelt mit unterschiedlichen Vorzeichen vorkommen. Das liegt daran, dass SPSS aus beiden Richtungen die Analyse durchführt. SPSS vergleicht die drei Gruppen Berlin-Frankfurt (p=0.02), Berlin-München (p=0.79) und Frankfurt-München (p=.029), mit den jeweiligen Mittelwertsunterschieden (Mean Difference) und Standardabweichung (Std. Error).

Ergebnisse publizieren

Der Tukey post-hoc Test zeigte einen signifikanten Unterschied (p < .002) der abhängigen Variable Gewinn zwischen den Gruppen Berlin-Frankurt (p=.002) und Frankfurt-München (p=.029). Es konnte keine signifikanten Unterschiede zwischen den Gruppen Berlin-München (p=0.79) festgestellt werden.

Hinweis: In manchen Fällen zeigt die einfaktorielle ANOVA ein signifikantes Ergebnis aus, während gleichzeitig die Post Hoc Tests keine Signifikanz zwischen den Gruppen aufzeigen können; was auch umgekehrt gilt. Häufig liegt das an der ungleichen Berechnungsart (PowerStatistische Power Statistische Power ist die Wahrscheinlichkeit, dass ein statistisches Testverfahren einen wirklich vorhandenen Unterschied zwischen zwei Gruppen oder Bedingungen erkennen wird. Eine hohe statistische Power bedeutet, dass das Testverfahren empfindlich genug ist, um kleine Unterschiede zu erkennen, während eine niedrige statistische Power dazu führen kann, dass wichtige Unterschiede übersehen werden. Es ist wichtig, dass die statistische Power bei der Planung einer Studie berücksichtigt wird, um sicherzustellen, dass das Testverfahren ausreichend empfindlich ist, um wichtige Unterschiede zu erkennen. ) der verwendeten Tests.

Effektstärken berechnen

Häufig gestellte Fragen und Antworten zu einfaktorielle ANOVA in SPSS

Was zeigt eine ANOVA?

ANOVA (Analysis of Variance) ist ein statistisches Verfahren, das verwendet wird, um zu prüfen, ob es signifikante Unterschiede zwischen den Mittelwerten von zwei oder mehr Gruppen gibt. Es wird häufig verwendet, um zu prüfen, ob es Unterschiede zwischen den Mittelwerten von verschiedenen Behandlungsgruppen oder zwischen verschiedenen Subgruppen innerhalb einer Behandlungsgruppe gibt.

ANOVA wird auf Basis von Stichproben berechnet, die aus den verschiedenen Gruppen gezogen wurden, und es gibt eine Vorhersage, wie wahrscheinlich es ist, dass die beobachteten Unterschiede zwischen den Mittelwerten der Gruppen auf Zufall zurückzuführen sind. Wenn die Wahrscheinlichkeit, dass die Unterschiede auf Zufall zurückzuführen sind, sehr gering ist (normalerweise wird eine Signifikanzstufe von 0,05 oder weniger verwendet), kann man davon ausgehen, dass es tatsächlich signifikante Unterschiede zwischen den Mittelwerten der Gruppen gibt.

ANOVA kann auch verwendet werden, um zu prüfen, ob es Unterschiede zwischen den Mittelwerten von mehr als zwei Gruppen gibt, indem man sogenannte „Mehrfachvergleiche“ durchführt. Diese Vergleiche können verwendet werden, um zu prüfen, ob es signifikante Unterschiede zwischen den Mittelwerten von bestimmten Gruppen gibt, während die Unterschiede zwischen den anderen Gruppen vernachlässigt werden.

Was sagt die Varianzanalyse aus?

Die Varianzanalyse ist ein anderes Wort für ANOVA (Analysis of Variance). Die Varianzanalyse ist besonders nützlich, wenn man die Wirkung von verschiedenen Faktoren auf eine abhängige Variable untersuchen möchte. Zum Beispiel könnte man die Wirkung von verschiedenen Marketingkampagnen auf die Verkaufszahlen eines Produkts untersuchen, indem man die Verkaufszahlen als abhängige Variable und die Marketingkampagnen als unabhängige Variablen betrachtet. Die Varianzanalyse kann dann verwendet werden, um zu prüfen, ob es signifikante Unterschiede zwischen den Mittelwerten der Verkaufszahlen in den verschiedenen Marketingkampagnen gibt.

Wann wendet man ANOVA noch an?

ANOVA (Analysis of Variance, Varianzanalyse) ist eine statistische Methode, die häufig verwendet wird, um zu überprüfen, ob es signifikante Unterschiede zwischen den Mittelwerten von zwei oder mehr Gruppen gibt. Es gibt verschiedene Arten von ANOVA, abhängig von der Art der Variablen und der Anzahl der Gruppen, die man untersuchen möchte.

Neben der einfaktoriellen ANOVA, die verwendet wird, wenn es nur eine unabhängige Variable gibt, die die Gruppen unterscheidet, gibt es auch:

– Mehrfaktorielle ANOVA: Verwendet, wenn es mehrere unabhängige Variablen gibt, die die Gruppen unterscheiden.

– Repeated Measures ANOVA (Messwiederholung): Verwendet, wenn die gleichen Teilnehmer in mehreren Gruppen untersucht werden.

– Mixed ANOVA: Verwendet, wenn einige Teilnehmer mehrfach gemessen werden und andere nur einmal gemessen werden.

ANOVA wird häufig in der Psychologie, Sozialwissenschaften, Biologie und anderen Bereichen verwendet, in denen man überprüfen möchte, ob es signifikante Unterschiede zwischen den Mittelwerten von Gruppen gibt. Beispiele für Fragestellungen, die mithilfe von ANOVA untersucht werden könnten, sind:

– Gibt es signifikante Unterschiede zwischen den Durchschnittsnoten von Schülern, die verschiedenen Lehrmethoden ausgesetzt waren?

– Gibt es signifikante Unterschiede zwischen den Durchschnittsgewichten von Tieren, die verschiedenen Fütterungsregimen ausgesetzt wurden?

– Gibt es signifikante Unterschiede zwischen den Durchschnittsverkaufszahlen von Produkten, die in verschiedenen Ländern verkauft wurden?

Wann ANOVA und wann t-Test?

ANOVA (Analysis of Variance) und der t-Test sind beide statistische Verfahren, die verwendet werden, um zu prüfen, ob es signifikante Unterschiede zwischen den Mittelwerten von zwei oder mehr Gruppen gibt. Der t-Test ist jedoch für den Vergleich von genau zwei Gruppen geeignet, während ANOVA für den Vergleich von mehr als zwei Gruppen geeignet ist.

Wenn man also den Vergleich von genau zwei Gruppen durchführen möchte, zum Beispiel den Vergleich der Leistung von Schülern in zwei verschiedenen Klassen, würde man in der Regel einen t-Test verwenden. Wenn man hingegen den Vergleich von mehr als zwei Gruppen durchführen möchte, zum Beispiel den Vergleich der Leistung von Schülern in drei verschiedenen Schulen, würde man in der Regel ANOVA verwenden.
Es gibt jedoch auch Fälle, in denen ANOVA und der t-Test miteinander kombiniert werden können.

Zum Beispiel könnte man ANOVA verwenden, um zu prüfen, ob es signifikante Unterschiede zwischen den Mittelwerten von mehreren Gruppen gibt, und dann den t-Test verwenden, um zwischen den Gruppen zu unterscheiden, in denen es tatsächlich signifikante Unterschiede gibt.

Welche ANOVAS gibt es?

Einfaktorielle ANOVA: Diese Art von ANOVA wird verwendet, wenn man die Wirkung eines einzigen Faktors auf eine abhängige Variable untersuchen möchte. Zum Beispiel könnte man die Wirkung von verschiedenen Marketingkampagnen auf die Verkaufszahlen eines Produkts untersuchen, indem man die Verkaufszahlen als abhängige Variable und die Marketingkampagnen als unabhängige Variable betrachtet.

Mehrafaktorielle ANOVA: Diese Art von ANOVA wird verwendet, wenn man die Wirkung von mehreren Faktoren auf eine abhängige Variable untersuchen möchte. Zum Beispiel könnte man die Wirkung von Alter, Geschlecht und Bildungsstand auf die Meinungen einer Person über ein bestimmtes Thema untersuchen.
Unabhängige Stichproben ANOVA: Diese Art von ANOVA wird verwendet, wenn man den Vergleich von Mittelwerten zwischen zwei oder mehr Gruppen durchführen möchte, die völlig unabhängig voneinander sind. Zum Beispiel könnte man den Vergleich der Durchschnittsgehälter von Männern und Frauen in verschiedenen Unternehmen durchführen.

Abhängige Stichproben ANOVA: Diese Art von ANOVA wird verwendet, wenn man den Vergleich von Mittelwerten zwischen zwei oder mehr Gruppen durchführen möchte, die miteinander verbunden sind, zum Beispiel wenn man dieselben Personen in verschiedenen Zeitpunkten oder unter verschiedenen Bedingungen misst.

Es gibt noch weitere Formen.

Über mich: Dr. Peter Merdian

Experte für Neuromarketing und Data Science

Hi, ich bin Peter Merdian und Statistic Hero ist mein Herzensprojekt um Menschen zu helfen, einen einfachen Einstieg in die Statistik zu finden. Ich hoffe, dir gefallen die Anleitungen und du findest nützliche Informationen! Ich selbst habe in Neuromarketing promoviert und liebe datengetriebene Analysen. Vor allem mit komplexen Zahlen. Ich kenne aus eigener Erfahrung all die Probleme, die man als Student im Studium hat. Aus diesem Grund sind dieAnleitungen möglichst praxisorientiert und einfach gehalten. Fühl dich frei, mit deinen eigenen Datensätzen die Anleitungen zu nutzen und spannende Ergebnisse zu berechnen. Ich wünsche dir Erfolg in deinem Studium, deiner Forschung oder auf der Arbeit.
Willst du mir Feedback geben oder mich erreichen? Bitte hier: Dr. Peter Merdian LInkedIn