Überblick Lektion 3
Empirische Unabhängigkeit
Zwei Merkmale sind empirisch unabhängig, wenn das Verhältnis der Häufigkeiten in allen Zeilen und Spalten dem Verhältnis der Randhäufigkeiten entspricht:
=> Die Merkmale X und Y sind unabhängig
Wenn auch nur eine einzige Häufigkeit ein klein wenig von der Verteilung bei völliger Unabhängigkeit abweicht, nennt man die Merkmale empirisch abhängig.
Beispiel für empirische Abhängigkeit:
Chi Quadrat
Chi-Quadrat (X2) ist ein Zusammenhangsmaß für nominale Merkmale. Chi Quadrat ist eine Maßzahl für die Abweichung von der völligen Unabhängigkeit. Um also Chi-Quadrat auszurechnen, muss man erstmal wissen, wie die Soll-Häufigkeiten bei völliger Unabhängigkeit sind.
Wie also sind die Soll-Häufigkeiten? Die Soll-Häufigkeiten werden mithilfe der Randhäufigkeiten ausgerechnet.
Beispiel:
Wir multiplizieren die jeweiligen Randhäufigkeiten und teilen durch die Gesamthäufigkeit:
usw.
Jetzt haben wir die Soll-Häufigkeiten und können Chi-Quadrat (X2) ausrechenen.
Beispiel:
Cramers Phi
Cramers Phi ist ein sogenannter Kontingenzkoeffizient – ein Korrelationskoeffizient für nominale Merkmale. Zum Ausrechnen von Cramers Phi wird Chi Quadrat auf einen Wert zwischen 0 und 1 normiert.
Phi-Koeffizient
Genau wie Cramers Phi ist der Phi-Koeffizient ein Kontingenzkoeffizient (ein Korrelationskoeffizient für nominale Merkmale).
Der Phi-Koeffizient wird dann verwendet, wenn man es mit einer kleinen 2×2-Tabelle zu tun hat: