Zusammenfassung nominale Zusammenhangsmaße

Überblick Lektion 3

Empirische Unabhängigkeit

Zwei Merkmale sind empirisch unabhängig, wenn das Verhältnis der Häufigkeiten in allen Zeilen und Spalten dem Verhältnis der Randhäufigkeiten entspricht:

=> Die Merkmale X und Y sind unabhängig

Wenn auch nur eine einzige Häufigkeit ein klein wenig von der Verteilung bei völliger Unabhängigkeit abweicht, nennt man die Merkmale empirisch abhängig.

Beispiel für empirische Abhängigkeit:

Chi Quadrat

Chi-Quadrat (X2) ist ein Zusammenhangsmaß für nominale Merkmale. Chi Quadrat ist eine Maßzahl für die Abweichung von der völligen Unabhängigkeit. Um also Chi-Quadrat auszurechnen, muss man erstmal wissen, wie die Soll-Häufigkeiten bei völliger Unabhängigkeit sind.

Wie also sind die Soll-Häufigkeiten? Die Soll-Häufigkeiten werden mithilfe der Randhäufigkeiten ausgerechnet.

Beispiel:

Wir multiplizieren die jeweiligen Randhäufigkeiten und teilen durch die Gesamthäufigkeit:

usw.

Jetzt haben wir die Soll-Häufigkeiten und können Chi-Quadrat (X2) ausrechenen.

Beispiel:

Cramers Phi

☝️ Vermutlich nicht klausurrelevant

Cramers Phi ist ein sogenannter Kontingenzkoeffizient – ein Korrelationskoeffizient für nominale Merkmale. Zum Ausrechnen von Cramers Phi wird Chi Quadrat auf einen Wert zwischen 0 und 1 normiert.

Phi-Koeffizient

Genau wie Cramers Phi ist der Phi-Koeffizient ein Kontingenzkoeffizient (ein Korrelationskoeffizient für nominale Merkmale).

Der Phi-Koeffizient wird dann verwendet, wenn man es mit einer kleinen 2×2-Tabelle zu tun hat:

☝️ Somit ist der Phi-Koeffizient ein Kontingenzkoeffizient für zwei dichotome Merkmale.

☝️ Der Phi-Koeffizient ist immer gleich Cramers Phi.

 

  ⬜ gesehen    ⬜ verstanden  
 (Markierung auch in der Lektion Übersicht)