Interrater-Reliabilität

Interrater-Reliabilität

Beitragvon Interrater » Mi 16. Sep 2015, 10:25

Hallo liebes Forum,

für meine Masterarbeit verwende ich zwei Maße um die Übereinstimmung von Beurteilern zu messen: den Cohens's Kappa und den Krippendorff's Alpha. Dazu habe ich einige Fragen und ich würde mich sehr über Antworten freuen!!

Kappa:
- Mit welcher Irrtumswahrscheinlichkeit errechnet SPSS den Wert? (Ich bekomme ja einen p Wert, der mir sagt ob das Ergebnis signifikant ist oder nicht, aber ich weiß nicht, in welchen Konfidenzintervall sich der Wert bewegt. Oder muss ich das gar nicht angeben?)
- Lohnt es sich, noch andere Werte (aus Häufigkeitstabellen oder Ähnlichem) anzusehen und zu interpretieren?

Kalpha:
- Wozu genau dient das Bootstrapping? Wann muss man Bootstrapping anwenden, und wann nicht?
- Wenn ich kein Bootstrapping anwende, woher weiß ich, ob mein Ergebnis signifikant ist? (ein p Wert oder Konfidenzintervall wird bei Berechnung ohne Bootstrapping nicht angegeben)
- Wenn ich Bootstrapping anwende, was sagt mir das Konfidenzintervall? Muss der Wert innerhalb des Intervalls liegen?

Ich hoffe die Fragen klingen nicht allzu doof  Über eine Nachricht freue ich mich sehr.
Interrater
Grünschnabel
Grünschnabel
 
Beiträge: 2
Registriert: Mi 16. Sep 2015, 10:13
Danke gegeben: 0
Danke bekommen: 0 mal in 0 Post

Re: Interrater-Reliabilität

Beitragvon PonderStibbons » Mi 16. Sep 2015, 12:42

Wozu soll bei einer Reliabilitätsangabe ein Signifikanztest gut sein? Die Aussage, dass die Übereinstimmung in der Grundgesamtheit, aus der die Stichprobenwerte stammen, nicht exakt 0,0000... ist, düfte doch eher wenig überraschen bzw. welchen Nutzen stiftet dies.

Nebenbei ist kappa nur zweifelsfrei brauchbar, wenn beide Randverteilungen fix sind, was aber so gut wie nie der Fall ist und zu mehr oder minder absurden Konsequenzen führt.

Mit freundlichen Grüßen

P.

P.S.
Zu Bootstrapping könnte man hier natürlich diverse Texte aus dem Netz hineinkopieren, aber vielleicht hast Du ja Lust, erstmal selber eine Suchmaschine damit zu füttern und dann etwas konkretere Fragen zu stellen.
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11228
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 49
Danke bekommen: 2467 mal in 2451 Posts

Re: Interrater-Reliabilität

Beitragvon Interrater » Mi 16. Sep 2015, 13:03

Hallo,

genau weil mir schwammig ist, wozu ein Sig Test gut ist, ist ja meine Frage, wieso SPSS mit den p Wert ausspuckt. Mir ist eben nicht klar, wie ich ihn interpretieren soll.
Mir ist darüber hinaus bewusst, dass Kappa Schwächen z.B. im Hinblick auf die Verzerrung durch Randverteilungen aufweist, deswegen vergleiche ich ihn ja mit Kalpha. Ich habe mich schon tagelang mit der Bootstrapping-Frage befasst, hätte ich eine Antwort gefunden, hätte ich mich hier nicht angemeldet.

Wenn also jemand anders Antworten auf die Fragen oben hat, freue ich mich sehr :)

Grüße
Interrater
Grünschnabel
Grünschnabel
 
Beiträge: 2
Registriert: Mi 16. Sep 2015, 10:13
Danke gegeben: 0
Danke bekommen: 0 mal in 0 Post


Zurück zu Reliabilitätsanalyse

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 0 Gäste