Hallo,
ich habe einen Fragebogen mit 30 Fragen, also 30 manifesten Variablen, die auf 3 Faktoren laden sollten. In einer EFA habe ich das so leider nicht ganz gefunden, jetzt würde ich gerne schauen, welche der Items "funktionieren" und welche nicht.
Dazu möchte ich eine Konfirmatorische Faktorenanalyse rechnen. Mit LISREL habe ich leider an einer Stelle einen Fehler erhalten, den ich nicht lösen konnte (und mit der Studentenversion musste ich das Modell ohnehin unterteilen, was auf die Dauer umständlich war). Jetzt habe ich in R nochmal von vorne angefangen und dabei festgestellt, dass 8 der 30 Variablen nicht normalverteilt sind.
Ist das problematisch? Eigentlich hatte ich eine Normalverteilung auf Itemebene ohnehin nicht erwartet, sondern erst auf Faktorebene.
In der Übung an der Uni haben wir an der Stelle immer noch die Outlier rausgeschmissen - aber bei einer festen Skala, die auch nicht überschritten wurde (also keine Fehleingaben) scheint mir das gar nicht so sinnvoll.
Andy Field nutzt jedoch in seinem R (und wahrscheinlich auch in seinem SPSS Buch) für Outlier ein Beispiel der Bewertung seines Buches bei Amazon. Und da ist die Skala ja auch auf max. 5 Sterne festgelegt.
Dadurch bin ich jetzt ehrlich gesagt ein bisschen irritiert - kann mir jemand auf die Sprünge helfen?
a) muss/kann/darf/sollte ich die Outlier entfernen? Was spricht dafür, was dagegen?
b) kann ich die CFA trotz Verletzung der NV rechnen? Wenn ja, mit welchen Interpretationseinschränkungen?
c) Wenn ich die CFA so nicht rechnen kann, kann ich die Daten irgendwie sinnvollerweise transformieren?
d) gibt es etwas, das ich nicht bedacht habe?
Vielen Dank schon mal
DocX