Faktorenanalyse mit mplus

Faktorenanalyse mit mplus

Beitragvon Steffi* » Di 18. Dez 2018, 22:14

Hallo zusammen,

ich bräuchte noch einmal euren Rat. Bisher habe ich meine Analysen immer mit r durchgeführt. Nun wurde mir angeraten, auf mplus umzusteigen, da mein zu rechnendes Modell angeblich so komplex und dies eben deshalb besser mit mplus zu rechnen sei. Jetzt habe ich mich in die Handhabung von mplus eingelesen und die ersten Schritte vorgenommen. Schon beim Einlesen der Daten bin ich über ein erstes Problem gestolpert, denn die angegebene Stichprobengröße ist im Vergleich zu r bereits eine andere. In mplus habe ich fünf Beobachtungen weniger. Wie kann das sein?

Das mag vielleicht eine Kleinigkeit sein, aber ich will sicher gehen, dass beim Einlesen der Daten nicht irgendetwas falsch gelaufen ist.

Könnt ihr mir hier einen Tipp geben, woran das liegen könnte?

Danke und viele Grüße!
Steffi*
Steffi*
Beobachter
Beobachter
 
Beiträge: 17
Registriert: Fr 5. Mai 2017, 11:49
Danke gegeben: 5
Danke bekommen: 0 mal in 0 Post

Re: Faktorenanalyse mit mplus

Beitragvon Holgonaut » Do 20. Dez 2018, 15:00

Hi Steffi,

ich bin echt verwirrt über diese seltsame Empfehlung. Du kannst natürlich komplexe Modelle in lavaan rechnen. Meines Wissens ist ein Vorteil von Mplus, dass es flexibler ist, was die Verteilungen der AV anbelangt, aber das ist nur Mutmaßung.

Wegen Deiner Frage: Es kann sein, dass du unterschiedliche missing-Data-Behandlungsmethoden ausgewählt hat. Aber wie gesagt: Wenn du lavaan kennst, bleib dabei. Sollte ich falsch liegen, bitte ich um Quellen.

Grüße
Holger
Holgonaut
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 767
Registriert: Do 2. Jun 2011, 18:20
Danke gegeben: 3
Danke bekommen: 207 mal in 198 Posts

folgende User möchten sich bei Holgonaut bedanken:
Steffi*

Re: Faktorenanalyse mit mplus

Beitragvon Steffi* » Do 3. Jan 2019, 15:45

Hallo Holgonaut,

vielen Dank für deine Antwort. Nun hätte ich noch eine grundsätzliche Frage zur konfirmatorischen Faktorenanalyse.

Ich habe in meinem Fragebogen etablierte Skalen verwandt. Eine dieser Skalen ist z.B. der BFI von Lang, Lüdtke und Asendorpf von 2001. Leider zeigt sich, dass der Modellfit dieser Skala, trotz einer eins-zu-eins-Übernahme, eher schlecht ist. Mit Blick auf die Modindices zeigt sich, dass sich der Modellfit schlagartig verbessert, wenn ich bestimmte Korrelationen zwischen den verwandten Items spezifiziere. Inhaltlich ließen sich diese Korrelationsspezifikationen in dieser Skala irgendwie rechtfertigen. In einer anderen im Fragebogen verwandten Skala, die ebenfalls einen schlechten Modellfit aufweist und derartige Korrelationsspezifikationen benötigt, allerdings nicht so wirklich. Außerdem habe ich gelesen, dass Modifikationsindices mit Vorsicht zu genießen sind und nur vereinzelt eingesetzt werden sollten. Nun habe ich von zwei alternativen Vorgehensweisen gehört, die in solchen Fällen vorgenommen werden könnten. Zum einen können angeblich Itemparcels gebildet werden, zum anderen wurde mir geraten, eines der stark korrelierten Items zu eliminieren. Das Eliminieren von Items führt ebenfalls dazu, dass sich der Modellfit verbessert. Jetzt frage ich mich allerdings, ob das Eliminieren von einzelnen Items wirklich eine gangbare Vorgehensweise sein kann und inwieweit ich dies begründen kann?

Ich könnte ja z.B. sagen, dass die Notwendigkeit der Zulassung von Modifikationen, um einen guten Modellfit zu erzielen, in der Literatur kritisch gesehen wird, da dies einer nahezu rein statistischen Vorgehensweise gleichkommt. Um den Fehlern auf Messebene jedoch trotzdem zu begegnen, werden betreffende Items aus der Skala eliminiert. Reicht dies als Begründung?

Vielen lieben Dank und viele Grüße!
Steffi*
Beobachter
Beobachter
 
Beiträge: 17
Registriert: Fr 5. Mai 2017, 11:49
Danke gegeben: 5
Danke bekommen: 0 mal in 0 Post

Re: Faktorenanalyse mit mplus

Beitragvon Holgonaut » Do 3. Jan 2019, 18:44

Hi Steffi,

erst mal zum grundlegenden Verständnis. Es handelt sich herbei nicht um Korrelationen zwischen den Items, sondern zwischen den Fehlerterm-Variablen, die eine Reflektion aller weiteren Ursachen (inkl. random error) eines Indikators sind. Gibt es eine Fehlerkovarianz heißt dass, dass zwei Indikatoren entweder eine oder mehrere gemeinsame Faktoren messen (zusätzlich zur modellierten), die aber eben nicht im Modell drin sind. Eine andere Möglichkeit können Serieneffekte sein (ein item beeinflusst das andere). Das Problem dabei ist, dass Fehlerkovarianzen eben auch auftreten, wenn das gesamte Faktormodell grundsätzlich fehlspezifiziert ist, und zu wenig Faktoren spezifiziert wurden. Daher unterschlägt die Befolgung der Modifikationsindizes diese Möglichkeit. In diesem Fall agieren die Fehlerkovarianzen quasi als Ventil, durch die der Übertrug aus einem grundsätzlich falsch konzipierten Kanalsystems. Man kann also leicht ein falsches Modell zurechtfitten durch Freisetzung der Fehlerkovarianzen. Außerdem sind unkorrelierte Fehler quasi das Rückrat der gesamten Modelltestung (die berühmte "lokale stochastische Unabhängigkeit"). Fehler freizusetzen unterläuft und schwächt allerdings den Test.

Das heißt alles nicht, dass Grund #1 oben nicht zutreffen kann und das Modell eigentlich ok ist - bis auf die übersehenen Fehlerkovarianzen - nur hat man keine Möglichkeiten, beide Varianten zu testen (ich komm später noch auf eine). Ein Problem bleibt aber selbst im günstigsten Fall (d.h. das Modell ist korrekt): Wie oben beschrieben, können Fehlerkovarianzen ausgeschlossene weitere Faktoren andeuten. Die sollten dann aber eigentlich explizit im Modell auftauchen (als wirkliche Faktoren). Das mögen die Faktoren-Leute natürlich nicht, weil das Ergebnis dann sehr komplex aussieht und weit weg von der Einfachstruktur ist :)
Und damit ist auch ein prinzipielles Problem der items-Eliminierung verbunden: Mit dem Killen des Items killst du halt auch den Faktor. ABER: Ich neige selbst aus pragmatischen Gründen dazu, Items zu eliminieren, und zwar dann, wenn das Messmodell nur einen einzigen Zweck hat: Meine Faktoren von Interesse zu messen. Und so lange das Modell fittet und die Ladungen vielversprechend sind, bin ich da zuversichtlich. Allerdings hab ich damit auch Bauchschmerzen, weil der sekundäre Fit ein schwaches Belegt für das Modell ist (immerhin hat man die Daten verändert im Angesichts des misfits).

Parceling find ich unsauber, weil du damit die Probleme der Skala unter den Teppich kehrst. Das solche in der Persönlichkeit üblichen Skalen nicht fitten ist kein Geheimnis. Das kümmert dort aber keinen.

Ich hoffe, das hilft.

Grüße
Holger
Holgonaut
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 767
Registriert: Do 2. Jun 2011, 18:20
Danke gegeben: 3
Danke bekommen: 207 mal in 198 Posts


Zurück zu Faktorenanalyse

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast