Wann gilt eine Faktorenanalyse als gescheitert?

Wann gilt eine Faktorenanalyse als gescheitert?

Beitragvon pianoplayer » Mo 6. Jun 2011, 12:35

Hallo zusammen,

habe eine Faktorenanalyse mit 77 Variablen mit einer Stichprobe von 120 Befragten durchgeführt. Dabei habe ich die Extraktion auf 10 begrenzt. Es gibt nun einige Items, die nicht eindeutig einem Faktor zugewiesen werden können Bedeutet dies bereits, dass die Faktoranalyse als gescheitert anzusehen ist?

Vielen Dank für eure Hilfe!
pianoplayer
Grünschnabel
Grünschnabel
 
Beiträge: 3
Registriert: Mo 6. Jun 2011, 11:46
Danke gegeben: 0
Danke bekommen: 0 mal in 0 Post

Re: Wann gilt eine Faktorenanalyse als gescheitert?

Beitragvon PonderStibbons » Mo 6. Jun 2011, 12:56

Den Begriff "gescheitert" habe ich im Zusammenhang mit einer
Faktorenanalyse noch nie gelesen. Was meinst Du damit?

Dass Items einem Faktor nicht zugeordnet werden können, ist eher
Regel als Ausnahme. Wie die Ergebnisse zu beurteilen sind,
hängt von den Items ab, der zugrundeliegenden Struktur, dem
theoretischen Rahmen, und natürlich dem Zweck und dem Ziel
der Analyse.

In aller Regel wird man allerdings annehmen, dass angesichts
von 77 Variablen nur gerade mal 120 Befragte einige hundert zu
wenig sind, siehe http://pareonline.net/pdf/v10n7.pdf

Gruß

Ponderstibbons

---
Gottseidank...Kanon für 36
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11260
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 50
Danke bekommen: 2474 mal in 2458 Posts

Re: Wann gilt eine Faktorenanalyse als gescheitert?

Beitragvon Kopernikus » Mo 6. Jun 2011, 13:37

Als gescheitert würde ich die Analyse nicht bezeichnen. Es gibt eben Variablen, die nicht trennscharf auf einen bestimmten Faktor laden. Folgende Möglichkeiten gibt es in diesem Fall:

  1. Sind tatsächlich alle 10 gebildeten Faktoren notwendig? Hinweise über die optimale Faktorenanzahl bringt ein Scree-Test bzw. die Übersicht über die erklärte Gesamtvarianz. Ggf. sollte die Anzahl der Faktoren verringert werden. Grundsätzlich sollte man folgendes für einen Faktor beachten (vgl. Schendera 2009: 214): (a) ein Faktor sollte mindestens 4 Variablen mit Ladungen >0.60 enthalten, (b) Faktoren mit weniger als 3 Variablen gelten als eher schwach / instabil, (c) ein Faktor mit mehr als 5 Variablen (Ladung >0.50) gilt als stark / stabil
  2. Es ist zu überlegen, ob die betreffenden Variablen nicht aus der Analyse ausgeschlossen werden sollten, so dass trennscharfe Faktoren entstehen (was ja das Ziel der Faktorenanalyse ist). Evtl. erschweren die überschneidenden Variablen ja auch die inhaltliche Interpretation der Faktoren.
  3. Es gibt verschiedene Rotationsmöglichkeiten, um die Faktorentrennung zu verbessern.
Kopernikus
Foreninhaber
Foreninhaber
 
Beiträge: 111
Registriert: Do 2. Jun 2011, 13:20
Danke gegeben: 11
Danke bekommen: 19 mal in 16 Posts

folgende User möchten sich bei Kopernikus bedanken:
marie

Re: Wann gilt eine Faktorenanalyse als gescheitert?

Beitragvon pianoplayer » Mo 6. Jun 2011, 14:07

Danke, für deine schnelle Antwort!

Die Formulierung "gescheitert" habe ich aus der Literatur: SPSS 18 von Achim Bühl. Darin heisst es: "Sollte bei zahlreichen Items die Zuordnung zu einem Faktor nicht eindeutig zu klären sein, so müsste die Faktorenanalyse als gescheitert gelten." Bei mir handelt es sich um 4 Variablen, die nicht eindeutig zugeordnet werden können. Ich hatte nur Zweifel, weil in den Übungsbeispielen die Faktorenladungen immer eindeutig waren.

Ich hab´s falsch formuliert, es sind über tausend Befragte, aber die Stichprobe ist von ca. 120.

Ausserdem habe ich das Cronbach´s Alpha für die Variablen der jeweiligen Faktoren errechnen lassen. Dabei ist ein Wert für einen Faktor, der von 4 Variablen erklärt wird nur 0,12 und einer ist sogar negativ. Kann ich diese Faktoren eigentlich dann für eine weitere Analyse verwenden?
pianoplayer
Grünschnabel
Grünschnabel
 
Beiträge: 3
Registriert: Mo 6. Jun 2011, 11:46
Danke gegeben: 0
Danke bekommen: 0 mal in 0 Post

Re: Wann gilt eine Faktorenanalyse als gescheitert?

Beitragvon pianoplayer » Mo 6. Jun 2011, 14:09

Danke, Kopernikus! Das hilft mir schon mal weiter :)
pianoplayer
Grünschnabel
Grünschnabel
 
Beiträge: 3
Registriert: Mo 6. Jun 2011, 11:46
Danke gegeben: 0
Danke bekommen: 0 mal in 0 Post

Re: Wann gilt eine Faktorenanalyse als gescheitert?

Beitragvon PonderStibbons » Mo 6. Jun 2011, 14:16

Dieser Faktor ist offensichtlich nicht reliabel. Leider hast Du nicht den
theoretischen Hintergrund angegeben, oder ob Du eine Faktorenanalyse
oder eine Hauptkomponentenanalyse durchgeführt hast, anhand welcher
Kriterien Du 10 Faktoren als Zahl festgelegt hast, oder wie rotiert wurde,
und wozu die Analyse nun dient. Lies vielleicht erstmal den verlinkten
Text und beachte auch Kopernikus' Angaben zur Faktorenxtraktion.

Gruß

P.
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11260
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 50
Danke bekommen: 2474 mal in 2458 Posts

Re: Wann gilt eine Faktorenanalyse als gescheitert?

Beitragvon Holgonaut » Mo 6. Jun 2011, 21:49

Hi Leute,
der Ausgewogenheit halber möchte ich einge Dinge kommentieren, die mich etwas bei alle diesen Faktorenanalyse-Diskussionen
umtreiben ;)

Grundsätzlich sollte man immer bedenken, dass die Faktorenanalyse einer bestimmten Tradition entspricht,
die v.a. Psychologen gepflegt wird (common factor model). Die (einseitige) Sicht des common factor models ist schlicht, dass
*mehreren* items ein Faktor zugrundeliegt - bzw. der Faktor die gemeinsame Varianz ist. Dieser Tradition entsprechen genauso
die Daumenregeln, die von Kopernikus zitiert werden.
Diese Tradition ist meist eher von konstruktivistischen Vorstellungen geprägt (Reduktion von Daten zu "interpretierbaren" Faktoren),
als von realistischen (Faktoren als latente Entitäten, die item - Antwort *verursachen*).

Diese Tradition führt allerdings zu Scheuklappen, weil Leute oft denken, dass theoretisch interessante Faktoren überhaupt erst existent werden,
wenn man auch mehrere Items hat. Was, wenn man im Datensatz unter anderen x items hat, die x Faktoren messen (d.h. jedes item misst
einen eigenen Faktor?? Diese können schlichtweg nicht identifiziert werden. Schmeißt man diese items dann raus, führt das gleich mit zum
Ausschluss der (vielleicht inhaltlich sehr interessanten) Faktoren.
Ein weiteres Problem: Wenn die x Faktoren korreliert sind, korrelieren die items. Dies führt vielleicht dazu, dass die x items dann auf einem
Faktor laden, der gar nicht exisistiert.

D.h. Die Gleichsetzung von "Kovarianz = Faktor" führt dazu, dass man a) unsinnige Faktoren findet, z.B. wenn die Kovarianz der items durch andere
Gründe entstanden ist, als durch einen *gemeinsamen* Faktor. Die Korrelation der x Faktoren war ein Beispiel. Genauso plausibel sind Effekte
der items aufeinander (Anker-Effekte, Kontext-Effekte etc.), wie sie in der kognitiven Survey - Forschung (z.B. Sudman et al., 1996)
nachgewiesen sind. Sie führt b) dazu, dass einem Faktoren durch die Lappen gehen, weil items nur einen einzigen Faktor messen (und
somit keine durch einen einzigen Faktor bedingte Kovarianz existiert).

Ich kann Euch mit fehlgeschlagenen konfirmatorischen Faktorenanalysen zuwerfen, deren Re-Spezifikationen im Sinne von gemischten
multi- und single-indicator-Modellen sauber fitten und (plötzlich) Sinn machen. Oft sieht man den items förmlich an, welche den selben
Faktor messen, und welche nicht. Meiner Erfahrung nach kommt das sehr häufig vor. Blind items zu konstruieren und dann zu hoffen, dass
ein Programm die korrekten Faktoren identifiziert, ist vor diesem Hintergrund nicht immer möglich.

Oft erlebe ich sogar, dass bei der Entwicklung der items ja gerade auf die maximale Diskriminant/inhaltliche Einzigartigkeit items
geachtet wurde - und nun versucht man mit der Faktorenanalyse, einen oder mehrere Faktoren als gemeinsame Ursachen zu identifizieren.
Vor diesem Hintergrund gibt es allerdings Entwicklungen (TETRAD, Scheines et al., 1998, Landsheer, 2010), die flexibler sind
und non-common-factor-Modelle berücksichtigen. Ich kenn mich leider noch nicht sehr damit aus, das klingt aber sehr vielversprechend.

Des weiteren finde ich diese Daumenregeln (wie eigentlich alle ;) ) nicht plausibel. Wenn ich ein item "ich bin zufrieden mit meiner Arbeit" habe und
ich finde eine Ladung von .6 auf dem Faktor "Arbeitszufriedenheit", dann ist das für mich ein Beleg von mangelnder Validität. D.h. die Höhe akzeptabler
Ladungen hängt von dem Wissen um das Funktionieren des jeweiligen items (Stichwort cognitive interviewing, Willis, 2005) und der *genauen* und
*spezfiischen* Vorstellung/Interpretation des Faktors (versus "der domain", "des Themas") ab. Wobei wir wieder bei der konstruktivistischen vs.
realistischen Interpretation angelangt wären.

Ein Faktor ist demnach stark, wenn das item, dass ihn messen soll auf ihn lädt in einer Höhe, wie sie nahelegt, dass es auch der Faktor ist. Wenn das
nur 2 items sind, ist mir das lieber, als >5 sprachlich heterogene items, die mit .6-.7 auf ihn laden.

Just my 2p. Ich hoffe, dass ist nicht allzu abstraktes Geschwafel ;)
Grüße
Holger


Landsheer, J.A. (2010). The specification of causal models with Tetrad IV: a review. Structural Equation Modeling, 17(4), 703-711.

Scheines, R., Spirtes, P., Glymour, C., Meek, C., & Richardson, T. (1998). The TETRAD project: Constraint based aids to causal model specification. Multivariate Behavioral Research, 33(1), 65-117.

Sudman, S., Bradburn, N. M., & Schwarz, N. (1996). Thinking about answers. San Fransciso: Jossey-Bass Publishers.

Willis, G. B. (2005). Cognitive interviewing: A tool for Improving questionnaire design. Thousand Oaks, CA: Sage.
Holgonaut
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 767
Registriert: Do 2. Jun 2011, 18:20
Danke gegeben: 3
Danke bekommen: 207 mal in 198 Posts

folgende User möchten sich bei Holgonaut bedanken:
Kopernikus, marie, Orlando


Zurück zu Faktorenanalyse

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 7 Gäste