Warum Differenzwerte bilden?

Alle Verfahren der Regressionanalyse.

Warum Differenzwerte bilden?

Beitragvon Johanna_Munich » Do 23. Jun 2011, 01:20

Hallo,

mir brennt momentan ein statistisches Problem im Kopf, das mir leider gerade den Schlaf raubt. Also dachte ich mir, kann ich mal besser was dagegen tun und mal rumfragen, ob jemand Abhilfe weiß, damit ich wieder schlafen kann :)

Also: Ich schreibe gerade meine Masterarbeit in der Kinder- und Jugendpsychologie. Das Thema sind Selbst- und Fremdeinschätzungen von Kindern und ihren Eltern. Ich habe zwei Fragebögen, deren Items einander entsprechen z.B. Selbsteinschätzung "ICh weine viel"; Fremdeinschätzung: "Mein Kind weint viel". Die Fremdeinschätzungen habe ich von Mutter und Vater. Es liegen mir für jeden Informanten 2 Skalenwerte für internalisierendes und externalisierendes Verhalten vor
Kind - internalisierend
Kind - externaliserend

Mutter - internalisierend
Mutter - externalisierend

Vater - internalisierend
Vater - externalisierend

So, jetzt soll ich Einflussfaktoren untersuchen, die auf den Zusammenhang von Selbstbericht des Kindes und Fremdbericht der Mutter oder des Vater wirken. Ich soll hier das Geschlecht des Kindes, das Alter des Kindes, Typ des Problemverhaltens (internalisierend vs. externalisierend) und noch eine elterliche-Überwachungsskala einbeziehen, die aus 9 Items besteht und wo ich einen Gesamtscore berechnet habe (Annahme wäre hier, dass der Zusammenhang von Selbstbericht des Kindes und Fremdbericht des Elternteils bei stark von den Eltern überwachten Kindern höher ist)

Nachdem ich nicht so genau wusste ,wie ich das am besten anstellen solle, fragte ich meine Professorin, die dann meinte ich solle jeweils Differenzwerte zwischen z.B. Kind und Mutter sowie Kind und Vater bilden, diese als AV nehmen und dann ne Regression mit Alter, Geschlecht usw. rechnen. So hab ich das jedenfalls verstanden (das mit den Differenzwerten hat sie auf jeden Fall gesagt...)

Ich versteh aber einfach nicht, warum ich das machen soll. Was ist der Hintergrund dieser Differenzwert-Geschichte? Und wie wäre dann das weitere Vorgehen? Denn das Geschlecht ist doch gar nicht intervallskaliert...

Mensch, ich steh so auf dem Schlauch. Ich komm einfach nicht drauf.
Hoffe ich hab das verständlich erklärt, wennn noch was fehlt, trag ich's natürlich gerne nach.

Wäre so glücklich, wenn das für irgendwen jetzt voll die simple Geschichte ist und jemand mir helfen kann.

viele Grüße

Johanna
Johanna_Munich
Grünschnabel
Grünschnabel
 
Beiträge: 5
Registriert: Do 23. Jun 2011, 00:43
Danke gegeben: 2
Danke bekommen: 0 mal in 0 Post

Re: Warum Differenzwerte bilden?

Beitragvon daniel » Do 23. Jun 2011, 10:18

Johanna_Munich hat geschrieben:So, jetzt soll ich Einflussfaktoren untersuchen, die auf den Zusammenhang von Selbstbericht des Kindes und Fremdbericht der Mutter oder des Vater wirken.

Die Idee Deiner Professorin ist recht simple. Der Zusammenhang kann als Unterschied (i.e. Differenz) zwischen Selbst- und Fremdeinschätzung aufgefasst werden. Du kannst dann Untersuchen inwieweit diese Differenz mit dem Geschlecht etc. variiert. Wenn Du eine bessere Idee hast, den Zusammenhang abzubilden kannst Du das sicher auch tun. Es wäre beispielsweise auch ein Quotient denkbar, der bei übereinstimmung statt Null (wie bei Differenz) eben den Wert eins annimmt. Differenz ist aber gängig.

Denn das Geschlecht ist doch gar nicht intervallskaliert...

Aber doch binär. Dummyvariablen kannst Du doch ohne weiteres in Dein Regressionsmodell stecken. Der Koeffizient kann als (durchschnittlicher) Unterschied zwischen den Geschlechtern interpretiert werden.
Stata is an invented word, not an acronym, and should not appear with all letters capitalized: please write “Stata”, not “STATA”.
daniel
Inventar
Inventar
 
Beiträge: 739
Registriert: Mo 6. Jun 2011, 13:23
Danke gegeben: 0
Danke bekommen: 169 mal in 161 Posts

folgende User möchten sich bei daniel bedanken:
Johanna_Munich

Re: Warum Differenzwerte bilden?

Beitragvon Johanna_Munich » Do 23. Jun 2011, 13:02

Hallo Daniel,

vielen lieben Dank für die schnelle Antwort. Das mit der Differenz ist mir jetzt zumindest klarer. Da die Professorin es mir das ja auch schon so nahe gelegt hat, werde ich das auch so machen.

Allerdings hapert es bei der Umsetzung dann doch noch ziemlich.

Habe jetzt Geschlecht durch Umkodieren in eine 0/1-Variable also eine Dummyvariable codiert. ISt das richtig?

Wenn ich bei SPSS eine Regression rechne, dann nehme ich also z.B. folgende Variablen

AV: Differenz_Kind_Mutter_internal
UV: Alter
Überwachung
Geschlecht
(Typus des Problemverhaltens --> siehe unten)


Da haperts dann schon: Welche Methode nehme ich? Einschluss? Schrittweise? Irgendwas noch anderes? Hat es irgendeinen Sinn, dass man die Variablen in Blöcken eingeben kann?

Und worauf muss ich dann beim Output achten? Was zeigt mir denn an, dass z.B. Alter, ÜBerwachung, Geschlecht einen Einfluss haben?

Und wie ist das mit dem Einflussfaktor "Typus des Problemverhaltens"? der ist ja schon in der AV enthalten. Wie kann ich denn dann schauen, ob der Zusammenhang von Selbstbericht und Fremdbericht vom Typus des Problemverhaltens abhängt, also z.B. bei externalisierenden Störungen höher ist, weil da die Eltern auch mehr von den Kindern mitbekommen ,weil die Probleme wie der Name ja sagt, externalisierend sind, also nach außen getragen werden. Muss ich da ne neue Variable anlegen?

Ich bin einfach ziemlich verunsichert und stehe zudem noch unter Zeitdruck.

Freu mich über Antworten

Viele Grüße

Johanna
Johanna_Munich
Grünschnabel
Grünschnabel
 
Beiträge: 5
Registriert: Do 23. Jun 2011, 00:43
Danke gegeben: 2
Danke bekommen: 0 mal in 0 Post

Re: Warum Differenzwerte bilden?

Beitragvon daniel » Do 23. Jun 2011, 13:25

Johanna_Munich hat geschrieben:Habe jetzt Geschlecht durch Umkodieren in eine 0/1-Variable also eine Dummyvariable codiert. ISt das richtig?
Ja, sicher.

Da haperts dann schon: Welche Methode nehme ich? Einschluss? Schrittweise? Irgendwas noch anderes? Hat es irgendeinen Sinn, dass man die Variablen in Blöcken eingeben kann?

Das ist u.a. von der Theorie abhängig. Schwer da einen guten Ratschlag zu erteilen. Es gibt hier im Forum einige, die das Schrittweise testen strikt ablehnen.

Und worauf muss ich dann beim Output achten? Was zeigt mir denn an, dass z.B. Alter, ÜBerwachung, Geschlecht einen Einfluss haben?

Du weißt aber schon, wie eine Regression funktioniert, oder? SPSS spezifische Fragen bitte in die entprechende Rubrik. Wenn Du tatsächlich nicht weißt, welche in der Regression geschätzen Größen Dir welche Aussagen erlauben, dann empfehle ich eine beliebige Einführungsliteratur, da ich der Ansicht bin, man kann im Rahmen eines Forums schlecht bei den Grundlagen der Regression die Erklärung anfangen. Begreiffe wie b-Koeffizienten, standardisierte Koeffizienten, Standardfehler, t-Werte, t-Tests, F-Test, R-Quadrat, Fehlerquadrate etc. sollten schon bekannt (und zumindest Ansatzweise mit inhaltlichem Wissen gefüllt) sein. Ansosnten kannst Du auch hier schauen:

http://www.ats.ucla.edu/stat/spss/outpu ... ong%29.htm

Und wie ist das mit dem Einflussfaktor "Typus des Problemverhaltens"? der ist ja schon in der AV enthalten. Wie kann ich denn dann schauen, ob der Zusammenhang von Selbstbericht und Fremdbericht vom Typus des Problemverhaltens abhängt, also z.B. bei externalisierenden Störungen höher ist, weil da die Eltern auch mehr von den Kindern mitbekommen ,weil die Probleme wie der Name ja sagt, externalisierend sind, also nach außen getragen werden. Muss ich da ne neue Variable anlegen?

Vielleicht kannst Du da einfach zwei Modelle schätzen? Einmal mit "internale" einmal mit "external" Differenz als Outcome. Die Prädikatoren sollten in beiden Modellen gleich sein und das Sample sollte auch das selbe sein, damit ein Vergleich der Modelle eineigermaßen sinnvoll ist.
Stata is an invented word, not an acronym, and should not appear with all letters capitalized: please write “Stata”, not “STATA”.
daniel
Inventar
Inventar
 
Beiträge: 739
Registriert: Mo 6. Jun 2011, 13:23
Danke gegeben: 0
Danke bekommen: 169 mal in 161 Posts

folgende User möchten sich bei daniel bedanken:
Johanna_Munich

Re: Warum Differenzwerte bilden?

Beitragvon Johanna_Munich » Fr 24. Jun 2011, 01:07

Hallo,
ein zweites Mal dankeschön.

Also grundsätzlich weiß ich, was R², beta-Koeffizienten, F-Test und so weiter sind...Hab mir das halt größtenteils selber beigebracht, weil ich aus der Medizin komme und das dort nicht so stark behandelt wird wie z.B. bei Soziologen oder Psychologen. Dadurch fühl ich mich bei Statistik oft unsicher.

Also: Ich nehme den Differenzwert als AV, ich nehme die einzelnen Prädiktoren mit auf und rechne eine Regression. Der t-test zeigt mir welche Prädiktoren für das Modell überhaupt signifikant sind. Ich schau mir die Betas an, wenn diese groß sind, klärt der jeweilige Prädiktor viel Varianz der abhängigen Variable, also an der Varianz des Differenzwertes auf. Das R² gibt dann an, wieviel Varianz alle Prädiktoren an der AV aufklären, besser ist aber das korr. R², denn hier wird die Anzahl der Prädiktoren mitberücksichtigt.

Das versteh ich alles wohl und kann's auch deuten. Mein Problem ist einfach nur dieser Schritt zu sagen, das und das ist ein Einflussfaktor. Sind die Prädiktoren, deren t-test signifikant wird, Einflussfaktoren? Sind's die mit nem größeren beta? Generell sind's auf jeden Fall die Prädiktoren, die viel Varianz an der AV aufklären, also müsste eigentlich beides die richtige Antwort sein, oder?

Ich weiß auch gar nicht, wie ich erklären soll, was mich genau an der Regression stört, so dass ich hier nerven muss :D Es erscheint mir irgendwie halt nicht logisch, Einflussfaktoren auf diese Art und Weise zu testen.

Viele Grüße
Johanna_Munich
Grünschnabel
Grünschnabel
 
Beiträge: 5
Registriert: Do 23. Jun 2011, 00:43
Danke gegeben: 2
Danke bekommen: 0 mal in 0 Post

Re: Warum Differenzwerte bilden?

Beitragvon daniel » Fr 24. Jun 2011, 12:50

Johanna_Munich hat geschrieben:Hab mir das halt größtenteils selber beigebracht, weil ich aus der Medizin komme und das dort nicht so stark behandelt wird wie z.B. bei Soziologen oder Psychologen. Dadurch fühl ich mich bei Statistik oft unsicher.

Verstehe. Da hast Du ja aber denoch schon recht viele Grundlagen aufgeschnappt. Ich ergänze mal noch ein paar Feinheiten.

[...] besser ist aber das korr. R², denn hier wird die Anzahl der Prädiktoren mitberücksichtigt.

Es ist richtig, dass im korr. R2 die Anzhal der Prädikatoren berücksichtigt wird. Dieses Maß ist aber nicht mehr als Anteil der erklärten Varianz interpretierbar, was logisch aus R2 != korr. R2 folgt. Wenn eines die erklärte Varianz ist, muss das andere offensichtlich etwas andres sein. Das korr. R2 ist im Grunde nur dann sinnvoll, wenn Du verschiedene Modelle vergleichen willst. Aber selbst dann gibt es "bessere" Maße (z.b. AIC, BIC).

Sind die Prädiktoren, deren t-test signifikant wird, Einflussfaktoren?

Das ist ein ewiges Missverständniss, dass auch in den Sozialwissenschafte offenbar ungelöst bleibt. Ich will das nicht ausführen, nur soviel:

1. sagt uns der t-test die W' der Daten gegeben die Hypothese, P(D|H). Wir wollen aber eigentlich die W' der Hypothese gegeben die Daten P(H|D) wissen. Das ist nicht das selbe!

2. Inhaltliche Signifikanz (i.e. Relevanz) ist wichtiger als statisitsche Signifikanz. Bei großen Stichproben wird jeder Unterschied (oder Koeffizient) signifikant. Das heißt noch lange nicht, dass er relevant ist. Umgekehrt scheitern in kleine Stichproben potentiell relevante (i.e. große) Effekte an der (arbiträren) 5 % Signifikanz Hürde.

Sind's die mit nem größeren beta? Generell sind's auf jeden Fall die Prädiktoren, die viel Varianz an der AV aufklären, also müsste eigentlich beides die richtige Antwort sein, oder?

Signifikante t-Tests sagen nicht per se etwas über die Varinazaufklärung aus. Effektgrößen (z.B. beta Koeffizneten) sollten m.E. eher wichtig sein. Am besten Konfidenzintervalle anschauen, da siehst Du wie unsicher der Effekt ist, den Du gefunden hast.

Ach ja, bei Dummies kannst Du beta (i.e. standardisierte) Koeffizienten nicht sinnvoll interpretieren, weil die Standardabweichung eines Dummies eine Funktion des Anteils ist und, wichtiger, ein Dummy auch nur zwei distinkte Werte annehmen kann.

Es erscheint mir irgendwie halt nicht logisch, Einflussfaktoren auf diese Art und Weise zu testen.


Darf ich fragen was denn für Dich eine "logische" Alternative wäre?
Stata is an invented word, not an acronym, and should not appear with all letters capitalized: please write “Stata”, not “STATA”.
daniel
Inventar
Inventar
 
Beiträge: 739
Registriert: Mo 6. Jun 2011, 13:23
Danke gegeben: 0
Danke bekommen: 169 mal in 161 Posts

Re: Warum Differenzwerte bilden?

Beitragvon Johanna_Munich » Sa 25. Jun 2011, 11:21

Darf ich fragen was denn für Dich eine "logische" Alternative wäre?


Klar, darst du fragen, aber eine Antwort weiß ich nicht mal.

Naja, ich glaub ich hab's jetzt. Ich guck mir einfach die t-tests auf Signifikanz an. Die Prädiktoren (Betas), die signifikant werden sind Einflussfaktoren. Einflussfaktor = Prädiktor. Eigentlich total simpel. Aber manchmal steht man auf dem Schlauch.

Danke für deine Antworten.

Grüße
Johanna_Munich
Grünschnabel
Grünschnabel
 
Beiträge: 5
Registriert: Do 23. Jun 2011, 00:43
Danke gegeben: 2
Danke bekommen: 0 mal in 0 Post


Zurück zu Regressionanalyse

Wer ist online?

Mitglieder in diesem Forum: Bing [Bot] und 2 Gäste