Ideale Stichprobengröße bei ANOVA mit post-hoc-Test

Alles zu (M)ANOVA, ALM...

Re: Ideale Stichprobengröße bei ANOVA mit post-hoc-Test

Beitragvon PonderStibbons » Mo 7. Nov 2011, 17:21

Derzeit habe ich eine Stichprobe von n=49. Ich wollte dann wenigstens nachträglich die ideale Stichprobengröße berechnen und ggf. Fälle auslosen die nicht in die Auswertung kommen, wenn die ideale Stichprobe niedriger ausfallen sollte.

Das ist jetzt verblüffend. Ich weiß nicht, was eine "ideale" Stichrobengröße sein soll. Außer vielleicht in der
Hinsicht, dass man sich nicht unbedingt mehr Arbeit machen (mehr Personen einbeziehen) will, als für
Erreichung einer festgelegten power mindestens notwendig ist. Und ein Begriff wie "nachträgliche ideale
Stichprobengröße" vereint gleich zwei mehr als krude Konzepte.

Was aus statistischer Sicht dann aber kompletten Unfug darstellt, ist das willkürliche Löschen von bereits
erhobenen Daten. Was soll denn das für einen Sinn haben? Das verringert doch bloß die power bei der
Datenanalyse und damit die Möglichkeit, eventuell vorhandene Effekte auch nachzuweisen. Lass das auf jeden
Fall bleiben, es gibt keinen Grund für so was.

Mit freundlichen Grüßen

P.
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11272
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 50
Danke bekommen: 2476 mal in 2460 Posts

Re: Ideale Stichprobengröße bei ANOVA mit post-hoc-Test

Beitragvon Mofflerin » Mo 7. Nov 2011, 17:53

Das ist jetzt verblüffend. Ich weiß nicht, was eine "ideale" Stichrobengröße sein soll. Außer vielleicht in der
Hinsicht, dass man sich nicht unbedingt mehr Arbeit machen (mehr Personen einbeziehen) will, als für
Erreichung einer festgelegten power mindestens notwendig ist. Und ein Begriff wie "nachträgliche ideale
Stichprobengröße" vereint gleich zwei mehr als krude Konzepte.


Nunja. :( Der Begriff ist so bei uns in der Statistik-Vorlesung gefallen und zwar in dem Zusammenhang, dass eine Stichprobe weder zu klein (dann wird nichts signifikant) noch zu groß (dann wird alles signifikant) sein soll. Ich dachte immer eine "ideale" Stichprobengröße wäre ein die also weder zu klein aber auch nicht zu groß ist.


Was aus statistischer Sicht dann aber kompletten Unfug darstellt, ist das willkürliche Löschen von bereits
erhobenen Daten. Was soll denn das für einen Sinn haben? Das verringert doch bloß die power bei der
Datenanalyse und damit die Möglichkeit, eventuell vorhandene Effekte auch nachzuweisen
.

Die Überlgung war eben, das alles signifikant wird wenn nur die Stichprobe groß genug ist, auch völlig irrelevante Effekte. Zumindest habe ich das mal so gelernt, stimmt es nicht? D.h. genau das war also die Überlegung: Nach dem Zufallsprinzip Fälle zu löschen und so zu tun als wären diese nie erhoben worden. Jetzt schwant mir aber gerade etwas. Wie Du sagst, wäre ja nur die Power gesenkt worden, am Alpha-Fehler ändert sich ja nichts. Dann wäre das wirklich völlig sinnlos.

Ich habe gerade diesen Thread gelesen:http://www.statistik-forum.de/varianzanalysen-f9/gleichheitshypothese-testen-t694.html

Wenn man so argumentiert wie Du, könnte die Stichprobengröße eigentlich garn icht groß genug sein, da man ja damit die Chance steigert Effekte zu finden? Demnach geht es (z.B. bei G-Power) weniger darum eine "ideale", sondern vielmehr die Untergrenze zu errechnen die eine Stichprobe mindestens haben, dass man eine gute Chance hat den Effekt zu finden? Demnach müsste die Aussage die ich mal gelernt habe "Bloß keine zu große Stichprobe, dann wird nämlich alles signifikant" unsinnig sein, v.a. wenn man ohnehin vorhatte sich die Effektstärken anzusehen. Dann stellt mir sich aber wieder die Frage wie sie auch in dem in obigem Thread verlinkten Guide aufgeworfen wurde: Wozu macht man überhaupt Signifikanztests anstatt einfach nur Effektstärkemaße zu berechnen?

Ich bin jetzt verwirrt.

Grüße
Mofflerin
Mofflerin
Power-User
Power-User
 
Beiträge: 90
Registriert: Do 3. Nov 2011, 17:26
Danke gegeben: 12
Danke bekommen: 0 mal in 0 Post

Re: Ideale Stichprobengröße bei ANOVA mit post-hoc-Test

Beitragvon PonderStibbons » Mo 7. Nov 2011, 21:15

Nunja. :( Der Begriff ist so bei uns in der Statistik-Vorlesung gefallen und zwar in dem Zusammenhang, dass eine Stichprobe weder zu klein (dann wird nichts signifikant) noch zu groß (dann wird alles signifikant) sein soll. Ich dachte immer eine "ideale" Stichprobengröße wäre ein die also weder zu klein aber auch nicht zu groß ist.

Die Hölle der gepflegten Halbbildung, in die da vermittelt wird. Wenn eine Stichprobe so
groß ist, dass "alles" signifikant wird, dann werden die Tests überflüssig, weil der Stichprobenfehler
ohnedies vernachlässigbar klein ist und man keine Umwege über Nullhypothesentests nehmen muss. Zumindest aber ist dem kundigen Anwender dann bewußt, dass er eher auf Effektstärkemaße schauen
darf und sollte statt auf Signifikanzen. Für die übliche Forschungssituation aber ist die Aussage
hanebüchen. Es ergibt sehr wohl einen erheblichen Unterschied zwischen dem Aufwand, 120 Fälle
zu testen oder nur 50 Fälle, aber auch 120 Fälle lassen nicht "alles" signifikant werden. Was eine Fallzahlschätzung allenfalls hergibt, ist die notwendige Mindestzahl an Fällen unter bestimmten Vorannahmen, um eine bestimmte gewünschte power zu erreichen. Wenn man mehr Fälle zu erheben
sich leisten kann, dann ist das aus statistischer Sicht allemal willkommen. Es gibt keine statistisch
idealen oder optimalen Stichprobengrößen.
Wozu macht man überhaupt Signifikanztests anstatt einfach nur Effektstärkemaße zu berechnen?

Weil man Effektstärken (ES) nicht berechnen sondern allenfalls schätzen kann. Effekstärken beziehen sich
auf Grundgesamtheiten, nicht auf Stichproben, auch wenn das begrifflich ständig verquirlt wird.
Du hast ja erfreulicherweise korrekt von der Berechnung von ES-Maßen statt von ES geschrieben.
"Effekstärken" in kleinen bis mittleren Stichproben sind derart stark durch den Stichprobenfehler
kontaminiert, dass man eben auf den Signifikanztest ausweicht, der zumindest eine Entscheidung darüber
erlauben soll, ob man einen Populations-Effekt = 0,00000000... (was in der Regel getestet wird) oder eben
nicht = 0,000000... annimmt.

Normalerweise tanzt Du jetzt die "sample size Samba" und machst zur Berechnung der mindestens
erforderlichen Stichprobengröße für einen abhängigen t-test bei alpha=0,0166 und power=80% (das wäre die
konventionelle Höhe) begründete und plausible Annahmen über den zu erwartenden Mittelwertsunterschied
und die Korrelationen zwischen den Messzeitpunkten, so dass (surprise!) ungefähr ein n=45 herauskommt.
Wegen Datenausfällen sollte man sowieso meist noch +10-15% zusätzliche Fälle erheben.



Mit freundlichen Grüßen

P.
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11272
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 50
Danke bekommen: 2476 mal in 2460 Posts

Vorherige

Zurück zu Varianzanalysen

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 0 Gäste