Seite 1 von 1

Normalverteilung - Datensätze im Gesamten analysieren?

BeitragVerfasst: Mi 2. Sep 2020, 09:45
von Statisticus
Hallo,

ich habe eine Frage zur Untersuchung meiner Daten auf Normalverteilung zwecks Entscheidung zwischen parametrischen bzw. nicht-parametrischen Tests.

Ich habe zum Beispiel u.a. 5 Datensätze an Messwerten, die es zu vergleichen gilt, also 5 verschiedene experimentelle Bedingungen inklusive der Kontrolle. Jeder Datensatz besteht aus 6 Replikaten.

Darf ich zur Überprüfung meiner Daten auf Normalverteilung alle Daten zusammen analysieren oder muss jeder Datensatz für sich allein genommen auf Normalverteilung geprüft werden?

Letzteres wäre auch insofern etwas problematisch, als dass 6 Werte auf Normalverteilung zu untersuchen aufgrund der geringen Anzahl nicht sonderlich gut funktioniert, während dies bei 5x6 = 30 Werten schon deutlich besser machbar ist.

Re: Normalverteilung - Datensätze im Gesamten analysieren?

BeitragVerfasst: Mi 2. Sep 2020, 11:10
von PonderStibbons
Die Verteilung der abhängigen Variable ist bei Varianzanalyse und linearer Regression nicht von Interesse. Von Belang ist für den F-Test die Verteilung der Vorhersagefehler (Residuen) des Modells. Bei ausreichend großen Stichproben (ab ca. n >= 30) gelten die Verfahren als robust auch bei nicht-normalverteilten Residuen. Ungeachtet dessen ist auf Ausreißer zu achten.

Mit freundlichen Grüßen

PonderStibbons

Re: Normalverteilung - Datensätze im Gesamten analysieren?

BeitragVerfasst: Mi 2. Sep 2020, 18:50
von Statisticus
Wenn ich nur vergleichsweise wenige Replikate pro Gruppe habe und jede Gruppe bzw. deren Residuen einzeln auf Normalverteilung prüfe, wird es schwierig, eine einigermaßen verläßliche Aussage dazu machen zu können. Daher die Frage, ob ich in solchen Fällen nicht die Daten aller Gruppen bzw. deren Residuen für die Normalitätsprüfung vereinigen kann.

Re: Normalverteilung - Datensätze im Gesamten analysieren?

BeitragVerfasst: Mi 2. Sep 2020, 18:54
von Statisticus
PonderStibbons hat geschrieben:Bei ausreichend großen Stichproben (ab ca. n >= 30) gelten die Verfahren als robust auch bei nicht-normalverteilten Residuen. Ungeachtet dessen ist auf Ausreißer zu achten.


Lässt sich das mit der Robustheit der parametrischen Testverfahren bei ausreichend großen Stichproben auch gut begründen? Ich meine in Hinblick auf Publikationen, wo häufig darauf rumgeritten wird, dass nicht ausreichend begründet wurde, warum man sich für ein parametrisches Testverfahren entschieden hat.

Re: Normalverteilung - Datensätze im Gesamten analysieren?

BeitragVerfasst: Mi 2. Sep 2020, 19:15
von PonderStibbons
Ich denke, hiermit sind die parametrischen Testverfahren gemeint, oder?

Eigenartige Frage. Ich schrieb doch ausdrücklich Varianzanalyse und lineare Regression, und
ich schrieb F-Test.

Wenn Du Vergleiche mit sehr kleinen Gesamtstichproben vornimmst, sind "nonparametrische"
(rangbasierte) Verfahren eine sichere Sache.
Lässt sich das mit der Robustheit der parametrischen Testverfahren bei ausreichend großen Stichproben auch gut begründen? Ich meine in Hinblick auf Publikationen, wo häufig darauf rumgeritten wird, dass nicht ausreichend begründet wurde, warum man sich für ein parametrisches Testverfahren entschieden hat.

Diese Publikationen sind mir nicht bekannt. Der zentrale Grenzwertsatz als Begründung
dafür, dass die random sampling Verteilungen bei n > 30 die Annahmen erfüllen, ist
nicht exotisch.

Mit freundlichen Grüßen

PonderStibbons

Re: Normalverteilung - Datensätze im Gesamten analysieren?

BeitragVerfasst: Mi 2. Sep 2020, 19:21
von Statisticus
PonderStibbons hat geschrieben:Diese Publikationen sind mir nicht bekannt. Der zentrale Grenzwertsatz als Begründung
dafür, dass die random sampling Verteilungen bei n > 30 die Annahmen erfüllen, ist
nicht exotisch.


Was ich damit meinte war: Will man in den Naturwissenschaften seine eigenen Daten publizieren, wird von den Gutachtern, die meist selbst nur ein begrenztes statistisches Hintergrundwissen besitzen, die Annahme der Normalverteilung häufig angezweifelt, wenn man nicht irgendeine konkrete Form der Analyse auf Normalverteilung macht.

Re: Normalverteilung - Datensätze im Gesamten analysieren?

BeitragVerfasst: Mi 2. Sep 2020, 19:29
von Statisticus
PonderStibbons hat geschrieben:Wenn Du Vergleiche mit sehr kleinen Gesamtstichproben vornimmst, sind "nonparametrische"
(rangbasierte) Verfahren eine sichere Sache.


Nun ja, bei ganz kleinen Stichproben hat man bei manchen nichtparametrischen Testverfahren ein Problem. Beim "Wilcoxon signed rank test" ist n=6 das Minimum, sonst hat der Test null statistische Power und man bekommt nie einen signifikanten Unterschied.

Re: Normalverteilung - Datensätze im Gesamten analysieren?

BeitragVerfasst: Mi 2. Sep 2020, 20:32
von PonderStibbons
Nun ja, bei ganz kleinen Stichproben hat man bei manchen nichtparametrischen Testverfahren ein Problem. Beim "Wilcoxon signed rank test" ist n=6 das Minimum, sonst hat der Test null statistische Power und man bekommt nie einen signifikanten Unterschied.

Das ergibt offensichtlich Sinn.

Wenn man dennoch unbedingt auf einer Glatze Locken drehen will, kann man auch "exakte Tests" statt
der asymptotischen verwenden.

Mit freundlichen Grüßen

PonderStibbons