Hypothesen testen bei "schlechten Daten"

Hypothesen testen bei "schlechten Daten"

Beitragvon sp2015 » So 2. Jun 2019, 12:40

Hallo,

bei einer Mixed-Methods-Studie erhebe ich Daten an 12 VPN, also einer sehr kleinen Stichprobe (Einstichproben-Testung).
Ich werde daher per se non-parametrisch auswerten, da sich bei so kleinen Stichproben eine Normalverteilungsannahme offenbar nicht plausibel widerlegen lässt.

Das Skalenniveau ist obendrein kategorial (ordinal / Rangdaten), es werden hinsichtlich mehrerer Items Zustimmungswerte auf einer sechsstufigen Skala gemessen.

Bisher war meine Suche nach Hypothesentests unter diesen "schlechten Bedingungen" nicht erfolgreich; am nahesten käme noch der Vorzeichen / Sign-Test, der aber nicht in Frage kommt, da meine Daten diskret statt stetig sind.

Gibt es hier noch Alternativen oder sollte ich mich von der Idee, Hypothesen in diesen Daten testen zu können, besser grundsätzlich verabschieden?

Ergänzend noch hinsichtlich meines Skalenniveaus: Bisher hatte ich geplant, die Zustimmungswerde mit (-2, -1, 0) bei Ablehnung und (1, 2, 3) bei Zustimmung zu operationalisieren. Wenn ich es richtig verstehe, dürfte es hierbei keinen Unterschied zur Alternative (1, 2, 3, 4, 5, 6) geben, da ja ohnehin nur die größer-kleiner-Relation bewertet wird. In einigen Fällen scheint es aber wichtig zu sein, nur im natürlichen Zahlenraum zu arbeiten. Sollte ich auf natürliche Zahlen umstellen oder spielt das, wie bisher von mir angenommen, keine Rolle?

Herzlichen Dank vorab,
Lauria
Zuletzt geändert von sp2015 am So 2. Jun 2019, 12:49, insgesamt 1-mal geändert.
sp2015
Grünschnabel
Grünschnabel
 
Beiträge: 6
Registriert: Di 9. Aug 2016, 17:47
Danke gegeben: 3
Danke bekommen: 0 mal in 0 Post

Re: Hypothesen testen bei "schlechten Daten"

Beitragvon PonderStibbons » So 2. Jun 2019, 12:47

Wie lautet das Thema und die konkrete Fragestellung der Studie, wie war das Erhebungsdesign, welche Variablen wurden konkret wie gemessen?

Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11226
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 49
Danke bekommen: 2466 mal in 2450 Posts

folgende User möchten sich bei PonderStibbons bedanken:
sp2015

Re: Hypothesen testen bei "schlechten Daten"

Beitragvon sp2015 » So 2. Jun 2019, 13:05

Hallo PonderStibbons,

das ist ja eine unfassbar schnelle Reaktion, dafür schon einmal herzlichen Dank! :)

Das übergreifende Thema (der gesamten Arbeit) bezieht sich auf den Zusammenhang zwischen Diversity Management und Resilienz .

Innerhalb der Studie wird in einem antizipatorischen Evaluationsansatz Bedarf, Konzeption, Rahmenbedingungen einer integrierten Intervention (von Resilienzförderung und Diversity Management) untersucht.

Der quantitative Teil wird mittels eines standardisierten und strukturieren Fragebogens telefonisch erhoben, dabei werden Fragen zu vier Blöcken gestellt.
Innerhalb des ersten Blockes werden deskriptive Werte bzw. unabhängige Variablen wie Geschlecht, Alter, Größe des Unternehmens erhoben.

In den folgenden drei Blöcken werden Zustimmungswerte (hinsichtlich der obigen Aspekte) erhoben, dabei wird bei jeder Frage die gleiche sechsstufige Skala zu Grunde gelegt.

Im ersten Block ('Problembestimmung') wird beispielsweise die Frage behandelt, aus welchen Gründen Unternehmen bisher auf Maßnahmen zur Resilienzförderung (A) / Diversity Management (B) verzichten, dazu gibt es jeweils drei Unterpunkte (Mangel an konkreten Informationen / Kostengründen / mangelnde Anpassbarkeit der Maßnahme (jeweils Zustimmung / Ablehnung von - bis))

Es werden also immer Zustimmungswerte zu Aussagen (inklusive Unterfragen insgesamt 16) gemessen.

Ich hoffe, ich konnte einigermaßen nachvollziehbar darstellen, worum es geht, ansonsten bitte noch einmal nachfragen!

Liebe Grüße
Lauria
sp2015
Grünschnabel
Grünschnabel
 
Beiträge: 6
Registriert: Di 9. Aug 2016, 17:47
Danke gegeben: 3
Danke bekommen: 0 mal in 0 Post

Re: Hypothesen testen bei "schlechten Daten"

Beitragvon PonderStibbons » So 2. Jun 2019, 14:31

Wie lautet nun die konkrete Fragestellung?

Und wieso willst Du statistische Analysen mit so einer verschwindend kleinen Stichprobe vornehmen?

Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11226
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 49
Danke bekommen: 2466 mal in 2450 Posts

folgende User möchten sich bei PonderStibbons bedanken:
sp2015

Re: Hypothesen testen bei "schlechten Daten"

Beitragvon sp2015 » So 2. Jun 2019, 14:55

Besten Dank für die Rückmeldung!

Es gibt mehrere inhaltlich mögliche Fragestellungen, allerdings wäre ja zunächst einmal grundsätzlich die Frage, ob in dem beschriebenen Fall überhaupt irgendein Verfahren in Frage kommen würde?

Zu dem beschriebenen Fragenblock zum Beispiel wäre meine (inhaltliche) Hypothese, dass Unternehmen auf Maßnahmen des DiM verzichten auf Grund von
(in dieser Reihenfolge) Informationsmangel > Kostenfragen > Flexibilität der Verfahren.

Sprich, ich würde in der H0 postulieren, dass der Median der Zustimmung zu Kostenfragen als Grund größer ist als zu Informationsmangel als Grund und auf Ablehnung der Hypothese hoffen.

Vielleicht ist mein grundsätzlicher Ansatz hier aber schon falsch?
sp2015
Grünschnabel
Grünschnabel
 
Beiträge: 6
Registriert: Di 9. Aug 2016, 17:47
Danke gegeben: 3
Danke bekommen: 0 mal in 0 Post

Re: Hypothesen testen bei "schlechten Daten"

Beitragvon sp2015 » So 2. Jun 2019, 14:58

Ach so, und zu der anderen Frage:

Wie gesagt, es handelt sich um eine Mixed-Methods-Studie. Da ich diverse Beispiele gelesen habe, in denen Hypothesen ab N=3 getestet wurden (zB im Bortz/Lienert), bin ich auf die verwegene Idee gekommen, dass ich diese Verfahren auch in meiner Studie anwenden könnte.

Aber wie gesagt, möglicherweise ist mein grundsätzlicher Ansatz falsch, ich lasse mich hier gerne belehren :)
sp2015
Grünschnabel
Grünschnabel
 
Beiträge: 6
Registriert: Di 9. Aug 2016, 17:47
Danke gegeben: 3
Danke bekommen: 0 mal in 0 Post

Re: Hypothesen testen bei "schlechten Daten"

Beitragvon PonderStibbons » So 2. Jun 2019, 18:14

Es gibt mehrere inhaltlich mögliche Fragestellungen, allerdings wäre ja zunächst einmal grundsätzlich die Frage, ob in dem beschriebenen Fall überhaupt irgendein Verfahren in Frage kommen würde?

Da war Deine Prämisse schon richtig, bei kleinen Stichproben und Ordinaldatenniveau kommen
"nonparametrische" Verfahren in Betracht.

Sprich, ich würde in der H0 postulieren, dass der Median der Zustimmung zu Kostenfragen als Grund größer ist als zu Informationsmangel als Grund und auf Ablehnung der Hypothese hoffen.

Ein nonparametrisches Verfahren für abhängige Stichproben mit ordinalskalierter
Antwortvariable wäre der Vorzeichentest. Warum der nicht geeignet sein soll,
habe ich leider nicht verstanden.


Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11226
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 49
Danke bekommen: 2466 mal in 2450 Posts

Re: Hypothesen testen bei "schlechten Daten"

Beitragvon sp2015 » So 2. Jun 2019, 18:37

Da war Deine Prämisse schon richtig, bei kleinen Stichproben und Ordinaldatenniveau kommen "nonparametrische" Verfahren in Betracht.

Ich verstehe nicht ganz - exakt das hatte ich doch bereits in der Eingangsfrage beschrieben? Natürlich kommen nur nonparametrische Verfahren in Frage + den Vorzeichentest kann ich ja, wie beschrieben, mangels stetigen Daten nicht anwenden... ;)


Ein nonparametrisches Verfahren für abhängige Stichproben mit ordinalskalierter Antwortvariable wäre der Vorzeichentest. Warum der nicht geeignet sein soll,
habe ich leider nicht verstanden.

Hinsichtlich des Vorzeichentest wird als Voraussetzung genannt, dass die Daten stetig sind. Meine sind aber diskret .


Bisher war meine Suche nach Hypothesentests unter diesen "schlechten Bedingungen" nicht erfolgreich; am nahesten käme noch der Vorzeichen / Sign-Test, der aber nicht in Frage kommt, da meine Daten diskret statt stetig sind.

Gibt es hier noch Alternativen oder sollte ich mich von der Idee, Hypothesen in diesen Daten testen zu können, besser grundsätzlich verabschieden?

Daher nochmal, sorry... ;) Gibt es ein (zum Vorzeichentest) alternatives Verfahren zur nichtparametrischen Hypothesentestung?

Großes Dankeschön vorab !!

P.S. Ich bin, wie gesagt, auch offen mich belehren zu lassen, falls ich das Thema Hypothesen-Testen bei diesen Daten besser vergessen sollte.

Und vielleicht gibt es ja hierzu auch noch einen Tipp? :
Ergänzend noch hinsichtlich meines Skalenniveaus: Bisher hatte ich geplant, die Zustimmungswerde mit (-2, -1, 0) bei Ablehnung und (1, 2, 3) bei Zustimmung zu operationalisieren. Wenn ich es richtig verstehe, dürfte es hierbei keinen Unterschied zur Alternative (1, 2, 3, 4, 5, 6) geben, da ja ohnehin nur die größer-kleiner-Relation bewertet wird. In einigen Fällen scheint es aber wichtig zu sein, nur im natürlichen Zahlenraum zu arbeiten. Sollte ich auf natürliche Zahlen umstellen oder spielt das, wie bisher von mir angenommen, keine Rolle?


Danke!!
sp2015
Grünschnabel
Grünschnabel
 
Beiträge: 6
Registriert: Di 9. Aug 2016, 17:47
Danke gegeben: 3
Danke bekommen: 0 mal in 0 Post

Re: Hypothesen testen bei "schlechten Daten"

Beitragvon PonderStibbons » So 2. Jun 2019, 21:31

Hinsichtlich des Vorzeichentest wird als Voraussetzung genannt, dass die Daten stetig sind. Meine sind aber diskret .

Der Vorzeichentest (sign test) ist für ordinale Daten (Rangdaten), also Messungen
auf mindestens Ordinalniveau. Die zugrundeliegende Zufallsvariable sollte stetig
sein. Ob das in der praktischen Anwendung jemals jemand diskutiert hat, entzieht
sich meiner Kenntnis.
Ich bin, wie gesagt, auch offen mich belehren zu lassen, falls ich das Thema Hypothesen-Testen bei diesen Daten besser vergessen sollte.

Die Tests haben bei dieser Stichprobengöße sehr geringe statistische Trennschärfe
(power). Insofern könnte man nach dem Sinn fragen.
In einigen Fällen scheint es aber wichtig zu sein, nur im natürlichen Zahlenraum zu arbeiten.

Die Codes für die Stufen bei ordinalen Messungen sind keine Zahlen. Statt 1 2 3 könnte
man auch 1 2000 2001 verwenden. Aus beidem geht die Reihenfolge hervor.

Mit freundlichen Grüßen

PonderStibbons
PonderStibbons
Foren-Unterstützer
Foren-Unterstützer
 
Beiträge: 11226
Registriert: Sa 4. Jun 2011, 15:04
Wohnort: Ruhrgebiet
Danke gegeben: 49
Danke bekommen: 2466 mal in 2450 Posts

folgende User möchten sich bei PonderStibbons bedanken:
sp2015

Re: Hypothesen testen bei "schlechten Daten"

Beitragvon sp2015 » So 2. Jun 2019, 22:41

Perfekt, vielen Dank, dann sind meine grundlegenden Annahmen ja erst einmal richtig gewesen.

Die zugrundeliegende Zufallsvariable sollte stetig sein. Ob das in der praktischen Anwendung jemals jemand diskutiert hat, entzieht
sich meiner Kenntnis.

Um ehrlich zu sein, habe ich mich das auch gefragt - andererseits, wird bei N=12 vermutlich jegliche Vorraussetzungsverletzung einen vernichtenden Effekt haben (ob der Vorzeichentest dahingehend jetzt robust ist, kann ich schwer einschätzen). Zudem kann man ja diskrete kaum auf stetiges Datenniveau heben, sondern höchsten umgekehrt. Aber vermutlich werde ich's berechnen lassen und mitsamt dieser kritischen Bewertung reinschreiben.

Statt 1 2 3 könnte man auch 1 2000 2001 verwenden. Aus beidem geht die Reihenfolge hervor.

Super, dann hatte ich das ja richtig verstanden. (Meine Frage ging ja nur in die Richtung ganze Zahlen oder natürliche Zahlen (-1, 0, 1 oder 1, 2, 3). Aber vermutlich passt das schon, egal welche Variante.)

Die Tests haben bei dieser Stichprobengöße sehr geringe statistische Trennschärfe (power). Insofern könnte man nach dem Sinn fragen.

Absolut! Der ist vermulich zweigeteilt: a) inhaltlich: Es geht in dieser Arbeit ja qua Ansatz (neues Verfahren, prä-Evaluation + noch dazu Pilotstudie) ja ohnehin (auch im quantitativen Teil) eher um Tendenzen als um sattelfeste Belege. Dahingehend ist die mangelnde power dann insofern zweitrangig, als das der Haupteil ja in der qualitativen Studie liegt und die quantitativen Daten nur ergänzen sollen / dazukommen.
b) 'politisch: vor dem Hintergrund der Forschungsgebiete meiner Profs ist ein bisschen quantitative Analyse sicherlich nicht verkehrt (wenn auch das Thema meiner Arbeit (explorativ) eigentlich nach qualitativen Daten schreit).

Insofern ist es aus beiderlei Hinsicht vielleicht nicht besonders ertragreich hinsichtlich der möglichen Analyseergebnisse, aber bestenfalls hilfreich und schlimmstenfalls nichtssagend.


Ganz ganz vielen Dank für die ausführlichen Hinweise & Rückmeldungen!! Einen schönen Sonntagabend noch & einen guten Start in die neue Woche!
Beste Grüße, Lauria
sp2015
Grünschnabel
Grünschnabel
 
Beiträge: 6
Registriert: Di 9. Aug 2016, 17:47
Danke gegeben: 3
Danke bekommen: 0 mal in 0 Post


Zurück zu Nichtparametrische Tests

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 0 Gäste