Fehlertoleranz von zwei Stichproben vergleichen

Fragen, die sich auf kein spezielles Verfahren beziehen.

Fehlertoleranz von zwei Stichproben vergleichen

Beitragvon KingDan » Di 2. Apr 2019, 00:08

Hi Leute.

Mein Problem ist das folgene: Ich möchte zwei Antworten zu dem gleichen Thema von zwei unterschiedlichen Populationen vergleichen. Dafür habe ich (leider) nur kleine Strichproben.
Bei der Population A ist n = 7 und p = 1, bei B n = 25 und p = .52.

Ich möchte das Konfidenzintervall ausrechnen, bei dem sich die Fehlertoleranzen nicht mehr überschneiden, also:

1 - z∙√((1 ∙(1-1))/7) = .52 + z∙√((.52 ∙(1-.52))/25)

Das löse ich dann nach z auf und komme auf z = 4,8. Dem entspricht ein Konfidenzintervall von 100%.

Jetzt ist nur die Sache, dass ich weiß, dass ich das so nicht sagen kann.
Die Formel zur Berechnung der Fehlertoleranz scheitert daran, dass bei der Population alle die selbe Antwort gegeben haben.

Gibt es eine Möglichkeit die Formel zu korrigeren? Wenn ja welche und eine Erklärung wäre lieb! Statistik ist schon ein Weilchen her bei mir :)

Vielen Dank!
KingDan
Grünschnabel
Grünschnabel
 
Beiträge: 3
Registriert: Mo 1. Apr 2019, 23:57
Danke gegeben: 1
Danke bekommen: 0 mal in 0 Post

Re: Fehlertoleranz von zwei Stichproben vergleichen

Beitragvon bele » Di 2. Apr 2019, 08:40

KingDan hat geschrieben:Bei der Population A ist n = 7 und p = 1, bei B n = 25 und p = .52.


Was ist p? Ich ahne, dass die Antworten ja/nein-Antworten waren und p der Anteil der ja-Antworten ist. Stimmt das so? Sonst bitte erklären.

Ich möchte das Konfidenzintervall ausrechnen, bei dem sich die Fehlertoleranzen nicht mehr überschneiden


Was für ein Konfidenzintervall willst Du ausrechnen? Habe ich noch nicht verstanden.

, also:

1 - z∙√((1 ∙(1-1))/7) = .52 + z∙√((.52 ∙(1-.52))/25)


Ich bin da so anwendungsbezogen in der Statistik unterwegs, dass ich diese Formel nicht kenne. Ich würde das immer in ein Statistikprogramm eingeben, dann ist auch die Gefahr, dass ich beim Umstellen was falsch mache nicht so groß.

Mein Statistikprogramm heißt R und es bietet zum Vergleich zweier Proportionen die Funktion prop.test(), hinter der ein Chi-Quadrat-Test steht.

Dabei wird dann auch gleich ein Konfidenzintervall für den Unterschied der Proportionen ausgerechnet. Das sieht im Ergebnis dann so aus:

Code: Alles auswählen
> prop.test(c(7, 13), c(7, 25))

   2-sample test for equality of proportions with
   continuity correction

data:  c(7, 13) out of c(7, 25)
X-squared = 3.523, df = 1, p-value = 0.06052
alternative hypothesis: two.sided
95 percent confidence interval:
0.1927319 0.7672681
sample estimates:
prop 1 prop 2
  1.00   0.52

Warning message:
In prop.test(c(7, 13), c(7, 25)) :
  Chi-Quadrat-Approximation kann inkorrekt sein


Für die Bestimmung des Konfidenzintervalls verweist das R Handbuch auf folgende Publikation:
Newcombe R.G. (1998) Interval Estimation for the Difference Between Independent Proportions: Comparison of Eleven Methods. Statistics in Medicine 17, 873–890.

Du hast bestimmt die Fehlermeldung mit der Warnung vor ungenauer Approximation gesehen: 7 Befragte sind halt nicht so viele. Wenn das stört könnte man eine Vier-Felder-Tafel aus Deinen Beobachtungen erstellen und darüber einen Fisher-Test rechnen.

HTH,
Bernhard
----
`Oh, you can't help that,' said the Cat: `we're all mad here. I'm mad. You're mad.'
`How do you know I'm mad?' said Alice.
`You must be,' said the Cat, `or you wouldn't have come here.'
(Lewis Carol, Alice in Wonderland)
bele
Schlaflos in Seattle
Schlaflos in Seattle
 
Beiträge: 5766
Registriert: Do 2. Jun 2011, 23:16
Danke gegeben: 15
Danke bekommen: 1351 mal in 1338 Posts

Re: Fehlertoleranz von zwei Stichproben vergleichen

Beitragvon KingDan » Di 2. Apr 2019, 12:06

bele hat geschrieben:Was ist p? Ich ahne, dass die Antworten ja/nein-Antworten waren und p der Anteil der ja-Antworten ist. Stimmt das so? Sonst bitte erklären.

Das ist korrekt, p ist der Anteil die mit "Ja" geantwortet hat.

bele hat geschrieben:Was für ein Konfidenzintervall willst Du ausrechnen? Habe ich noch nicht verstanden.

Meine Grundidee war die beiden Datensätze zu vergleichen. Um genauer zu sein wollte ich sagen, dass Population A öfter "Ja" sagt als Population B.

-> H0: pA < pB
-> H1: pA >= pB

Die Urspungsidee war es die Fehlertoleranzen auf die jeweiligen p-Werte zu addieren / substrahieren. Die Formel wird nach z aufgelöst und das entstehende z kann dann zu einem Konfidenzintervall zugeordnet werden.
Aber das funktioniert ja nicht so wirklich und ist statistisch ja auch bestimmt nicht relevant.

KingDan hat geschrieben:Du hast bestimmt die Fehlermeldung mit der Warnung vor ungenauer Approximation gesehen: 7 Befragte sind halt nicht so viele. Wenn das stört könnte man eine Vier-Felder-Tafel aus Deinen Beobachtungen erstellen und darüber einen Fisher-Test rechnen.

Wie würde ich das denn machen? Ich habe mich versucht in die verschiedenen Tests einzulesen, jedoch schwirrt mich der Kopf und ich bin nicht wirklich im Stande den richtigen Test für meine hypothese auszuwählen.

Die Informationen die ich gefunden habe beziehen sich meist auf einen ausgedachten p wert mit dem ich meinen vergleiche. Bei mir ist es aber so dass beide Werte potenziell fehlerhaft seien können, kann ich trotzdem pA mit pB vergleichen ohne da Fehlertoleranzen einbezihen zu müssen?

Vielen Dank für deine Hilfe bele!
KingDan
Grünschnabel
Grünschnabel
 
Beiträge: 3
Registriert: Mo 1. Apr 2019, 23:57
Danke gegeben: 1
Danke bekommen: 0 mal in 0 Post

Re: Fehlertoleranz von zwei Stichproben vergleichen

Beitragvon bele » Di 2. Apr 2019, 16:04

KingDan hat geschrieben:-> H0: pA < pB
-> H1: pA >= pB


Anders herum lässt es sich testen
der in statistischen Begriffen: Die Odds ration .

Dafür würde man eine Kontingenztafel aufstellen, etwa so:
Code: Alles auswählen
     | Pop A  |  Pop B
Ja   |   7    |   13
-----|--------+-------
Nein |   0    |   12


Und auf die könnte man jetzt den exakten Test nach Fisher anwenden. Ich würde das wieder einem Computerprogramm überlassen. Das Kommando in R könnte lauten:

Code: Alles auswählen
fisher.test(matrix(c(7,0,13,12),2))


R ist übrigens freeware: www.r-project.org

Alternativ gibt es auch online-Rechner wie z. B. diesen: https://www.socscistatistics.com/tests/ ... ault2.aspx (unzählige mehr über Google)

LG,
Bernhard
----
`Oh, you can't help that,' said the Cat: `we're all mad here. I'm mad. You're mad.'
`How do you know I'm mad?' said Alice.
`You must be,' said the Cat, `or you wouldn't have come here.'
(Lewis Carol, Alice in Wonderland)
bele
Schlaflos in Seattle
Schlaflos in Seattle
 
Beiträge: 5766
Registriert: Do 2. Jun 2011, 23:16
Danke gegeben: 15
Danke bekommen: 1351 mal in 1338 Posts

folgende User möchten sich bei bele bedanken:
KingDan

Re: Fehlertoleranz von zwei Stichproben vergleichen

Beitragvon KingDan » Mi 3. Apr 2019, 14:08

Hallo bele,

vielen Dank für deine Hilfe, du hast mir echt viel weitergeholfen!

PS: r benutze ich sowieso schon :)

Liebe Grüße
KingDan
Grünschnabel
Grünschnabel
 
Beiträge: 3
Registriert: Mo 1. Apr 2019, 23:57
Danke gegeben: 1
Danke bekommen: 0 mal in 0 Post


Zurück zu Allgemeine Fragen

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 5 Gäste