Exponentieller Ausfallraten bei hohen Ausfallzahlen

Fragen, die sich auf kein spezielles Verfahren beziehen.

Exponentieller Ausfallraten bei hohen Ausfallzahlen

Beitragvon MSStat » Fr 5. Okt 2018, 13:15

Hallo zusammen,

Für die Auswertung von Monte-Carlo-Simulationen möchte ich ein
exponentielles Fehlermodell heranziehen.
Dabei soll die Vorgabe eines Konfidenzniveaus möglich sein.
Wenn ich über eine Zeit T_Test bei N_Test Versuchen N_Fail Ausfälle habe, kann ich

1. nominale Werte berechnen:
Nichtverfügbarkeit: Q_nom = N_Fail/N_Test
Ausfallrate: Lambda_nom = -log(1-Q_nom)/T_TEST

2. Werte unter Berücksichtigung eines Konfidenzniveaus CL berechnen:
Ausfallrate: Lambda_conf = chi2inv(CL,(2*N_Fail+2))/(2*N_Test*T_Test)
Nichtverfügbarkeit: Q_conf = 1- exp(-T_Test * Lambda_conf);

Für kleine Ausfallraten (der sinnvolle Normallfall) stimmen die Ergebnisse.
Für N_Fail << N_Test gilt:
Q_conf > Q_nom und Lambda_conf > Lambda_nom.

Wenn jedoch die Ausfälle N_Fail in die Größenordnung der Versuche N_Test kommen, werden
Q_conf < Q_nom und Lambda_conf < Lambda_nom.
Das ist unplausibel,weil die "Wahrscheinlichkeit" von Ausfällen bei angenommener Unsicherheit
der Schätzung gößer als das Versuchsergebnis sein sollte und nicht kleiner.

Daher meine Fragen:
- Mache ich einen grundsätzlichen Fehler?
- Gilt die allgemeine Zuverlässigkeitsformel Lambda_conf = chi2inv(CL,(2*N_Fail+2))/(2*N_Test*T_Test)
generell nur für kleine N_Fail?
- Gibt es eine legitime Möglichkeit, die "Macke" bei großen Ausfallwerte N_Fail wegzurechnen?


Vielen Dank im Voraus

Martin Schäfer
MSStat
Grünschnabel
Grünschnabel
 
Beiträge: 2
Registriert: Sa 9. Apr 2016, 00:24
Danke gegeben: 0
Danke bekommen: 0 mal in 0 Post

Zurück zu Allgemeine Fragen

Wer ist online?

Mitglieder in diesem Forum: Bing [Bot] und 2 Gäste

cron