Monte-Carlo-Simulation für Value at Risk

Fragen, die sich auf kein spezielles Verfahren beziehen.

Monte-Carlo-Simulation für Value at Risk

Beitragvon DareCloud » Fr 31. Jul 2020, 10:48

Hallo zusammen,

ich versuche mich schon seit einiger Zeit an der Berechnung des Value at Risk auf Basis einer Monte-Carlo-Simulation in Excel. Die Werte die ich dabei herausbekomme erscheinen mir teilweise plausibel, allerdings bin ich mir nicht sicher, ob ich das Verfahren richtig anwende. Könntet ihr mir kurz bestätigen ob ich das alles so richtig verstanden habe und mache bzw. wo ich mich irre?

Hier meine Art des Vorgehens:

- Ich habe einen quartärlichen Index mit 51 Werten
- Aus diesen Werten bilde ich die Rendite und Log-Rendite für jedes Quartal
- Aus der Log-Rendite bilde ich den Mittelwert und die Standardabweichung
- Auf Basis des Mittelwertes und der Standardabweichung bilde ich 4 Quartärliche Zufallsrenditen (=NORMINV(Zufallszahl();Mittelwert;Standardabweichung) und kummuliere diese zu einer Jahresrendite
- Diese Jahresrendite wird dann 20.000 weitere Male im Rahmen der Monte-Carlo-Simulation generiert
- auf Basis der 20.000 Jahresrenditen errechne ich erneut den Mittelwert und die Standardabweichung
- Auf deren Basis errechne ich den VaR mit =NORM.INV(0,005;Mittelwert;Standardabweichung) um das 0,5% der schlechtesten Renditen zu erhalten

Leider kann ich die Excel nicht anhängen...Ich hoffe ihr versteht trotzdem wie ich vorgehe

Ist das so richtig?

Was mache ich wenn ich nicht so viele Datenpunkte habe (bpsw. nur 3-5)? Kann ich dann genauso vorgehen?

Danke für eure Hilfe!
DareCloud
Grünschnabel
Grünschnabel
 
Beiträge: 4
Registriert: Do 30. Jul 2020, 11:43
Danke gegeben: 1
Danke bekommen: 0 mal in 0 Post

Re: Monte-Carlo-Simulation für Value at Risk

Beitragvon bele » Fr 31. Jul 2020, 12:21

Hallo!

Anscheinend kann ich wieder posten, leider ist meine ausführliche Antwort von oben verlorengegangen. Ich finde Deinen Weg über die Simulation von 20001 Summen aus je vier normalverteilten Zufallsvariablen unnötig kompliziert. Die Verteilung der Summe von vier normalverteilen Zufallsvariablen lässt sich exakt und geschlossen lösen: Such mal in der englischen Wikipedia //en.wikipedia.org/wiki/Sum_of_normally_distributed_random_variables

Es dürfte leichter zu programmieren, viel schneller durchzuführen und am Ende noch präziser sein, das über die Normalverteilung statt über die Simulation von Normalverteilung zu lösen. Und Präzision kannst Du brauchen, wenn Du nachher 0,5%-Schwellen nutzen möchtest.



Was die Nutzung von 3 bis 5 Beobachtungen angeht - das würde ich bleiben lassen: In Schritt drei Deiner Abfolge bestimmst Du einmal einen Mittelwert, der sich danach als Konstante durch Deine Auswertung zieht. Dass diese Konstante immer nur fehlerbehaftet bestimmt wird, kann man bei 51 Beobachtungen vielleicht(?) vernachlässigen, aber ganz bestimmt nicht mehr bei 5 Beobachtungen. Über diese Brücke würde ich daher nicht gehen.

Andererseits muss man natürlich in Betracht ziehen, was für eine Art von Arbeit das ist, was man in Deinem Ausbildungsstand von Dir verlangen kann und was mit den zur Verfügung stehenden Mitteln (beispielsweise mit Excel) überhaupt möglich ist.

LG,
Bernhard
----
`Oh, you can't help that,' said the Cat: `we're all mad here. I'm mad. You're mad.'
`How do you know I'm mad?' said Alice.
`You must be,' said the Cat, `or you wouldn't have come here.'
(Lewis Carol, Alice in Wonderland)
bele
Schlaflos in Seattle
Schlaflos in Seattle
 
Beiträge: 5743
Registriert: Do 2. Jun 2011, 23:16
Danke gegeben: 15
Danke bekommen: 1338 mal in 1325 Posts

Re: Monte-Carlo-Simulation für Value at Risk

Beitragvon DareCloud » Fr 31. Jul 2020, 14:02

Hallo Bele,

danke für deine Antwort.

Ehrlich gesagt möchte ich die Art Berechnung nicht ändern, evtl. muss ich hier weiter ausholen:

Konkret geht es bei meinen Berechnungen um Markpreisrisiken bei Immoblien. Mit Alpha= 0,005 möchte ich also wissen, wie hoch der Marktwertverlust in den 0,5% der schlimmsten Ereignisse mindestens ist. Nach meinen Recherchen eignet sich für solche Berechnungen das Monte-Carlo-Verfahren am besten...

Die Frage die ich mir eben vor allem gerade stelle ist, ob ich durch die Eingabe der Parameter Mittelwert und Standardabweichung - ermittelt aus den historischen Daten des Index - in die Monte-Carlo-Simulation ebendiese Werte größtenteils bestätige? Quasi wie eine Schleife...

Konkret also: Wende ich die Monte-Carlo-Simulation überhaupt so richtig an?
DareCloud
Grünschnabel
Grünschnabel
 
Beiträge: 4
Registriert: Do 30. Jul 2020, 11:43
Danke gegeben: 1
Danke bekommen: 0 mal in 0 Post

Re: Monte-Carlo-Simulation für Value at Risk

Beitragvon bele » Fr 31. Jul 2020, 14:40

DareCloud hat geschrieben:Ehrlich gesagt möchte ich die Art Berechnung nicht ändern,


Es ist immer gut, ehrlich zu sein. Fragt sich, welche Art von Antwort Du erwartest, wenn Kritik an Deiner Methode unerwünscht ist.

Nach meinen Recherchen eignet sich für solche Berechnungen das Monte-Carlo-Verfahren am besten...


Ich bin ein extremer Freund von Monte Carlo Methoden. Noch vor kurzem habe ich hier für jemanden eine ganze Aufgabe mit Monte Carlo vorgerechnet. Man kann so vieles damit machen, was man anders nicht kann. Wenn man beispielsweise keine Normalitätsannahme machen wollte oder wenn man nicht mit einem konstanten Mittelwert rechnen wollte, dann würde Monte Carlo alles viel einfacher machen. Momentan denke ich halt, dass Du die Nachteile von Monte Carlo inkauf nimmst, ohne die Vorteile zu nutzen. Aber das ist für mich ok, wenn es für Dich ok ist.

Die Frage die ich mir eben vor allem gerade stelle ist, ob ich durch die Eingabe der Parameter Mittelwert und Standardabweichung - ermittelt aus den historischen Daten des Index - in die Monte-Carlo-Simulation ebendiese Werte größtenteils bestätige? Quasi wie eine Schleife...


Ich kann leider nicht sagen, dass ich das verstünde. :( Ich bin aber auch kein Wirtschaftswissenschaftler, vielleicht liegt es daran.
Derzeit nimmst Du Werte aus einem quartärlichen Index und berechnest einen Grenzwert für jährliche Werte. Wo schließt sich da eine Schleife?

LG,
Bernhard
----
`Oh, you can't help that,' said the Cat: `we're all mad here. I'm mad. You're mad.'
`How do you know I'm mad?' said Alice.
`You must be,' said the Cat, `or you wouldn't have come here.'
(Lewis Carol, Alice in Wonderland)
bele
Schlaflos in Seattle
Schlaflos in Seattle
 
Beiträge: 5743
Registriert: Do 2. Jun 2011, 23:16
Danke gegeben: 15
Danke bekommen: 1338 mal in 1325 Posts

folgende User möchten sich bei bele bedanken:
DareCloud

Re: Monte-Carlo-Simulation für Value at Risk

Beitragvon DareCloud » Mo 3. Aug 2020, 11:44

bele hat geschrieben:Es ist immer gut, ehrlich zu sein. Fragt sich, welche Art von Antwort Du erwartest, wenn Kritik an Deiner Methode unerwünscht ist.


Sorry das kam evtl. falsch rüber. Trotzdem möchte ich bei Monte-Carlo bleiben, auch wenn ich das Potential noch nicht ausnutze

bele hat geschrieben:Ich kann leider nicht sagen, dass ich das verstünde. :( Ich bin aber auch kein Wirtschaftswissenschaftler, vielleicht liegt es daran.
Derzeit nimmst Du Werte aus einem quartärlichen Index und berechnest einen Grenzwert für jährliche Werte. Wo schließt sich da eine Schleife?


Ich glaube ich habe es jetzt verstanden. Ich dachte immer die Monte-Carlo Simulation wäre eine ganz andere Vorgehensweise als die Simulation mit historischen Daten. Dabei erweitert MC die historischen Daten einfach nur um ein Vielfaches. Sehe ich das so richtig?

Ich habe nun folgende Daten errechnet

Mittelwert: 5,80%
Standardabweichung: 3,48%

Value at Risk im 0,5% Quantil: -3,1%

Meine Interpretation würde also lauten: Auf Basis der MC-Simulation die widerum meinen historischen Index als Grundlage nimmt, ist in 0,5% der Fälle ein Verlust von 3,1% oder mehr zu erwarten. Ist diese Interpretation korrekt?

Nun wurden VaR-Berechnung schon früher durchgeführt (nicht auf MC-Basis) und es wurde immer lediglich die errechnte Standardabweichung mit dem 2,576-fachen multipliziert (Annahme einer Standardnormalverteilung mit p=99,5%). Kannst du mir sagen was hier die richige Vorgehensweise ist oder gibt es darauf keine allgemein gültige Antwort?

Danke für deine Hilfe
DareCloud
Grünschnabel
Grünschnabel
 
Beiträge: 4
Registriert: Do 30. Jul 2020, 11:43
Danke gegeben: 1
Danke bekommen: 0 mal in 0 Post

Re: Monte-Carlo-Simulation für Value at Risk

Beitragvon bele » Mo 3. Aug 2020, 14:02

DareCloud hat geschrieben:Ich dachte immer die Monte-Carlo Simulation wäre eine ganz andere Vorgehensweise als die Simulation mit historischen Daten. Dabei erweitert MC die historischen Daten einfach nur um ein Vielfaches.


Monte Carlo ist ein Verwaltungsbezirk in Monaco mit einer Spielbank und Monte Carlo nennt man irgendwie alles, bei dem eine Vorgehensweise ganz oft durchgeführt und dabei mit einem Zufallszahlengenerator variiert wird. Oft umfasst das das Bilden von sehr vielen Kombinationen von alten Beobachtungdaten, muss aber nicht.

Gegenbeispiel: Ich würfle einen Würfel und immer wenn 1 kommt gewinne ich 1 Euro, immer wenn 2 kommt gewinne ich zwei Euro, immer wenn 6 kommt verliere ich alles bis dahin gewonnene, Wo liegt das 15% Quartil meines Gewinns, wenn ich 100 Mal hintereinander würfle.
Ist ein reines Gedankenexperiment, hat keine historischen Daten und kann doch super mit Monte Carlo angegangen werden. Es geht also nicht immer um "historische Daten", in Deinem Fall aber schon.


Ich habe nun folgende Daten errechnet

Mittelwert: 5,80%
Standardabweichung: 3,48%


Das ist unzureichend beschrieben. Du berechnest Mittelwerte und Standardabweichungen sowohl in Schritt drei als auch in Schritt 6 Deiner Analyse. Mittelwert und Standardabweichung sind damit mehrdeutige Bezeichner.

Value at Risk im 0,5% Quantil: -3,1%

Meine Interpretation würde also lauten: Auf Basis der MC-Simulation die wiederum meinen historischen Index als Grundlage nimmt, ist in 0,5% der Fälle ein Verlust von 3,1% oder mehr zu erwarten.


Als Nicht-WiWi würde ich nie sagen, dass so etwas korrekt ist. Was mich aber verwirrt ist folgendes: Du rechnest anscheinend nicht mit Renditen sondern mit logarithmierten Renditen. Eine Rücktransformation ist nicht beschrieben, dennoch interpretierst Du die Ergebnisse augenscheinlich als Renditen. Vielleicht magst Du da nochmal nachdenken, ob Du alles bezüglich der Logarithmierung bedacht hast.

Nun wurden VaR-Berechnung schon früher durchgeführt (nicht auf MC-Basis) und es wurde immer lediglich die errechnte Standardabweichung mit dem 2,576-fachen multipliziert (Annahme einer Standardnormalverteilung mit p=99,5%). Kannst du mir sagen was hier die richtige Vorgehensweise ist oder gibt es darauf keine allgemeingültige Antwort?


Mal kurz nachrechnen: . Bis auf einen Rundungsfehler passt das doch sehr gut zu Deinem Ergebnis von -3,1. Grund, sich zu freuen.
Ich habe Dir oben geschrieben, dass man das auch einfacher als mit Simulationsrechnung angehen kann und jetzt stellst Du fest, dass man einfacher auch ohne Simulation zum gleichen Ergebnis kommt. Was erwartest Du jetzt von mir? Wenn es Verteilungstabellen gibt, dann ist das Nutzen von Verteilungstabellen schneller und man hat meist die höhere Genauigkeit zur Verfügung. Wenn es keine Verteilungstabellen gibt, kann man mit Zeit- und Rechenaufwand oft eine gute Annäherung durch Monte Carlo-Simulation erreichen.

LG,
Bernhard
----
`Oh, you can't help that,' said the Cat: `we're all mad here. I'm mad. You're mad.'
`How do you know I'm mad?' said Alice.
`You must be,' said the Cat, `or you wouldn't have come here.'
(Lewis Carol, Alice in Wonderland)
bele
Schlaflos in Seattle
Schlaflos in Seattle
 
Beiträge: 5743
Registriert: Do 2. Jun 2011, 23:16
Danke gegeben: 15
Danke bekommen: 1338 mal in 1325 Posts

Re: Monte-Carlo-Simulation für Value at Risk

Beitragvon DareCloud » Di 4. Aug 2020, 13:56

bele hat geschrieben:Als Nicht-WiWi würde ich nie sagen, dass so etwas korrekt ist. Was mich aber verwirrt ist folgendes: Du rechnest anscheinend nicht mit Renditen sondern mit logarithmierten Renditen. Eine Rücktransformation ist nicht beschrieben, dennoch interpretierst Du die Ergebnisse augenscheinlich als Renditen. Vielleicht magst Du da nochmal nachdenken, ob Du alles bezüglich der Logarithmierung bedacht hast.


Danke für den Hinweis, das habe ich tatsächlich übersehen und ist inzwischen angepasst.

bele hat geschrieben:Mal kurz nachrechnen: . Bis auf einen Rundungsfehler passt das doch sehr gut zu Deinem Ergebnis von -3,1. Grund, sich zu freuen.
Ich habe Dir oben geschrieben, dass man das auch einfacher als mit Simulationsrechnung angehen kann und jetzt stellst Du fest, dass man einfacher auch ohne Simulation zum gleichen Ergebnis kommt. Was erwartest Du jetzt von mir? Wenn es Verteilungstabellen gibt, dann ist das Nutzen von Verteilungstabellen schneller und man hat meist die höhere Genauigkeit zur Verfügung. Wenn es keine Verteilungstabellen gibt, kann man mit Zeit- und Rechenaufwand oft eine gute Annäherung durch Monte Carlo-Simulation erreichen.


Ebenso wurde es bisher nicht gerechnet. Die Berechnung des VaR lautete schlicht: . Der Mittelwert als Ausgangsbasis wurde quasi weggelassen. Nun habe ich gerade gelesen, dass so eine Art der Berechnung bei der Varianz-Kovarianz-Methode angewendet wird https://www.risknet.de/wissen/rm-method ... nz-modell/. Zitat: "Der Value at Risk einer einzelnen Vermögensposition ergibt sich aus der Multiplikation von ihrem Marktwert mit seiner Volatilität in Prozent und dem Z-Wert."

Wieso kann bei der einen Methode der Mittelwert als Ausgangspunkt vollkommen ignoriert werden und bei MC ist er dabei?

Was mir außerdem seit gestern Kopfzerbrechen bereitet: Ich habe wie beschrieben einen Immobilienindex aus Ausgangsbasis (Beispielhaft den S&P/Case-Shiller U.S. National Home Price Index). Wenn ich mir die Daten als monatliche Werte rauslasse und auf dieser Basis Mittelwert (0,31% p.M.) und Standardabweichung (0,64% p.M.) berechne, dann meine MC-Simulation durchführe komme ich auf einen 0,5% VaR von ca. -2,1%. Dabei hatte dieser Index von 2007-2009 einen Verlust von 22% (u.a. 2007 -6%, 2008 -13%).

Meine Berechnung mit den schlimmsten 0,5% der Jahre kann doch nicht korrekt sein wenn hier -2,1% rauskommt (die schlechteste Jahresperfomance in der MC-Simulation lag bei -5,6%), obwohl die Historie vor ein paar Jahren schon viel schlechtere Performances hatte.

Anders verhält es sich, wenn ich den Index auf Jahresbasis als Grundlage für die o.g. Berechnungen zugrunde lege. Da hier durch die aggregierten Jahreswerte die Standardabweichung viel höher ist (5,37% p.a.) bekomme ich einen 0,5% VaR von -10,4% raus.

Ich kann doch nicht eine "schlechtere" Datenbasis als Grundlage nehmen, nur um dann adäquate Ergebnisse zu erhalten? Oder was ist der Grund, dass mir die monatliche Grundlage so komische Zahlen liefert?
DareCloud
Grünschnabel
Grünschnabel
 
Beiträge: 4
Registriert: Do 30. Jul 2020, 11:43
Danke gegeben: 1
Danke bekommen: 0 mal in 0 Post

Re: Monte-Carlo-Simulation für Value at Risk

Beitragvon bele » Di 4. Aug 2020, 15:33

Hallo!

DareCloud hat geschrieben:Danke für den Hinweis, das habe ich tatsächlich übersehen und ist inzwischen angepasst.


Gut. Dann war der Weg über das Forum schon mal für etwas sehr nützlich.

Ebenso wurde es bisher nicht gerechnet. Die Berechnung des VaR lautete schlicht: . Der Mittelwert als Ausgangsbasis wurde quasi weggelassen. [...]
Wieso kann bei der einen Methode der Mittelwert als Ausgangspunkt vollkommen ignoriert werden und bei MC ist er dabei?


Das klingt nach einer sehr berechtigten Frage. Ich bin sicher der falsche, um dazu etwas zu sagen.

Was mir außerdem seit gestern Kopfzerbrechen bereitet: Ich habe wie beschrieben einen Immobilienindex aus Ausgangsbasis (Beispielhaft den S&P/Case-Shiller U.S. National Home Price Index). Wenn ich mir die Daten als monatliche Werte rauslasse und auf dieser Basis Mittelwert (0,31% p.M.) und Standardabweichung (0,64% p.M.) berechne, dann meine MC-Simulation durchführe komme ich auf einen 0,5% VaR von ca. -2,1%. Dabei hatte dieser Index von 2007-2009 einen Verlust von 22% (u.a. 2007 -6%, 2008 -13%).

Wenn ich im Monat 2% verliere, dann kann ich doch im Jahr auch mal 13% verlieren, oder?

Auch dazu kann ein Wirtschaftswissenschaftler sicher mehr sagen. Mein erster verdächtiger ist hier immer die Normalverteilungsannahme. Warum sollten sich solche Werte über wenige Jahre hinweg normal verteilen? Die zweite ist die Annahme identisch verteilter voneinander unabhängiger Stichproben (sog "i. i. d."). Gibt es in der Wirtschaft nicht langwierige Trends? Wenn wir vor einer Corona-Depression gewarnt werden, dann soll die doch mehrere Quartale anhalten. Also sind schon die Quartalswerte nicht mehr i. i. d.? Ein weiteres ist in der Tat das Beobachtungsinterval. Monatsdurchschnitte von Kursen sind eine Glättung der Tagesdurchschnitte die wieder eine Glättung des Kursverlaufs im Tagesverlauf sind. Also Gründe, warum solche Modelle zu schlicht sein und falsch liegen können, gibt es reichlich. Dennoch wird ein Wirtschaftswissenschaftler hoffentlich begründen können, warum solche Modelle gelehrt und angewendet werden. Bislang hat sich hier im Thread kein Teilnehmer als Wirtschaftler zu erkennen gegeben. Wir helfen Dir gern mit Fragen der Statistik, aber ich gewinne den Eindruck, dass das hier das falsche Forum für die Fragen ist, die Du zurzeit hast.

LG,
Bernhard
----
`Oh, you can't help that,' said the Cat: `we're all mad here. I'm mad. You're mad.'
`How do you know I'm mad?' said Alice.
`You must be,' said the Cat, `or you wouldn't have come here.'
(Lewis Carol, Alice in Wonderland)
bele
Schlaflos in Seattle
Schlaflos in Seattle
 
Beiträge: 5743
Registriert: Do 2. Jun 2011, 23:16
Danke gegeben: 15
Danke bekommen: 1338 mal in 1325 Posts


Zurück zu Allgemeine Fragen

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 4 Gäste