Themen

Proxy-Modellierung

Im letzten Kapitel des Artikels A Least-Squares Monte Carlo Framework in Proxy Modeling of Life Insurance Companies von Anne-Sophie Krah, Ralf Korn und mir werden umfassend die möglichen Forschungsgebiete zur Proxy-Modellierung dargelegt.

Der Bereich Risikoaggregation und Proxy-Modellierung im Kontext von Solvency II hat in den letzten Jahren eine besonders wichtige praktische Bedeutung gewonnen. Alle Versicherungsunternehmen, welche nicht die stark vereinfachende Standardformel zur Berechnung des Risikokapitals heranziehen, sind mit erheblichen Laufzeitproblemen konfrontiert, wenn sie versuchen, komplexe, laufzeitintensive Bewertungsmodelle ausreichend oft zur Ermittlung der Verlustverteilungsfunktion laufen zu lassen.

Das Problem lässt sich wie folgt beschreiben:

  • Die Bewertungsmodelle der Lebens- und Krankenversicherer, in denen Aktiva und Passiva des modellierten Versicherungsunternehmens über 60 Jahre in die Zukunft projiziert werden, simulieren die Zahlungsströme (z. B. Einnahme Prämien, Auszahlung Leistungen und Dividenden) zwischen dem Versicherungsunternehmen und der äußeren Welt in Abhängigkeit von den Kapitalmarktentwicklungen. Für jedes Kapitalmarktszenario wird dabei der Barwert der zwischen dem Unternehmen und allen Versicherungskunden fließenden Zahlungsströme gebildet. Damit wirken diese Bewertungsmodelle sozusagen wie Pricing-Maschinen für ein hochkomplexes Derivat.
  • Für den Preis dieses Derivats existiert keine analytische Lösung oder zumindest ist kein Ansatz bekannt, wie man an sie kommen kann. Folglich greift man auf Monte-Carlo-Simulationen zurück. Typischerweise benötigt man zwischen 1.000 und 5.000 Monte-Carlo-Simulationen, um eine Bewertung der Zahlungsströme durchzuführen.
  • Für die Solvenzberechnungen wird vom Gesetzgeber verlangt, dass Versicherungsunternehmen eine vollständige Verteilung ihrer Verluste in Abhängigkeit von der Entwicklung von Risikotreibern in einem einjährigen Zeithorizont ausrechnen. Beispiele für diese Risikotreiber sind Veränderung der Zinsen, Ausfall von Anleihen, Erhöhung der Sterblichkeit, Erhöhung der Kosten und Weiteres. Anhand der gesamten Verlustverteilung wird das 99,5-Perzentil ermittelt, welches letzten Endes als Risikokapitel dient.
  • Damit diese Verlustverteilung und vor allem das 99,5-Perzentil numerisch stabil wird, benötigt man typischerweise 200.000-1.000.000 Zustände der Risikotreiber. Insgesamt benötigt man also 200.000-1.000.000 mal 1.000-5.000 Bewertungen mit der Bewertungsmaschine, was auch in den Zeiten des Cloud-Computing eine unlösbare Aufgabe ist.
  • Als mathematisch interessante Lösung bietet sich der folgende Ansatz an: Man rechne einige Tausend Stützpunkte im durch die Risikotreiber aufgespannten Raum und führt eine Regression durch, womit man letzten Endes doch eine Funktion erlangt, welche man 200.000-1.000.000 Mal auswertet. Normalerweise entscheidet man sich für Polynome, um sehr schnelle Auswertungen zu ermöglichen.

Die Frage, wie man zu einem robusten Regressionsergebnis kommt, welches zuverlässig das betrachtete Bewertungsmodell approximiert, wurde in der Praxis und in der Literatur noch nicht abschließend beantwortet. Dieses Feld bietet vielfältige Möglichkeit zur Vergabe einer Bachelor- oder Masterarbeit wie zum Beispiel:

  • Welche Basisfunktionen sind für die Regression am besten geeignet?
  • Mit welchen Machine-Learning-Ansätzen lassen sich die o. g. Problemstellungen angehen?
  • Welche Modellwahlalgorithmen sind praktikabel und welche führen schnell zu einem guten Schätzer?
  • Wie geht man mit Ausreißern um, ist die weit verbreitete 2-Norm am besten geeignet?
  • Gibt es Regressionsansätze, die ungenauere Punkte mit einem geringeren Gewicht in der Regression berücksichtigen und gleichzeitig nicht sehr laufzeitintensiv sind?
  • Allgemein: Wie reduziert man effizient die Varianz?
  • Wie validiert man das Ergebnis, wann ist eine Proxy-Funktion gut?
  • Welche Anzahl Szenarien ist optimal?

Man erkennt leicht anhand dieser Beispiele, dass es sich hier um eine Mischung der sehr praktischen Fragestellungen, welche sich vom Unternehmen zu Unternehmen unterschieden, und theoretischen Überlegungen, welche allgemein gültig sind, handelt.

Links zu weiteren Vorträgen und relevanter Literatur (in Arbeit)

Neural networks meet least squares Monte Carlo at internal model data, Christian Jonen, Tamino Meyhöfer, Zoran Nikolić, European Actuarial Journal: 1/2023, July 2022.

Least-Squares Monte Carlo for Proxy Modeling in Life Insurance: Neural Networks, Anne-Sophie Krah, Zoran Nikolić, Ralf Korn, Risks: Volume 8, Issue 4, November 2020.

Machine Learning in Least-Squares Monte Carlo Proxy Modeling of Life Insurance Companies, Anne-Sophie Krah, Zoran Nikolić, Ralf Korn, Risks: 8(1), 21, February 2020.

A Least-Squares Monte Carlo Framework in Proxy Modeling of Life Insurance Companies, Anne-Sophie Krah, Zoran Nikolić, Ralf Korn, Risks: Volume 6, Issue 2, June 2018.

Robust Regression in LSMC Proxy Modeling, Zoran Nikolić, Christian Jonen, Chengjia Zhu, Der Aktuar, 01/2017.

Financial Mathematics Methods in Solvency II
Dieser Vortrag gibt einen ersten Überblick über einige Fragestellungen
Passwort: Vortrag_Muenster

Vortrag zur Motivation der Quasi-Monte-Carlo-Methode von Christian Weiß im Wintersemester 2017/2018

Vortrag zu Anwendungen von Monte-Carlo-Methoden von Christian Jonen im Seminar Sommersemester 2017

Financial Mathematics in Insurance: Vortrag Zoran Nikolić und Christian Weiß am 24.10.2016 an der Uni Bonn