top of page

Overfitting – Wenn Modelle zu viel aus der Vergangenheit lernen

Warum überangepasste Finanzmodelle an der Börse gefährlich werden können

 

In der modernen Finanzwelt spielen Modelle eine zentrale Rolle. Algorithmen analysieren Millionen von Datenpunkten, Quant-Fonds optimieren Portfolios mit mathematischer Präzision, und Risikomanagementsysteme berechnen Verlustwahrscheinlichkeiten auf mehrere Nachkommastellen genau. Doch je komplexer ein Modell, desto grösser die Gefahr eines fundamentalen Fehlers: Overfitting.

 

Was ist Overfitting?

 

Overfitting – auf Deutsch auch Überanpassung – beschreibt ein Phänomen aus der Statistik und dem maschinellen Lernen: Ein Modell wurde so stark auf historische Daten trainiert, dass es diese nahezu perfekt abbildet – aber auf neue, unbekannte Daten kaum noch funktioniert.

Das Modell hat sozusagen nicht die zugrundeliegenden Gesetzmässigkeiten gelernt, sondern das Rauschen und die Zufälligkeiten der Vergangenheit auswendig gelernt. Es ist hochpräzise für das, was war – und weitgehend nutzlos für das, was kommt.

Eine einfache Analogie: Wer für eine Prüfung ausschliesslich die alten Musterprüfungen auswendig lernt, ohne die Konzepte dahinter zu verstehen, wird bei neuen Aufgaben scheitern – auch wenn er die Musterprüfungen fehlerfrei lösen kann.

 

Wie entsteht Overfitting?

 

Overfitting entsteht typischerweise durch eine Kombination aus mehreren Faktoren:

Zu viele Parameter: Je mehr Variablen ein Modell enthält, desto flexibler kann es sich an historische Daten anpassen – und desto grösser die Gefahr der Überanpassung.

Zu wenig Daten: Wenn ein komplexes Modell auf einem kleinen Datensatz trainiert wird, lernt es zwangsläufig auch das Rauschen – schlicht weil zu wenig echtes Signal vorhanden ist.

Zu langes Training: In der Welt des maschinellen Lernens kann ein Modell durch zu viele Trainingsiterationen beginnen, sich an Ausreisser und Zufälligkeiten anzupassen, die keine echte Bedeutung haben.

Data Snooping: Wenn Forscher oder Entwickler immer wieder neue Modelle an denselben historischen Daten testen, steigt die Wahrscheinlichkeit, dass eines davon zufällig gut abschneidet – ohne echten Mehrwert.

 

Overfitting in der Finanzwelt

 

Im Finanzkontext ist Overfitting besonders heimtückisch – und besonders verbreitet. Die Versuchung ist gross: Historische Kursdaten sind reichlich vorhanden, Rechenkapazität ist günstig, und ein Modell, das in der Vergangenheit funktioniert hat, verkauft sich gut.

Backtesting-Falle: Das klassische Beispiel. Ein Quant-Analyst entwickelt eine Handelsstrategie und testet sie an historischen Daten – der sogenannte Backtest. Das Ergebnis: beeindruckende Renditen, minimale Drawdowns, eine Sharpe Ratio, die jeden Investor begeistert. In der Praxis versagt die Strategie kläglich. Der Grund: Das Modell wurde so lange optimiert, bis es die Vergangenheit perfekt erklärte – aber eben nur die Vergangenheit.

Faktor-Zoo: In der akademischen Finanzforschung wurden Hunderte von Faktoren identifiziert, die historisch Überrenditen erklären sollen. Viele davon sind schlicht das Ergebnis von Data Mining – statistischen Zufälligkeiten, die in grossen Datensätzen unweigerlich auftauchen. Werden diese Faktoren in der Praxis angewendet, verschwinden die Überrenditen oft.

Risikomodelle: Auch Risikomodelle wie Value-at-Risk (VaR) leiden unter Overfitting. Sie werden auf historischen Daten kalibriert und unterschätzen systematisch Risiken, die in der Vergangenheit nicht vorkamen – etwa die Finanzkrise 2008 oder die Corona-Verwerfungen 2020.

 

Das Bias-Variance-Tradeoff

 

Um Overfitting wirklich zu verstehen, hilft ein Blick auf das zentrale Spannungsfeld der Modelltheorie: den Bias-Variance-Tradeoff.

  • Bias beschreibt den systematischen Fehler eines Modells – wie weit seine Vorhersagen im Durchschnitt vom wahren Wert entfernt sind. Ein zu einfaches Modell hat hohen Bias: Es vereinfacht die Realität zu stark.

  • Variance beschreibt die Empfindlichkeit eines Modells gegenüber Schwankungen in den Trainingsdaten. Ein zu komplexes Modell hat hohe Varianz: Es reagiert stark auf jede Zufälligkeit in den Daten.

Overfitting ist das Extrem der hohen Varianz: Das Modell passt sich so stark an die Trainingsdaten an, dass es auf neuen Daten versagt. Das Gegenteil – Underfitting – bedeutet, dass das Modell zu simpel ist, um echte Muster zu erkennen.

Das Ziel ist die Balance: Ein Modell, das komplex genug ist, um echte Muster zu erfassen, aber einfach genug, um nicht dem Rauschen zu folgen.

 

Wie erkennt man Overfitting?

 

Es gibt mehrere Warnsignale und Methoden, Overfitting aufzudecken:

Train-Test-Split: Die Daten werden in einen Trainingsdatensatz und einen unabhängigen Testdatensatz aufgeteilt. Performt das Modell auf dem Testdatensatz deutlich schlechter als auf dem Trainingsdatensatz, ist Overfitting wahrscheinlich.

Cross-Validation: Eine verfeinerte Methode, bei der der Datensatz mehrfach in verschiedene Trainings- und Testsets aufgeteilt wird – um robustere Aussagen über die Generalisierungsfähigkeit zu erhalten.

Out-of-Sample-Testing: Im Finanzkontext besonders wichtig: Die Strategie wird an Daten getestet, die beim Entwicklungsprozess vollständig ausgeschlossen waren – idealerweise aus einem anderen Zeitraum oder Markt.

Occam's Razor: Das Prinzip der Einfachheit. Wenn zwei Modelle ähnlich gut performen, ist das einfachere vorzuziehen – es ist weniger anfällig für Overfitting.

 

Overfitting und Modellrisiko – die regulatorische Perspektive

 

In der Finanzregulierung ist Modellrisiko – das Risiko, dass ein Modell falsche Ergebnisse liefert – längst offiziell anerkannt. Regulierungsbehörden wie die Fed, die EZB und die BaFin fordern von Banken und Finanzinstituten explizite Model Risk Management Frameworks.

Dazu gehören:

  • Unabhängige Modellvalidierung durch eine separate Einheit

  • Regelmässige Überprüfung der Modellperformance

  • Dokumentation aller Modellannahmen und Limitationen

  • Stresstests mit Szenarien ausserhalb der historischen Datenbasis

Die Finanzkrise 2008 hat gezeigt, was passiert, wenn Risikomodelle blind vertraut wird: Viele der damals verwendeten Modelle zur Bewertung von Mortgage-Backed Securities (MBS) hatten nie eine landesweite Immobilienkrise gesehen – und konnten sie deshalb auch nicht modellieren.

 

Was bedeutet das für Anleger?

 

Für private und institutionelle Anleger ergeben sich daraus praktische Schlussfolgerungen:

Skepsis gegenüber perfekten Backtests: Eine Strategie, die in der Vergangenheit ausnahmslos funktioniert hat, sollte skeptisch betrachtet werden. Märkte sind nicht stationär – was gestern funktionierte, muss morgen nicht gelten.

Einfachheit hat einen Wert: Einfache, robuste Strategien – etwa ein breit diversifizierter ETF-Sparplan – sind oft langlebiger als hochkomplexe Algorithmen, die auf historische Muster optimiert wurden.

Vorsicht bei Quant-Produkten: Wer in quantitative Fonds oder algorithmische Strategien investiert, sollte nach der Out-of-Sample-Performance fragen – nicht nur nach dem Backtest.

Modelle sind Landkarten, keine Territorien: Jedes Modell ist eine Vereinfachung der Realität. Es kann nützlich sein – aber es ist nie vollständig. Wer das vergisst, läuft Gefahr, dem Modell mehr zu vertrauen als der Realität.

 

Fazit

 

Overfitting ist eines der subtilsten und gefährlichsten Probleme der modernen Finanzwelt. Es entsteht nicht durch Böswilligkeit, sondern durch den natürlichen Wunsch, Muster in Daten zu finden – und durch die technische Möglichkeit, Modelle beliebig komplex zu gestalten. Ein Modell, das die Vergangenheit perfekt erklärt, ist noch kein gutes Modell. Ein gutes Modell erklärt die Zukunft – zumindest ein bisschen besser als der Zufall.

Das Wichtigste in Kürze: Overfitting beschreibt die Überanpassung eines Modells an historische Daten. Es performt in der Vergangenheit hervorragend – in der Zukunft oft nicht. In der Finanzwelt betrifft es Handelsstrategien, Risikomodelle und Faktorprämien gleichermassen. Einfachheit, Out-of-Sample-Tests und gesunde Skepsis sind die besten Gegenmittel.

 

Aktuelle Beiträge

Alle ansehen

Kommentare


bottom of page