Survivorship Bias
The Bias
- Verzerrung: Systematischer Fehler, bei dem wir nur erfolgreiche Fälle analysieren und Misserfolge ignorieren, was zu falschen Schlussfolgerungen über die Ursachen des Erfolgs führt.
- Was es bricht: Datenanalyse, Risikobewertung, Verständnis von Kausalzusammenhängen, strategische Planung, Wahrscheinlichkeitsprognosen.
- Evidenzlevel: L1 — hoher wissenschaftlicher Konsens, vielfache empirische Bestätigungen in Medizin, Finanzen und Psychologie (S001, S005).
- In 30 Sekunden erkennen: Sie untersuchen nur erfolgreiche Beispiele, ohne sich zu fragen: „Wie viele Versuche sind mit derselben Strategie gescheitert?“ Wenn Sie keine Daten zu Misserfolgen sehen – das ist ein Hinweis auf den Fehler.
Warum sehen wir nur die Spitze des Eisbergs?
Der Survivorship Bias entsteht, wenn wir unsere Aufmerksamkeit ausschließlich auf Objekte, Personen oder Fälle richten, die „überlebt“ haben oder im Auswahlprozess erfolgreich waren, und systematisch diejenigen ignorieren, die gescheitert sind (S001). Dies ist kein zufälliger Denkfehler, sondern ein vorhersehbares Muster verzerrten Schließens, verursacht durch eine grundlegende Asymmetrie der Sichtbarkeit: Erfolgreiche Fälle bleiben sichtbar und zugänglich für die Analyse, während Misserfolge aus dem Blickfeld verschwinden und keine Spuren in Datenbanken, Archiven oder dem kollektiven Gedächtnis hinterlassen (S002).
Der Mechanismus dieser Verzerrung beruht darauf, dass jeder Auswahlprozess einen „Survivorship-Filter“ erzeugt, durch den nur bestimmte Entitäten hindurchtreten. Analysieren wir die Merkmale jener, die diesen Filter passiert haben, ohne die zu berücksichtigen, die ihn nicht bestanden haben, kommen wir unvermeidlich zu falschen Schlussfolgerungen über Erfolgsfaktoren (S003). Misserfolge werden häufig nicht dokumentiert: bankrotte Unternehmen verschwinden aus Datenbanken, misslungene Produkte werden eingestellt und vergessen, Studienteilnehmer, die das Experiment verlassen haben, werden aus der Analyse ausgeschlossen.
Der Survivorship Bias zeigt sich in einem breiten Spektrum von Bereichen. Im Geschäftsleben verzerrt er unser Verständnis der Erfolgsfaktoren von Start-ups: Wir untersuchen die Geschichten erfolgreicher Gründer, ohne die Tausenden zu berücksichtigen, die ähnliche Strategien verfolgten, aber scheiterten. In wissenschaftlichen Studien bedroht er die Validität von Schlussfolgerungen, wenn die Analyse sich ausschließlich auf Teilnehmer konzentriert, die die Studie abgeschlossen haben (S005). Im Finanzwesen führt er zu einer Überschätzung der Rendite von Anlagestrategien, wenn historische Daten nur überlebende Unternehmen enthalten und bankrotte ausschließen (S007).
Ein klassisches Beispiel stammt aus der Analyse von Flugzeugschäden im Zweiten Weltkrieg. Militäringenieure untersuchten zurückgekehrte Flugzeuge und fanden eine Konzentration von Trefferlöchern in bestimmten Bereichen des Rumpfes. Die intuitive Lösung war, genau diese Stellen zu verstärken. Der Statist Abraham Wald wies jedoch auf einen kritischen Fehler hin: Es wurden nur die zurückgekehrten Flugzeuge analysiert, während die im Kampf abgeschossenen nicht untersucht werden konnten. Die richtige Schlussfolgerung lautet: Man muss jene Bereiche verstärken, in denen die zurückgekehrten Flugzeuge keine Schäden aufwiesen, da Treffer in diesen Zonen zum Absturz führten (S001).
Dieser Fehler ist besonders tückisch im Kontext persönlicher Entwicklung und Karriereentscheidungen. Medien verstärken systematisch Erfolgsgeschichten und erzeugen die Illusion, dass bestimmte Wege zu vorhersehbaren Ergebnissen führen. Wir sehen diejenigen, die herausragende Resultate erzielt haben, aber nicht die Masse von Menschen, die es versucht und nicht geschafft haben. Das erzeugt ein verzerrtes Bild der Erfolgswahrscheinlichkeit und darüber, welche Faktoren wirklich wichtig sind. Verwandte Phänomene wie Verfügbarkeitsheuristik und Bestätigungsbias verstärken den Effekt, indem sie uns noch stärker auf sichtbare Erfolgsbeispiele verlassen lassen.
Mechanism
Kognitive Architektur der Unsichtbarkeit: Wie das Gehirn die Illusion von Regelmäßigkeit konstruiert
Der Survivorship‑Bias wirkt wie ein kognitives Etikett – eine vereinfachte Heuristik, die dem Gehirn ermöglicht, Informationen schnell zu verarbeiten, dabei jedoch systematisch die Realität verzerrt (S002). Auf neuropsychologischer Ebene ist dieser Mechanismus mit den grundlegenden Eigenschaften der menschlichen Wahrnehmung und des Gedächtnisses verbunden: Unser Gehirn ist evolutionär darauf ausgerichtet, verfügbare Informationen zu verarbeiten, nicht das zu suchen, was fehlt oder unsichtbar ist.
Asymmetrie der Verfügbarkeit: Struktureller Filter der Realität
Der zentrale Mechanismus des Survivorship‑Bias ist die strukturelle Asymmetrie zwischen der Sichtbarkeit von Erfolgen und der Unsichtbarkeit von Misserfolgen. Erfolgreiche Entitäten bleiben im Blickfeld: Unternehmen bestehen weiter und berichten, erfolgreiche Personen geben Interviews und schreiben Bücher, effektive Produkte bleiben am Markt (S006, S012). Im Gegensatz dazu neigen Misserfolge dazu, zu verschwinden: insolvente Unternehmen werden aus Datenbanken entfernt, gescheiterte Projekte werden nicht dokumentiert, Menschen, die gescheitert sind, teilen ihre Geschichten selten öffentlich.
Diese Asymmetrie erzeugt eine systematische Verzerrung in den verfügbaren Daten. Wenn ein Forscher oder Analyst auf bestehende Informationsquellen – Unternehmensdatenbanken, Archive, öffentliche Aufzeichnungen – zurückgreift, erhält er automatisch eine Stichprobe, die bereits durch den Survivorship‑Prozess gefiltert wurde (S001). Das Problem ist, dass dieser Filter nicht zufällig ist: Er korreliert mit den Merkmalen, die wir zu untersuchen versuchen.
Klassisches Beispiel: Während des Zweiten Weltkriegs analysierten militärische Analysten die Schäden an zurückkehrenden Flugzeugen, um zu bestimmen, welche Teile zusätzliche Schutzmaßnahmen benötigen. Sie stellten fest, dass der Rumpf mehr Treffer erhielt als die Triebwerke, und empfahlen, die Rumpfpanzerung zu verstärken. Der Statist Abraham Wald wies jedoch auf den Fehler hin: Flugzeuge mit Triebwerksbeschädigungen kehrten überhaupt nicht zurück. Sichtbare Schäden an den zurückgekehrten Maschinen spiegelten nicht die tatsächliche Verteilung der Verwundbarkeiten wider.
Narratives Denken und die Illusion von Kausalität
Kognitiv neigen wir zum narrativen Denken: Wir konstruieren Kausalgeschichten basierend auf beobachteten Mustern (S003). Wenn wir sehen, dass alle erfolgreichen Unternehmer eine bestimmte Eigenschaft besitzen – zum Beispiel Beharrlichkeit – schließen wir automatisch, dass diese Eigenschaft kausal mit dem Erfolg verbunden ist. Wir sehen nicht die tausenden beharrlichen Unternehmer, die gescheitert sind, weil sie nicht in unser Blickfeld geraten.
Dieser Mechanismus wird durch den Bestätigungsfehler verstärkt: Wenn wir eine Hypothese über Erfolgsfaktoren auf Basis der Beobachtung erfolgreicher Fälle formulieren, neigen wir dazu, bestätigende Beweise zu suchen und widersprüchliche zu ignorieren. Unser Gehirn konstruiert eine kausale Geschichte aus den verfügbaren Daten, ohne zu erkennen, dass die Stichprobe grundlegend verzerrt ist.
Verfügbarkeitsheuristik und die Illusion der Häufigkeit
Auf Ebene der kognitiven Architektur ist der Survivorship‑Bias mit der Verfügbarkeitsheuristik verbunden – der Tendenz, die Wahrscheinlichkeit von Ereignissen anhand der Leichtigkeit, mit der Beispiele in den Sinn kommen, zu bewerten (S002). Erfolgreiche Fälle sind kognitiv leichter verfügbar: Sie werden häufiger in den Medien behandelt, in sozialen Netzwerken diskutiert und in Lehrmaterialien präsentiert. Diese erhöhte Verfügbarkeit erzeugt die Illusion der Häufigkeit: Wir überschätzen die Wahrscheinlichkeit des Erfolgs, weil erfolgreiche Beispiele leichter erinnerbar sind.
Zusätzlich wird der Survivorship‑Bias durch den Mechanismus der selektiven Datenfilterung verstärkt. Im Kontext psychologischer Studien äußert sich dies durch das systematische Ausscheiden von Teilnehmenden (Attrition‑Bias). Eine Studie zeigte, dass im Durchschnitt 20–30 % der Teilnehmenden vor Abschluss langfristiger Studien ausscheiden (S008). Entscheidend ist, dass dieses Ausscheiden nicht zufällig ist: Teilnehmende mit bestimmten Merkmalen – etwa geringerer Motivation oder schlechteren Ergebnissen – scheiden häufiger aus, wodurch die Schlussfolgerungen systematisch zugunsten der erfolgreicheren Teilnehmenden verzerrt werden.
Experimentelle Belege für die Robustheit der Verzerrung
Forschungen im Bereich der Entscheidungspsychologie zeigen, dass diese Verzerrung selbst bei Fachleuten beständig ist. In einem klassischen Experiment wurden den Teilnehmenden Daten zu erfolgreichen Investmentfonds präsentiert und sie sollten die Wirksamkeit verschiedener Strategien bewerten. Die Mehrheit zog Schlüsse anhand der Merkmale der überlebenden Fonds, ohne zu berücksichtigen, dass viele Fonds mit ähnlichen Strategien geschlossen wurden und aus der Analyse ausgeschlossen waren (S007). Selbst wenn den Teilnehmenden die Möglichkeit des Survivorship‑Bias ausdrücklich aufgezeigt wurde, überschätzten sie weiterhin die Effektivität der beobachteten Strategien.
| Kognitiver Prozess | Wirkungsmechanismus | Ergebnis der Verzerrung |
|---|---|---|
| Verfügbarkeitsheuristik | Erfolgreiche Beispiele sind leichter erinnerbar und kommen häufiger in den Medien vor | Überschätzung der Erfolgswahrscheinlichkeit |
| Narratives Denken | Das Gehirn konstruiert Kausalerzählungen aus sichtbaren Mustern | Falsche Attribution des Erfolgs zu bestimmten Faktoren |
| Selektive Datenfilterung | Misserfolge verschwinden systematisch aus den verfügbaren Daten | Stichprobe ist bereits durch den Survivorship‑Prozess gefiltert |
| Bestätigungsfehler | Suche nach bestätigenden Beweisen für die Erfolgs‑Hypothese | Ignorieren widersprüchlicher Beispiele |
| Evolutionäre Anpassung | Das Gehirn ist optimiert, das Sichtbare zu verarbeiten, nicht das Verborgene | Blindheit gegenüber fehlenden Daten |
Der Survivorship‑Bias verdeutlicht eine grundlegende Beschränkung der menschlichen Erkenntnis: Wir können das Fehlen von Informationen nicht direkt wahrnehmen. Unser Gehirn ist evolutionär darauf ausgelegt, mit dem zu arbeiten, was in der Umgebung vorhanden ist, nicht aktiv das Fehlen zu suchen. Dies erzeugt eine systematische Blindheit gegenüber unsichtbaren Misserfolgen, die häufig die wichtigste Information für Entscheidungsfindungen enthalten.
Domain
Example
Beispiele für den Survivorship-Bias im realen Leben
Szenario 1: Ratschläge erfolgreicher Unternehmer
Anna liest die Autobiografie eines bekannten Gründers eines Technologie-Startups, der ein Unternehmen im Wert von einer Milliarde Dollar aufgebaut hat. Im Buch beschreibt er ausführlich seinen Weg: wie er einen prestigeträchtigen Job aufgab, all seine Ersparnisse in die Idee investierte, 80 Stunden pro Woche arbeitete, Skeptiker ignorierte und seiner „Leidenschaft folgte“. Das Buch endet mit einer Liste von „10 Erfolgsprinzipien“, die der Autor als entscheidend für seinen Erfolg betrachtet (S007).
Inspiriert von dieser Geschichte beschließt Anna, dieselben Prinzipien auf ihr eigenes Startup anzuwenden. Sie kündigt ihren Job, investiert ihre Ersparnisse und beginnt rund um die Uhr zu arbeiten. Nach zwei Jahren scheitert ihr Startup, und sie verliert einen erheblichen Teil ihrer finanziellen Mittel.
Das Problem ist, dass Anna Opfer des Survivorship-Bias geworden ist. Die Autobiografie beschreibt die Merkmale eines einzigen erfolgreichen Unternehmers, liefert jedoch keine Informationen über Tausende von Unternehmern, die dieselben Prinzipien angewendet und gescheitert sind (S007). Es ist gut möglich, dass Hunderte Menschen ihren Job aufgegeben, ihre Ersparnisse investiert und 80 Stunden pro Woche gearbeitet haben, um ihrer Leidenschaft zu folgen – doch ihre Startups scheiterten wegen ungünstigen Timings, unzureichendem Startkapital, veränderten Marktbedingungen oder schlichtem Pech.
Zudem kann der erfolgreiche Unternehmer seinen Erfolg falsch attribuieren. Er ist fest davon überzeugt, dass seine „Leidenschaft“ und sein „Durchhaltevermögen“ die entscheidenden Faktoren waren, ohne die Rolle von günstigem Timing, zufälligen Kontakten, makroökonomischen Bedingungen oder anderen Faktoren, die er nicht kontrollieren konnte, zu erkennen (S007). Das ist ein Ausdruck der fundamentalen Attributionsfehler, bei dem wir Erfolge persönlichen Eigenschaften zuschreiben und die Rolle von Glück und äußeren Umständen ignorieren.
Szenario 2: Medizinische Forschung und klinische Studien
Ein Pharmaunternehmen führt eine klinische Studie für ein neues Medikament zur Behandlung einer chronischen Erkrankung durch. Die Studie dauert 12 Monate und umfasst 500 Teilnehmer. Am Ende der Studie haben 150 Teilnehmer (30 %) aus verschiedenen Gründen ausgesetzt: Einige sind umgezogen, andere haben das Interesse verloren, und wieder andere erlitten Nebenwirkungen und haben die Einnahme des Medikaments abgebrochen (S008).
Die Forschenden analysieren die Daten der 350 Teilnehmer, die die Studie abgeschlossen haben, und finden eine statistisch signifikante Verbesserung der Symptome im Vergleich zu Placebo. Auf Basis dieser Ergebnisse erhält das Medikament die Zulassung der Aufsichtsbehörden und kommt auf den Markt. In der realen klinischen Praxis erweist sich die Wirksamkeit des Medikaments jedoch deutlich geringer als in der Studie, während die Häufigkeit von Nebenwirkungen höher ist.
Die Studie litt unter einem systematischen Ausschluss von Teilnehmern (Attrition Bias). Die ausgeschiedenen Teilnehmer stellten keine zufällige Stichprobe dar: Viele von ihnen haben die Teilnahme beendet, weil das Medikament für sie unwirksam war oder unakzeptable Nebenwirkungen verursachte (S008). Indem nur die Personen analysiert wurden, die die Studie abgeschlossen haben, untersuchten die Forschenden faktisch eine Untergruppe von Patienten, für die das Medikament am verträglichsten und potenziell wirksamsten war – die „Überlebenden“ des Versuchs.
Eine korrekte Analyse hätte den Intention-to-Treat-Ansatz einschließen müssen, bei dem alle ursprünglich eingeschlossenen Teilnehmer analysiert werden, unabhängig davon, ob sie die Studie abgeschlossen haben oder nicht (S008). Zusätzlich ist eine Analyse der Abbruchgründe erforderlich: Wenn ein erheblicher Teil der Teilnehmer wegen Nebenwirkungen ausstieg, ist das eine kritisch wichtige Information zur Sicherheit des Medikaments.
Szenario 3: Investitionsstrategien und Finanzmärkte
Ein Investmentberater präsentiert einem Kunden eine Analyse der historischen Rendite aktiv gemanagter Investmentfonds der letzten 20 Jahre. Die Daten zeigen, dass die durchschnittliche Jahresrendite 12 % betrug, was die Rendite des Marktindex von 8 % deutlich übertrifft. Auf Basis dieser Analyse empfiehlt der Berater, in aktiv gemanagte Fonds zu investieren (S007).
Allerdings enthält diese Analyse einen kritischen Survivorship-Bias. Die für die Analyse verwendete Datenbank umfasst nur Fonds, die derzeit existieren – die „überlebenden“ Fonds. Im Laufe von 20 Jahren wurden Hunderte von Fonds aufgrund schlechter Ergebnisse geschlossen und aus der Datenbank ausgeschlossen (S007). Diese geschlossenen Fonds zeigten per Definition schlechtere Ergebnisse als die überlebenden.
Wenn die Forschenden die geschlossenen Fonds in die Analyse einbeziehen, fällt die durchschnittliche Rendite aktiv gemanagter Fonds deutlich unter den Marktindex (S007). Fonds schließen nicht zufällig: Sie schließen, weil sie schlechte Ergebnisse erzielen. Der Ausschluss dieser Fonds aus der Analyse erzeugt die Illusion, dass aktives Management systematisch den Markt übertrifft, während die vollständigen Daten das Gegenteil zeigen.
Dieses Beispiel zeigt, wie der Survivorship-Bias direkte finanzielle Konsequenzen für Anleger haben kann. Entscheidungen, die auf verzerrten Daten basieren, führen zu systematisch schlechteren Ergebnissen als erwartet. Eine korrekte Analyse erfordert die Einbeziehung aller Fonds, die zu Beginn des Analysezeitraums existierten, unabhängig davon, ob sie bis zum Ende überlebt haben oder nicht, was mit der Verfügbarkeitsheuristik zusammenhängt, bei der wir sichtbare Erfolge überschätzen.
Red Flags
- •Analyse konzentriert sich ausschließlich auf erfolgreiche Fälle ohne Erwähnung von Misserfolgen
- •Datenquelle umfasst nur derzeit existierende Einheiten (Unternehmen, Fonds, Teilnehmer)
- •Schlussfolgerungen über Erfolgsfaktoren werden nur auf Basis von Überlebenden-Merkmalen gezogen
- •Keine Informationen über Basis-Erfolgsrate oder Abbrecherquote
- •Erfolgsgeschichten werden als typisch oder leicht reproduzierbar dargestellt
- •Studie berücksichtigt oder analysiert Abbrecher nicht
- •Historische Daten werden nicht um verschwundene Einheiten bereinigt
- •Ratschläge erfolgreicher Menschen werden als universell anwendbar dargestellt
Countermeasures
- ✓Fragen: 'Wie viele Versuche wurden insgesamt unternommen?' und 'Wie hoch ist die Erfolgsquote?'
- ✓Aktiv nach Misserfolgen suchen und diese studieren, nicht nur Erfolge
- ✓Prüfen, ob Datenbank oder Stichprobe verschwundene/geschlossene Einheiten enthält
- ✓Gründe für Abbruch/Ausscheiden in Studien und Projekten analysieren
- ✓Merkmale erfolgreicher und erfolgloser Fälle vergleichen, nicht nur erfolgreiche
- ✓Methoden für den Umgang mit fehlenden Daten verwenden (MCAR, MAR, MNAR-Analyse)
- ✓Misserfolgsregister erstellen und gescheiterte Projekte dokumentieren
- ✓Sensitivitätsanalyse mit verschiedenen Annahmen über unsichtbare Fälle durchführen