Was ist algorithmische Fairness — und warum kann es nicht nur eine geben
Algorithmische Fairness ist eine Reihe mathematischer Kriterien, die bestimmen, wie unvoreingenommen ein System Entscheidungen über verschiedene Personengruppen trifft. Das Problem beginnt damit, dass es nicht eine, sondern viele unvereinbare Definitionen von Fairness gibt, von denen jede intuitiv richtig erscheint, aber den anderen widerspricht. Mehr dazu im Abschnitt Techno-Esoterik.
Drei grundlegende Fairness-Definitionen, die nicht koexistieren können
Demografische Parität (statistical parity) verlangt, dass positive Entscheidungen gleichmäßig zwischen Gruppen verteilt werden: Wenn der Algorithmus 30% der Kredite in Gruppe A genehmigt, muss er 30% in Gruppe B genehmigen. Diese Definition ignoriert Unterschiede in den Basisraten — etwa wenn in einer Gruppe objektiv mehr kreditwürdige Antragsteller sind.
Chancengleichheit (equalized odds) verlangt, dass die Wahrscheinlichkeit einer korrekten positiven Entscheidung (true positive rate) und die Wahrscheinlichkeit einer falschen positiven Entscheidung (false positive rate) für alle Gruppen gleich sind. Wenn eine Person tatsächlich kreditwürdig ist, sollten ihre Chancen auf Genehmigung nicht von der Gruppe abhängen.
Kalibrierung (calibration) verlangt, dass die vorhergesagte Wahrscheinlichkeit der tatsächlichen Ereignishäufigkeit in jeder Gruppe entspricht. Wenn der Algorithmus einem Antragsteller 70% Wahrscheinlichkeit für Kreditrückzahlung zuweist, sollten unter allen Antragstellern mit dieser Bewertung tatsächlich etwa 70% den Kredit zurückzahlen.
| Kriterium | Schützt | Ignoriert |
|---|---|---|
| Demografische Parität | Systemische Diskriminierung auf Ergebnisebene | Unterschiede in Basisraten zwischen Gruppen |
| Chancengleichheit | Individuelle Fairness: gleiche Merkmale → gleiche Chancen | Gesamtverteilung von Möglichkeiten zwischen Gruppen |
| Kalibrierung | Vorhersagegenauigkeit: „70%" bedeutet exakt 70% | Gruppenunterschiede in der Entscheidungsverteilung |
Die Mathematik erlaubt es nicht, alle drei Kriterien gleichzeitig zu erfüllen, wenn sich die Basisraten zwischen Gruppen unterscheiden. Das ist keine Frage eines besseren Algorithmus oder mehr Daten — es ist ein Unmöglichkeitstheorem (S001).
Jede Definition appelliert an unterschiedliche moralische Intuitionen, und jede Intuition ist in ihrem Kontext richtig. Aber wenn sich die Basisraten (Anteil Kreditwürdiger, Anteil Rückfälliger, Anteil qualifizierter Kandidaten) zwischen Gruppen unterscheiden, verletzt die Wahl eines Kriteriums automatisch die anderen.
Das bedeutet, dass die Fairness eines KI-Systems keine objektive Tatsache ist, die man „berechnen" kann, sondern eine politische Wahl: Welche moralische Intuition sind Sie bereit, zugunsten anderer zu opfern (S002).
Mathematischer Beweis der Unmöglichkeit: Theoreme von Hardt, Price und Srebro
Die fundamentalen Unmöglichkeitstheoreme in der algorithmischen Fairness sind keine empirischen Beobachtungen, sondern strenge mathematische Beweise der strukturellen Unvereinbarkeit von Fairness-Kriterien (S001). Sie zeigen: Unter bestimmten Bedingungen ist es unmöglich, zwei Fairness-Kriterien gleichzeitig zu erfüllen, egal wie gut der Algorithmus programmiert ist.
📊 Theorem zur Unvereinbarkeit von demografischer Parität und Chancengleichheit
Moritz Hardt, Eric Price und Nati Srebro bewiesen: Ein binärer Klassifikator kann nicht gleichzeitig demografische Parität und Chancengleichheit erfüllen, wenn sich die Basisraten der positiven Klasse zwischen Gruppen unterscheiden (S001).
- Demografische Parität
- Der Algorithmus trifft positive Entscheidungen mit gleicher Häufigkeit für alle Gruppen: P(Ŷ=1|A=0) = P(Ŷ=1|A=1).
- Chancengleichheit
- Der Algorithmus macht für alle Gruppen gleiche Fehler: P(Ŷ=1|Y=1,A=0) = P(Ŷ=1|Y=1,A=1) und P(Ŷ=1|Y=0,A=0) = P(Ŷ=1|Y=0,A=1).
Wenn sich die Basisraten unterscheiden — P(Y=1|A=0) ≠ P(Y=1|A=1) — führen die Anforderungen zu widersprüchlichen Gleichungen. Die einzigen Ausnahmen: ein perfekter Klassifikator (immer korrekt) oder ein vollständig zufälliger (immer raten). Mehr dazu im Abschnitt Mythen über bewusste KI.
Das ist kein Algorithmus-Fehler. Das ist eine mathematische Tatsache: Wenn zwei Gruppen unterschiedliche Basisraten haben, können Sie nicht gleichzeitig den gleichen Anteil positiver Entscheidungen treffen und gleiche Fehler machen.
🧾 Theorem zur Unvereinbarkeit von Kalibrierung und Chancengleichheit
Jon Kleinberg, Sendhil Mullainathan und Manish Raghavan bewiesen ein analoges Ergebnis für Kalibrierung (S002). Kalibrierung verlangt: Wenn der Algorithmus eine Wahrscheinlichkeit von 0,7 zuweist, muss unter allen Fällen mit dieser Bewertung die tatsächliche Häufigkeit des positiven Ergebnisses 0,7 betragen — für jede Gruppe separat.
Das Theorem besagt: Wenn sich die Basisraten zwischen Gruppen unterscheiden, kann ein kalibrierter Klassifikator nicht gleichzeitig Chancengleichheit erfüllen (außer bei perfekter Vorhersage).
- Kalibrierung verlangt: Vorhersagen spiegeln reale Unterschiede in den Basisraten zwischen Gruppen wider.
- Chancengleichheit verlangt: Diese Unterschiede bei Entscheidungen zu ignorieren.
- Ergebnis: Ein fundamentaler Widerspruch, mathematisch nicht auflösbar.
🔬 COMPAS und ProPublica: Wenn Theorie auf Praxis trifft
Das COMPAS-System bewertet das Rückfallrisiko für Entscheidungen über vorzeitige Entlassung. Eine ProPublica-Untersuchung von 2016 deckte eine Asymmetrie auf: Unter Afroamerikanern, die kein erneutes Verbrechen begingen, wurden 44,9% fälschlicherweise als hochriskant eingestuft; unter Weißen waren es 23,5% (S001).
Die Entwickler von Northpointe entgegneten: Das System ist kalibriert. Unter allen, denen ein hohes Risiko zugewiesen wurde, ist die tatsächliche Rückfallrate zwischen den Gruppen gleich. Beide Seiten hatten mathematisch recht — dies ist eine direkte Folge der Unmöglichkeitstheoreme.
| Kriterium | COMPAS erfüllt? | Warum? |
|---|---|---|
| Kalibrierung | Ja | Vorhergesagte Wahrscheinlichkeit stimmte mit tatsächlicher Häufigkeit in jeder Gruppe überein |
| Chancengleichheit | Nein | Fehler unterschieden sich zwischen Gruppen (44,9% vs. 23,5%) |
| Demografische Parität | Nein | Anteil der Hochrisiko-Bewertungen unterschied sich zwischen Gruppen |
Die Basisraten für Rückfälligkeit unterschieden sich zwischen den Gruppen — das ist eine Tatsache der Daten, kein Algorithmus-Fehler. Daher war es unmöglich, alle drei Kriterien gleichzeitig zu erfüllen. Das System funktionierte wie konzipiert, aber die Mathematik erlaubte keine ideale Lösung.
Fünf Argumente dafür, dass das Problem real und unlösbar ist
Skeptiker mögen einwenden, dass Unmöglichkeitstheoreme abstrakte Mathematik sind. Es gibt jedoch mehrere starke Argumente, die zeigen, dass das Problem direkte praktische Konsequenzen hat. Mehr dazu im Abschnitt Wie künstliche Intelligenz funktioniert.
🧪 Argument 1: Die Theoreme gelten für jeden Algorithmus, einschließlich neuronaler Netze
Unmöglichkeitstheoreme sind unabhängig von der Algorithmusarchitektur (S001). Sie gelten für logistische Regression, Entscheidungsbäume, neuronale Netze, Ensembles – jedes System, das binäre Vorhersagen oder Wahrscheinlichkeiten liefert.
Verbesserte Algorithmen, mehr Daten, komplexere Modelle – nichts davon löst das Problem. Solange reale Unterschiede in den Basisraten zwischen Gruppen bestehen, bleiben die Theoreme gültig.
🧬 Argument 2: Basisraten unterscheiden sich in den meisten realen Anwendungen
Die kritische Bedingung der Theoreme – unterschiedliche Basisraten zwischen Gruppen – ist in der überwiegenden Mehrheit praktischer KI-Anwendungen erfüllt (S002).
- In der Medizin
- variiert die Krankheitsprävalenz nach Alter, Geschlecht und ethnischer Zugehörigkeit
- Bei Krediten
- unterscheiden sich historische Ausfallraten zwischen sozioökonomischen Gruppen (S003)
- Im Strafrecht
- variieren Basisraten für Rückfälligkeit zwischen demografischen Gruppen
Diese Unterschiede sind oft das Ergebnis historischer Diskriminierung und systemischer Barrieren. Doch unabhängig von den Ursachen macht ihre Existenz die Theoreme anwendbar.
📊 Argument 3: Die Wahl des Fairness-Kriteriums hat messbare Konsequenzen
Die Entscheidung, welches Kriterium priorisiert wird, beeinflusst direkt die Fehlerverteilung zwischen Gruppen.
| Kriterium | Konsequenz für Gruppe mit niedrigen Basisraten | Konsequenz für Gruppe mit hohen Basisraten |
|---|---|---|
| Demografische Parität | Mehr falsch-positive Entscheidungen | Mehr falsch-negative Entscheidungen |
| Chancengleichheit | Unverhältnismäßige Ergebnisse auf Gruppenebene | Unverhältnismäßige Ergebnisse auf Gruppenebene |
In der medizinischen Diagnostik: Ein falsch-negatives Ergebnis bedeutet eine übersehene Krankheit, ein falsch-positives eine unnötige Behandlung. Bei Krediten: Ein falsch-negatives Ergebnis verweigert Chancen, ein falsch-positives schafft Risiken für den Kreditgeber (S005).
🧾 Argument 4: Rechtliche und regulatorische Rahmen sind nicht abgestimmt
Verschiedene Rechtsordnungen verwenden unterschiedliche Diskriminierungsdefinitionen, die inkompatiblen mathematischen Kriterien entsprechen.
In den USA kommt die „disparate impact"-Doktrin der demografischen Parität nahe: Eine unverhältnismäßige Auswirkung auf eine geschützte Gruppe kann als Diskriminierung gelten, selbst wenn der Algorithmus geschützte Attribute nicht direkt verwendet. Die europäische DSGVO und der AI Act betonen individuelle Fairness und Transparenz, was eher den Anforderungen von Kalibrierung und Chancengleichheit entspricht.
Ein System, das den Anforderungen einer Rechtsordnung entspricht, kann die Anforderungen einer anderen verletzen – nicht wegen technischer Mängel, sondern wegen mathematischer Inkompatibilität der Anforderungen selbst (S004).
🔎 Argument 5: Versteckte Kriterienwahl erzeugt die Illusion von Objektivität
Die meisten kommerziellen KI-Systeme legen nicht offen, welches Fairness-Kriterium sie priorisieren, und erzeugen so die Illusion universeller Objektivität. Wenn ein Unternehmen behauptet, sein Algorithmus sei „fair", ist diese Aussage bedeutungslos ohne Präzisierung: fair nach welcher Definition?
Mangelnde Transparenz maskiert fundamentale Werteentscheidungen als technische Neutralität. Dies ist besonders problematisch in kritischen Bereichen – Strafjustiz, Gesundheitswesen, Bildung – wo Betroffene keine Möglichkeit haben, die getroffenen Kompromisse anzufechten oder zu verstehen.
Die mathematische Unmöglichkeit universeller Fairness bedeutet, dass jedes System eine normative Wahl trifft, die explizit sein und öffentlicher Diskussion unterliegen muss.
Mechanismen, die mathematische Fakten zu sozialen Problemen machen
Unmöglichkeitstheoreme beschreiben mathematische Einschränkungen, aber ihre soziale Wirkung wird durch konkrete Mechanismen vermittelt, durch die algorithmische Entscheidungen das Leben von Menschen beeinflussen. Das Verständnis dieser Mechanismen ist entscheidend für die Bewertung realer Konsequenzen. Mehr dazu im Abschnitt Logische Fehlschlüsse.
🔁 Rückkopplungsschleifen verstärken historische Ungleichheiten
Algorithmen lernen aus historischen Daten, die bestehende Ungleichheiten widerspiegeln. Wenn ein Kreditscoring-System auf Daten trainiert wurde, in denen bestimmte Gruppen historisch weniger Kredite erhielten (aufgrund von Diskriminierung oder strukturellen Barrieren), reproduziert es diese Muster.
Wenn der Algorithmus Entscheidungen trifft, erzeugt er neue Daten für das Nachtraining des Modells — eine Rückkopplungsschleife schließt sich (S002). Jede Wahl eines Fairness-Kriteriums hat Konsequenzen: Kalibrierung sagt historische Muster präzise voraus (einschließlich diskriminierender), demografische Parität erzeugt mehr Fehler in beiden Gruppen, Chancengleichheit führt zu unverhältnismäßigen Ergebnissen auf Gruppenebene. Schleifen verstärken diese Konsequenzen im Laufe der Zeit.
| Optimierungskriterium | Verstärkungsmechanismus | Langfristiger Effekt |
|---|---|---|
| Kalibrierung | Reproduziert historische Muster präzise | Diskriminierung wird „vorhersagbar" und legitim |
| Demografische Parität | Erhöht Fehler in beiden Gruppen | Vertrauensverlust ins System, unvorhersehbare Ablehnungen |
| Chancengleichheit | Erzeugt unverhältnismäßige Ergebnisse auf Gruppenebene | Sichtbare Ungleichheit in Resultaten, soziale Spannungen |
🧬 Proxy-Variablen umgehen den Schutz vor direkter Diskriminierung
Selbst wenn der Algorithmus geschützte Attribute (Ethnie, Geschlecht, Alter) nicht direkt verwendet, nutzt er Proxy-Variablen, die stark mit diesen Attributen korrelieren. Postleitzahl korreliert mit der ethnischen Zusammensetzung eines Viertels, der Name kann auf ethnische Zugehörigkeit hinweisen, Kaufhistorie korreliert mit Geschlecht.
Machine-Learning-Algorithmen entdecken diese Korrelationen automatisch und nutzen sie für Vorhersagen (S001). Ein formal „gruppenblind" agierendes System trifft faktisch Entscheidungen auf Basis von Gruppenzugehörigkeit durch Proxys. Unmöglichkeitstheoreme gelten auch hier: Wenn Proxy-Variablen die Unterscheidung von Gruppen ermöglichen, bleiben die mathematischen Einschränkungen zur gleichzeitigen Erfüllung von Fairness-Kriterien bestehen.
Das Entfernen von Proxy-Variablen kann die Vorhersagegenauigkeit verringern, löst aber nicht das fundamentale Problem der Unvereinbarkeit von Kriterien. Es ist eine Wahl zwischen sichtbarer und versteckter Diskriminierung.
🧷 Kontextabhängigkeit: eine Entscheidung, unterschiedliche Konsequenzen
Dieselbe algorithmische Entscheidung hat unterschiedliche Konsequenzen für verschiedene Gruppen aufgrund von Unterschieden im sozialen und ökonomischen Kontext. Eine Kreditablehnung für eine Person mit hohem Einkommen ist eine Unannehmlichkeit. Eine Ablehnung für eine Person am Rande der Armut kann bedeuten, dass medizinische Versorgung oder Bildung nicht bezahlt werden können.
Eine falsch-positive Vorhersage eines hohen Rückfallrisikos für eine Person mit starker sozialer Unterstützung kann angefochten werden. Für eine Person ohne Ressourcen kann dies Jahre zusätzlicher Haft bedeuten (S003). Mathematische Fairness-Kriterien operieren mit Wahrscheinlichkeiten und Fehlerraten, berücksichtigen aber nicht Unterschiede in der Schwere der Konsequenzen.
- Ein System kann „fair" im Sinne von Chancengleichheit sein (gleiche Fehlerraten)
- Aber unverhältnismäßigen Schaden verursachen, wenn die Konsequenzen von Fehlern zwischen Gruppen unterschiedlich sind
- Dies ist eine Einschränkung des rein mathematischen Ansatzes zu Fairness
- Erfordert Berücksichtigung von Kontext, den der Algorithmus nicht formalisieren kann
Die Verbindung zwischen diesen Mechanismen und umfassenderen Problemen der KI-Ethik wird in den Materialien zu Ethik und Sicherheit von KI behandelt. Ähnliche Rückkopplungsschleifen und Proxy-Variablen wirken in Systemen zur biometrischen Gesichtserkennung, wo historische Daten noch tiefere Schichten struktureller Ungleichheit enthalten.
Kognitive Fallen, die das Verständnis des Problems blockieren
Diskussionen über algorithmische Gerechtigkeit verfangen sich oft in kognitiven Fallen, die das Verständnis der fundamentalen Natur des Problems blockieren. Das Erkennen dieser Fallen ist eine kritische Voraussetzung für produktive Diskussionen. Mehr dazu im Abschnitt Denkwerkzeuge.
🧩 Falle 1: Die Illusion einer technischen Lösung für ein normatives Problem
Ein verbreiteter Irrtum: Ein ausreichend komplexer Algorithmus oder ein vollständiger Datensatz würde das Problem universeller Gerechtigkeit lösen. Dies ist eine kategoriale Verwechslung — der Versuch, eine normative Frage (welche Definition von Gerechtigkeit ist richtig?) mit technischen Mitteln (besserer Algorithmus) zu lösen. Unmöglichkeitstheoreme (S001) zeigen: Das Problem liegt nicht in der Qualität des Codes, sondern in der Unvereinbarkeit der Definitionen selbst.
Die Falle ist gefährlich, weil sie ein falsches Gefühl von Fortschritt erzeugt. Unternehmen investieren in „Verbesserung der Gerechtigkeit", ohne anzuerkennen, dass sie eine Wahl zwischen unvereinbaren Kriterien treffen. Diese Wahl wird als technische Optimierung getarnt und vermeidet die normative Frage: Wessen Gerechtigkeit priorisieren wir und warum?
Technische Optimierung kann keine normative Entscheidung ersetzen. Ein Algorithmus kann nicht gerecht sein — gerecht kann nur die Wahl sein, die wir in ihn einbauen.
🕳️ Falle 2: Die falsche Dichotomie „Gerechtigkeit vs. Genauigkeit"
Die Diskussion wird oft als Kompromiss formuliert: Gerechtigkeit erfordert Opfer bei der Genauigkeit. Dies ist eine falsche Dichotomie, die das eigentliche Problem verschleiert. Der Kompromiss besteht nicht zwischen Gerechtigkeit und Genauigkeit, sondern zwischen verschiedenen Definitionen von Gerechtigkeit (S002).
Ein System kann maximal genau sein (minimaler Gesamtfehler) und ein Gerechtigkeitskriterium erfüllen, aber ein anderes verletzen. Das Framing als „Gerechtigkeit vs. Genauigkeit" erlaubt es, dem schwierigen Gespräch auszuweichen: Wessen Interessen priorisieren wir?
- Ein System kann kalibriert sein (Vorhersagen entsprechen der Realität) und dabei die Fehlergleichheit zwischen Gruppen verletzen
- Ein System kann gleiche Fehler zwischen Gruppen aufweisen und dabei für Minderheiten unkalibriert sein
- Ein System kann den Gesamtfehler minimieren und die Fehlervarianz zwischen Gruppen maximieren
⚠️ Falle 3: Naturalisierung von Basisraten
Wenn wir Unterschiede in den Basisraten zwischen Gruppen sehen (unterschiedliche Rückfallquoten, unterschiedliche Einkommen), entsteht eine kognitive Tendenz, diese zu naturalisieren — sie als natürlich, unvermeidlich, als Spiegelung realer Unterschiede wahrzunehmen. Dies ignoriert, dass Basisraten oft das Ergebnis historischer Diskriminierung und systemischer Barrieren sind.
Naturalisierung führt zu dem Schluss, dass Kalibrierung das einzig vernünftige Kriterium ist: Der Algorithmus sollte die Realität genau vorhersagen, wie auch immer sie aussieht. Dies zementiert Ungerechtigkeiten, weil die „Realität" selbst ein Produkt ungerechter Systeme ist (S003).
- Naturalisierung
- Kognitiver Fehler: Wahrnehmung einer sozialen/historischen Tatsache als Naturphänomen. Beispiel: „Gruppe A hat eine höhere Rückfallquote — also sollte der Algorithmus dies widerspiegeln".
- Kritische Unterscheidung
- Deskriptive Tatsache (Basisraten unterscheiden sich) ≠ normative Schlussfolgerung (Algorithmen sollten diese Unterschiede reproduzieren). Ersteres ist eine Beobachtung, Letzteres eine politische Wahl.
- Falle für Entwickler
- Kalibrierung erscheint „objektiv" und „neutral", ist aber eine Maske für die Wahl: historische Ungerechtigkeiten reproduzieren oder korrigieren.
🔄 Falle 4: Vermischung von Analyseebenen
Oft springen Argumente zwischen der individuellen Ebene (ist die Entscheidung für eine konkrete Person gerecht?) und der Gruppenebene (ist die Verteilung zwischen Gruppen gerecht?). Diese Ebenen haben unterschiedliche Gerechtigkeitskriterien, und ihre Vermischung erzeugt die Illusion eines Widerspruchs, wo keiner ist.
Ein System kann auf individueller Ebene gerecht sein (jede Entscheidung folgt logisch aus den Daten) und auf Gruppenebene ungerecht (Gruppen erhalten unterschiedliche Ergebnisse). Oder umgekehrt: gerecht auf Gruppenebene (gleiche Anteile) und ungerecht auf individueller Ebene (ignoriert relevante Unterschiede). Kritisches Denken erfordert, explizit anzugeben, auf welcher Ebene wir über Gerechtigkeit sprechen (S004).
🎯 Falle 5: Suche nach dem „richtigen" Kriterium statt Anerkennung der Wahl
Die tiefste Falle: der Glaube, dass es ein „richtiges" Gerechtigkeitskriterium gibt, das wir nur noch nicht gefunden haben. Dies führt zu endlosen Debatten darüber, welches Kriterium besser ist, statt anzuerkennen, dass die Wahl des Kriteriums eine politische Entscheidung ist, keine technische Entdeckung.
Verschiedene Gerechtigkeitskriterien spiegeln unterschiedliche Werte wider: Chancengleichheit, Ergebnisgleichheit, Respekt für Autonomie, Schadensminimierung. Es gibt keinen mathematischen Weg, zwischen ihnen zu wählen. Dies anzuerkennen ist keine Niederlage, sondern der Beginn eines ehrlichen Gesprächs: Wer trifft die Entscheidung, auf Basis welcher Werte, und wer trägt die Konsequenzen (S005).
Die Suche nach einem „objektiven" Gerechtigkeitskriterium ist ein Versuch, der Verantwortung für die Wahl auszuweichen. Die Wahl existiert immer. Die Frage ist nur, wer sie trifft und ob dies anerkannt wird.
Prüfprotokoll: Wie man die Fairness eines KI-Systems in sieben Schritten bewertet
Wenn eine Organisation ein KI-System zur Entscheidungsfindung implementiert, ist ein Fairness-Audit von entscheidender Bedeutung. Dieses Protokoll basiert auf dem Verständnis der Unmöglichkeitstheoreme (S001) und hilft, verborgene Kompromisse aufzudecken.
✅ Schritt 1: Geschützte Gruppen und Basisraten identifizieren
Bestimmen Sie, welche Gruppen von den Entscheidungen des Systems betroffen sind (Ethnie, Geschlecht, Alter, sozioökonomischer Status). Messen Sie die Basisraten der Zielvariable in jeder Gruppe. Mehr dazu im Abschnitt Karma und Reinkarnation.
In einem Kreditscoring-System: Wie hoch ist die tatsächliche Ausfallrate in jeder Gruppe? In der medizinischen Diagnostik: Wie hoch ist die Prävalenz der Erkrankung? Wenn die Basisraten unterschiedlich sind, gelten die Unmöglichkeitstheoreme (S002), und das System kann nicht gleichzeitig alle Kriterien erfüllen.
- Demografische Gruppen identifizieren, die für den Kontext relevant sind
- Daten über tatsächliche Ergebnisse in jeder Gruppe sammeln
- Basisraten (Prevalence Rate) berechnen
- Datenquelle und Erhebungszeitraum dokumentieren
✅ Schritt 2: Fairness-Kriterien auswählen und Kompromisse explizit benennen
Es gibt keine universelle Definition von Fairness (S001). Wählen Sie 2–3 Kriterien, die für Ihren Kontext relevant sind: demografische Parität, Chancengleichheit, Kalibrierung, prädiktive Parität.
Jede Wahl ist eine politische Entscheidung, keine technische. Dokumentieren Sie, warum Sie genau diese Kriterien gewählt haben und welche Alternativen Sie verworfen haben.
| Kriterium | Was wird geprüft | Wann anzuwenden |
|---|---|---|
| Demografische Parität | Gleicher Anteil positiver Entscheidungen in den Gruppen | Wenn keine Informationen über Basisunterschiede vorliegen |
| Chancengleichheit | Gleicher Anteil an Fehlern in den Gruppen | Wenn Basisraten unterschiedlich sind |
| Kalibrierung | Wahrscheinlichkeit eines positiven Ergebnisses ist bei gleichem Score identisch | Wenn Interpretierbarkeit der Entscheidungen erforderlich ist |
✅ Schritt 3: Metriken messen und Konflikte identifizieren
Berechnen Sie die gewählten Metriken für jede Gruppe. Vergleichen Sie die Ergebnisse: Wo erfüllt das System die Kriterien, wo verletzt es sie?
Wenn das System gleichzeitig demografische Parität und Chancengleichheit erfüllt, ist das ein Signal: Entweder sind die Basisraten identisch (selten), oder die Metriken wurden falsch berechnet. Überprüfen Sie die Berechnungen.
✅ Schritt 4: Kosten der Kompromisse bewerten
Jede Wahl eines Kriteriums hat ihren Preis (S005). Wenn Sie demografische Parität wählen, opfern Sie Genauigkeit für eine der Gruppen. Bei Chancengleichheit akzeptieren Sie unterschiedliche Anteile positiver Entscheidungen.
Quantifizieren Sie diesen Preis: Um wie viel Prozent sinkt die Genauigkeit? Wie viele Menschen erhalten eine falsche Entscheidung? Wer ist stärker betroffen?
✅ Schritt 5: Prüfen, ob das System Diskriminierung durch Proxy-Variablen verbirgt
Das System kann nach expliziten Kriterien fair sein, aber indirekte Merkmale (Proxys) nutzen, um Diskriminierung zu reproduzieren. Beispielsweise korreliert die Postleitzahl oft mit der Ethnie.
Analysieren Sie die Merkmale, die das Modell verwendet. Welche davon könnten Proxys für geschützte Eigenschaften sein? Entfernen oder reinterpretieren Sie solche Merkmale.
✅ Schritt 6: Audit auf kognitive Fallen durchführen
Menschen, die das System implementieren, glauben oft, dass Mathematik neutral ist. Prüfen Sie, ob Sie in die Falle des technologischen Determinismus getappt sind: die Überzeugung, dass ein Algorithmus per Definition fairer ist als ein Mensch.
Vergleichen Sie die Entscheidungen des Systems mit menschlichen Entscheidungen auf denselben Daten. Wo ist das System besser? Wo schlechter? Warum haben Sie genau dieses System gewählt?
✅ Schritt 7: Dokumentieren und erneut auditieren
Fairness ist keine einmalige Überprüfung. Das System degradiert: Daten ändern sich, Gruppen verschieben sich, Kriterien veralten. Auditieren Sie das System alle 6–12 Monate erneut.
Dokumentieren Sie alle Entscheidungen: Welche Kriterien haben Sie gewählt, warum, welche Kompromisse haben Sie akzeptiert, wer ist dafür verantwortlich. Dies schafft Rechenschaftspflicht und hilft, ethische Fehler bei der Skalierung zu vermeiden.
Die Fairness eines KI-Systems ist kein technisches Problem, das man einmal lösen kann. Es ist ein kontinuierlicher Verhandlungsprozess zwischen Mathematik, Politik und den Werten der Organisation. Das Protokoll hilft, diese Verhandlungen sichtbar und ehrlich zu gestalten.
