Datenlücken
The Bias
- Verzerrung: Informationsleere (Data Voids) — das sind Lücken in der Suchabdeckung und den verfügbaren Daten, bei denen fehlende oder minderwertige Informationen systematisch ausgenutzt werden, um Desinformation zu verbreiten (S011).
- Was es bricht: Kritisches Denken, die Fähigkeit, die Glaubwürdigkeit von Informationen zu beurteilen, das Vertrauen in Suchmaschinen und KI‑Assistenten, die Informationssicherheit marginalisierter Gemeinschaften.
- Evidenzlevel: L1 — hohes akademisches Konsensniveau mit mehreren empirischen Studien (84 Zitierungen Schlüsselwerke), Bestätigung durch führende Institute (Microsoft Research, Stanford FSI, Harvard Misinformation Review).
- In 30 Sekunden erkennen: Die Suchanfrage liefert eine begrenzte Anzahl von Ergebnissen niedriger Qualität; ungewöhnlicher Konsens unter den Quellen zu einer umstrittenen Frage; Warnbanner von Suchmaschinen über unzureichende Daten.
Wenn Informationslücken zur Waffe werden
Informationsleere stellen eine kritische Bedrohung für moderne Informationsökosysteme dar. Das Konzept, das erstmals von den Forschern Golebiewski und Boyd im Jahr 2019 systematisiert wurde, beschreibt Informationsräume, in denen fehlende, begrenzte oder minderwertige Daten Möglichkeiten zur Manipulation von Suchergebnissen schaffen (S011, S013). Es handelt sich nicht nur um leere Stellen im Internet – es sind aktive Sicherheitslücken, die ein systematisches Management erfordern.
Das Phänomen der Informationsleere hat erhebliche akademische Aufmerksamkeit erhalten, mit Schlüsselarbeiten, die 28 bis 84 Zitierungen erhalten haben (S002, S010). Manipulatoren nutzen Informationsleere aktiv, um Nutzer*innen problematischen Inhalts über Suchergebnisse auszusetzen. Besonders besorgniserregend ist, dass Nutzer*innen, die online Informationen zur Überprüfung von Desinformation suchen, genau in jene Informationsräume geraten können, in denen qualitativ hochwertiger Inhalt fehlt (S003).
Drei Arten von Informationsleeren
- Leere von minderwertigen Ergebnissen — verfügbare Suchergebnisse gelten als unzureichend oder unzuverlässig.
- Leere von geringer Relevanz — Suchergebnisse entsprechen nicht den Absichten des Nutzers.
- Abdeckungsleere — Themen mit unzureichender Menge an autoritativen Inhalten.
Google Search und andere Plattformen versuchen, Nutzer*innen bei der Orientierung in diesen Leeren zu unterstützen, doch Eingriffe basieren häufig auf heuristischer Verarbeitung statt auf systematischer Aufarbeitung (S005, S014).
Künstliche Intelligenz erbt das Problem
Das Problem der Informationsleeren wird durch die Entwicklung künstlicher Intelligenz verschärft. Große Sprachmodelle (LLM) und andere KI‑Systeme übernehmen die Schwachstellen aus den Informationsleeren in ihren Trainingsdaten, was zu Lücken, Verzerrungen und Halluzinationen führt (S004, S008). Die für das Training von LLM verwendeten Daten leiden unter Einschränkungen wie Lücken, Vorurteilen, die soziale Ungleichheit widerspiegeln, und systemischen Verzerrungen. Dies schafft eine neue Bedrohungskategorie – „LLM Grooming“, eine kognitive Bedrohung für generative KI‑Systeme, die Informationsleeren in den Trainingsdaten ausnutzt (S006).
Marginalisierte Gemeinschaften sind stärker betroffen
Informationsleeren betreffen marginalisierte und unterrepräsentierte Gemeinschaften überproportional, wodurch politische Informationsleeren entstehen, die die Dynamik von Ausschluss und struktureller Ungleichheit widerspiegeln (S009, S007). Die Studie identifizierte Konturen von Informationsleeren in Google‑Suchanfragen, die von extrem rechten Akteuren ausgenutzt werden. Ohne die Schaffung neuer verifizierter Inhalte können bestimmte Informationsleeren nicht schnell und einfach gefüllt werden (S001), was das Problem besonders komplex macht und es mit breiteren Fragen verknüpft Bestätigungsfehler und Verfügbarkeitsheuristik.
Mechanism
Kognitive Architektur von Informationslücken: Wie Algorithmen und das Gehirn die Illusion von Wissen erzeugen
Informationslücken entstehen an der Schnittstelle von drei Systemen: algorithmischen Beschränkungen von Suchmaschinen, kognitiven Vorurteilen der Nutzer*innen und strategischem Verhalten von Angreifern. Wenn ein*e Nutzer*in eine Anfrage in ein Themenfeld mit begrenztem qualitativ hochwertigem Inhalt stellt, müssen die Algorithmen das zurückliefern, was verfügbar ist – selbst wenn es sich um minderwertige, voreingenommene oder manipulative Quellen handelt (S010). Diese Situation erzeugt die Illusion von Vollständigkeit dort, wo in Wirklichkeit keine Information vorhanden ist.
Verfügbarkeitsheuristik und Vertrauen in Plattformen
Verfügbarkeitsheuristik – der erste kognitive Mechanismus, der Informationslücken gefährlich macht. Wir überschätzen die Bedeutung und Glaubwürdigkeit von Informationen, die leicht in den Sinn kommen, und die Suchergebnisse auf der ersten Google‑Ergebnisseite sind genau solche. Studien zeigen, dass voreingenommene Rankings von Suchergebnissen die Einstellung von Nutzer*innen zu kontroversen Themen über Informationsverarbeitungsmechanismen beeinflussen (S010).
Der zweite Mechanismus – der Halo‑Effekt autoritativer Plattformen. Wir vertrauen Google, Bing und anderen Suchmaschinen als zuverlässigen Vermittlern von Informationen und interpretieren die Suchergebnisse automatisch als „das ist, was zu diesem Thema bekannt ist“, statt „das ist, was im Index verfügbar ist“. Dieser intuitive Fehler wird verstärkt, weil Plattforminterventionen wie Warnbanner häufig auf heuristischer Verarbeitung statt auf systematischer Analyse beruhen (S005). Selbst wenn Nutzer*innen über ein potenzielles Problem informiert werden, verarbeiten sie diese Information möglicherweise nicht tief genug, um ihr Verhalten zu ändern.
Bestätigungsbias unter Unsicherheitsbedingungen
Bestätigungsbias verstärkt den Effekt von Informationslücken. Wenn ein*e Nutzer*in bereits zu einer bestimmten Sichtweise tendiert, wird eine Lücke, die mit Inhalten gefüllt ist, die diese Sichtweise unterstützen, als Bestätigung der Richtigkeit der Überzeugungen wahrgenommen. Das erzeugt einen Teufelskreis: Je stärker Nutzer*innen auf Suchmaschinen zur Faktenprüfung vertrauen, desto anfälliger werden sie für die Ausnutzung von Lücken.
Eine Studie von Draws und Kolleg*innen (2021) an der Technischen Universität Delft zeigte, dass wenn Suchergebnisse systematisch zu einer Seite einer Debatte verzerrt sind, Nutzer*innen diese Sichtweise deutlich häufiger übernehmen, selbst wenn sie ursprünglich die Gegenposition vertraten (S010). Das bestätigt, dass Informationslücken nicht nur passive Lücken, sondern aktive Gestalter der öffentlichen Meinung sind.
Umfang des Problems: Von der Suche zur Künstlichen Intelligenz
Eine Untersuchung des Stanford FSI zeigte, dass Deep‑Learning‑Modelle 29‑ bis 58‑mal mehr qualitativ minderwertige Informationslücken identifizieren können als traditionelle Verfahren, was das Ausmaß eines für gewöhnliche Nutzer*innen unsichtbaren Problems verdeutlicht. Die Arbeit von Lewandowsky und Kolleg*innen (2023) untersuchte das Problem der „Verflechtung von Mensch und Algorithmus“ im Kontext von Informationslücken und zeigte, dass Lücken in der Suchabdeckung von Angreifern ausgenutzt werden können und dass Nutzer*innen häufig nicht erkennen, wenn sie mit manipulativen Inhalten interagieren (S002).
Besonders beunruhigende Daten stammen aus Studien zu politischen Informationslücken. Flores‑Saviaga und Kolleg*innen (2022) entwickelten ein KI‑System zur Identifizierung politischer Informationslücken in unterrepräsentierten Gemeinschaften und zeigten, dass marginalisierte Gruppen systematisch mit gravierenderen Lücken konfrontiert werden, was die Ungleichheit beim Zugang zu hochwertiger Information verschärft. Die Untersuchung von Norocel (2023) demonstrierte, wie extrem rechte Akteure gezielt Informationslücken in Google ausnutzen, um eine Ausschlusspolitik zu propagieren.
Informationslücken im Zeitalter großer Sprachmodelle
Neuere Studien aus den Jahren 2024‑2025 haben das Verständnis des Problems vertieft. Die Arbeit von Shao und Kolleg*innen (2025) zu KI‑Halluzinationen zeigte, dass die Trainingsdaten von LLM Lücken, systematische Voreingenommenheit und soziale Ungleichheiten widerspiegeln (S004). Informationslücken werden in die neue Generation von KI‑Werkzeugen eingebettet und könnten das Problem potenziell verstärken.
| Kognitiver Mechanismus | Wie es in Informationslücken wirkt | Ergebnis für die Nutzer*innen |
|---|---|---|
| Verfügbarkeitsheuristik | Die ersten Suchergebnisse werden als am relevantesten und glaubwürdigsten wahrgenommen | Überschätzung der Bedeutung manipulativer Inhalte |
| Halo‑Effekt | Das Vertrauen in die Autorität der Plattform wird auf die Qualität der Ergebnisse übertragen | Blindes Akzeptieren voreingenommener Quellen als objektiv |
| Bestätigungsbias | Lücken werden mit Inhalten gefüllt, die bestehende Überzeugungen unterstützen | Verstärkung falscher Ansichten anstelle ihrer Korrektur |
| Blindspot des Vorurteils | Nutzer*innen erkennen nicht, dass ihre Meinung vom Algorithmus geformt wird | Falsches Gefühl von Unabhängigkeit des Urteils |
Die Studie zeigte, dass das KI‑System Perplexity insgesamt besser funktionierte als Google bei Informationslücken, jedoch gelegentlich weiterhin den Glauben an falsche Informationen verstärkte. Das weist darauf hin, dass das Problem der Informationslücken nicht nur technischer Natur ist, sondern grundlegend für jedes System, das Informationen unter Bedingungen von Knappheit bereitstellen muss.
Domain
Example
Beispiele für Informationslücken in realen Situationen
Szenario 1: Suche nach Gesundheitsinformationen während einer Pandemie
Zu Beginn eines neuen Ausbruchs sucht ein Nutzer nach Informationen zu Symptomen und Behandlungsmethoden. Da die Krankheit neu ist, haben autoritative medizinische Quellen noch keine ausführlichen Leitlinien veröffentlicht, und wissenschaftliche Studien befinden sich noch in einem frühen Stadium. Das erzeugt eine klassische Informationslücke – eine Versorgungslücke zu einem kritischen Thema (S001).
In dieser Situation liefern Suchmaschinen das, was verfügbar ist: Blogs von zweifelhafter Qualität, Beiträge in sozialen Netzwerken, unüberprüfte „Hausmittel“ und bewusst erzeugte Desinformationsinhalte. Angreifer, die die Existenz einer Informationslücke erkennen, erzeugen strategisch suchmaschinenoptimierten Content, der unwirksame oder gefährliche Behandlungsmethoden propagiert.
Der Nutzer, der den Suchergebnissen vertraut und nicht erkennt, dass er sich in einer Informationslücke befindet, kann Gesundheitsentscheidungen auf Basis unzuverlässiger Informationen treffen. Ohne die Erstellung neuer, verifizierter Inhalte können solche Lücken nicht schnell geschlossen werden, was die frühen Phasen von Gesundheitssystemkrisen besonders anfällig macht.
Was helfen könnte: Der Nutzer könnte das Veröffentlichungsdatum der Quellen prüfen, offizielle Gesundheitswebsites (WHO, nationale Ministerien) konsultieren und auf das Auftreten peer‑reviewter Studien warten, anstatt sich auf die ersten Suchergebnisse zu verlassen.
Szenario 2: Politische Informationslücken und marginalisierte Gemeinschaften
Ein Vertreter einer unterrepräsentierten ethnischen oder sozialen Gemeinschaft sucht Informationen zu Kandidaten bei Kommunalwahlen oder zu politischen Initiativen, die seine Gruppe betreffen. Autoritative Quellen können diese für die Gemeinschaft wichtigen Themen schlichtweg nicht abdecken und damit eine Informationslücke erzeugen.
Diese Lücke wird entweder von minderwertigen Quellen oder von bewusst erzeugtem, wahlmanipulierendem Content gefüllt. Studien zeigen, dass extrem rechte Akteure systematisch Informationslücken in Suchmaschinen ausnutzen, um Ausschlusspolitiken zu verbreiten. Ein Nutzer aus einer marginalisierten Gemeinschaft, der nach Informationen zu seinen politischen Rechten sucht, kann auf Suchergebnisse stoßen, die entweder seine Interessen ignorieren oder aktiv eine Agenda fördern, die seinem Wohlbefinden entgegensteht.
Was helfen könnte: Der Kontakt zu lokalen zivilgesellschaftlichen Organisationen, direkte Gespräche mit Kandidatenvertretern und die Überprüfung von Informationen über mehrere unabhängige Quellen würden helfen, Manipulation zu vermeiden und ein umfassenderes Bild zu erhalten.
Szenario 3: KI‑Assistenten und Halluzinationen in Informationslücken
Moderne Nutzer greifen zunehmend auf KI‑Assistenten auf Basis großer Sprachmodelle statt auf traditionelle Suchmaschinen zurück. Diese Systeme übernehmen jedoch das Problem der Informationslücken und können es sogar verstärken, da ihre Trainingsdaten Lücken, systemische Voreingenommenheit und soziale Ungleichheiten enthalten.
Ein Student nutzt einen KI‑Assistenten, um ein Essay zu einem wenig erforschten historischen Thema zu schreiben. Existiert in den Trainingsdaten des Modells eine Informationslücke zu diesem Thema, kann die KI „halluzinieren“ – plausibel klingende, aber faktisch falsche Informationen erzeugen. Neue Fehlquellen in KI‑Systemen hängen häufig genau mit Datenlücken und Informationslücken zusammen.
Besonders besorgniserregend ist das Phänomen des „LLM‑Groomings“ – einer neuen kognitiven Bedrohung für generative KI, die Informationslücken in Trainingsdaten ausnutzt. Angreifer können bewusst Inhalte erzeugen, die zukünftige Trainingsdatensätze füllen sollen, und damit KI‑Systeme effektiv dazu „trainieren“, Desinformation zu verbreiten.
Was helfen könnte: Der Student sollte die vom KI‑Assistenten gelieferten Informationen in akademischen Datenbanken überprüfen, mehrere Quellen heranziehen und die Plausibilität des generierten Inhalts kritisch bewerten, insbesondere bei wenig erforschten Themen.
Szenario 4: Manipulation der öffentlichen Meinung durch strategische Schaffung von Informationslücken
Die ausgeklügeltste Form der Ausnutzung von Informationslücken besteht darin, sie bewusst zu erzeugen und anschließend mit manipulativen Inhalten zu füllen. Vor einem wichtigen politischen Ereignis oder einer Abstimmung identifizieren Angreifer Themen, zu denen autoritative Quellen nur begrenzt berichten.
Anschließend bauen sie ein Netzwerk miteinander verbundener Websites, Blogs und Social‑Media‑Posts auf, die für Suchmaschinen optimiert sind und eine bestimmte Erzählung verbreiten. Wenn reguläre Nutzer nach Informationen zu diesen Themen suchen, landen sie in einem sorgfältig konstruierten Informationsökosystem, das zwar divers wirkt, aber in Wirklichkeit koordiniert eine einzige Sichtweise fördert.
Manipulierende Akteure nutzen das Wissen, dass verzerrte Rankings von Suchergebnissen die Einstellung der Nutzer zu kontroversen Themen stark beeinflussen. Sie füllen Informationslücken strategisch mit Inhalten, die die öffentliche Meinung in die gewünschte Richtung lenken. Deep‑Learning‑Modelle können 29‑‑58‑mal mehr solcher minderwertigen Informationslücken identifizieren als traditionelle Verfahren, was das Ausmaß einer potenziellen, für Nutzer unsichtbaren Ausbeutung verdeutlicht.
Was helfen könnte: Der Nutzer sollte die Informationsquellen prüfen, wiederkehrende Narrative in verschiedenen Quellen beachten, unabhängige Expert*innen konsultieren und sich bewusst sein, dass Bestätigungsverzerrung ihn dazu verleiten kann, an Inhalte zu glauben, die seinen Überzeugungen entsprechen, selbst wenn sie manipulativ erstellt wurden.
Red Flags
- •Suchanfrage liefert begrenzte Ergebnisse mit minderwertigen Quellen
- •Top-Suchergebnisse zeigen ungewöhnlichen Konsens zu einem kontroversen Thema
- •Fehlen autoritativer Quellen (akademisch, institutionell, verifizierte Medien) in Top-Ergebnissen
- •Suchmaschine zeigt Warnbanner über Ergebnisqualität oder Relevanz
- •KI-System liefert ausweichende Antworten oder erkennt Datenbeschränkungen bei der Anfrage an
- •Thema betrifft marginalisierte Gemeinschaften oder unterrepräsentierte Gruppen
- •Suchergebnisse enthalten koordinierte Inhalte mit ähnlicher Formulierung oder Quellen
Countermeasures
- ✓Kreuzverifizierung durch mehrere unabhängige Suchmaschinen und Plattformen durchführen
- ✓Aktiv nach autoritativen Quellen suchen (akademische Datenbanken, institutionelle Repositorien) statt sich auf Top-Ergebnisse zu verlassen
- ✓Quellenbewertungs-Checkliste anwenden: Autor, Datum, Methodik, Zitate, Interessenkonflikt
- ✓Erweiterte Suchoperatoren verwenden, um nach Quellentyp, Datum, Domain zu filtern
- ✓Basisraten prüfen: Wie häufig ist das Phänomen in der Realität, nicht nur in Suchergebnissen
- ✓Datenlücken-Muster dokumentieren und systematische Manipulation an Plattformen melden
- ✓Für KI-Entwickler: Trainingsdaten auf Lücken und systematische Verzerrungen prüfen
- ✓Erstellung verifizierter Inhalte für kritische Informationslücken unterstützen
Sources
- /sources/10-33774-apsa-2020-f3rnf
- /sources/10-18653-v1-2023-acl-long-656
- /sources/10-1038-s41598-017-09084-6
- /sources/10-5194-essd-10-1807-2018
- /sources/10-1080-08120091003677553
- /sources/10-7551-mitpress-11805-001-0001
- /sources/10-1175-1520-0493-2001-129-2884-aeakff-2-0-co-2
- /sources/10-1175-1520-0493-1998-126-0796-dauaek-2-0-co-2