Was ist die Dead Internet Theory — und warum wurde sie in den 2020er Jahren viral
Die Dead Internet Theory ist eine verschwörungstheoretische Hypothese, nach der die überwiegende Mehrheit der Aktivitäten im Netz von Bots und KI-Algorithmen generiert wird, nicht von echten Menschen. Reale Nutzer machen angeblich nur einen Bruchteil des Traffics aus, während Konzerne und Regierungen automatisierte Systeme zur Meinungsmanipulation und Kontrolle des Informationsraums einsetzen (S001).
⚠️ Zentrale Behauptungen der Theorie
Befürworter der Theorie verweisen auf konkrete Anzeichen: gleichförmige Kommentare unter populären Posts, Accounts mit minimaler Historie, die plötzlich Content generieren, synchrone Likes von Tausenden Profilen. Beispiele wie "Shrimp Jesus" — absurde KI-generierte Bilder mit Millionen Views — werden als Beweis für eine langfristige Strategie betrachtet (S001).
Während früher für die Erstellung eines glaubwürdigen Fake-Accounts erhebliche Ressourcen erforderlich waren, kann heute eine einzelne Person Tausende Bots steuern, die dank generativer KI einzigartigen Content produzieren.
Laut Theorie bauen diese Accounts zunächst mit harmlosen Inhalten eine Audience auf und werden dann zur Verbreitung von Desinformation, politischer Propaganda oder kommerziellen Manipulationen eingesetzt. Mehr dazu im Bereich Verschwörungstheorien.
🧩 Warum die Theorie Resonanz findet
Die Popularität erklärt sich nicht nur durch die Neigung zu verschwörungstheoretischem Denken, sondern auch durch reale Beobachtungen: Die Qualität von Diskussionen sinkt, Algorithmen zeigen seltsamen Content, Profile von Bots zu unterscheiden wird schwieriger. Hinzu kommen dokumentierte Fälle von Bot-Farmen, Wahlmanipulation durch Fake-Accounts und Datenleck-Skandale.
- Generative KI als Katalysator
- ChatGPT, Midjourney und ähnliche Tools ermöglichen es, in Sekundenschnelle überzeugende Texte, Bilder und Videos zu erstellen und verwischen damit die Grenze zwischen "lebendigem" und "totem" Internet.
🔎 Historischer Kontext
Die Idee, dass das Internet nicht nur von Menschen bevölkert wird, ist nicht neu. In den 2000er Jahren wurden "Trolle" und "Shills" diskutiert — echte Menschen, die im Auftrag handelten. Der Wendepunkt waren die 2010er Jahre mit dem Aufkommen umfassender Beweise für den Einsatz automatisierter Systeme: "Trollfabriken", Bots, die Wahlen beeinflussen.
Die Formulierung "Dead Internet Theory" tauchte etwa zwischen 2016 und 2021 auf anonymen Imageboards wie 4chan auf. Bis 2023–2024 verließ die Theorie marginale Plattformen und wurde zum Diskussionsgegenstand in Mainstream-Medien und akademischen Kreisen — teilweise weil sich einige ihrer Elemente als beunruhigend realitätsnah erwiesen.
Die stärkste Version der Argumente: Fünf überzeugende Belege für die Dead-Internet-Theorie
Bevor wir die Theorie kritisch analysieren, müssen wir sie in ihrer stärksten Form darstellen – das sogenannte „Steelman Argument". Dies ist ein intellektuell redlicher Ansatz: Zuerst die Position des Gegenübers stärken, dann analysieren. Mehr dazu im Abschnitt Finanzbetrügereien.
Im Folgenden – fünf der gewichtigsten Argumente der Befürworter der Dead-Internet-Theorie, die tatsächlich ernsthafte Betrachtung verdienen.
📊 Erstes Argument: Traffic-Statistiken zeigen anomales Bot-Wachstum
Cybersecurity-Studien der letzten Jahre zeigen, dass ein erheblicher Anteil des Internet-Traffics von automatisierten Systemen generiert wird. Laut verschiedenen Analyseunternehmen entfallen 30% bis 50% des gesamten Web-Traffics auf Bots – wobei nicht alle davon „gut" sind (Suchmaschinen-Crawler, Monitoring-Systeme).
Ein wesentlicher Teil sind schädliche Bots, Scraper, Spam-Bots und Systeme zur Manipulation von Metriken. In sozialen Netzwerken ist die Situation noch besorgniserregender: Regelmäßig tauchen Skandale auf, bei denen sich herausstellt, dass große Accounts einen erheblichen Anteil gefälschter Profile als Follower haben.
| Plattform | Offizielle Schätzung | Unabhängige Studien |
|---|---|---|
| Twitter (X), 2022 | ~5% Bots | 15–20% Bots |
| Löscht jährlich Milliarden gefälschter Accounts | Umfang unentdeckter Accounts unbekannt |
Wenn Plattformen Milliarden von Accounts löschen, wie viele bleiben dann noch unentdeckt?
🕳️ Zweites Argument: Qualität von Inhalten und Diskussionen degradiert exponentiell
Langjährige Internet-Nutzer bemerken ein anhaltendes Gefühl: Die Qualität der Diskussionen sinkt, originäre Inhalte werden weniger, Algorithmen zeigen zunehmend sich wiederholende, schablonenartige oder offen sinnlose Inhalte.
Kommentare unter populären Posts wirken oft wie eine Ansammlung von Klischees, Emojis und kurzen Reaktionen ohne Tiefe. Foren und Communities, die früher lebendig waren, verwandeln sich in Echokammern mit vorhersehbaren Verhaltensmustern.
Befürworter der Theorie behaupten: Dies ist nicht nur das Ergebnis des „Ewigen Septembers" (Phänomen, bei dem der Zustrom neuer Nutzer das durchschnittliche Diskussionsniveau senkt), sondern die Folge davon, dass ein erheblicher Teil der „Teilnehmer" Bots sind, die darauf trainiert wurden, menschliches Verhalten zu imitieren.
KI-generierte Kommentare werden immer überzeugender, aber ihnen fehlt die echte Kreativität, Ironie und das kontextuelle Verständnis, die für lebendige Kommunikation charakteristisch sind. Das Ergebnis – ein Internet, das aktiv aussieht, sich aber leer anfühlt.
⚠️ Drittes Argument: Dokumentierte Fälle massiver Manipulation und Desinformationskampagnen
Es gibt bereits überzeugende Beweise dafür, dass soziale Netzwerke durch Bots manipuliert werden, um die öffentliche Meinung mittels Desinformation zu beeinflussen – und das geschieht seit vielen Jahren (S001).
Skandale um Cambridge Analytica, Wahleinmischung in den USA und Europa, Operationen zur Diskreditierung politischer Gegner – all dies ist dokumentiert, untersucht und teilweise von den Plattformen selbst anerkannt. Diese Fälle zeigen, dass die Technologie und Infrastruktur zur massenhaften Erstellung gefälschter Accounts existiert und aktiv genutzt wird.
- Wenn solche Operationen möglich und profitabel sind, ist es logisch anzunehmen, dass ihr Umfang viel größer ist, als wir wissen.
- Jeder aufgedeckte Fall ist nur die Spitze des Eisbergs.
- Die Hauptmasse der Manipulationen bleibt unbemerkt.
🧬 Viertes Argument: Generative KI hat die Erstellung gefälschter Inhalte trivial einfach gemacht
Vor dem Aufkommen von GPT-3, GPT-4, Midjourney und ähnlichen Systemen erforderte die Erstellung überzeugender gefälschter Inhalte erhebliche Ressourcen: Texter, Designer, Zeit für die Erstellung einzigartiger Texte und Bilder.
Jetzt kann eine einzelne Person mit API-Zugang in einer Stunde Tausende einzigartige Posts, Kommentare, Bilder und sogar Videos generieren, die aussehen, als wären sie von verschiedenen Menschen erstellt. Dies hat die Ökonomie von Bot-Farmen radikal verändert: Früher war Skalierung teuer – jetzt ist sie nahezu kostenlos.
Moderne Sprachmodelle können Stil, Ton und sogar Eigenheiten spezifischer Nutzer imitieren, was die Erkennung von Bots zu einer immer komplexeren Aufgabe macht.
Wenn die Technologie es ermöglicht, von menschlichen Inhalten nicht zu unterscheidende Inhalte in industriellem Maßstab zu erstellen, ist es vernünftig anzunehmen, dass dies bereits geschieht – und in viel größerem Umfang, als wir uns bewusst sind.
🔁 Fünftes Argument: Ökonomische Anreize der Plattformen fördern künstliche Aktivität
Das Geschäftsmodell der meisten sozialen Plattformen basiert auf Engagement-Metriken: Je mehr Nutzer, Views, Likes und Kommentare, desto höher die Bewertung des Unternehmens und die Werbeeinnahmen.
Dies schafft einen perversen Anreiz: Plattformen profitieren davon, Aktivitätskennzahlen zu überhöhen, selbst wenn ein Teil dieser Aktivität von Bots generiert wird. Das Löschen gefälschter Accounts senkt die Metriken, was sich negativ auf Aktienkurse und Attraktivität für Werbetreibende auswirkt.
- Empfehlungsalgorithmen sind auf Maximierung der auf der Plattform verbrachten Zeit optimiert, nicht auf Inhaltsqualität.
- Wenn Bot-generierte Inhalte die Aufmerksamkeit der Nutzer halten, wird der Algorithmus sie fördern.
- Dies schafft einen Teufelskreis: Bots generieren Inhalte → Algorithmen verstärken sie → Nutzer interagieren → Daten trainieren neue Bots.
- In einem solchen System verschwimmt die Grenze zwischen „lebendigem" und „totem" Internet tatsächlich.
Evidenzbasis: Was Studien über den realen Zustand des Internets sagen
Von Argumenten zu Fakten. Unabhängige Studien, akademische Arbeiten und Plattformdaten zeigen das tatsächliche Ausmaß der Automatisierung. Es gilt, dokumentierte Phänomene von Spekulationen zu trennen. Mehr dazu im Abschnitt Ängste rund um 5G.
📊 Quantitative Daten über Bots: Von Traffic bis zu sozialen Netzwerken
Cybersicherheit verzeichnet einen hohen Anteil automatisierten Traffics: 30% bis 50% des gesamten Web-Traffics wird von Bots generiert. Doch die Struktur ist entscheidend: Ein erheblicher Teil sind legitime Bots (Suchmaschinen-Crawler von Google, Bing, Monitoring-Systeme, Verfügbarkeitsprüfungen).
| Plattform | Offizielle Schätzung | Unabhängige Studien |
|---|---|---|
| Twitter (2022) | < 5% aktiver Nutzer | 9–15% |
| Facebook (2023) | 5–6% (1,5 Mrd. gelöscht) | Ähnliche Größenordnung |
| Instagram, TikTok | Keine genauen Angaben | Vergleichbar mit Facebook |
Die Diskrepanz zwischen offiziellen und unabhängigen Zahlen spiegelt methodologische Unterschiede und Anreize der Plattformen wider, das Problem zu minimieren.
🧪 Desinformationskampagnen: Von der Theorie zu dokumentierten Operationen
Soziale Netzwerke werden seit Jahren durch Bots manipuliert, um die öffentliche Meinung durch Desinformation zu beeinflussen (S001, S002). Fallbeispiele: Operationen russischer „Trollfabriken" (US-Wahlen 2016), Kampagnen gegen Impfungen, Angriffe auf Journalisten und Aktivisten, kommerzielle Manipulationen.
Mechanismus: Komplexe Netzwerke von Accounts imitieren organisches Verhalten — posten neutralen Content, interagieren miteinander, gewinnen Follower, werden dann für gezielte Botschaften aktiviert (S001, S002). Ganze Armeen von Accounts können jahrelang „schlafend" bleiben, bevor sie eingesetzt werden.
Das bedeutet, dass Desinformationsinfrastruktur im Voraus aufgebaut wird, als langfristiges Asset, und nicht improvisiert wird, wenn Bedarf entsteht.
🧾 Das Problem der Verifikation visueller Inhalte und des Faktenchecks im KI-Zeitalter
Die Anzahl der Behauptungen, die Faktenchecking benötigen, übersteigt um mehrere Größenordnungen das, was Menschen manuell verarbeiten können (S006). Visuelle Bilder sind einflussreicher als Text und begleiten natürlicherweise Fake News.
Generative KI hat das Problem verschärft: Die Erstellung überzeugender gefälschter Bilder, Videos und Audios ist nun jedem Nutzer zugänglich. Das Phänomen „Shrimp Jesus" — absurde KI-generierte Bilder mit Millionen von Aufrufen — demonstriert die Manipulierbarkeit von Aufmerksamkeit.
Hinter der scheinbaren Harmlosigkeit kann eine langfristige Strategie stehen (S001, S002): Accounts bauen Publikum mit viralem Content auf, wechseln dann zu ernsthaften Manipulationen. Dies hängt mit dem breiteren Problem verschwörungstheoretischen Denkens und seiner Verbreitung durch Algorithmen zusammen.
🌐 Evolution des Webs und das Problem der Zentralisierung: Von Web 2.0 zu Web 3.0
Die Architektur des Webs wird ständig neu gedacht, um mit enormen Datenmengen umzugehen (S011). Web 3.0 — eine dezentralisierte Architektur, intelligenter und sicherer, die Fragen des Eigentums an Web-Daten durch verteilte Technologien löst.
- Kritik an Web 3.0
- Dezentralisierung könnte das Bot- und Desinformationsproblem verschärfen: Fehlende zentrale Kontrolle erschwert Moderation und Entfernung schädlicher Inhalte.
- Verteidigung von Web 3.0
- Kryptografische Identitätsverifikation und Blockchain-Transparenz helfen, echte Nutzer von Bots zu unterscheiden.
Bislang bleiben beide Positionen weitgehend theoretisch. Web 3.0 ist nicht ausgereift und wird kontrovers diskutiert (S011). Das tatsächliche Ergebnis hängt davon ab, wie Probleme der Skalierbarkeit, des Energieverbrauchs und der sozialen Koordination gelöst werden.
Mechanismen und Kausalzusammenhänge: Warum das Internet zunehmend automatisiert wird
Das Verständnis dessen, was im Internet geschieht, erfordert die Analyse der Mechanismen, die zu den beobachtbaren Phänomenen führen. Mehr dazu im Abschnitt Psychologie des Glaubens.
Dies ist keine Verschwörung – es ist die natürliche Folge technologischen Fortschritts, marktwirtschaftlicher Anreize und der Verfügbarkeit von Werkzeugen.
⚙️ Aufmerksamkeitsökonomie und Engagement-Metriken als Treiber der Automatisierung
Soziale Plattformen operieren im Rahmen der Aufmerksamkeitsökonomie: Einnahmen hängen von der Verweildauer der Nutzer auf der Plattform und von Engagement-Metriken (Likes, Kommentare, Shares) ab. Algorithmen sind darauf optimiert, Aufmerksamkeit zu binden, selbst wenn dies durch provokante oder absurde Inhalte erreicht wird.
In einem solchen System werden Bots ökonomisch rentabel: Sie generieren Aktivität, steigern Metriken und erzeugen die Illusion von Popularität. Für Marken ist dies eine Investition in Sichtbarkeit, die sich durch Werbung amortisiert. Für Plattformen bedeutet das Entfernen von Bots sinkende Metriken. Das Ergebnis – ein System, das strukturell künstliche Aktivität belohnt.
🧬 Technologischer Fortschritt: Von primitiven Skripten zu generativer KI
Frühe Bots der 2000er Jahre waren primitiv und leicht zu erkennen. Moderne Bots auf Basis großer Sprachmodelle generieren einzigartige, kontextuell relevante Inhalte, die praktisch nicht von menschlichen zu unterscheiden sind (S001).
Generative KI hat die Einstiegshürde gesenkt: Eine einzelne Person kann Tausende von Accounts steuern, von denen jeder einzigartige Inhalte generiert und sich an den Kontext anpasst. Dies ist die natürliche Folge der Verfügbarkeit von Werkzeugen, keine koordinierte Verschwörung.
🔁 Feedback-Schleifen: Wie Algorithmen automatisierte Inhalte verstärken
Empfehlungsalgorithmen erzeugen Feedback-Schleifen, die bestimmte Inhaltstypen unabhängig von ihrer Herkunft verstärken. Wenn ein von Bots generierter Beitrag hohes Engagement erhält, interpretiert der Algorithmus dies als Qualitätssignal und zeigt den Beitrag mehr Nutzern.
| Zyklusphase | Was geschieht | Ergebnis |
|---|---|---|
| Künstliche Aktivität | Bots erzeugen Likes, Kommentare, Shares | Beitrag erscheint populär |
| Algorithmische Verstärkung | System zeigt Beitrag größerem Publikum | Organische Interaktionen steigen |
| Modelltraining | Interaktionsdaten werden zur KI-Verbesserung genutzt | Nächste Bot-Generation wird überzeugender |
| Geschlossener Kreislauf | Bots lernen von Menschen, Menschen interagieren mit Bots | Grenze zwischen „echt" und „künstlich" verschwimmt |
📊 Ausmaß des Problems: Zahlen und Realität
Studien zeigen, dass Bots einen erheblichen Anteil der Aktivität in sozialen Netzwerken ausmachen. Dies bedeutet jedoch nicht, dass das Internet „tot" ist – es bedeutet, dass es sich unter dem Einfluss ökonomischer Anreize und technologischer Möglichkeiten transformiert.
Das Problem liegt nicht in der Existenz von Bots, sondern in ihrer Integration in ein Ökosystem, in dem Plattformen von ihrer Präsenz profitieren und Nutzer automatisierte Inhalte nicht von organischen unterscheiden können. Dies schafft eine Informationsasymmetrie, die das Vertrauen in das Internet als Informationsquelle untergräbt.
🎯 Soziale Effekte: Warum Menschen an die Theorie des toten Internets glauben
Die wachsende Präsenz von Bots und automatisierten Inhalten erzeugt das Gefühl, dass das Internet weniger authentisch wird. Menschen bemerken wiederkehrende Muster, schablonenartige Antworten, fehlende Tiefe in Diskussionen – und diese Beobachtung ist berechtigt (S004).
Die Interpretation dieses Phänomens geht jedoch oft in Verschwörungstheorien über: Anstatt ein System ökonomischer Anreize und technologischer Möglichkeiten zu erkennen, suchen Menschen nach einem verborgenen Akteur – Staat, Konzern, KI-Aufstand. Dies ist eine einfachere Erklärung als das Verständnis komplexer Wechselwirkungen zwischen Algorithmen, Bots und menschlichem Verhalten.
- Veränderung bemerken (Inhalte wurden weniger authentisch) – berechtigt
- Dies durch Verschwörung erklären – kognitiv einfacher als systemische Faktoren zu analysieren
- „Beweise" für Verschwörung finden – Bestätigungsverzerrung in Aktion
- Theorie verbreiten – soziale Bestätigung verstärkt Überzeugung
🔍 Unterscheidung zwischen Fakt und Interpretation
Fakt: Der Anteil automatisierter Inhalte im Internet wächst. Dies wird durch Studien bestätigt und ist im Verhalten der Plattformen beobachtbar.
Interpretation: Dies ist das Ergebnis eines bewussten Plans zur Übernahme des Internets durch KI oder den Staat. Dies ist eine Annahme, die über verfügbare Daten hinausgeht und den Glauben an eine koordinierte Verschwörung erfordert.
Die Mechanismen der Internet-Automatisierung sind kein Geheimnis, sondern ein offenes System ökonomischer Anreize, technologischer Möglichkeiten und algorithmischer Feedback-Schleifen. Das Verständnis dieser Mechanismen ermöglicht eine kritische Bewertung von Informationen, ohne auf verschwörungstheoretische Erklärungen zurückzugreifen.
Schutz vor Manipulation beginnt nicht mit der Suche nach verborgenen Feinden, sondern mit dem Verständnis, wie die Systeme funktionieren, die wir täglich nutzen. Dies erfordert Medienkompetenz, kritisches Denken und die Bereitschaft, die Komplexität der Realität anzuerkennen, anstatt nach einfachen Antworten zu suchen.
