Was bedeutet AGI bis 2030: Analyse der Aussage, die die Tech-Community erschütterte, und warum dies nicht die erste Prognose dieser Art ist
Bevor wir die Begründetheit der Prognose analysieren, AGI bis 2030 zu erreichen, müssen wir die Grenzen des diskutierten Phänomens klar definieren. Der Begriff AGI (Artificial General Intelligence) beschreibt ein hypothetisches System künstlicher Intelligenz, das jede intellektuelle Aufgabe auf menschlichem Niveau oder darüber hinaus ausführen kann — im Gegensatz zu spezialisierter KI (narrow AI), die konkrete Aufgaben wie Bilderkennung oder Schachspielen löst. Mehr dazu im Bereich KI und Technologien.
🔎 Definition von AGI: Wo verläuft die Grenze zwischen spezialisierter KI und allgemeiner Intelligenz
Die akademische Gemeinschaft hat keinen einheitlichen Konsens über die Kriterien für AGI. Einige Forscher definieren es über die Fähigkeit zum Wissenstransfer zwischen Domänen (transfer learning), andere über Selbstbewusstsein und Kontextverständnis, wieder andere über ein ökonomisches Kriterium (Fähigkeit, Menschen in den meisten Berufen zu ersetzen).
Diese konzeptionelle Unschärfe schafft das erste Problem: Wenn wir „AGI bis 2030" sagen, sprechen wir je nach verwendeter Definition über unterschiedliche Dinge.
⚠️ Geschichte unerfüllter Prognosen: Von „KI in 20 Jahren" in den 1960ern bis zu heutigen Aussagen
Prognosen über die baldige Erreichung von AGI haben eine reiche Geschichte des Scheiterns. 1958 sagte Herbert Simon voraus, dass Maschinen Menschen im Schach in 10 Jahren übertreffen würden (es geschah 1997 — nach 39 Jahren). Auf der Dartmouth-Konferenz 1956 glaubten die Gründer des KI-Bereichs, dass die Erschaffung denkender Maschinen eine Frage von ein bis zwei Jahrzehnten sei.
Jeder „KI-Winter" (Perioden der Enttäuschung und Finanzierungskürzungen in den 1970er und 1980er Jahren) folgte auf eine Welle übermäßigen Optimismus. Philosophische Untersuchungen zeigen, dass die Grenze zwischen Science-Fiction und philosophischer Reflexion über Technologien oft verschwommen ist: Was gestern wie Spekulation erschien, wird heute Gegenstand ernsthafter akademischer Analyse (S002).
- Muster unerfüllter Prognosen
- Extrapolation aktueller Trends ohne Berücksichtigung fundamentaler Barrieren; Verwechslung von Fortschritt bei spezialisierten Aufgaben mit Annäherung an allgemeine Intelligenz; ökonomische Motivation, Erwartungen zu überhöhen, um Investitionen anzuziehen.
🧩 Warum sich die Prognose für 2030 von früheren unterscheidet: neue Faktoren und alte Muster
Die aktuelle Optimismuswelle bezüglich AGI stützt sich auf drei neue Faktoren: exponentielles Wachstum der Rechenleistung (Mooresches Gesetz, wenn auch sich verlangsamend), Durchbrüche in neuronalen Netzwerkarchitekturen (Transformer, große Sprachmodelle) und massive Investitionen (Hunderte Milliarden Euro von Tech-Giganten).
Doch das Muster bleibt dasselbe: Jeder Optimismuszyklus reproduziert die Fehler der vorherigen, indem er technischen Fortschritt mit der philosophischen Frage nach der Natur von Intelligenz verwechselt. Dies schafft ein Umfeld, in dem sich Mythen über bewusste KI schneller verbreiten als Daten über die tatsächlichen Grenzen der Systeme.
Das Stahlmann-Argument: Die sieben überzeugendsten Argumente für die Erreichbarkeit von AGI bis 2030 und warum sie nicht ignoriert werden können
Intellektuelle Redlichkeit erfordert die Betrachtung der stärksten Version der gegnerischen Position — das „Stahlmann-Prinzip" (steelman), das Gegenteil der Strohmann-Argumentation. Anstatt schwache Versionen der Argumente von AGI-2030-Befürwortern anzugreifen, analysieren wir ihre fundiertesten Argumente. Mehr dazu im Abschnitt Grundlagen des maschinellen Lernens.
🧪 Argument 1: Exponentielles Leistungswachstum von Modellen bei Skalierung
Die letzten Jahre zeigen, dass die Vergrößerung von Modellen (Anzahl der Parameter) und des Umfangs der Trainingsdaten zu vorhersehbaren Leistungsverbesserungen über ein breites Spektrum von Aufgaben führt — ein Phänomen, das als „Skalierungsgesetze" (scaling laws) bekannt ist. GPT-3 (175 Mrd. Parameter, 2020) zeigte einen qualitativen Sprung gegenüber GPT-2 (1,5 Mrd. Parameter, 2019), und GPT-4 (vermutlich eine Billion Parameter, 2023) demonstrierte Denkfähigkeiten, die zuvor für Sprachmodelle als unerreichbar galten.
Wenn sich dieser Trend fortsetzt und die Rechenressourcen weiter wachsen (was durch Investitionen in spezialisierte Chips und Rechenzentren gewährleistet wird), legt die Extrapolation nahe, dass menschenähnliche Leistung in absehbarer Zukunft erreicht wird.
🧬 Argument 2: Konvergenz der Technologien — Multimodalität und verkörperte Intelligenz
Moderne KI-Systeme überwinden die Grenzen der Einzeldomäne: Modelle wie GPT-4V, Gemini und Claude 3 verarbeiten Text, Bilder, Audio und Video in einer einheitlichen Architektur. Parallel entwickeln sich robotische Systeme mit KI-Steuerung (Boston Dynamics, Tesla Optimus, Figure AI), die „verkörperte Intelligenz" ermöglichen — die Fähigkeit, mit der physischen Welt zu interagieren.
Die Theorie der verkörperten Kognition geht davon aus, dass echte Intelligenz ohne physische Interaktion mit der Umgebung unmöglich ist. Die Konvergenz von Sprachmodellen, Computer Vision und Robotik könnte bis Ende des Jahrzehnts ein qualitativ neues Niveau intelligenter Systeme schaffen.
📊 Argument 3: Ökonomische Unvermeidlichkeit — Billionen-Investitionen schaffen eine sich selbst erfüllende Prophezeiung
Globale Investitionen in KI überstiegen 2023 200 Milliarden Dollar, wobei ein erheblicher Teil auf AGI-Forschung gerichtet ist (OpenAI, DeepMind, Anthropic). Microsoft investierte 13 Milliarden Dollar in OpenAI, Google steckte Milliarden in DeepMind, und Start-ups wie Anthropic zogen milliardenschwere Finanzierungen an.
| Faktor | Effekt |
|---|---|
| Ressourcenkonzentration | Die besten Forscher der Welt arbeiten mit beispielloser Finanzierung an einem Problem |
| Historische Präzedenzfälle | Manhattan-Projekt, Weltraumrennen — solche Konzentration führte zu Durchbrüchen |
| Ökonomische Logik | Bei solchen Investitionen wird der Durchbruch zur Frage der Zeit, nicht der Möglichkeit |
🔁 Argument 4: Rekursive Selbstverbesserung — KI als Werkzeug zur Schaffung besserer KI
Moderne Sprachmodelle werden bereits zum Schreiben von Code, zur Optimierung von Algorithmen und zum Entwurf von neuronalen Netzwerkarchitekturen eingesetzt (AutoML, neural architecture search). Wenn KI-Systeme ein Niveau erreichen, auf dem sie ihre eigenen Algorithmen effektiv verbessern können, entsteht eine positive Rückkopplungsschleife: Jede KI-Generation schafft eine perfektere nächste Generation schneller als die vorherige.
Dieses Szenario der „Intelligenzexplosion" (intelligence explosion), das I.J. Good 1965 beschrieb, könnte die Zeit bis zur AGI radikal verkürzen. Einige Forscher behaupten, dass wir bereits frühe Anzeichen dieses Prozesses in der Verwendung von GPT-4 zum Training effizienterer Modelle beobachten.
🧠 Argument 5: Neurowissenschaftliche Erkenntnisse — Reverse Engineering des menschlichen Gehirns
Fortschritte in den Neurowissenschaften liefern neue Daten über die Mechanismen menschlicher Intelligenz. Konnektom-Kartierungsprojekte, Untersuchungen zu Aufmerksamkeits- und Gedächtnismechanismen, das Verständnis der Rolle prädiktiver Kodierung (predictive coding) in der Wahrnehmung — all dies informiert die Entwicklung von KI-Architekturen.
- Transformer
- Bilden die Grundlage moderner Sprachmodelle, teilweise inspiriert von Aufmerksamkeitsmechanismen im menschlichen Gehirn
- Entschlüsselung der Gehirnprinzipien
- Mit zunehmendem Verständnis biologischer Intelligenz erhalten Ingenieure neue Prinzipien für die Gestaltung künstlicher Systeme
- AGI-Beschleunigung
- Wenn die Schlüsselprinzipien der Gehirnfunktion in den kommenden Jahren entschlüsselt werden, könnte dies die Schaffung von AGI beschleunigen
✅ Argument 6: Emergente Fähigkeiten — qualitative Sprünge bei quantitativem Wachstum
Forschungen zeigen, dass Modelle beim Erreichen einer bestimmten Größenordnung „emergente Fähigkeiten" demonstrieren — Fertigkeiten, die nicht explizit programmiert wurden und in kleineren Modellen nicht beobachtet wurden. Die Fähigkeit zur Arithmetik, zum analogen Denken, zum Verständnis von Sarkasmus erscheinen plötzlich beim Überschreiten einer bestimmten Parameterschwelle.
Wenn sich diese Gesetzmäßigkeit fortsetzt, ist es möglich, dass ein System beim Erreichen einer kritischen Masse an Berechnungen und Daten spontan allgemeine Intelligenz zeigt — ähnlich wie Bewusstsein emergent aus der Interaktion von Milliarden Neuronen im menschlichen Gehirn entsteht.
🔬 Argument 7: Präzedenzfälle schneller technologischer Übergänge — von Science-Fiction zur Realität in Jahren
Die Technologiegeschichte kennt Beispiele rasanter Übergänge von der Theorie zur Praxis. Gentechnik, die in den 1990er Jahren noch wie ferne Science-Fiction erschien, wird heute in der klinischen Praxis angewendet: Die CRISPR-Cas9-Technologie legte den Weg von der Entdeckung (2012) bis zu den ersten zugelassenen Therapien (2023) in 11 Jahren zurück (S005).
- Virtuelle Realität fand in den letzten 5 Jahren Anwendung in der kognitiven Rehabilitation mit nachgewiesener Wirksamkeit
- Emojis, die als informelles Element digitaler Kommunikation entstanden, werden heute von Gerichten als legitime Beweismittel in Gerichtsverfahren betrachtet
- Diese Präzedenzfälle zeigen, dass bei Vorhandensein wissenschaftlicher Grundlagen und ausreichender Investitionen der Übergang von „Science-Fiction" zur „Realität" schneller erfolgen kann, als Skeptiker vermuten
Evidenzbasis: Was die Daten über reale Fortschritte in Richtung AGI aussagen und wo die Grenzen heutiger Systeme verlaufen
Nach Betrachtung der stärksten Argumente ist es notwendig, sich den empirischen Daten zuzuwenden. Mehr dazu im Abschnitt KI-Fehler und Verzerrungen.
📊 Benchmarks und Metriken: Was Leistungstests tatsächlich messen
Moderne Systeme zeigen beeindruckende Ergebnisse bei standardisierten Tests. GPT-4 besteht die Anwaltsprüfung unter den Top-10% der Teilnehmer, löst Aufgaben auf Olympiade-Niveau in Mathematik und Programmierung und demonstriert Leistung auf Expertenniveau bei medizinischer Diagnostik in einigen Fachgebieten.
Eine kritische Analyse zeigt jedoch die Grenzen dieser Metriken: Tests messen oft die Fähigkeit zur Mustererkennung in Daten, nicht aber echtes Verständnis. Modelle können auf Aufgabentypen „überangepasst" sein, die in Trainingsdaten vorkommen, ohne die Fähigkeit zur Generalisierung auf grundlegend neue Situationen zu zeigen.
Ein hoher Benchmark-Score ist kein Beweis für Verständnis, sondern ein Indiz dafür, dass das System Muster gut gespeichert hat, die denen ähneln, die es zuvor gesehen hat.
🔬 Qualitative Einschränkungen: Wo heutige KI systematisch versagt
Trotz beeindruckender Erfolge zeigen moderne Systeme systematisches Versagen bei Aufgaben, die für Menschen trivial sind. Sie besitzen keinen gesunden Menschenverstand: Ein Modell kann eine komplexe Frage zur Quantenphysik richtig beantworten, aber bei einer einfachen Frage zu physikalischen Eigenschaften von Objekten scheitern.
- Fehlendes kausales Denken
- Systeme erkennen Korrelationen, verstehen aber keine Ursache-Wirkungs-Beziehungen — ein fundamentaler Unterschied zum menschlichen Denken.
- Keine langfristige Planung
- Modelle können nicht kontinuierlich an komplexen Aufgaben arbeiten, die mehrstufige Planung über Tage oder Wochen erfordern.
- Fehlende Metakognition
- Systeme kennen die Grenzen ihres Wissens nicht und können die Sicherheit ihrer Antworten nicht zuverlässig einschätzen.
🧾 Energie- und Rechenbarrieren: Physikalische Grenzen der Skalierung
Das Training von GPT-4 erforderte Rechenressourcen im Umfang von 25.000 GPU-Jahren und Energie in der Größenordnung von 50 Gigawattstunden — etwa der Jahresverbrauch von 5.000 amerikanischen Haushalten. Die Extrapolation aktueller Skalierungstrends legt nahe, dass ein Modell der nächsten Generation Energie benötigen könnte, die einem kleinen Kraftwerk entspricht.
| Barriere | Art der Einschränkung | Zeithorizont |
|---|---|---|
| Physikalische Grenzen | Wärmeabgabe, Datenübertragungsgeschwindigkeit, Verfügbarkeit seltener Erden | 5–10 Jahre |
| Mooresches Gesetz | Verdopplung der Transistoren erfolgt nicht mehr alle 18–24 Monate | Bereits eingetreten |
| Wirtschaftliche Rentabilität | Trainingskosten steigen schneller als Leistungszuwachs | 2–3 Jahre |
🧬 Daten aus verwandten Bereichen: Lehren aus Gentechnik und Technologieadaption
Die Analyse von Technologien, die erfolgreich von Science-Fiction zur Realität wurden, liefert wichtige Erkenntnisse. Gentechnik zeigt, dass selbst bei fundamentalen wissenschaftlichen Durchbrüchen (Entdeckung der DNA-Struktur 1953, rekombinante DNA-Technologie 1973, CRISPR 2012) der Weg zur breiten praktischen Anwendung Jahrzehnte dauert und die Lösung zahlreicher technischer, ethischer und regulatorischer Probleme erfordert (S005).
Die Anerkennung von Emojis als Gerichtsbeweise illustriert, wie sich soziale und rechtliche Systeme langsamer an neue Technologien anpassen als die Technologie selbst sich entwickelt (S004). Diese Beispiele legen nahe, dass selbst wenn ein technischer Durchbruch bei AGI bis 2030 erfolgt, dessen Integration in die Gesellschaft zusätzliche Zeit in Anspruch nehmen wird.
- Fundamentale wissenschaftliche Durchbrüche gehen selten innerhalb eines Jahrzehnts in Massenanwendung über.
- Regulatorische und ethische Barrieren erweisen sich oft als härter als technische.
- Die Gesellschaft passt sich neuen Technologien langsamer an, als deren Entwickler erwarten.
Mechanismen und Kausalität: Warum die Korrelation zwischen Modellgröße und Leistung AGI nicht garantiert
Die zentrale Frage in der AGI-2030-Debatte: Ist der beobachtbare Fortschritt eine Bewegung auf dem richtigen Weg zur allgemeinen Intelligenz, oder optimieren wir die falschen Metriken und schaffen immer ausgefeiltere Mustererkennungssysteme, die sich fundamental von menschlicher Intelligenz unterscheiden?
🔁 Korrelation vs. Kausalität: Skalierung als notwendige, aber nicht hinreichende Bedingung
Skalierungsgesetze zeigen eine robuste Korrelation zwischen Modellgröße und Leistung in Benchmarks. Korrelation impliziert jedoch keine Kausalität im Sinne der Hinlänglichkeit: Die Erhöhung der Parameter mag eine notwendige Bedingung für AGI sein, aber keine hinreichende. Mehr dazu im Abschnitt Logik und Wahrscheinlichkeit.
Analogie: Die Erhöhung der Transistoranzahl in einem Prozessor korreliert mit Rechenleistung, erzeugt aber nicht von selbst neue Algorithmen oder Architekturen. Möglicherweise hat der aktuelle Ansatz (Transformer, überwachtes Lernen auf großen Textkorpora) eine fundamentale Leistungsobergrenze, die durch bloße Skalierung nicht überwunden wird.
Die Grenze zwischen transzendierender Intelligenz und bloßer Informationsverarbeitung könnte qualitativ und nicht quantitativ sein (S002).
🧩 Störfaktoren: Alternative Erklärungen für den beobachteten Fortschritt
Die Leistungsverbesserung von Modellen lässt sich möglicherweise nicht durch Annäherung an AGI erklären, sondern durch andere Faktoren:
| Faktor | Mechanismus | Konsequenz |
|---|---|---|
| Datenkontamination | Testdatensätze sind in Trainingskorpora enthalten | Illusion von Generalisierungsfähigkeit |
| Benchmark-Optimierung | Architekturen passen sich implizit an populäre Tests an | „Teaching to the test"-Effekt |
| Datenvielfalt | Modelle trainieren auf vielfältigeren Beispielen | Bessere Abdeckung spezifischer Fälle, kein AGI |
| Engineering-Verbesserungen | Kleine technische Optimierungen (Aktivierung, Normalisierung) | Fortschritt ohne fundamentale AGI-Annäherung |
🔬 Fehlende Komponenten: Was Skalierung nicht löst
Eine Reihe zentraler Komponenten menschlicher Intelligenz zeigt keine Verbesserung bei der Skalierung von Modellen:
- Kausales Denken
- Das Verständnis von Ursache-Wirkungs-Beziehungen erfordert nicht nur statistische Korrelationen, sondern Weltmodelle mit expliziten kausalen Strukturen. Sprachmodelle arbeiten mit Korrelationen in Daten, nicht mit Kausalität.
- Verkörperte Kognition
- Die Theorie der embodied cognition geht davon aus, dass Intelligenz untrennbar von physischer Interaktion mit der Welt ist. Modelle, die nur auf Text trainiert werden, könnten fundamentale Einschränkungen im Verständnis physikalischer Gesetze und räumlicher Beziehungen haben.
- Motivation und Zielsetzung
- Menschliche Intelligenz wird von inneren Motivationen, Emotionen und langfristigen Zielen geleitet. Moderne Modelle optimieren extern vorgegebene Verlustfunktionen ohne eigene Ziele.
- Soziale Intelligenz
- Das Verständnis von Absichten, Emotionen und sozialen Normen erfordert eine Theory of Mind, die nicht aus Textverarbeitung entsteht und sich nicht durch Parameterskalierung verbessert.
Der Zusammenhang zwischen diesen Komponenten und Skalierung bleibt unklar. Möglicherweise erfordert AGI nicht einfach größere Modelle, sondern grundlegend andere Architekturen und Lernansätze — siehe auch, wie wir Berechnung mit Verstehen verwechseln.
Konflikte und Ungewissheiten: Wo die akademische Gemeinschaft unterschiedlicher Meinung ist und warum kein Konsens existiert
Die Debatten über AGI sind geprägt von tiefgreifenden Meinungsverschiedenheiten nicht nur in den Prognosen, sondern auch in den fundamentalen Annahmen über die Natur von Intelligenz. Mehr dazu im Abschnitt Debunking und Prebunking.
🧩 Philosophische Spaltung: Funktionalismus versus biologischer Naturalismus
Funktionalisten (einschließlich der Mehrheit der KI-Forscher) behaupten, dass Intelligenz ein rechnerischer Prozess ist, unabhängig vom Substrat: Wenn ein System dieselben Funktionen wie das menschliche Gehirn ausführt, besitzt es Intelligenz.
Biologische Naturalisten (z.B. John Searle mit seinem „Chinesisches Zimmer"-Argument) behaupten, dass Bewusstsein und Verständnis untrennbar von biologischen Prozessen sind; ein Computer kann Intelligenz simulieren, sie aber nicht besitzen.
Diese philosophische Dichotomie beeinflusst direkt die Bewertung des Fortschritts: Funktionalisten sehen in GPT-4 einen Schritt in Richtung AGI, Naturalisten lediglich ein komplexes Mustererkennungssystem ohne echtes Verständnis.
Philosophische Untersuchungen zeigen, dass die Grenze zwischen Philosophie und Science-Fiction in Fragen des Bewusstseins und der Intelligenz verschwommen bleibt (S002). Dies ist kein akademischer Streit – er bestimmt, welche Projekte Investitionen erhalten und welche Metriken als valide gelten.
🔬 Methodologische Meinungsverschiedenheiten: Was als Beweis für Fortschritt gilt
Forscher sind sich uneinig über die Kriterien zur Bewertung des Fortschritts. Einige konzentrieren sich auf die Leistung in Benchmarks (wenn ein Modell den Turing-Test besteht oder Aufgaben auf menschlichem Niveau löst, ist das Fortschritt).
Andere fordern die Demonstration qualitativ neuer Fähigkeiten (kausales Denken, Kreativität, Selbstbewusstsein). Wieder andere bestehen auf einem ökonomischen Kriterium (Fähigkeit, Menschen in komplexen Berufen zu ersetzen).
- Benchmark-zentrierter Ansatz: Fortschritt = höhere Punktzahlen bei Standardtests
- Qualitativer Ansatz: Fortschritt = neue Arten des Denkens, die es vorher nicht gab
- Ökonomischer Ansatz: Fortschritt = tatsächlicher Ersatz menschlicher Arbeit in kritischen Bereichen
- Biologischer Ansatz: Fortschritt = Reproduktion der Gehirnarchitektur, nicht nur der Ergebnisse
Das Problem: Ein System kann hohe Punktzahlen in Benchmarks erreichen, aber kein kausales Denken besitzen. Es kann Aufgaben lösen, aber nicht ökonomisch tragfähig sein. Es kann Verständnis imitieren, aber keine interne Repräsentation von Kausalität haben.
📊 Meinungsverschiedenheiten über Skalierbarkeit und Leistungsplateaus
Optimisten behaupten, dass Skalierung (mehr Parameter, mehr Daten, mehr Rechenleistung) weiterhin Leistungssteigerungen bringen wird, die uns AGI näherbringen.
Skeptiker weisen auf Anzeichen eines Plateaus hin: Einige Fähigkeiten (Logik, Arithmetik, Kausalität) verbessern sich nicht proportional zur Skalierung. Sie vermuten, dass qualitativ neue Architekturen erforderlich sind, nicht einfach mehr Parameter.
| Position | Mechanismus des Fortschritts | Hindernis |
|---|---|---|
| Skalierung funktioniert | Mehr Daten → mehr Muster → bessere Generalisierung | Ökonomische und physikalische Energiegrenzen |
| Skalierung reicht nicht aus | Neue Architekturen erforderlich (Hybridsysteme, symbolisch + neuronale Netze) | Unklar, welche Architekturen benötigt werden und wie man sie findet |
| Plateau ist unvermeidlich | Aktuelle Ansätze haben fundamentale Einschränkungen | Möglicherweise Neuüberdenken der Definition von Intelligenz erforderlich |
🎯 Meinungsverschiedenheiten über Zeithorizonte und Wahrscheinlichkeiten
Selbst diejenigen, die an die Möglichkeit von AGI glauben, sind sich über die Zeitrahmen uneinig. Umfragen unter Forschern zeigen eine Medianprognose von 30–50 Jahren, aber mit enormer Streuung: von 5 Jahren (Optimisten) bis niemals (Skeptiker).
Diese Ungewissheit spiegelt nicht einen Mangel an Daten wider, sondern eine fundamentale Unklarheit darüber, welche Komponenten für AGI kritisch sind und wie nahe sie einer Lösung sind.
Es gibt keinen Konsens, weil die Frage nicht nur wissenschaftlich, sondern auch philosophisch, methodologisch und sogar sozial ist: Wer bestimmt, was als AGI gilt, und wer profitiert von der einen oder anderen Definition.
Dies schafft ein Informationsumfeld, in dem jede Seite Unterstützung für ihre Position finden kann. Optimisten verweisen auf das exponenzielle Wachstum der Rechenleistung; Skeptiker auf die Stagnation bei fundamentalen Durchbrüchen. Beide Seiten haben mit ihren Beobachtungen recht, interpretieren sie aber durch unterschiedliche philosophische und methodologische Linsen.
Für Praktiker bedeutet dies: Jede Prognose über AGI bis 2030 ist keine Vorhersage, sondern eine Wette auf eine bestimmte Reihe philosophischer und methodologischer Annahmen. Das Verständnis dieser Annahmen ist wichtiger als die Prognose selbst.
