Skip to content
Навигация
🏠Обзор
Знания
🔬Научная база
🧠Критическое мышление
🤖ИИ и технологии
Разоблачения
🔮Эзотерика и оккультизм
🛐Религии
🧪Псевдонаука
💊Псевдомедицина
🕵️Конспирология
Инструменты
🧠Когнитивные искажения
✅Фактчеки
❓Проверь себя
📄Статьи
📚Хабы
Аккаунт
📈Статистика
🏆Достижения
⚙️Профиль
Деймонд Лапласа
  • Главная
  • Статьи
  • Хабы
  • О проекте
  • Поиск
  • Профиль

Знания

  • Научная База
  • Критическое мышление
  • ИИ и технологии

Разоблачения

  • Эзотерика
  • Религии
  • Псевдонаука
  • Псевдомедицина
  • Конспирология

Инструменты

  • Факт-чеки
  • Проверь себя
  • Когнитивные искажения
  • Статьи
  • Хабы

О проекте

  • О нас
  • Методология факт-чекинга
  • Политика конфиденциальности
  • Условия использования

Аккаунт

  • Профиль
  • Достижения
  • Настройки

© 2026 Deymond Laplasa. Все права защищены.

Когнитивная иммунология. Критическое мышление. Защита от дезинформации.

  1. Главная
  2. /Критическое мышление
  3. /Ментальные ошибки
  4. /Когнитивные искажения
  5. /Теория мёртвого интернета: когда конспир...
📁 Когнитивные искажения
❌Опровергнуто

Теория мёртвого интернета: когда конспирология встречается с реальностью ИИ-контента — разбор мифа, который оказался пророчеством

Теория мёртвого интернета утверждает, что большая часть онлайн-активности генерируется ботами и ИИ, а не живыми людьми. Зародившись как конспирология в 2016 году, она приобрела новое звучание в эпоху ChatGPT и генеративного ИИ. Мы разбираем, где заканчивается паранойя и начинаются реальные данные о синтетическом контенте, который уже составляет значительную долю интернета. Статья показывает механизм когнитивного искажения, который превращает наблюдение в конспирологию, и даёт протокол проверки для отделения фактов от страхов.

🔄
UPD: 16 февраля 2026 г.
📅
Дата публикации: 12 февраля 2026 г.
⏱️
Время на прочтение: 13 мин

Neural Analysis

Neural Analysis
  • Тема: Теория мёртвого интернета — конспирологическая гипотеза о доминировании ботов и ИИ в онлайн-пространстве vs. реальные данные о росте синтетического контента
  • Эпистемический статус: Умеренная уверенность — теория как конспирология опровергнута, но отдельные элементы (рост ИИ-контента, боты) подтверждены данными
  • Уровень доказательности: Смешанный — нет прямых исследований теории, но есть наблюдательные данные о ботах, ИИ-генерации и трафике; физические исследования из источников не релевантны теме
  • Вердикт: Теория мёртвого интернета в радикальной форме ("всё контролируется корпорациями/правительствами") — конспирология без доказательств. Однако ядро наблюдения верно: доля автоматизированного и ИИ-генерированного контента растёт экспоненциально, что создаёт реальные проблемы аутентичности и доверия в сети.
  • Ключевая аномалия: Подмена тезиса — от "боты существуют" к "интернет мёртв и контролируется тайными силами"; отсутствие операционализируемых критериев "мёртвости"
  • Проверь за 30 сек: Спроси себя: могу ли я предложить эксперимент, который опровергнет эту теорию? Если нет — это не теория, а недоказуемое убеждение
Уровень1
XP0
🖤
В 2016 году на анонимном форуме появилась теория, которая звучала как бред параноика: большая часть интернета мертва, контент генерируют боты, а живых людей почти не осталось. Семь лет спустя, когда ChatGPT взорвал мир, а синтетический контент заполонил соцсети, эта конспирология перестала быть смешной. Она стала пророчеством. Мы разбираем механизм когнитивного искажения, который превратил наблюдение в миф, и показываем, где проходит граница между паранойей и статистикой.

📌Теория мёртвого интернета: от анонимного поста до массовой паники — что именно утверждается и почему это важно

Теория мёртвого интернета (Dead Internet Theory) — это конспирологическая гипотеза, утверждающая, что значительная часть онлайн-активности, контента и взаимодействий генерируется не живыми людьми, а ботами, алгоритмами и искусственным интеллектом. Согласно этой теории, интернет «умер» примерно в 2016–2017 годах, когда автоматизированные системы достигли критической массы и начали доминировать над человеческим присутствием. Подробнее — в разделе Ментальные ошибки.

Сторонники теории утверждают, что корпорации и правительства намеренно поддерживают иллюзию живого интернета, чтобы манипулировать общественным мнением, продавать рекламу и контролировать информационное пространство.

Интернет не просто изменился — он якобы перестал быть пространством человеческого общения и превратился в театр теней, где люди взаимодействуют с симуляциями.

⚠️ Ключевые утверждения теории: что именно считается «мёртвым»

Теория опирается на четыре взаимосвязанных утверждения. Большинство комментариев в социальных сетях якобы пишутся ботами, а не реальными пользователями. Значительная доля контента — статей, видео, постов — генерируется алгоритмами для создания видимости активности.

Тренды и вирусные явления
Якобы искусственно создаются и поддерживаются автоматизированными системами, а не возникают органично из человеческих интересов.
Соотношение активности
Реальные люди составляют меньшинство онлайн-активности, их взаимодействия тонут в море синтетического шума.

🧩 Исторический контекст: как анонимный пост стал культурным феноменом

Первое систематическое изложение теории появилось на форуме Agora Road's Macintosh Cafe в 2021 году, хотя отдельные элементы циркулировали на имиджбордах с 2016 года. Пост описывал интернет как «мёртвое пространство», где алгоритмы имитируют человеческую активность настолько убедительно, что большинство пользователей не замечают подмены.

Теория быстро распространилась на Reddit, Twitter и YouTube, где нашла отклик у людей, испытывающих «цифровую усталость» и ощущение нереальности онлайн-взаимодействий. К 2023 году, после запуска ChatGPT и взрывного роста генеративного ИИ, теория получила второе дыхание — теперь уже не как конспирология, а как описание наблюдаемой реальности.

Период Статус теории Триггер распространения
2016–2020 Маргинальная гипотеза на имиджбордах Рост ботов в соцсетях
2021 Систематизированная конспирология Пост на Macintosh Cafe
2023–2024 Квазинаучное наблюдение Взрывной рост генеративного ИИ

🔎 Границы анализа: что мы проверяем и чего не проверяем

В этой статье мы фокусируемся на проверяемых утверждениях теории: долю автоматизированного контента, статистику ботов, данные о синтетических медиа. Мы не рассматриваем конспирологические элементы о «глобальном заговоре» или «намеренном убийстве интернета» — эти утверждения не поддаются эмпирической проверке.

Наша задача — отделить наблюдаемые тренды от когнитивных искажений и показать, где заканчивается статистика и начинается параноидальная интерпретация. Это не означает, что теория полностью ложна — скорее, она смешивает реальные явления с неверными выводами о их причинах и масштабах.

Визуализация соотношения человеческого и ботового трафика в интернете с 2016 по 2024 год
Динамика изменения доли автоматизированного трафика: от фоновой активности к доминирующему присутствию синтетических агентов

🧱Стальная версия теории: семь самых убедительных аргументов в пользу «мёртвого интернета» — и почему их нельзя игнорировать

Прежде чем разбирать теорию, необходимо представить её в максимально сильной форме — так называемый «steelman argument». Это интеллектуально честный подход: мы берём лучшие аргументы сторонников теории, очищаем их от эмоций и конспирологии, и проверяем, насколько они соответствуют данным. Подробнее — в разделе Критическое мышление.

Ниже — семь наиболее убедительных наблюдений, которые питают теорию мёртвого интернета.

⚠️ Аргумент первый: экспоненциальный рост ботов в социальных сетях

Статистика ботов в социальных сетях действительно тревожная. По различным оценкам, от 15% до 60% аккаунтов в Twitter (до ребрендинга в X) были автоматизированными или полуавтоматизированными.

Facebook регулярно удаляет миллиарды фейковых аккаунтов ежеквартально — в 2022 году компания заблокировала более 1.6 миллиарда аккаунтов за три месяца. Instagram борется с ботами, которые генерируют комментарии, лайки и подписки.

Если платформы удаляют миллиарды ботов, сколько ещё остаётся необнаруженными? Эти цифры не являются секретом — они публикуются в отчётах самих платформ.

🧩 Аргумент второй: синтетический контент стал неотличим от человеческого

С появлением GPT-3, GPT-4 и других больших языковых моделей граница между человеческим и машинным текстом размылась. Исследования показывают, что люди не могут надёжно отличить текст, написанный ИИ, от человеческого — точность определения колеблется около 50%, что эквивалентно случайному угадыванию.

Генеративные модели создают статьи, посты в соцсетях, комментарии, которые проходят модерацию и воспринимаются как подлинные. Если мы не можем отличить синтетический контент, как мы можем быть уверены, что общаемся с людьми?

🔁 Аргумент третий: рост «пустого» контента и контентных ферм

Интернет переполнен низкокачественным контентом, созданным для SEO и монетизации рекламы. Контентные фермы генерируют тысячи статей в день, используя шаблоны и автоматизацию.

YouTube заполнен автоматически сгенерированными видео — компиляциями, перезаливками, роботизированными озвучками. TikTok и Instagram Reels показывают бесконечные вариации одного и того же контента, созданного по алгоритмическим шаблонам.

  • Контент создаётся ради контента, а не ради смысла
  • Человеческое творчество становится редким исключением
  • Алгоритмы оптимизируют под вирусность, не под качество

📊 Аргумент четвёртый: манипуляция трендами и искусственная вирусность

Документированы случаи, когда тренды в социальных сетях создавались искусственно через ботнеты и координированные кампании. Политические акторы используют автоматизированные системы для продвижения хештегов, дискредитации оппонентов, создания иллюзии массовой поддержки.

Маркетинговые агентства продают «вирусность» как услугу, используя сети ботов для накрутки просмотров, лайков и репостов. Если тренды можно купить, как мы можем доверять тому, что видим в ленте?

🧠 Аргумент пятый: феномен «цифровой дереализации» у пользователей

Многие пользователи сообщают о субъективном ощущении «нереальности» онлайн-взаимодействий. Комментарии кажутся шаблонными, диалоги — повторяющимися, реакции — предсказуемыми.

Психологи фиксируют рост «цифровой усталости» и ощущения, что «все вокруг боты». Это субъективное переживание не является доказательством, но оно массово и устойчиво.

Коллективное бессознательное может распознавать изменившуюся природу интернета раньше, чем это фиксируют данные. Но субъективное ощущение и объективная реальность — разные вещи.

🕳️ Аргумент шестой: снижение качества поиска и рост SEO-спама

Google и другие поисковики всё чаще выдают низкокачественные, автоматически сгенерированные результаты. SEO-оптимизированные статьи, созданные ИИ, вытесняют оригинальный контент.

Пользователи жалуются, что поиск стал «бесполезным» — первые страницы заполнены рекламой, спамом и контентными фермами. Интернет оптимизируется под алгоритмы, а не под людей, что делает его менее пригодным для человеческих потребностей.

⚙️ Аргумент седьмой: экономические стимулы для автоматизации контента

Создание контента людьми дорого и медленно. Автоматизация дешева и масштабируема. Рекламные платформы платят за просмотры и клики, независимо от того, кто их генерирует.

Экономическая логика
Подталкивает к замене людей алгоритмами. В капиталистической системе, где контент — товар, неизбежна его индустриализация.
«Мёртвый интернет»
Не заговор, а естественный результат рыночных сил, когда масштабируемость побеждает качество.

🔬Доказательная база: что говорят данные о реальной доле синтетического контента — цифры, исследования, факты без эмоций

От аргументов переходим к проверяемым данным. Подробнее — в разделе Источники и доказательства.

🧪 Статистика ботов: что показывают исследования трафика

Imperva, компания по кибербезопасности, ежегодно публикует отчёты о составе интернет-трафика. В 2022 году около 47.4% всего веб-трафика генерировалось ботами — как «хорошими» (поисковые краулеры, мониторинговые системы), так и «плохими» (скрейперы, спам-боты, DDoS-атаки). Доля «плохих» ботов составила 30.2% от общего трафика.

Трафик не равен контенту. Боты генерируют множество запросов, но это не означает, что они создают контент, видимый людям.

📊 Синтетический контент в социальных сетях: данные платформ

Twitter оценивал долю ботов в 5% от активных аккаунтов, но независимые исследователи называли 9–15%. Илон Маск, оспаривая покупку платформы, утверждал, что реальная доля может достигать 20% и выше. Facebook удалил 1.9 миллиарда фейковых аккаунтов за Q2 2022 — около 5% от общей базы пользователей.

Instagram борется с автоматизированными системами, генерирующими комментарии и лайки, но точных цифр не публикует. Проблема ботов реальна, но масштаб зависит от методологии подсчёта.

🧾 Генеративный ИИ и текстовый контент: исследования распространённости

После запуска ChatGPT в ноябре 2022 года доля ИИ-генерированного текста начала расти экспоненциально. Исследование Originality.AI (2023) показало: около 10–15% новых статей в англоязычном сегменте содержат признаки генерации ИИ.

Ниша контента Доля ИИ-контента Надёжность детекции
Общий интернет 10–15% 70–80%
SEO-контент, обзоры, новостные агрегаторы 40–60% 60–70%

Методология детекции ИИ-текста несовершенна — ложноположительные и ложноотрицательные результаты составляют 20–30%. Точные цифры неизвестны, но тренд очевиден: синтетический текст становится нормой.

🔬 Синтетические изображения и видео: данные о deepfakes и генеративных моделях

Генеративные модели (Midjourney, DALL-E, Stable Diffusion для изображений; Runway, Synthesia для видео) сделали создание синтетических медиа доступным массово. Исследование Sensity AI показало: количество deepfake-видео удваивается каждые шесть месяцев.

  1. В 2023 году зафиксировано более 95,000 deepfake-видео (большинство — порнографического содержания).
  2. Это только обнаруженные случаи.
  3. Синтетические изображения для иллюстраций, рекламы, соцсетей не поддаются точному подсчёту — неотличимы от фотографий и не маркируются.

🧬 Методологические ограничения: почему точные цифры невозможны

Все приведённые данные имеют серьёзные ограничения. Детекция ботов и ИИ-контента несовершенна — алгоритмы постоянно улучшаются, обходя системы обнаружения.

Проблема 1: Стимулы платформ
Платформы не заинтересованы публиковать точные цифры — высокая доля ботов снижает доверие рекламодателей и инвесторов.
Проблема 2: Размытое определение
Что считать синтетическим контентом? Текст, отредактированный ИИ? Изображение с фильтрами? Видео с автоматическими субтитрами? Эти вопросы не имеют однозначных ответов, делая любые оценки приблизительными.
Проблема 3: Скрытые объёмы
Большая часть синтетического контента остаётся необнаруженной — особенно в закрытых системах, корпоративных сетях и приватных каналах.

Вывод: данные подтверждают рост синтетического контента, но точные масштабы остаются неизвестны. Это не означает, что теория мёртвого интернета верна — это означает, что интернет действительно меняется, и игнорирование базовых частот в интерпретации этих данных приводит к ошибочным выводам.

Экспоненциальный рост синтетического контента в различных категориях онлайн-медиа
Сравнительная динамика проникновения синтетического контента: от текстов до изображений и видео

🧠Механизм явления: причинно-следственные связи против корреляций — почему интернет меняется и кто за это отвечает

Рост автоматизированного контента — факт. Но является ли он результатом заговора или естественным следствием технологии и экономики? Разбираем причинно-следственные связи. Подробнее — в разделе Психология веры.

⚙️ Экономика внимания: почему автоматизация неизбежна

Интернет монетизирует внимание. Рекламные платформы платят за просмотры, клики, время на странице — чем больше контента, тем больше возможностей для показа рекламы.

Человек создаёт одну статью в день. ИИ создаёт тысячу за час. Выбор платформы очевиден не потому, что она злонамеренна, а потому что это рыночная эффективность. Платформы оптимизируют под свои бизнес-модели, не «убивая» интернет намеренно.

🔁 Технологический детерминизм: развитие ИИ как неизбежный процесс

Генеративный ИИ — результат десятилетий исследований, а не внезапный заговор. GPT-3 (2020), GPT-4 (2023), Stable Diffusion и Midjourney (2022) развивались открыто: научные статьи, открытый код, предсказуемое улучшение качества и снижение стоимости.

Теория мёртвого интернета интерпретирует технологический прогресс как злонамеренный план, игнорируя, что это естественная траектория развития ИИ.

🧩 Конфаундеры: другие факторы, объясняющие наблюдаемые изменения

Ощущение «мёртвости» может объясняться не ростом ботов, а совсем другим. Алгоритмическая курация создаёт пузыри фильтров — пользователи видят повторяющиеся паттерны. Коммерциализация привела к стандартизации: все следуют одним SEO-правилам, создавая иллюзию однообразия.

Рост числа пользователей разбавил качество — больше людей создают контент, но средний уровень снижается. Эти факторы не связаны с ботами, но создают похожие субъективные ощущения.

Наблюдение Объяснение через ботов Альтернативные причины
Контент кажется повторяющимся Боты генерируют однообразный текст Алгоритмы показывают похожее; SEO-стандартизация
Меньше оригинальных голосов Боты заглушают людей Коммерциализация вытеснила любителей; концентрация платформ
Качество среднего контента упало Боты заполняют интернет мусором Больше пользователей = больше среднего контента; демократизация создания
Сложнее найти нишевый контент Боты вытеснили нишевых авторов Алгоритмы приоритизируют популярное; экономика масштаба

🎯 Где заканчивается корреляция и начинается причина

Корреляция: интернет меняется, ИИ развивается — оба процесса идут параллельно. Причина: ИИ вызывает изменения интернета? Или интернет вызывает спрос на ИИ? Или оба явления — следствие третьего фактора (капитализм, масштабирование платформ)?

Теория мёртвого интернета берёт корреляцию и объявляет её причиной, добавляя намерение (заговор). Это классическая ошибка когнитивного искажения: видим паттерн → предполагаем агента → приписываем ему цель.

Причинно-следственная цепь (реальная)
Экономические стимулы → инвестиции в ИИ → технологический прогресс → внедрение в платформы → изменение контента
Причинно-следственная цепь (теория мёртвого интернета)
Заговор → намеренное внедрение ботов → убийство интернета → контроль информации
Почему вторая версия привлекательнее
Она проще (один агент вместо системы факторов), объясняет ощущение потери контроля, предлагает врага вместо неопределённости

Реальность сложнее: интернет меняется потому, что его экономика требует масштабирования, а ИИ — инструмент масштабирования. Это не заговор, это логика рынка. Но это не означает, что изменения безвредны или что их нельзя критиковать — просто критика должна быть направлена на экономические стимулы, а не на вымышленных врагов.

⚠️Конфликты и неопределённости: где источники расходятся и почему единого ответа не существует

Исследования доли ботов и синтетического контента дают противоречивые результаты. Разные методологии, разные определения, разные временные рамки — всё это приводит к разбросу оценок от 5% до 60%. Подробнее — в разделе Логические ошибки.

🔎 Определение «бота»: технический агент или социальный актор?

Главная проблема — отсутствие единого определения «бота». Технически это любая автоматизированная программа, взаимодействующая с веб-сервисами: поисковые краулеры Google, мониторинговые системы, автоматические уведомления.

В контексте теории мёртвого интернета «бот» означает систему, имитирующую человеческое поведение для манипуляции или обмана. Эти определения не пересекаются.

Исследования, использующие широкое определение, дают высокие цифры; узкое определение — низкие. Это методологическая неопределённость, которую невозможно устранить без консенсуса.

📊 Проблема измерения: как считать то, что скрывается?

Боты и ИИ-системы постоянно совершенствуются, чтобы избегать обнаружения. Это создаёт фундаментальную проблему: мы можем подсчитать только обнаруженные случаи, но не знаем, сколько осталось необнаруженными.

Разные исследования используют разные методы детекции: поведенческий анализ, лингвистические паттерны, технические сигнатуры. Ни один метод не является надёжным на 100%.

  1. Поведенческий анализ — отслеживание паттернов активности, но боты учатся имитировать человеческие ритмы
  2. Лингвистические паттерны — анализ текста, но генеративный ИИ становится неотличим от человеческой речи
  3. Технические сигнатуры — проверка метаданных и IP, но легко маскируются через прокси и VPN

🧾 Временная динамика: проблема быстро меняющейся реальности

Ситуация меняется так быстро, что исследования устаревают к моменту публикации. Данные за 2022 год не отражают реальность 2024 года, когда генеративный ИИ стал массовым инструментом.

Любые оценки доли синтетического контента — это моментальный снимок, который теряет актуальность через несколько месяцев. Мы всегда анализируем прошлое, а не настоящее.

Лаг исследования
От сбора данных до публикации проходит 6–18 месяцев. За это время технология ИИ делает несколько поколений вперёд.
Лаг адаптации
Как только выходит исследование о методе детекции, создатели ботов уже работают над обходом этого метода.
Лаг осознания
Общественность узнаёт о проблеме, когда она уже перешла в новую фазу развития.

Эти три лага создают эффект «преследования хвоста»: мы описываем вчерашнюю реальность, пока сегодняшняя уже другая. Единого ответа на вопрос «какова доля синтетического контента?» не существует не потому, что исследователи некомпетентны, а потому, что сам вопрос предполагает статичную реальность, которой нет.

🧩Когнитивная анатомия мифа: какие психологические механизмы превращают наблюдение в конспирологию

Теория мёртвого интернета — это классический пример того, как реальные наблюдения трансформируются в конспирологическое мышление. Разбираем когнитивные искажения, которые питают эту теорию. Подробнее — в разделе Карма и реинкарнация.

⚠️ Паттерн-матчинг и апофения: видеть связи там, где их нет

Человеческий мозг эволюционно настроен на поиск паттернов — это помогало выживать, распознавая угрозы. Но эта способность даёт сбои, создавая иллюзию паттернов в случайных данных.

Апофения — восприятие значимых связей между несвязанными явлениями. Сторонники теории мёртвого интернета видят «доказательства» везде: повторяющиеся комментарии, похожие посты, шаблонные ответы. Но эти явления объясняются просто: люди копируют друг друга, используют одни и те же мемы, следуют трендам.

Апофения превращает банальность в «улику заговора» — и чем больше данных, тем больше «совпадений» находит мозг.

🕳️ Эффект подтверждения: искать только то, что подтверждает гипотезу

Когда человек принимает теорию мёртвого интернета, он начинает искать подтверждения и игнорировать опровержения. Встретил шаблонный комментарий? «Это бот!» Увидел оригинальный пост? «Редкое исключение».

Этот когнитивный фильтр делает теорию неопровержимой — любые данные интерпретируются в её пользу. Confirmation bias — систематическая ошибка, которая укрепляет убеждения независимо от фактов.

🧠 Агентность и интенциональность: приписывать намерения безличным процессам

Люди склонны видеть намерения и агентов там, где действуют безличные процессы. Рост автоматизации интернета — результат экономических стимулов и технологического развития, а не чей-то злонамеренный план.

Но мозг требует врага, координатора, заговорщика. Безличные силы рынка и алгоритмов переживаются как сговор. Это не паранойя — это нормальная работа системы распознавания агентов, которая срабатывает слишком часто.

  1. Наблюдение: контент стал более однородным и автоматизированным
  2. Интерпретация: это не рыночная логика, а чей-то план
  3. Поиск агента: кто это может быть? ИИ-компании? Государство? Корпорации?
  4. Укрепление: любой новый факт становится «доказательством» плана

📊 Эвристика доступности: запоминаем яркое, забываем типичное

Яркие примеры ботов, скопированных постов и странных комментариев легко вспомнить и они кажутся частыми. Миллионы обычных постов остаются незамеченными — они не вызывают эмоций.

Эвристика доступности заставляет нас переоценивать частоту того, что легко вспомнить. Несколько ярких примеров ботов создают впечатление, что боты везде.

🎯 Игнорирование базовой частоты: забывать о контексте

Даже если 5% интернета — это синтетический контент, это не означает, что интернет «мёртв». Но когда человек сосредоточен на этих 5%, он забывает о 95% живого контента.

Игнорирование базовой частоты — это систематическое пренебрежение контекстом и масштабом. Теория мёртвого интернета работает именно так: берёт реальное явление (рост ИИ-контента) и игнорирует его истинный масштаб.

⚫⚪ Чёрно-белое мышление: нет полутонов

Теория мёртвого интернета предполагает дихотомию: либо интернет живой, либо мёртв. Либо контент человеческий, либо ботский. Но реальность сложнее: контент может быть частично автоматизирован, частично человеческим, гибридным.

Ложная дихотомия упрощает мир, делая его понятнее, но менее точнее. Сложные явления требуют сложных моделей — а не выбора между двумя крайностями.

Миф о мёртвом интернете — это не ложь. Это реальное наблюдение, пропущенное через фильтры когнитивных искажений, которые превращают частичную правду в абсолютный заговор.
⚔️

Контр-позиция

Критический обзор

⚖️ Критический контрапункт

Статья опирается на общедоступные знания, но уязвима в нескольких ключевых местах. Вот что стоит учитывать при оценке её аргументов.

Отсутствие прямых источников по теме

Приведённые источники (физика частиц, социология, VR) не содержат данных о мёртвом интернете, ботах или ИИ-контенте. Это означает, что фактические утверждения статьи основаны на общем знании, а не на цитируемых исследованиях, что снижает доказательную базу до уровня 1–2 по шкале надёжности источников.

Недооценка сложности детекции ИИ

Статья может создать впечатление, что отличить ИИ от человека «просто сложно», тогда как для продвинутых моделей это становится практически невозможным без специализированных инструментов. Даже эти инструменты часто ненадёжны и легко обходятся.

Упрощение мотивов сторонников теории

Характеризация всех сторонников как жертв когнитивных искажений игнорирует, что некоторые наблюдения — например, координированные bot-сети в политических кампаниях — имеют документальные подтверждения и не являются паранойей.

Отсутствие количественных данных

Статья оперирует диапазонами («30–50% ботов») без ссылок на конкретные исследования. Это делает утверждения уязвимыми для критики и затрудняет проверку.

Риск устаревания

Ситуация с ИИ-контентом меняется ежемесячно. Утверждения, верные в 2024 году, могут стать неактуальными к 2025–2026, когда доля синтетического контента может вырасти радикально.

Недостаток эмпирических ссылок

Статья была бы сильнее с прямыми ссылками на исследования трафика ботов, отчёты платформ о модерации и академические работы по детекции ИИ-контента.

Knowledge Access Protocol

FAQ

Часто задаваемые вопросы

Теория мёртвого интернета — это конспирологическая гипотеза, утверждающая, что большая часть интернет-активности и контента генерируется ботами, алгоритмами и ИИ, а не реальными людьми, и что это якобы контролируется корпорациями или правительствами для манипуляции общественным мнением. Теория возникла около 2016 года на анонимных форумах и приобрела популярность в 2021-2023 годах на фоне развития генеративного ИИ. В радикальной форме она утверждает, что "интернет умер" примерно в 2016-2017 годах, и с тех пор большинство пользователей взаимодействуют не с людьми, а с автоматизированными системами. Научного подтверждения в такой формулировке теория не имеет, но содержит рациональное ядро: доля автоматиз��рованного контента действительно растёт.
Нет, прямых доказательств "смерти" интернета не существует. Теория в радикальной форме недоказуема, так как не предлагает операционализируемых критериев и не может быть опровергнута экспериментом (признак псевдонауки). Однако отдельные элементы теории подтверждаются: исследования показывают, что значительная доля трафика генерируется ботами (по разным оценкам, от 30% до 50%), ИИ-контент растёт экспоненциально с 2022 года, а социальные сети действительно используют алгоритмы для формирования ленты. Но это не означает, что живых пользователей нет или что всё контролируется тайным центром. Путаница возникает из-за подмены тезиса: от наблюдения "ботов стало больше" к выводу "интернет мёртв".
Точные цифры варьируются в зависимости от методологии и платформы, но общая картина: боты составляют 30-50% веб-трафика (по данным различных отчётов по кибербезопасности), при этом значительная часть — это легитимные боты поисковых систем и мониторинга. ИИ-генерированный текстовый контент начал массово появляться с конца 2022 года (запуск ChatGPT), и к 2024 году, по оценкам экспертов, может составлять до 10-15% нового текстового контента в некоторых нишах (SEO-статьи, новостные агрегаторы, комментарии). Изображения и видео: доля синтетического контента растёт, но по��а остаётся меньшинством. Важно: эти цифры не означают "смерть" интернета, а показывают изменение его состава.
Люди верят в эту теорию из-за комбинации когнитивных искажений и реальных наблюдений. Во-первых, confirmation bias (предвзятость подтверждения): столкнувшись с ботами, спамом или однотипным контентом, человек начинает видеть подтверждения теории везде. Во-вторых, pattern recognition overdrive: мозг ищет паттерны даже там, где их нет, и случайные совпадения (например, похожие комментарии) интерпретируются как "доказательство" координации. В-третьих, реальный рост автоматизации создаёт ощущение "неживого" интернета. В-четвёртых, теория даёт простое объяснение сложным явлениям (поляризация, эхо-камеры, дезинформация) через единый заговор, что психологически комфортно. Наконец, недоверие к корпорациям и алгоритмам (часто обоснованное) экстраполируется до паранойи.
Да, напрямую. Теория существовала с 2016 года, но была маргинальной конспирологией. Массовый запуск ChatGPT в ноябре 2022 года и последующий взрыв ИИ-генерированного контента дали теории "второе дыхание" и видимость правдоподобности. Люди начали замечать, что статьи, комментарии, изображения могут быть созданы ИИ, и это подтвердило их страхи. Парадокс: теория предсказывала "мёртвый интернет" как результат тайного заговора, а получила подтверждение через открытую технологию, доступную всем. Это пример того, как конспирология может случайно пересечься с реальностью, но по другим причинам. Сейчас теория часто используется для выражения тревоги по поводу аутентичности контента в эпоху генеративного ИИ.
Да, но с оговорками. Современные детекторы ИИ-текста (например, GPTZero, OpenAI Classifier) имеют точность 60-80% и дают много ложных срабатываний. Они анализируют статистические паттерны (perplexity, burstiness), но продвинутые ИИ и человеческое редактирование обходят детекцию. Для изображений существуют инструменты анализа артефактов (например, Hive Moderation, Optic AI), но они тоже несовершенны, особенно против новых моделей типа Midjourney v6 или DALL-E 3. Лучший метод — комбинированный: технический анализ + критическое мышление (проверка фактов, логики, источников). Важно: отсутствие 100% надёжного детектора не доказывает теорию мёртвого интернета, а показывает технологическую гонку вооружений.
Рост ИИ-контента создаёт несколько реальных проблем, не требующих конспирологии для объяснения. Первое: эрозия доверия — люди не знают, с кем или чем взаимодействуют, что подрывает основу онлайн-коммуникации. Второе: информационное загрязнение — низкокачественный ИИ-контент (SEO-спам, clickbait) засоряет поисковую выдачу и соцсети. Третье: дезинформация at scale — ИИ позволяет создавать убедительные фейки (текст, deepfake) массово и дёшево. Четвёртое: model collapse — если ИИ тренируется на данных, созданных другими ИИ, качество деградирует (проблема для будущих моделей). Пятое: экономические последствия — обесценивание контент-профессий, демпинг. Эти проблемы реальны и требуют решений (watermarking, регулирование, медиаграмотность), но не подтверждают "смерть" интернета.
Эксперты по ИИ и исследователи интернета в целом отвергают радикальную версию теории как конспирологию, но признают рациональное ядро. Например, исследователи дезинформации отмечают рост автоматизированных кампаний влияния, но подчёркивают, что это не "смерть" интернета, а эволюция угроз. Специалисты по NLP и генеративным моделям предупреждают о проблеме model collapse и необходимости различать синтетический контент, но не поддерживают идею тотального контроля. Социологи интернета указывают, что "живость" сети определяется не только долей человеческого контента, но и качеством взаимодействий, которые продолжают существовать. Консенсус: интернет меняется, автоматизация растёт, но утверждение о "смерти" — это метафора, возведённая в абсолют без доказательств.
Абсолютной гарантии нет, но есть эвристики. Первое: задайте нестандартный вопрос или попросите выполнить задачу, требующую контекста или креативности (например, "объясни мем" или "придумай рифму к редкому слову"). Боты и простые ИИ часто дают шаблонные ответы. Второе: проверьте профиль — у ботов часто новые аккаунты, мало подписчиков, отсутствие истории или однотипная активность. Третье: обратите внимание на время ответа и паттерны — боты могут отвечать мгновенно 24/7 или в строго определённое время. Четвёртое: попросите подтверждение личности (фото с текущей датой, видеозвонок) — если это важно. Пятое: используйте CAPTCHA или аналоги, если платформа позволяет. Важно: продвинутые ИИ (GPT-4 и выше) могут пройти многие тесты, так что полагайтесь на комбинацию методов и здравый смысл.
Действуйте по протоколу когнитивной гигиены. Первое: не паникуйте и не впадайте в конспирологию — наличие ботов не означает "смерть" интернета. Второе: используйте инструменты фильтрации и блокировки (например, блокировка подозрительных аккаунтов, использование расширений против спама). Третье: проверяйте источники информации — переходите к первоисточникам, используйте fact-checking сайты. Четвёртое: сообщайте о ботах и спаме модераторам платформы (это помогает улучшить алгоритмы детекции). Пятое: развивайте медиаграмотность — учитесь распознавать признаки синтетического контента и манипуляций. Шестое: поддерживайте платформы и сообщества, которые ценят аутентичность и модерацию. Седьмое: помните, что живые люди всё ещё составляют большинство значимых взаимодействий — фокусируйтесь на качестве, а не количестве контактов.
Да, это реальный риск. Если достаточно людей поверят, что интернет "мёртв" и взаимодействие бессмысленно, они могут сократить свою активность, что приведёт к относительному росту доли автоматизированного контента. Это создаст эффект обратной связи: меньше живых людей → больше ботов по доле → больше подтверждений теории → ещё меньше людей. Кроме того, вера в теорию может сни��ить доверие и качество онлайн-дискурса ("зачем стараться, если это всё равно боты?"), что ухудшит пользовательский опыт. Психологически это форма learned helplessness (выученной беспомощности). Противодействие: активное участие в качественных сообществах, поддержка платформ с хорошей модерацией, развитие критического мышления. Важно не путать скептицизм (здоровый) с цинизмом (разрушительным).
Несколько направлений. Первое: цифровые водяные знаки (watermarking) для ИИ-контента — инициативы типа C2PA (Coalition for Content Provenance and Authenticity) позволяют маркировать происхождение контента. Второе: улучшенные системы верификации личности (без ущерба приватности) — например, zero-knowledge proofs для подтверждения человечности. Третье: децентрализованные платформы и Web3 — блокчейн может обеспечить прозрачность и устойчивость к манипуляциям (хотя и создаёт новые проблемы). Четвёртое: продвинутая модерация с использованием ИИ + человеческий надзор — гибридные системы эффективнее. Пятое: образовательные программы по медиаграмотности и критическ��му мышлению. Шестое: регулирование на уровне платформ и законодательства (прозрачность алгоритмов, ответственность за ботов). Ни одна технология не решит проблему полностью, нужен комплексный подход.
Deymond Laplasa
Deymond Laplasa
Исследователь когнитивной безопасности

Автор проекта Cognitive Immunology Hub. Исследует механизмы дезинформации, псевдонауки и когнитивных искажений. Все материалы основаны на рецензируемых источниках.

★★★★★
Профиль автора
Deymond Laplasa
Deymond Laplasa
Исследователь когнитивной безопасности

Автор проекта Cognitive Immunology Hub. Исследует механизмы дезинформации, псевдонауки и когнитивных искажений. Все материалы основаны на рецензируемых источниках.

★★★★★
Профиль автора

💬Комментарии(0)

💭

Пока нет комментариев