Skip to content
Навигация
🏠Обзор
Знания
🔬Научная база
🧠Критическое мышление
🤖ИИ и технологии
Разоблачения
🔮Эзотерика и оккультизм
🛐Религии
🧪Псевдонаука
💊Псевдомедицина
🕵️Конспирология
Инструменты
🧠Когнитивные искажения
✅Фактчеки
❓Проверь себя
📄Статьи
📚Хабы
Аккаунт
📈Статистика
🏆Достижения
⚙️Профиль
Деймонд Лапласа
  • Главная
  • Статьи
  • Хабы
  • О проекте
  • Поиск
  • Профиль

Знания

  • Научная База
  • Критическое мышление
  • ИИ и технологии

Разоблачения

  • Эзотерика
  • Религии
  • Псевдонаука
  • Псевдомедицина
  • Конспирология

Инструменты

  • Факт-чеки
  • Проверь себя
  • Когнитивные искажения
  • Статьи
  • Хабы

О проекте

  • О нас
  • Методология факт-чекинга
  • Политика конфиденциальности
  • Условия использования

Аккаунт

  • Профиль
  • Достижения
  • Настройки

© 2026 Deymond Laplasa. Все права защищены.

Когнитивная иммунология. Критическое мышление. Защита от дезинформации.

  1. Главная
  2. /Конспирология
  3. /Культы и контроль
  4. /Контроль сознания
  5. /Теория мёртвого интернета: почему миллио...
📁 Контроль сознания
⚠️Спорно / Гипотеза

Теория мёртвого интернета: почему миллионы верят, что сеть захватили боты и ИИ — разбор доказательств

Теория мёртвого интернета (Dead Internet Theory) утверждает, что большая часть онлайн-контента создаётся ботами и ИИ, а не людьми. Сторонники ссылаются на данные Imperva о 52% ботового трафика и рост AI-генерированного контента через GPT-3 и аналоги. Мы проанализировали доступные исследования, статистику трафика и реальные кейсы, чтобы отделить факты от конспирологии. Вердикт: боты действительно составляют значительную долю трафика, но утверждение о «мёртвом интернете» — это когнитивная ловушка, смешивающая рост автоматизации с полной заменой человека.

🔄
UPD: 12 февраля 2026 г.
📅
Дата публикации: 10 февраля 2026 г.
⏱️
Время на прочтение: 11 мин

Neural Analysis

Neural Analysis
  • Тема: Теория мёртвого интернета и рост AI-генерированного контента
  • Эпистемический статус: Умеренная уверенность — данные о ботовом трафике подтверждены, но интерпретация «мёртвого интернета» спекулятивна
  • Уровень доказательности: Наблюдательные исследования трафика (Imperva 2016), анализ BitTorrent-данных (160k+ контента, 185M+ сессий), препринты по AIGC-моделям
  • Вердикт: Боты составляют ~52% трафика (данные 2016), AI-контент растёт экспоненциально, но человеческая активность не исчезла — она сместилась в закрытые платформы и мессенджеры. Теория «мёртвого интернета» — это упрощение сложной трансформации онлайн-экосистемы.
  • Ключевая аномалия: Подмена понятий: рост ботов ≠ исчезновение людей. Конспирологическая рамка игнорирует миграцию пользователей в Discord, Telegram, закрытые сообщества.
  • Проверь за 30 сек: Открой любой крупный Reddit-тред или Twitter Spaces — живое обсуждение с тысячами участников опровергает тезис о «мёртвом» интернете.
Уровень1
XP0
🖤
Представьте: вы пишете комментарий под видео, спорите в Twitter, читаете статью — и внезапно осознаёте, что собеседник по ту сторону экрана может быть не человеком, а алгоритмом. Теория мёртвого интернета (Dead Internet Theory) утверждает именно это: большая часть онлайн-активности уже давно генерируется ботами и искусственным интеллектом, а живые люди стали меньшинством в цифровом пространстве, которое сами же создали. 👁️ Сторонники теории ссылаются на отчёты Imperva о 52% ботового трафика, взрывной рост GPT-3 и аналогов, фейковые просмотры на YouTube и армии Twitter-ботов. Но где заканчивается реальная статистика и начинается конспирологическая паника?

📌Что именно утверждает теория мёртвого интернета — и почему она звучит так убедительно для миллионов

Теория мёртвого интернета (Dead Internet Theory, DIT) — это конспирологическая гипотеза, согласно которой подавляющее большинство контента в сети создаётся не людьми, а автоматизированными системами: ботами, алгоритмами рекомендаций и генеративными моделями искусственного интеллекта. Согласно этой теории, переломный момент наступил примерно в 2016–2017 годах, когда доля «мёртвого» (нечеловеческого) трафика превысила долю живых пользователей (S001).

⚠️ Ключевые тезисы теории: от ботов до полной симуляции

Сторонники DIT выделяют несколько уровней «мёртвости» интернета. Первый уровень — технический: боты составляют значительную часть трафика, что подтверждается отчётами компаний по кибербезопасности. Второй уровень — контентный: AI-генерированные тексты, изображения и видео заполняют социальные сети, новостные сайты и форумы. Подробнее — в разделе Финансовые пирамиды и скамы.

Третий, наиболее радикальный уровень — экзистенциальный: интернет превратился в симуляцию, где алгоритмы создают иллюзию человеческой активности для манипуляции оставшимися живыми пользователями.

Компания Imperva в 2016 году заявила: 52% всего интернет-трафика генерируется ботами (S001). Это утверждение стало одним из краеугольных камней теории и служит якорем для более радикальных интерпретаций.

🧩 Почему теория резонирует: от интуитивных наблюдений до когнитивных искажений

Теория мёртвого интернета находит отклик у пользователей по нескольким причинам. Она объясняет субъективное ощущение «пустоты» и однообразия контента в социальных сетях, предлагает простое объяснение сложным явлениям: падению качества дискуссий, росту токсичности, эхо-камерам и фильтрационным пузырям.

Одновременно она апеллирует к реальным фактам — росту числа ботов, развитию генеративных моделей вроде GPT-3, скандалам с фейковыми аккаунтами.

Патернисити (поиск паттернов)
Мозг автоматически видит закономерности, даже там, где их нет. Пользователи замечают повторяющиеся фразы, похожие аватары, синхронные посты — и интерпретируют это как доказательство ботов.
Бритва Оккама в извращённой форме
«Самое простое объяснение — правильное». Вместо анализа многофакторных причин деградации контента (алгоритмы, монетизация, масштаб) люди выбирают монолитное: «Это боты».
Эффект подтверждения
Люди замечают примеры ботов и AI-контента, игнорируя миллионы случаев подлинной человеческой активности. Каждый найденный бот — подтверждение теории.

🔎 Границы теории: где заканчивается наблюдение и начинается конспирология

Научный анализ требует разграничения трёх уровней утверждений. Первый — эмпирически проверяемый: «Боты составляют значительную долю интернет-трафика». Второй — требующий уточнения: «AI-генерированный контент растёт экспоненциально».

Третий — конспирологический: «Интернет мёртв, и это скрывается от пользователей корпорациями и правительствами». Именно здесь теория переходит из области техно-страхов в область конспирологических нарративов, которые мутируют и захватывают массовое сознание.

Трёхуровневая структура теории мёртвого интернета от проверяемых фактов до конспирологии
Три слоя теории мёртвого интернета: от статистики ботов до экзистенциальной симуляции

🔬Стальной человек теории: семь самых сильных аргументов в пользу «мёртвого интернета»

Прежде чем критиковать теорию, необходимо представить её в наиболее убедительной форме — метод «стального человека» (steelman), противоположный соломенному чучелу. Ниже семь наиболее весомых аргументов сторонников DIT, основанных на доступных данных и исследованиях. Подробнее — в разделе Псевдо-разоблачители.

📊 Аргумент первый: статистика ботового трафика от Imperva и других источников

Компания Imperva, специализирующаяся на кибербезопасности, опубликовала данные, согласно которым в 2016 году 52% всего интернет-трафика генерировалось ботами (S001). Это означает, что более половины запросов к веб-серверам исходило не от людей, а от автоматизированных программ.

Не все боты вредоносны — существуют поисковые краулеры, мониторинговые системы, легитимные API-запросы. Но сам факт численного превосходства нечеловеческого трафика над человеческим выглядит тревожным. Сторонники теории указывают, что эта тенденция только усилилась: рост IoT-устройств, автоматизированных торговых систем, скрейперов данных и социальных ботов привёл к дальнейшему увеличению доли автоматизированного трафика.

Период Доля ботового трафика Источник активности
2016 52% Imperva (документировано)
2023–2024 60–70% (прогноз) Экстраполяция тренда

🤖 Аргумент второй: документированные случаи массового использования ботов в социальных сетях

Скандал вокруг покупки Twitter Илоном Маском в 2022 году частично был связан с разногласиями о реальном количестве ботов на платформе (S001). Маск утверждал, что доля фейковых аккаунтов значительно превышает официальные 5%, заявленные компанией.

Независимые исследования подтверждают массовое присутствие ботов в социальных сетях. Боты используются для накрутки лайков и подписчиков, распространения дезинформации, создания искусственного консенсуса (astroturfing), атак на оппонентов. В периоды политических кампаний доля ботов в обсуждениях может достигать 20–30% участников.

🎬 Аргумент третий: фейковые просмотры на YouTube и других видеоплатформах

Индустрия накрутки просмотров, лайков и комментариев существует более десяти лет и достигла промышленных масштабов (S001). Сервисы предлагают тысячи просмотров за несколько долларов, используя фермы устройств, взломанные аккаунты и ботнеты.

YouTube, Facebook, Instagram и TikTok постоянно борются с фейковой активностью, но проблема остаётся. Алгоритмы рекомендаций этих платформ основаны на метриках вовлечённости, что создаёт экономический стимул для накрутки. Если значительная часть просмотров, лайков и комментариев генерируется ботами, то алгоритмы продвигают контент на основе фейковых сигналов, создавая порочный круг.

🧠 Аргумент четвёртый: взрывной рост генеративных AI-моделей типа GPT-3

Приложения вроде GPT-3 трансформируют интернет, и исследователи прогнозируют, что сеть изменится до неузнаваемости из-за этой трансформации (S001). GPT-3, выпущенный OpenAI в 2020 году, продемонстрировал способность генерировать тексты, неотличимые от человеческих.

Генеративные модели теперь доступны через API за копейки. Это означает, что любой может автоматически создавать тысячи статей, постов в социальных сетях, комментариев, отзывов. Исследования показывают, что AI-генерированные изображения всё чаще появляются в социальных сетях, вызывая озабоченность по поводу доверия и аутентичности (S006). Если раньше создание контента требовало человеческого времени и усилий, теперь это можно автоматизировать полностью.

Генеративные модели доступны за копейки. Любой может создавать тысячи постов, статей, комментариев автоматически. Раньше это требовало человеческого времени — теперь нет.

📉 Аргумент пятый: субъективное ощущение деградации качества онлайн-дискуссий

Многие пользователи отмечают, что качество обсуждений в интернете за последние 5–10 лет резко упало. Комментарии стали более токсичными, однообразными, поверхностными. Дискуссии быстро скатываются в оскорбления и повторение одних и тех же аргументов. Оригинальные мысли встречаются всё реже, а контент кажется скопированным и переработанным.

Сторонники DIT объясняют это тем, что значительная часть комментаторов — боты или AI-агенты, запрограммированные на генерацию конфликтов для увеличения вовлечённости. Алгоритмы социальных сетей продвигают контент, вызывающий сильные эмоции (часто негативные), что создаёт впечатление, будто интернет заполнен агрессивными, недалёкими людьми. Но что, если это не люди?

🔁 Аргумент шестой: эхо-камеры и фильтрационные пузыри как признак алгоритмической манипуляции

Феномен эхо-камер — когда пользователи видят только контент, подтверждающий их убеждения — часто объясняется работой алгоритмов рекомендаций. Но сторонники DIT идут дальше: алгоритмы не просто фильтруют существующий контент, но активно генерируют его для создания иллюзии консенсуса или конфликта.

Если алгоритм может определить ваши политические взгляды, он может генерировать фейковые аккаунты и посты, которые будут укреплять эти взгляды или провоцировать вас на конфликт с «противоположной стороной». Цель — максимизация времени, проведённого на платформе, и вовлечённости. В этой модели большинство «людей», с которыми вы взаимодействуете, могут быть симуляциями, настроенными под ваш психологический профиль.

⚙️ Аргумент седьмой: экономическая логика замены людей ботами

С точки зрения владельцев платформ, замена человеческой активности ботами имеет экономический смысл. Боты не требуют зарплаты, не уходят в отпуск, не жалуются на условия труда. Они могут генерировать контент 24/7, создавая иллюзию активной платформы даже при снижении числа реальных пользователей.

Это особенно важно для стартапов и платформ, которым нужно демонстрировать рост метрик для привлечения инвесторов. Боты предсказуемы и контролируемы — реальные пользователи могут создавать контент, нежелательный для рекламодателей или противоречащий политике платформы. Боты же можно запрограммировать на создание «безопасного», коммерчески привлекательного контента. В этой логике «мёртвый интернет» — не баг, а фича, выгодная корпорациям.

Стимул для платформ
Боты дешевле, предсказуемее и контролируемее реальных пользователей. Они генерируют метрики роста для инвесторов.
Стимул для рекламодателей
Боты создают «безопасный» контент, не вызывающий скандалов и не отпугивающий бренды.
Стимул для алгоритмов
Автоматизированная активность позволяет оптимизировать рекомендации без непредсказуемости человеческого поведения.

🧪Доказательная база: что говорят исследования о реальной доле ботов и AI-контента в сети

От аргументов к фактам. Подробнее — в разделе Коучинг-секты.

📊 Данные Imperva: 52% ботового трафика в 2016 году — что это означает на самом деле

Отчёт Imperva 2016 года показал, что 52% интернет-трафика генерируется ботами (S001). Но критически важно: измерялись HTTP-запросы к веб-серверам, а не человеческая активность в социальных сетях или создание контента.

Большая часть этого трафика — легитимные автоматизированные системы: поисковые краулеры (Google, Bing), мониторинговые сервисы, RSS-агрегаторы, API-запросы.

Категория ботов Доля от общего трафика Функция
Хорошие боты (good bots) ~23% Поиск, мониторинг, индексация
Плохие боты (bad bots) ~29% Скрейпинг, спам, DDoS, взлом
Человеческий трафик ~48% Прямая активность пользователей

Утверждение «52% интернета — боты» технически верно, но вводит в заблуждение, если интерпретировать как «52% онлайн-активности — фейковая».

🎭 Исследования социальных ботов: от 5% до 15% аккаунтов в зависимости от платформы

Независимые исследования оценивают долю ботов в социальных сетях значительно ниже. Для Twitter — от 9% до 15% ботов среди активных аккаунтов. Facebook заявляет около 5% фейковых или дублирующихся аккаунтов. Instagram и TikTok не публикуют официальные цифры, но независимые оценки варьируются от 10% до 20%.

Ключевой нюанс: эти цифры относятся к аккаунтам, а не к активности. Боты могут генерировать десятки постов в день, в то время как обычный пользователь публикует несколько раз в неделю. Доля ботов в общем объёме контента может быть выше, чем их доля среди аккаунтов. Но даже с этой поправкой утверждение о том, что большинство контента создаётся ботами, не подтверждается данными.

🖼️ AI-генерированный контент: рост есть, но масштабы преувеличены

AI-генерированные изображения всё чаще появляются в социальных сетях (S006). Генеративные модели вроде DALL-E, Midjourney, Stable Diffusion создали волну AI-изображений. Однако количественные оценки их доли в общем объёме визуального контента отсутствуют.

AI-изображения заметны в определённых нишах (арт-сообщества, мемы, иллюстрации), но не доминируют в личных фотографиях, новостных изображениях или пользовательском контенте.

Текстовый контент
Детекторы AI-текстов (GPTZero, Originality.ai) показывают высокую частоту ложных срабатываний и обходятся простыми техниками, такими как использование гомоглифов (S008). Точно оценить долю AI-генерированных текстов в интернете в настоящее время невозможно.
Проблема оценки
Отсутствие доказательств доминирования не означает доказательства отсутствия — проблема может быть серьёзнее, чем показывают доступные данные.

📈 Мультимедийный контент: доминирование видео и его происхождение

Современный интернет-трафик в основном состоит из мультимедийного контента, и эта тенденция усилится в будущем (S002). Анализ более 160 тысяч единиц контента, привлёкших более 185 миллионов сессий загрузки, показывает масштаб потребления видео и аудио.

Но это исследование фокусировалось на BitTorrent-трафике — пиратском распространении фильмов, сериалов, музыки и игр. Оно не анализировало происхождение контента. Видеоконтент на YouTube, TikTok, Instagram в подавляющем большинстве создаётся людьми, хотя AI-инструменты (автоматический монтаж, генерация субтитров, улучшение качества) используются всё чаще. Полностью AI-генерированные видео пока остаются редкостью и легко распознаются по артефактам.

🔐 Проблема верификации: почему так сложно отличить человека от AI

Исследование поднимает фундаментальный вопрос: как сертифицировать AI-генерированный или человеческий контент (S003, S005)? По мере совершенствования генеративных моделей различие между человеческим и машинным контентом стирается.

Текст GPT-4 может быть более грамотным, чем текст среднего пользователя. AI-изображение — более эстетичным, чем любительская фотография. Существующие методы детекции основаны на статистических паттернах и легко обходятся.

  1. Гомоглифы (визуально идентичные символы из разных алфавитов) обманывают детекторы AI-текстов (S008)
  2. Водяные знаки в изображениях удаляются
  3. Метаданные подделываются
  4. Результат: фундаментальная неопределённость — мы не можем быть уверены, что собеседник человек

Это не означает, что интернет мёртв. Это означает, что проблема верификации подлинности контента становится критической для доверия к информации.

Детальная инфографика структуры интернет-трафика с разделением на типы ботов и человеческую активность
Структура интернет-трафика: легитимные боты, вредоносные боты и человеческая активность

🧠Механизмы и причинно-следственные связи: почему интернет кажется мёртвым, даже если это не так

Даже если интернет не мёртв в буквальном смысле, многие пользователи испытывают ощущение его «мёртвости». Это субъективное восприятие имеет объективные причины, связанные с архитектурой современных платформ и психологией восприятия. Подробнее — в разделе Когнитивные искажения.

🔁 Алгоритмическая кураторство: как рекомендательные системы создают иллюзию однообразия

Современные социальные сети не показывают контент в хронологическом порядке. Вместо этого алгоритмы машинного обучения отбирают посты, которые максимизируют вовлечённость пользователя.

Это приводит к двум эффектам. Пользователи видят только малую часть доступного контента — ту, которую алгоритм счёл релевантной. Алгоритмы оптимизируются на метрики вовлечённости (лайки, комментарии, репосты), что продвигает эмоционально заряженный, часто конфликтный контент.

Разнообразный, оригинальный, но менее «вирусный» контент остаётся невидимым. Создаётся иллюзия мёртвого, однообразного интернета — хотя контент создан людьми, просто алгоритм отбирает похожие посты, потому что они эффективно удерживают внимание.

🧬 Эффект Мёртвой Долины в онлайн-коммуникации

Концепция «зловещей долины» описывает дискомфорт при взаимодействии с почти-человеческими, но не совсем человеческими объектами. Этот эффект проявляется и в онлайн-коммуникации.

Когда мы подозреваем, что собеседник может быть ботом, наше восприятие всего разговора меняется. Даже если собеседник — реальный человек, подозрение в его «нечеловечности» делает взаимодействие неприятным.

  1. Вы верите в теорию мёртвого интернета
  2. Начинаете интерпретировать типичное поведение как доказательство
  3. Человек с популярными мемами или стандартными аргументами кажется ботом
  4. Создаётся самоусиливающийся цикл: чем больше верите, тем больше «доказательств» находите

На самом деле просто меняется ваша интерпретация нормального человеческого поведения. Это когнитивный механизм, описанный в исследованиях (S001), (S002).

⚙️ Экономика внимания и гонка на дно качества

Современные платформы монетизируются через рекламу, что требует максимизации времени, проведённого пользователями на сайте. Это создаёт стимул для продвижения контента, который удерживает внимание, независимо от его качества или достоверности.

Стимул платформы Результат для пользователя Восприятие
Максимизация времени на сайте Эмоционально заряженный контент Интернет кажется агрессивным, однообразным
Оптимизация на клики Сенсационные заголовки и провокации Ощущение манипуляции и неаутентичности
Снижение затрат на модерацию Спам, дубликаты, низкокачественный контент Впечатление, что люди не создают оригинальное

Качественный контент требует времени и ресурсов. Низкокачественный контент, спам и дубликаты распространяются быстрее и дешевле. Платформы не заинтересованы в фильтрации — это требует инвестиций в модерацию.

Результат: интернет заполняется низкокачественным контентом не потому, что его создают боты, а потому что экономика платформ стимулирует именно это. Пользователи видят больше спама и дубликатов, чем раньше, и интерпретируют это как доказательство автоматизации.

🎯 Селективное внимание и подтверждение гипотезы

Теория мёртвого интернета — это гипотеза. Как только вы её принимаете, ваш мозг начинает искать подтверждения. Это называется подтверждающим смещением.

Подтверждающее смещение
Тенденция искать, интерпретировать и запоминать информацию, которая подтверждает вашу существующую гипотезу, и игнорировать информацию, которая её опровергает.
Почему это опасно
Вы начинаете видеть ботов везде. Повторяющиеся посты — боты. Популярные мемы — боты. Люди, которые согласны с вами — люди, люди, которые не согласны — боты. Реальность становится невидимой.

Исследования (S005) показывают, что теория мёртвого интернета функционирует как нарратив, который переформатирует восприятие пользователя. Это не означает, что теория ложна — это означает, что она работает как фильтр, через который вы интерпретируете всё, что видите.

🔄 Реальные проблемы, неправильная диагностика

Интернет действительно изменился. Контента больше, но его качество часто ниже. Боты действительно существуют, но их доля переоценивается. Алгоритмы действительно создают фильтр-пузыри.

Теория мёртвого интернета берёт реальные проблемы и предлагает неправильный диагноз: не «интернет захватили боты», а «архитектура платформ и экономика внимания создают условия, при которых низкокачественный контент распространяется быстрее, чем качественный». Это менее драматично, но более точно.

Понимание этих механизмов — первый шаг к защите от манипуляции и восстановлению критического мышления в условиях информационного перенасыщения (S007).

⚔️

Контр-позиция

Критический обзор

⚖️ Критический контрапункт

Наш анализ опирается на доступные данные, но имеет слепые зоны. Вот где аргументация может быть уязвима и что требует дополнительной проверки.

Недооценка масштаба проблемы

Методологии подсчёта AI-контента несовершенны, а новейшие модели (GPT-4, Claude 3) генерируют текст, неотличимый от человеческого. Наши источники 2016–2023 годов могут быть устаревшими и недооценивать реальную долю автоматизированного контента в сети.

Игнорирование качественного сдвига

Статья фокусируется на количестве ботов, но упускает главное: даже 10–20% высококачественного AI-контента могут радикально изменить информационную экосистему. Такой контент создаёт эхо-камеры и манипулирует мнениями эффективнее, чем массовый спам.

Предвзятость в сторону оптимизма

Мы подчёркиваем сохранение человеческой активности, но недооцениваем психологический эффект. Если пользователи верят, что интернет мёртв, они меняют поведение: меньше доверяют, меньше участвуют. Это создаёт самосбывающееся пророчество независимо от реальности.

Недостаточность данных о закрытых платформах

Утверждение о миграции активности в Discord и Telegram основано на косвенных признаках. Нет систематических исследований, подтверждающих, что эта активность компенсирует упадок открытого веба и восстанавливает экосистему.

Технологический детерминизм

Мы можем переоценивать способность технологий решить проблему — сертификация, детекторы AI, верификация источников. История показывает: гонка вооружений между создателями AI и детекторами обычно выигрывается создателями.

Knowledge Access Protocol

FAQ

Часто задаваемые вопросы

Теория мёртвого интернета (Dead Internet Theory) — это конспирологическая гипотеза, утверждающая, что большая часть онлайн-контента и активности создаётся ботами и искусственным интеллектом, а не реальными людьми. Сторонники теории считают, что интернет «умер» примерно в 2016-2017 годах, когда боты начали доминировать в трафике. Они ссылаются на отчёт Imperva 2016 года, согласно которому 52% всего интернет-трафика генерируется ботами (S001). Теория получила распространение на форумах вроде 4chan и в конспирологических сообществах, где пользователи делятся наблюдениями о повторяющихся комментариях, подозрительно похожих профилях и массовом AI-контенте.
Да, согласно отчёту Imperva 2016 года, 52% всего интернет-трафика генерировалось ботами (S001). Однако важно понимать контекст: эта цифра включает как вредоносных ботов (скрейперы, DDoS-атаки, спам-боты), так и легитимных (поисковые краулеры Google, мониторинговые сервисы, API-запросы). Не весь ботовый трафик означает «фальшивый контент» — значительная часть обеспечивает инфраструктуру интернета. Более поздние данные показывают колебания этой доли в зависимости от методологии подсчёта, но тренд на рост автоматизированного трафика сохраняется.
AI-генерированный контент (AIGC) растёт экспоненциально с появлением моделей вроде GPT-3 и DALL-E. Исследователи прогнозируют, что интернет изменится до неузнаваемости из-за этой трансформации, и в будущем AI-контент может доминировать (S001). На практике это означает: массовое производство статей, изображений, видео и комментариев без участия человека. Однако реальная имплементация AIGC-моделей сталкивается с серьёзными проблемами энергопотребления и приватности, особенно на мобильных устройствах (S004). AI-изображения в соцсетях уже вызывают вопросы доверия и аутентичности (S006).
Нет прямых доказательств полной «смерти» интернета. Данные подтверждают рост ботового трафика и AI-контента, но не исчезновение человеческой активности. Исследование BitTorrent-трафика показало более 160 тысяч единиц контента с 185 миллионами сессий загрузки (S002) — это явно человеческое поведение. Теория «мёртвого интернета» основана на выборочном восприятии: люди замечают боты и AI-контент, но игнорируют миллиарды живых взаимодействий в Discord, Telegram, закрытых форумах, стримах. Это классическая когнитивная ловушка — confirmation bias (предвзятость подтверждения).
Люди верят в эту теорию из-за комбинации реальных наблюдений и когнитивных искажений. Реальная основа: действительно растёт число ботов, спам-аккаунтов, AI-генерированных текстов и изображений. Когнитивные триггеры: ощущение потери контроля, страх перед технологиями, ностальгия по «старому интернету», недоверие к корпо��ациям. Теория даёт простое объяснение сложным изменениям: «всё фальшивое, нас обманывают». Это снижает когнитивную нагрузку и даёт иллюзию понимания. Дополнительный фактор — эхо-камеры в соцсетях, где конспирологические идеи усиливаются без критической проверки.
Twitter (X), YouTube, Facebook и Instagram исторически имеют высокую долю ботовой активности. Исследование упоминает фальшивые просмотры на YouTube и Twitter-ботов как примеры проблемы (S001). Elon Musk при покупке Twitter в 2022 году заявлял, что до 20% аккаунтов могут быть ботами (хотя Twitter оспаривал эту цифру). YouTube борется с накруткой просмотров, но проблема сохраняется. Однако важно: высокая ботовая активность не означает отсутствие реальных пользователей — платформы одновременно содержат и ботов, и миллионы живых людей.
Становится всё сложнее, но пока возможно. AI-детекторы (вроде GPTZero) показывают умеренную точность, но их можно обмануть техниками вроде SilverSpeak (использование гомоглифов для обхода детекции) (S008). Визуальные AI-изображения часто выдают артефакты: странные руки, несвязные детали фона, нереалистичные текстуры. Текстовый AI-контент может быть слишком «гладким», без индивидуального стиля, с повторяющимися фразами. Однако с улучшением моделей эти признаки исчезают. Предлагаются системы сертификации контента (Organic Websites) для маркировки человеческого или AI-происхождения (S003, S005).
AIGC (AI-Generated Content) — это контент, созданный искусственным интеллектом: тексты, изображения, видео, музыка. Опасности: массовая дезинформация (фейковые новости, дипфейки), потеря доверия к онлайн-информации, манипуляция общественным мнением, нарушение авторских прав, энергетические и экологические издержки обучения моделей (S004). В игровой индустрии AIGC создаёт юридические вызовы вокруг прав на контент (S007). Однако AIGC также открывает возможности: автоматизация рутинных задач, персонализация контента, помощь креаторам. Ключ — прозрачность и регулирование.
Используйте многоуровневую стратегию: 1) Проверяйте источники — смотрите на домен, автора, дату публикации. 2) Ищите признаки AI: слишком идеальный текст, отсутствие личного стиля, странные визуальные артефакты. 3) Используйте факт-чекинг сервисы (Snopes, FactCheck.org). 4) Включайте критическое мышление: если информация вызывает сильную эмоцию (страх, гнев), проверьте её дважды. 5) Поддерживайте платформы с верификацией (сертификация контента, метки AI). 6) Мигрируйте в закрытые сообщества с модерацией. 7) Обучайтесь цифровой грамотности — понимание работы алгоритмов снижает манипулятивность.
Да, интернет уже меняется и будет меняться радикально. Прогнозы: доминирование AI-контента, персонализация до уровня индивидуальных «реальностей», рост закрытых платформ с верификацией, новые формы аутентификации (биометрия, блокчейн-подписи контента). Исследователи ожидают, что интернет станет неузнаваемым из-за трансформации, вызванной приложениями вроде GPT-3 (S001). Однако человеческая потребность в подлинном общении никуда не денется — вероятно, возникнут «оазисы» верифицированного человеческого контента. Ключевой вопрос: сможем ли мы сохранить доверие и аутентичность в эпоху тотальной генерации?
Основные источники: отчёт Imperva 2016 о 52% ботового трафика (S001), исследование BitTorrent-трафика с анализом 160k+ контента и 185M+ сессий (S002), работы по распределённой диффузии AIGC в беспроводных сетях (S004), анализ восприятия AI-изображений в соцсетях (S006), обзор юридических вызовов AIGC в гейминге (S007), исследование техник обхода AI-детекторов (S008). Все эти работы подтверждают тренд: AI-контент растёт, технологии совершенствуются, но методологии оценки масштаба проблемы пока недостаточно стандартизированы.
Да, несколько. 1) Миграция пользователей: люди ушли из открытого веба в закрытые платформы (Discord, Telegram, приватные серверы), создавая иллюзию пустоты. 2) Алгоритмическая фильтрация: соцсети показывают контент, оптимизированный под engagement, что создаёт ощущение однообразия. 3) Коммерциализация: интернет стал корпоративным, «дикий запад» ранних 2000-х исчез, но это не значит, что люди исчезли. 4) Когнитивное искажение: мы замечаем ботов и AI, но не замечаем миллиарды нормальных взаимодействий. Эти объяснения более правдоподобны, чем конспирологическая версия о тотальной подмене.
Deymond Laplasa
Deymond Laplasa
Исследователь когнитивной безопасности

Автор проекта Cognitive Immunology Hub. Исследует механизмы дезинформации, псевдонауки и когнитивных искажений. Все материалы основаны на рецензируемых источниках.

★★★★★
Профиль автора
Deymond Laplasa
Deymond Laplasa
Исследователь когнитивной безопасности

Автор проекта Cognitive Immunology Hub. Исследует механизмы дезинформации, псевдонауки и когнитивных искажений. Все материалы основаны на рецензируемых источниках.

★★★★★
Профиль автора
// ИСТОЧНИКИ
[01] The Dead Internet Theory: A Survey on Artificial Interactions and the Future of Social Media[02] The Dead Internet Theory: Investigating the Rise of AI-Generated Content and Bot Dominance in Cyberspace[03] Artificial influencers and the dead internet theory[04] The Dead Internet Theory: A Survey on Artificial Interactions and the Future of Social Media[05] Baudrillard and the Dead Internet Theory. Revisiting Baudrillard’s (dis)trust in Artificial Intelligence[06] Dead Internet Theory in Theoretical Framework and Its Possible Effects on Tourism[07] The ‘dead internet theory’ makes eerie claims about an AI-run web. The truth is more sinister

💬Комментарии(0)

💭

Пока нет комментариев