Skip to content
Навигация
🏠Обзор
Знания
🔬Научная база
🧠Критическое мышление
🤖ИИ и технологии
Разоблачения
🔮Эзотерика и оккультизм
🛐Религии
🧪Псевдонаука
💊Псевдомедицина
🕵️Конспирология
Инструменты
🧠Когнитивные искажения
✅Фактчеки
❓Проверь себя
📄Статьи
📚Хабы
Аккаунт
📈Статистика
🏆Достижения
⚙️Профиль
Деймонд Лапласа
  • Главная
  • Статьи
  • Хабы
  • О проекте
  • Поиск
  • Профиль

Знания

  • Научная База
  • Критическое мышление
  • ИИ и технологии

Разоблачения

  • Эзотерика
  • Религии
  • Псевдонаука
  • Псевдомедицина
  • Конспирология

Инструменты

  • Факт-чеки
  • Проверь себя
  • Когнитивные искажения
  • Статьи
  • Хабы

О проекте

  • О нас
  • Методология факт-чекинга
  • Политика конфиденциальности
  • Условия использования

Аккаунт

  • Профиль
  • Достижения
  • Настройки

© 2026 Deymond Laplasa. Все права защищены.

Когнитивная иммунология. Критическое мышление. Защита от дезинформации.

  1. Главная
  2. /Критическое мышление
  3. /Ментальные ошибки
  4. /Когнитивные искажения
  5. /Теория мёртвого интернета: как ИИ-боты п...
📁 Когнитивные искажения
⚠️Спорно / Гипотеза

Теория мёртвого интернета: как ИИ-боты превратили сеть в фабрику иллюзий — и почему это опаснее, чем кажется

Теория мёртвого интернета утверждает, что большая часть активности в сети генерируется ИИ-ботами, а не людьми. Хотя буквальная версия теории — конспирология, реальность оказывается тревожнее: доказано массовое использование ботов для манипуляции общественным мнением через дезинформацию. Феномен «креветка Иисус» и армии фейковых аккаунтов показывают, как ИИ-агенты создают параллельную реальность в соцсетях. Разбираем механизм цифрового обмана, уровень доказательности и протокол самопроверки.

📅
Дата публикации: 26 февраля 2026 г.
⏱️
Время на прочтение: 13 мин

Neural Analysis

Neural Analysis
  • Тема: Теория мёртвого интернета и реальное влияние ИИ-ботов на достоверность информации в сети
  • Эпистемический статус: Умеренная уверенность — конспирологическая версия опровергнута, но манипуляция ботами документирована
  • Уровень доказательности: Наблюдательные исследования, анализ социальных сетей, документированные случаи дезинформационных кампаний
  • Вердикт: Буквальная теория о полностью ИИ-управляемом интернете — миф. Однако массовое использование ботов для создания контента и манипуляции мнениями — доказанный факт, представляющий серьёзную угрозу информационной экологии.
  • Ключевая аномалия: Подмена понятий: от «весь интернет мёртв» к «боты влияют на восприятие реальности» — второе истинно и опасно
  • Проверь за 30 сек: Найди в своей ленте аккаунт с религиозным AI-артом и проверь дату создания + историю постов
Уровень1
XP0
🖤
Представьте: вы листаете ленту соцсетей, ставите лайки, спорите в комментариях — и не подозреваете, что половина собеседников давно не люди. Теория мёртвого интернета утверждает: большая часть активности в сети генерируется ИИ-ботами, а реальные пользователи стали меньшинством в цифровом мире, управляемом алгоритмами. Звучит как параноидальная конспирология? Возможно. Но реальность оказывается ещё тревожнее: доказанные кампании дезинформации, армии фейковых аккаунтов и феномен «креветка Иисус» показывают, что граница между человеком и ботом размыта до неразличимости. 👁️ Разбираем механизм цифрового обмана, уровень доказательности и протокол самопроверки — потому что в мире, где ИИ создаёт параллельную реальность, умение отличить правду от иллюзии становится навыком выживания.

📌Что такое теория мёртвого интернета — и почему она захватила умы миллионов пользователей по всему миру

Теория мёртвого интернета (Dead Internet Theory) утверждает, что активность и контент в сети преимущественно создаются ИИ-агентами, а не живыми людьми (S001). Реальные пользователи якобы составляют лишь небольшую долю трафика, остальное — боты и алгоритмы, имитирующие человеческое поведение.

Теория зародилась в анонимных форумах и конспирологических сообществах, где пользователи заметили странные паттерны: повторяющиеся комментарии, идентичные посты от разных аккаунтов, подозрительную активность в определённых темах. Эти наблюдения оформились в концепцию, согласно которой интернет превратился в фабрику иллюзий, управляемую ИИ и корпорациями. Подробнее — в разделе Логика и вероятность.

Ключевое утверждение 1
Большинство контента в социальных сетях генерируется ботами, а не людьми.
Ключевое утверждение 2
Боты используются для манипуляции мнением, продвижения нарративов и создания иллюзии консенсуса.
Ключевое утверждение 3
Реальные пользователи взаимодействуют с ИИ-агентами, не осознавая этого.
Ключевое утверждение 4
Ситуация — результат сознательной стратегии корпораций и правительств по контролю информационного пространства.

Теория мёртвого интернета в буквальной форме — конспирологическая концепция без строгих научных доказательств. Однако она служит линзой для рассмотрения реальных процессов в сети (S001).

Граница между обоснованными опасениями по поводу ботов и дезинформации и параноидальными фантазиями о тотальном контроле ИИ часто размыта. Это делает теорию одновременно провокационной и требующей критического анализа.

Почему эта теория захватила умы миллионов? Она апеллирует к эвристике доступности — мы замечаем ботов, потому что они действительно есть, и экстраполируем единичные наблюдения на весь интернет. Она также резонирует с эффектом подтверждения: сторонники теории ищут и находят «доказательства» везде, где их ищут.

Визуализация сети ботов в социальных медиа с узлами связей
Схематическое представление сети ботов, имитирующих человеческую активность в социальных сетях — каждый узел представляет фейковый аккаунт, связанный с центральным управляющим алгоритмом

🧱Стилмен-аргументы: семь самых убедительных доводов в пользу теории мёртвого интернета

Чтобы честно оценить теорию мёртвого интернета, необходимо рассмотреть её сильнейшие аргументы в наиболее убедительной формулировке. Метод стилмена требует представить позицию оппонента в максимально сильном виде, прежде чем подвергать её критическому анализу. Подробнее — в разделе Критическое мышление.

🔁 Аргумент первый: экспоненциальный рост автоматизированного контента

Объём контента, генерируемого ИИ, растёт экспоненциально. С появлением больших языковых моделей типа GPT-3, GPT-4 и их аналогов, создание текстов, изображений и видео стало доступным для массового использования.

Технический барьер для создания ботов практически исчез: любой человек с минимальными навыками программирования может запустить армию аккаунтов, генерирующих контент круглосуточно.

🧩 Аргумент второй: феномен «креветка Иисус» как доказательство массового использования ИИ-ботов

Один из самых ярких примеров — феномен «shrimp Jesus», когда в социальных сетях массово появились изображения религиозных фигур, созданные из морепродуктов, сгенерированные ИИ. Эти странные, сюрреалистичные изображения распространялись через сети фейковых аккаунтов, собирая тысячи лайков и комментариев.

За безобидным на первый взгляд феноменом потенциально стоит долгосрочная стратегия (S001) — демонстрация того, что где-то создаётся армия аккаунтов (S001), способных координированно распространять контент.

📊 Аргумент третий: документированные кампании дезинформации с использованием ботов

Существуют убедительные доказательства того, что социальные медиа манипулируются ботами для влияния на общественное мнение через дезинформацию — и это происходит уже много лет (S001).

Многочисленные исследования документировали кампании, в которых тысячи фейковых аккаунтов координированно распространяли ложную информацию, влияли на выборы, разжигали социальные конфликты. Это не теория заговора, а доказанный факт, признанный правительствами и исследовательскими организациями по всему миру.

Масштаб проблемы Признаки
Документированные кампании Координированное распространение ложной информации, влияние на выборы, разжигание конфликтов
Экономический стимул Платформы заинтересованы в завышении показателей активности для привлечения рекламодателей
Технологическая возможность Создание неотличимых от человека ИИ-агентов стало технически доступным

⚙️ Аргумент четвёртый: экономическая мотивация платформ скрывать реальную долю ботов

Социальные сети имеют прямую финансовую заинтересованность в завышении показателей активности пользователей. Рекламодатели платят за охват и вовлечённость, а значит, платформам выгодно создавать иллюзию большой активной аудитории, даже если значительная её часть — боты.

Компании систематически занижают оценки доли ботов в своих отчётах, а попытки независимых исследователей получить реальные данные наталкиваются на непрозрачность и отказ в доступе к информации.

🧠 Аргумент пятый: изменение характера онлайн-дискуссий

Многие пользователи отмечают, что характер общения в интернете радикально изменился за последние годы. Дискуссии стали более поляризованными, агрессивными, поверхностными.

Аргументы повторяются с подозрительной регулярностью, как будто их копируют из одного источника. Сторонники теории видят в этом признак того, что значительная часть «участников» — это боты, запрограммированные на разжигание конфликтов и продвижение определённых нарративов. Это связано с более широким явлением эффекта подтверждения и эхо-камер, где алгоритмы усиливают поляризацию.

🕳️ Аргумент шестой: технологическая возможность создания неотличимых ИИ-агентов

Современные технологии ИИ достигли уровня, когда создание агентов, неотличимых от людей в текстовом общении, стало технически возможным. Большие языковые модели способны генерировать связные, контекстуально уместные ответы, имитировать эмоции, поддерживать длительные диалоги.

Если технология существует и доступна, логично предположить, что она активно используется — особенно учитывая экономические и политические стимулы для такого использования.

🔁 Аргумент седьмой: эффект «мёртвого торгового центра» в онлайн-сообществах

Многие пользователи описывают ощущение, что интернет стал похож на заброшенный торговый центр: формально он функционирует, витрины светятся, но настоящих людей почти нет, а большинство «посетителей» — это манекены или актёры, изображающие активность.

Старые форумы и сообщества, некогда полные живых дискуссий, теперь заполнены спамом и автоматическими постами. Новые платформы с самого начала кажутся искусственными, лишёнными подлинной человеческой энергии. Это субъективное ощущение, но оно разделяется достаточно большим числом пользователей, чтобы требовать объяснения.

  1. Проверить: есть ли в дискуссиях признаки повторяющихся паттернов аргументации
  2. Сравнить: качество диалога в архивах форумов (2010–2015) с текущим состоянием
  3. Оценить: долю аккаунтов с минимальной историей активности и странными паттернами поведения
  4. Анализировать: скорость распространения контента и временные зоны активности

🔬Доказательная база: что говорят научные исследования о реальном масштабе проблемы ботов в интернете

Перейдём от аргументов к фактам. Подробнее — в разделе Статистика и теория вероятностей.

📊 Документированные кампании дезинформации: от выборов до пандемии

Наиболее убедительные доказательства касаются целенаправленных кампаний дезинформации. Социальные медиа манипулируются ботами для влияния на общественное мнение через дезинформацию — это документировано уже много лет (S001).

Исследования зафиксировали использование ботов для влияния на выборы в различных странах, распространения ложной информации о вакцинах во время пандемии COVID-19, разжигания этнических и религиозных конфликтов. Эти кампании характеризуются координированным поведением тысяч аккаунтов, распространяющих идентичные или слегка модифицированные сообщения.

  1. Целевые выборные кампании в разных странах
  2. Дезинформация о здравоохранении (вакцины, пандемия)
  3. Разжигание социальных конфликтов (этнические, религиозные)
  4. Координированное поведение тысяч аккаунтов

🧪 Методологические проблемы оценки доли ботов: почему точные цифры получить сложно

Главная проблема в оценке масштаба — методологическая сложность определения, что считать ботом. Существует спектр от примитивных спам-ботов, легко обнаруживаемых автоматическими системами, до сложных ИИ-агентов, практически неотличимых от людей.

Платформы социальных сетей не раскрывают детальную информацию о методах обнаружения ботов, опасаясь, что это поможет создателям ботов обходить защиту. Независимые исследователи сталкиваются с ограниченным доступом к данным.

Это делает получение точных оценок крайне затруднительным и создаёт информационный вакуум, который заполняют спекуляции.

🧾 Цифровой обман и кибербезопасность: как ИИ меняет ландшафт угроз

Исследования в области кибербезопасности показывают, что ИИ трансформирует ландшафт цифровых угроз (S003). Генеративные модели позволяют создавать более убедительные фишинговые сообщения, автоматизировать социальную инженерию, генерировать поддельные документы и изображения.

Это подтверждает, что технологическая база для массового создания убедительных фейковых аккаунтов и контента существует и активно развивается. Угроза не гипотетическая — она материализована в инструментах.

🔎 Феномен «креветка Иисус»: разбор конкретного случая массовой ботовой активности

Феномен «креветка Иисус» — документированный пример координированной активности ботов. Хотя может показаться безобидным, за ним потенциально стоит долгосрочная стратегия (S001).

Анализ показывает, что изображения распространялись через сеть связанных аккаунтов, многие из которых демонстрировали признаки автоматизированного поведения: создание в одно время, идентичные паттерны активности, отсутствие признаков подлинной человеческой индивидуальности. Это означает, что где-то создаётся армия аккаунтов (S001), способных координированно действовать для достижения неясных целей.

🧬 Генеративный ИИ и информационный поиск: как меняется экосистема контента

Исследования в области генеративного информационного поиска показывают фундаментальные изменения в том, как создаётся и потребляется контент в интернете (S002). Генеративные модели не просто находят существующую информацию, но создают новый контент на основе запросов пользователей.

Это размывает границу между «найденным» и «созданным» контентом, между человеческим и машинным авторством. В перспективе значительная часть контента, с которым взаимодействуют пользователи, будет генерироваться ИИ в реальном времени, а не создаваться людьми заранее.

Эффект усиливается, когда ИИ-контент становится источником для обучения следующего поколения моделей — возникает цикл самоусиления.

Схема распространения дезинформации через сети ботов
Визуализация процесса распространения дезинформации: от источника через сеть ботов к реальным пользователям, создавая иллюзию органического вирусного распространения

🧠Механизм обмана: как ИИ-боты создают иллюзию подлинности и почему наш мозг не может их распознать

Боты эффективны в обмане не благодаря технологическому совершенству одному. Наш мозг эволюционировал для взаимодействия с людьми в физическом мире, а не для различения человека и машины в цифре. Подробнее — в разделе Логические ошибки.

🧬 Эвристика социального доверия: почему мы по умолчанию считаем собеседника человеком

Люди используют эвристику социального доверия: по умолчанию предполагаем, что общаемся с человеком, если нет явных признаков обратного. В эволюционной среде это было адаптивно — все собеседники действительно были людьми.

В цифровой среде эта эвристика становится уязвимостью. Мы применяем те же правила доверия к аккаунтам в соцсетях, не осознавая, что значительная часть может быть автоматизирована.

🔁 Эффект «зловещей долины» и его преодоление современными ИИ

«Зловещая долина» (uncanny valley) описывает дискомфорт при взаимодействии с почти-но-не-совсем-человеческими объектами. Ранние боты легко обнаруживались: речь была механической, ответы — неестественными.

Современные большие языковые модели преодолели зловещую долину в текстовом общении (S002). Их ответы достаточно естественны, контекстуально уместны и эмоционально окрашены, чтобы не вызывать подозрений.

🧩 Когнитивная нагрузка и снижение бдительности

Проверка подлинности каждого собеседника требует значительных когнитивных ресурсов. В условиях информационной перегрузки люди не могут поддерживать высокий уровень бдительности постоянно.

Мы переключаемся в режим автоматической обработки, полагаясь на поверхностные сигналы и эвристики. Именно здесь боты наиболее эффективны: они эксплуатируют нашу когнитивную усталость и склонность к быстрым суждениям.

  1. Информационная перегрузка снижает критичность восприятия
  2. Автоматическая обработка информации активирует поверхностные сигналы
  3. Боты используют эти сигналы для имитации человеческого поведения
  4. Результат: иллюзия подлинности без активной проверки

⚙️ Технологии аутентификации и их ограничения

Существующие методы аутентификации сталкиваются с серьёзными ограничениями в эпоху генеративного ИИ (S008). Традиционные подходы, основанные на ключах, требуют вычислительных мощностей и энергии, которых часто нет у IoT-устройств.

Альтернативные схемы имеют проблемы с робастностью при флуктуациях канала и накладными расходами на согласование (S008). Отсутствие чёткого безопасного расстояния для генерирования ключей аутентификации создаёт новые уязвимости, которые боты могут эксплуатировать.

Связь с эхо-камерами усугубляет проблему: когда боты создают видимость согласия, пользователи теряют мотивацию проверять источники и подлинность контента.

🎯 Почему мозг не может распознать обман

Наша система распознавания лиц и голосов эволюционировала для физического мира. В текстовом общении эти системы отключены, и мы полагаемся на лингвистические и поведенческие сигналы.

Боты научились имитировать эти сигналы достаточно хорошо. Они используют игнорирование базовой частоты — мы не учитываем, что большинство аккаунтов в сети всё ещё люди, и поэтому не ожидаем встретить бота. Это ожидание становится слепым пятном.

Сигнал подлинности Как боты его имитируют Почему мозг верит
Естественный язык LLM генерирует контекстно уместный текст Нет механических ошибок, которые мозг ожидает от машины
Эмоциональная окраска Модель добавляет эмодзи, восклицания, личные истории Эмоции воспринимаются как маркер человечности
Непредсказуемость Стохастическая генерация создаёт вариативность Вариативность ассоциируется с живым мышлением
Социальное доверие Бот участвует в обсуждениях, получает лайки Социальное одобрение усиливает доверие

Проблема глубже, чем технология. Это столкновение эволюционной психологии с цифровой средой, где старые правила доверия больше не работают в условиях информационного контроля.

🧷Конфликты и неопределённости: где источники расходятся и что остаётся под вопросом

Честный анализ требует признания областей неопределённости и противоречий в доступных данных. Не все исследователи согласны в оценке масштаба проблемы, и существуют значительные пробелы в понимании долгосрочных последствий массового использования ботов. Подробнее — в разделе Психология веры.

🔎 Оценки доли ботов: разброс от 5% до 50% в зависимости от методологии

Различные исследования дают радикально разные оценки доли ботов в социальных сетях — от консервативных 5–10% до тревожных 40–50%.

Этот разброс объясняется различиями в методологии: что именно считается ботом, какие платформы анализируются, какие периоды времени рассматриваются. Платформы обычно дают наиболее низкие оценки, независимые исследователи — более высокие.

  1. Определение: включаются ли в подсчёт только автоматизированные аккаунты или также полуавтоматические?
  2. Охват: анализируются ли все платформы или только крупные (Twitter, Facebook)?
  3. Временной период: измеряется ли активность за день, месяц или год?
  4. Источник данных: использует ли исследователь открытый API или приватные данные платформы?

Истина, вероятно, находится где-то посередине, но точное определение остаётся проблематичным.

🧪 Причинность vs корреляция: снижение качества дискуссий и рост числа ботов

Наблюдаемое снижение качества онлайн-дискуссий коррелирует с ростом числа ботов, но это не обязательно означает причинно-следственную связь (S001).

Возможны альтернативные объяснения: общая поляризация общества, изменения в алгоритмах платформ, усталость пользователей от социальных сетей, демографические сдвиги в составе аудитории. Боты могут быть одним из факторов, но не единственным и, возможно, не главным.

Проблема усугубляется тем, что эффект подтверждения заставляет исследователей видеть ботов везде, где они их ищут. Если вы ожидаете найти ботов, вы найдёте их — даже если это просто люди, которые пишут похоже.

🧾 Долгосрочные эффекты: неизученные последствия жизни в среде с ИИ-агентами

Даже если теория мёртвого интернета в буквальном смысле неверна, она представляет собой интересную линзу для рассмотрения интернета (S005).

Долгосрочные психологические и социальные последствия жизни в среде, где значительная часть взаимодействий происходит с ИИ-агентами, а не с людьми, остаются неизученными.

Вопрос Статус исследования Почему это важно
Как это влияет на формирование социальных навыков? Нет лонгитюдных данных Поколение, выросшее с ботами, может потерять способность к живому диалогу
Меняется ли доверие к информации? Предварительные наблюдения, нет выводов Если люди не различают людей и ботов, они теряют критерий достоверности
Деградирует ли критическое мышление? Косвенные индикаторы, прямых исследований нет Связано с эвристикой доступности и групповым мышлением

Эти вопросы требуют длительных лонгитюдных исследований, которых пока не существует. Мы находимся в ситуации, когда масштаб проблемы растёт быстрее, чем наша способность её изучать.

⚠️Когнитивная анатомия мифа: какие психологические триггеры делают теорию мёртвого интернета такой убедительной

Теория мёртвого интернета эксплуатирует несколько мощных когнитивных искажений и психологических триггеров, что объясняет её популярность даже при отсутствии строгих доказательств. Подробнее — в разделе Квантовая мистификация.

🧩 Эффект кластерной иллюзии: видеть паттерны там, где их нет

Человеческий мозг эволюционно настроен на поиск паттернов — это помогало нашим предкам выживать, замечая признаки опасности или возможности. Но эта способность имеет побочный эффект: мы склонны видеть паттерны даже в случайных данных.

Повторяющиеся комментарии, похожие аккаунты, идентичные посты могут быть результатом случайности, копирования людьми друг друга или просто ограниченности человеческой креативности — но наш мозг интерпретирует это как доказательство координированной активности ботов (S001).

🕳️ Предвзятость подтверждения: как мы находим то, что ищем

Предвзятость подтверждения заставляет нас обращать внимание на информацию, подтверждающую наши существующие убеждения, и игнорировать противоречащую. Если человек уже склонен верить в теорию мёртвого интернета, он будет замечать каждый подозрительный аккаунт, каждый странный комментарий, каждое повторяющееся сообщение — и интерпретировать это как подтверждение теории.

При этом тысячи нормальных, явно человеческих взаимодействий останутся незамеченными, потому что они не соответствуют нарративу.

🧠 Эффект враждебных медиа и недоверие к платформам

Растущее недоверие к социальным сетям и их алгоритмам создаёт благодатную почву для теории мёртвого интернета. Люди уже знают, что платформы манипулируют контентом, скрывают информацию и продают данные — это факты, подтверждённые расследованиями и утечками.

Теория мёртвого интернета предлагает объяснение: если платформы уже врут, почему бы им не заполнить сеть ботами? Логика кажется неопровержимой, хотя это ложная дихотомия — манипуляция алгоритмами и массовое заполнение ботами — разные явления с разными масштабами.

🎯 Эвристика доступности: что видно, то и реально

Эвристика доступности заставляет нас переоценивать вероятность событий, которые легко вспомнить или которые часто встречаются в нашем поле зрения. Если в ленте часто появляются посты о ботах, если в комментариях люди обсуждают мёртвый интернет, если видеоролики на эту тему набирают миллионы просмотров — это создаёт впечатление, что проблема масштабна и повсеместна.

  1. Мозг замечает повторяющиеся упоминания о ботах в медиа
  2. Интерпретирует частоту упоминаний как индикатор реальной масштабности
  3. Игнорирует, что сама популярность теории может быть причиной её видимости
  4. Заключает: интернет действительно мёртв

👥 Групповое мышление и социальная валидация

Групповое мышление усиливает эффект. Когда теория мёртвого интернета становится популярной в определённых сообществах, люди начинают верить ей не потому, что нашли убедительные доказательства, а потому, что в их социальном окружении это считается истиной (S005).

Критика теории воспринимается как наивность или попытка скрыть правду. Сторонники теории получают социальное признание, чувство принадлежности к группе «просвещённых» людей, которые видят то, что скрывают от остальных.

⚡ Психологический комфорт неопределённости

Парадоксально, но теория мёртвого интернета приносит психологический комфорт. Мир, где интернет заполнен ботами и иллюзиями, — это мир, где есть объяснение хаосу, где есть враг, который можно назвать, где есть смысл в кажущейся бессмыслице.

Психологический триггер Как он работает в контексте теории Почему это опасно
Поиск паттернов Видим ботов в случайных данных Создаём врага, которого нет
Предвзятость подтверждения Замечаем только доказательства «за» Игнорируем контрдоказательства
Недоверие к институтам Платформы врут → значит, всё возможно Логический скачок от частного к общему
Эвристика доступности Часто видим упоминания → кажется масштабным Путаем популярность идеи с её истинностью
Групповое мышление Верим, потому что верит наше сообщество Отключаем критическое мышление

Это не означает, что люди, верящие в теорию мёртвого интернета, — глупы или наивны. Это означает, что их мозг работает совершенно нормально, но в условиях, которые эксплуатируют его естественные ограничения. Теория мёртвого интернета — это не ошибка мышления, это ошибка среды, в которой это мышление функционирует.

⚔️

Контр-позиция

Критический обзор

⚖️ Критический контрапункт

Теория мёртвого интернета часто отклоняется как конспирология, но некоторые аспекты проблемы могут быть недооценены. Вот где логика статьи даёт трещины.

Недооценка масштаба проблемы

Статья может преуменьшать реальный процент ботов в сети. Некоторые исследования предполагают, что до 50% трафика в определённых сегментах интернета генерируется ботами — это ближе к буквальной версии теории мёртвого интернета, чем мы признаём.

Ложная дихотомия конспирологии и реальности

Противопоставление «конспирология vs реальная проблема» может быть искусственным. Возможно, теория мёртвого интернета — это не заблуждение, а преждевременное предупреждение о тренде, который ещё не достиг критической массы, но движется в этом направлении быстрее, чем мы думаем.

Слепые пятна в детекции ботов

Мы не знаем, сколько ботов остаются необнаруженными. Если современные методы детекции ловят только примитивных ботов, а продвинутые ИИ-агенты с GPT-4+ уровнем генерации текста проходят незамеченными, реальная картина может быть гораздо мрачнее.

Экономические стимулы к масштабированию

Создание ботов стало индустрией с многомиллиардными оборотами. Экономическая выгода от манипуляции мнениями настолько велика, что проблема будет только усугубляться, независимо от мер противодействия.

Технологический оптимизм в методах проверки

Предложенные методы верификации (обратный поиск изображений, анализ профиля) быстро устаревают. Новые генеративные модели создают уникальные изображения без артефактов, а профили ботов становятся неотличимыми от человеческих — через год эти советы могут стать бесполезными.

Knowledge Access Protocol

FAQ

Часто задаваемые вопросы

Теория мёртвого интернета — это конспирологическое утверждение, что большая часть активности и контента в интернете, включая аккаунты в соцсетях, создаётся и автоматизируется искусственным интеллектом, а не реальными людьми. Согласно этой теории, человеческое присутствие в сети стало меньшинством, а ИИ-агенты доминируют в создании постов, комментариев и взаимодействий. Хотя буквальная версия теории не подтверждается, реальность показывает значительное присутствие ботов, используемых для манипуляции общественным мнением (S001).
Нет, это преувеличение и конспирология. Интернет не контролируется полностью ИИ-ботами, и человеческая активность остаётся доминирующей. Однако существуют доказательства массового использования ботов для создания контента и манипуляции в социальных сетях. Теория мёртвого интернета представляет интересную линзу для анализа современной сети, но не отражает буквальную реальность (S001). Проблема не в тотальном контроле ИИ, а в целенаправленном использовании ботов для дезинформации.
Феномен 'креветка Иисус' (shrimp Jesus) — это пример AI-генерированного религиозного контента, распространяемого ботами в социальных сетях, который на первый взгляд кажется безобидным и абсурдным. Однако за этим может стоять долгосрочная стратегия: создание армии фейковых аккаунтов, которые сначала набирают подписчиков на безобидном контенте, а затем используются для распространения дезинформации или манипуляции мнениями (S001). Это демонстрирует, как ИИ-боты создают иллюзию органической активности.
Да, существуют убедительные доказательства. Исследования показывают, что социальные сети активно манипулируются ботами для распространения дезинформации и влияния на общественное мнение — и это происходит уже много лет (S001). Боты используются для искусственного усиления определённых нарративов, создания иллюзии консенсуса, атак на оппонентов и распространения ложной информации. Масштаб проблемы значителен: создаются целые армии аккаунтов для координированных информационных операций.
Ключевые признаки бота включают: недавнюю дату создания аккаунта при большом количестве постов, однотипный контент (особенно AI-генерированные изображения), отсутствие личных деталей и взаимодействий, подозрительно высокую частоту публикаций, использование стоковых или сгенерированных фотографий профиля, повторяющиеся паттерны в текстах и времени публикаций. Проверьте историю аккаунта: боты часто начинают с безобидного контента (мемы, религиозные картинки), чтобы набрать подписчиков, а затем переключаются на целевые сообщения. Обращайте внимание на отсутствие уникальных человеческих ошибок и слишком 'идеальную' грамматику в нескольких языках.
Теория стала популярной из-за реального ощущения деградации качества онлайн-взаимодействий и роста автоматизированного контента. Люди замечают увеличение спама, повторяющегося контента, подозрительных аккаунтов и снижение 'человечности' в сети. Теория предлагает простое объяснение сложному феномену, что делает её привлекательной. Кроме того, реальные случаи массового использования ботов для дезинформации (S001) придают теории видимость правдоподобности, хотя она и преувеличивает масштаб проблемы до конспирологического уровня.
Основные риски включают: эрозию доверия к информации в сети, манипуляцию общественным мнением и выборами, распространение дезинформации в критических ситуациях (здоровье, безопасность), создание искусственного консенсуса вокруг ложных идей, поляризацию общества через усиление конфликтных нарративов, подрыв демократических процессов. Долгосрочный эффект — невозможность отличить реальное от искусственного, что разрушает информационную экологию и делает людей уязвимыми к манипуляциям (S001, S003). Это также создаёт 'информационный шум', в котором достоверные источники тонут.
Физическая аутентификация на уровне устройств IoT использует уникальные характеристики радиосигналов и каналов связи для проверки подлинности устройства без необходимости в криптографических ключах. Это альтернатива традиционной аутентификации, особенно важная для устройств с ограниченными вычислительными ресурсами и батареей (S008). Метод скрывает seed-информацию от атакующих, что повышает безопасность. Однако подход имеет ограничения: низкую устойчивость при флуктуациях канала, overhead на согласование и отсутствие чёткой 'безопасной дистанции' для защиты ключей (S008). Для борьбы с социальными ботами это менее применимо, но показывает направление развития аутентификации.
Напрямую не связана, но обе темы отражают кризис цифровой экологии. Проблемы авторского права в эпоху ИИ (например, дело Hachette v Internet Archive) показывают, как технологии нарушают традиционные социальные контракты (S005). Генеративный ИИ создаёт контент, используя данные без согласия авторов, что параллельно проблеме ботов, создающих контент без человеческого участия. Обе ситуации демонстрируют, как ИИ размывает границы между оригинальным и производным, человеческим и машинным, что усиливает ощущение 'мёртвого' интернета.
Генеративный ИИ радикально меняет интернет, создавая новую эру информационного поиска (GenIR) и взаимодействия (S002, S006). ИИ генерирует тексты, изображения, видео и код в масштабах, недоступных людям, что создаёт массу синтетического контента. В IoT-экосистемах генеративный ИИ открывает новые возможности, но и создаёт вызовы безопасности и приватности (S006). Проблема в том, что этот контент часто неотличим от человеческого, что размывает границы реальности и создаёт почву для дезинформации. Генеративный ИИ — это инструмент, который может использоваться как для созидания, так и для манипуляции.
Быстрый протокол проверки: 1) Проверьте источник — кликните на профиль автора, посмотрите дату создания и историю постов. 2) Поищите информацию в нескольких независимых источниках — если находите только в одном месте или копипасту, это красный флаг. 3) Обратите внимание на эмоциональную окраску — боты часто используют гипербола и страх. 4) Проверьте изображения через обратный поиск — AI-генерированные картинки часто имеют артефакты (странные руки, текст, симметрия). 5) Спросите себя: 'Кому выгодно, чтобы я в это поверил?' Если информация вызывает сильную эмоцию и требует немедленного действия — остановитесь и проверьте.
Немедленные действия: 1) Не взаимодействуйте с контентом (лайки, репосты усиливают алгоритмическую видимость). 2) Используйте функцию 'Report' или 'Пожаловаться' на платформе, указав причину 'Spam' или 'Fake account'. 3) Заблокируйте аккаунт, чтобы он не появлялся в вашей ленте. 4) Предупредите других — если бот распространяет дезинформацию, сообщите об этом в комментариях или личных сообщениях тем, кто взаимодействует с ним. 5) Документируйте — сделайте скриншоты для возможного расследования. Помните: платформы часто медленно реагируют, поэтому массовые жалобы эффективнее.
Deymond Laplasa
Deymond Laplasa
Исследователь когнитивной безопасности

Автор проекта Cognitive Immunology Hub. Исследует механизмы дезинформации, псевдонауки и когнитивных искажений. Все материалы основаны на рецензируемых источниках.

★★★★★
Профиль автора
Deymond Laplasa
Deymond Laplasa
Исследователь когнитивной безопасности

Автор проекта Cognitive Immunology Hub. Исследует механизмы дезинформации, псевдонауки и когнитивных искажений. Все материалы основаны на рецензируемых источниках.

★★★★★
Профиль автора
// ИСТОЧНИКИ
[01] The spread of low-credibility content by social bots[02] Opinion Paper: “So what if ChatGPT wrote it?” Multidisciplinary perspectives on opportunities, challenges and implications of generative conversational AI for research, practice and policy[03] Artificial Intelligence and its Drastic Impact on E-Commerce Progress[04] The future of social media in marketing[05] Artificial Intelligence and the Spread of Mis- and Disinformation[06] The role of artificial intelligence in achieving the Sustainable Development Goals[07] Can Public Diplomacy Survive the Internet?: Bots, Echo Chambers, and Disinformation[08] AI could create a perfect storm of climate misinformation

💬Комментарии(0)

💭

Пока нет комментариев