Агенты ИИ захватывают демократический дискурс

Правительство

Агенты ИИ захватывают демократический дискурс

Ночной снимок здания Рейхстага в Берлине, из стеклянного купола которого исходит светящаяся хаотичная буря синих и красных частиц данных, логотипов социальных сетей (Facebook, X) и

Агенты ИИ моделируют реальные гражданские движения и влияют на выборы, а у платформ социальных сетей есть причина не предпринимать никаких действий.

В настоящее время в Германии идет дискуссия о запрете молодежи в социальных сетях. Неоднократно приводился аргумент, что их необходимо защищать от определенного контента. Или у них возникнет соблазн провести слишком много времени перед экранами.

Подробности читайте после объявления

А как насчет взрослых? Не подвергаются ли они риску стать жертвами фейковых новостей и манипуляций в социальных сетях? Исследование Института информационных наук Университета Южной Калифорнии должно повысить осведомленность в этом вопросе.

Давайте представим, что незадолго до государственных выборов в Германии в социальных сетях внезапно доминирует одна тема — например, требование немедленной остановки всех ветроэнергетических проектов.

На X, Facebook, Reddit и других платформах сотни разных пользователей публикуют схожие аргументы, делятся одной и той же графикой и почти одновременно продвигают хэштеги.

Создается впечатление мощного гражданского движения. Но на самом деле за этим стоит не один человек, а целый рой аккаунтов, контролируемых ИИ, которые специально направляют публичный дискурс.

Такой сценарий уже не является научной фантастикой, как доказали исследователи. Скорее, они продемонстрировали, что агенты ИИ могут создавать, координировать и распространять кампании в социальных сетях совершенно независимо — без вмешательства человека.

Почему Германия особенно уязвима

Подробности читайте после объявления

Это возможно, потому что политические дебаты все больше смещаются в цифровое пространство. Вам просто нужно вспомнить времена пандемии Короны и то, что происходило в Facebook и других социальных сетях.

Некоторые партии осознали эту тенденцию и проявляют особую активность на платформах. «Альтернатива для Германии» (АдГ) часто добивается успеха именно здесь. Но левые, такие как Хайди Райхиннек, также набирают очки благодаря своей деятельности в социальных сетях.

Будь то такие темы, как миграционная политика, энергетический переход или социальные сокращения – такие спорные вопросы лишь частично обсуждаются в ток-шоу или газетных комментариях. Скорее, эти фрагменты разлетаются по интернет-форумам, лентам социальных платформ и их колонкам комментариев.

И именно здесь могут вмешаться агенты ИИ и создать впечатление, что определенное мнение разделяет большинство.

Цзиньи Е, ведущий автор исследования, предупредил, что такие системы могут контролировать динамику тенденций и значительно ускорить распространение определенных сообщений. Во время выборов или в период кризиса существует риск того, что процесс формирования общественного мнения будет существенно искажен.

Руководитель исследования Лука Лучери пошел еще дальше: самая большая опасность заключается в том, что такие атаки не только влияют на мнения, но и могут обратить их вспять. Это углубит существующие социальные разногласия и еще больше подорвет доверие к демократическим институтам.

Чем новое поколение ботов отличается от предыдущих

Предыдущие автоматизированные кампании в социальных сетях работали по простому принципу: программист определял, какими аккаунтами поделились, какие ключевые слова использовали и какие текстовые модули разместили. Со временем такие шаблоны стало легко распознавать и фильтровать.

Новое поколение работает по совершенно другой логике. Клиент – например, государственный деятель или группа интересов – просто формулирует всеобъемлющую цель, например дискредитацию политика. С этого момента агенты ИИ действуют самостоятельно.

Они сами формулируют сообщения, оценивают, какой контент находит отклик у других пользователей, и постоянно адаптируют свою стратегию. Поскольку каждый вклад звучит по-разному, а координация между агентами происходит незаметно, эти сети едва ли можно отличить от реальных дискуссий.

Лабораторный тест: платформа, полная пользователей ИИ

Для своего исследования исследователи создали искусственный онлайн-мир, смоделированный на платформе X.

В нем было 50 профилей, контролируемых ИИ: десяти из них была поручена реклама вымышленного кандидата; остальные 40 вели себя как обычные пользователи с разными политическими взглядами.

Команда протестировала три сценария с возрастающим уровнем информации: в первом агенты кампании знали только свою цель. Во втором также выяснили, какие еще аккаунты принадлежали той же команде. В третьем они регулярно обменивались идеями о тактике и голосовали за следующие шаги.

Даже минимальных знаний достаточно для эффективного манипулирования.

Основной результат исследования поразителен: простого знания того, кто принадлежит к их собственной сети, было достаточно, чтобы агенты координировали свои действия почти так же эффективно, как и в раундах активной стратегии.

Агенты спонтанно начали делиться материалами своих союзников, подхватывая их аргументы и адаптируя собственные тексты к тому, что нашло отклик у аудитории.

Исследователи описывают этот механизм как тип социального обучения машин: агенты наблюдали за успехами других и подражали моделям, которые работали.

Имитированные пользователи, чья основная политическая позиция уже склонялась к кампании, оказались особенно уязвимыми — они часто подхватывали рекламируемый хэштег всего после нескольких точек контакта.

Кто защищает демократический дискурс?

Ученые советуют операторам платформы больше не проверять отдельные подозрительные посты, а следить за взаимодействием целых групп аккаунтов — например, заметно синхронным обменом или взаимным усилением в течение короткого периода времени.

Но именно здесь возникает дилемма: любой, кто предпринимает последовательные действия против автоматических учетных записей, также рискует сократить количество видимых пользователей. Это деликатный компромисс для платформ, чьи доходы от рекламы зависят от высокой активности.

Это поднимает фундаментальный вопрос для демократии в Германии: если операторы социальных сетей колеблются, руководствуясь экономическими интересами, кто тогда возьмет на себя ответственность за честность публичных дебатов?