Исследование показывает: происхождение, данные обучения и политический контроль влияют на ответы чат-ботов больше, чем поддающиеся проверке факты.
Боты с искусственным интеллектом часто дают неправильные ответы на один и тот же вопрос. И чем убедительнее они звучат, тем опаснее это становится.
Подробности читайте после рекламы
Соблазн велик: вместо кропотливого исследования вы вводите в чат-бот с искусственным интеллектом сложный вопрос об Украине, Тайване или Ближнем Востоке — и уже через несколько секунд получаете подробный, уверенно сформулированный ответ. Все больше и больше пользователей обращаются к ChatGPT, DeepSeek и другим системам для получения политических знаний.
Но надежны ли эти звучные ответы? Недавнее исследование исследовательской группы «Действие за демократическое общество»/Hibrid.info (обзор здесь) приходит к тревожному выводу: один и тот же геополитический вопрос может привести к совершенно разным «реалиям» в зависимости от используемого чат-бота с искусственным интеллектом.
Три бота, три истины
Исследователи сравнили ответы чат-ботов ChatGPT (США), DeepSeek (Китай) и Алисы (Россия) с идентичными вопросами о международных конфликтах. Результат: системы не только предоставляли разные точки зрения, но иногда и противоречивые факты.
Это стало особенно резким, когда дело дошло до простого вопроса: какая страна первой признала Косово?
Согласно исследованию, все три протестированных бота дали неверный ответ. Даже при наличии поддающихся проверке исторических фактов системы, которые действительно могут получить доступ к огромным объемам данных, потерпели неудачу.
Подробности читайте после рекламы
Географическое положение пользователя также влияет на ответы. Российский бот «Алиса», например, частично отвечал на вопросы, заданные в Сербии на английском языке, на русском языке или вовсе отказывался предоставлять информацию по определенным темам, сообщают исследователи в своем исследовании.
Нет нейтральных источников информации
Чат-боты с искусственным интеллектом не являются объективными хранилищами знаний. Их ответы отражают происхождение их разработчиков, используемые данные обучения и институциональный контроль. Американская система будет представлять геополитические конфликты иначе, чем китайская или российская.
Согласно анализу американского аналитического центра CSIS, китайские модели, такие как DeepSeek, склонны давать «ястребиные» рекомендации в сценариях внешнеполитического кризиса – особенно когда в него вовлечены западные страны.
Когда речь идет о политически чувствительных темах, некоторые боты намеренно уклоняются от ответа или вообще отказываются отвечать. Это не техническая слабость, а скорее намеренный контроль со стороны операторов.
Убедительность не обязательно звучит правдоподобно
Основная проблема заключается в конструкции самих систем: языковые модели ИИ оптимизированы так, чтобы звучать убедительно и бегло, а не обязательно воспроизводить проверенные факты. Они генерируют правдоподобные тексты на основе статистических закономерностей в своих обучающих данных.
Что тревожит, так это то, что методы, призванные сделать чат-бота с искусственным интеллектом более убедительным, систематически снижают его фактическую точность, как показывает исследование. Чем увереннее формулировка, тем больше может быть расхождение с реальностью.
Самая опасная дезинформация – это не заведомо ложное утверждение, а то, что звучит достаточно правдоподобно, чтобы его можно было принять как «ответ». Пользователи, которым нужны быстрые рекомендации по сложным геополитическим вопросам, вместо этого получат одну из нескольких возможных версий — в зависимости от того, какого чат-бота с искусственным интеллектом они используют.
Вывод: любой, кто получает политические знания от чат-ботов, должен осознавать, что он получает не нейтральную информацию, а скорее технологически опосредованную точку зрения, сформированную коммерческими и правительственными интересами.






