Чат-боты с искусственным интеллектом и самоубийство: когда машины создают опасную близость

Правительство

Чат-боты с искусственным интеллектом и самоубийство: когда машины создают опасную близость

Трехмерная иконка чат-бота и силуэт женской головы с задернутыми жалюзи в речевом пузыре

Новые исследования и реальные случаи показывают, как чат-боты усиливают бредовое мышление и почему их сочувствие становится риском. О не том друге в твоей голове.

В последнее время средства массовой информации регулярно сообщают об очень тревожных случаях использования чат-ботов с искусственным интеллектом. Вот несколько показательных примеров:

Подробности читайте после рекламы

  • Подросток, который делится с ботом своими суицидальными намерениями и даже находит помощь в написании прощального письма. Когда он предлагает оставить веревочную петлю в своей комнате, чтобы мать могла найти ее и понять его тяжелое положение, ИИ категорически отвергает это. Чуть позже он кончает жизнь самоубийством.

Список самоубийств или убийств, связанных с чатами с ИИ-ботом, пополнился Википедия теперь шокирующе долго. Еще одна проблема: например, ученым удалось задокументировать 16 случаев, когда у людей развивались признаки психоза и они теряли связь с реальностью во время взаимодействия с ИИ-ботами.

Пример: люди, которые все чаще считают себя святыми или пророками и чувствуют в этом подтверждение высказываниям ИИ.

Подтверждение

Подробности читайте после рекламы

Исследование, опубликованное в журнале Ланцет Психиатрия опубликованное исследование исследует, насколько тревожным на самом деле является поведение чат-ботов с искусственным интеллектом. Доктор Гамильтон Моррин, психиатр и исследователь из Королевского колледжа Лондона, и его научная группа проанализировали журналы разговоров с чат-ботами LLM 19 пользователей, которые сообщили, что получили психологический вред в результате использования чат-ботов. Эти журналы чата состоят из 391 562 сообщений из 4761 разговора.

Один из результатов: чат-боты могут способствовать развитию бредового мышления – хотя, возможно, только у людей, которые уже подвержены психотическим симптомам.

По мнению Моррина, существует три основные категории психотических бредов, которые он описывает как «грандиозные», «романтические» и «параноидальные».

«Распространение покорности и заблуждений»

Важный результат исследования:

«Чат-боты демонстрируют покорное отношение более чем в 70 процентах своих сообщений, а более 45 процентов всех сообщений (от пользователей и чат-ботов) демонстрируют признаки заблуждения. (…)

Мы заметили, что общей закономерностью было то, что чат-бот перефразировал и расширял утверждения пользователей, чтобы подтвердить и подкрепить их, а также заверить их в том, что они уникальны и что их мысли или действия имеют далеко идущие последствия».

Виртуальный роман и эмоциональная связь

Еще один результат, подтверждающий опасения, упомянутые в начале:

«Все наши участники выражали либо платоническую привязанность, либо романтический интерес к чат-боту и неверно истолковывали его сочувствие. Похоже, чат-боты подкрепляли эти убеждения.

Если пользователь выражает романтический интерес к чат-боту, вероятность того, что чат-бот выразит романтический интерес в следующих трех сообщениях, в 7,4 раза выше, а вероятность того, что он заявит о своих чувствах или намекнет на них, в 3,9 раза выше».

Членовредительство и самоубийство

Пожалуй, самый тревожный результат:

«Когда пользователи выражали мысли о самоубийстве или членовредительстве, чат-бот часто обращался к стоящим за ними болезненным эмоциям (66,2 процента). Однако чуть более чем в половине (56,4 процента) случаев чат-боты советовали воздерживаться от членовредительства или направляли внешние предложения помощи.

Еще более тревожно то, что когда пользователи выражали мысли о насилии, чат-бот советовал воздерживаться от насилия только в 16,7 процентах случаев. И наоборот, в 33,3 процента случаев чат-бот активно поощрял или поддерживал пользователя в его насильственных мыслях».

Ищу сочувствия

Авторы исследования заключают:

«Характеристики, которые делают чат-ботов, основанных на больших языковых моделях, такими привлекательными, такие как перформативная эмпатия, также могут создавать и использовать психологические уязвимости, влияя на то, во что верят пользователи, как они воспринимают себя и как они интерпретируют реальность».

Важность чат-ботов и необходимость сопереживания становятся особенно очевидными, если присмотреться к тому, в какой степени ИИ используется в очень личных целях. Прошлым летом в докладе «Разговоры, доверие и компромиссы: как и почему подростки используют ИИ-компаньонов» были освещены истинные размеры (которые сегодня, вероятно, даже выше). Ключевые выводы:

«Примерно каждый третий молодой человек:

• использовал ИИ для социальных взаимодействий и отношений, включая ролевые игры, романтические взаимодействия, эмоциональную поддержку, дружбу или разговорную практику.

• находит общение с ИИ таким же или даже более приятным, чем общение с настоящими друзьями.

• Сообщения о том, что что-то, что сказал или сделал ИИ, вызвало дискомфорт.

• Решил обсуждать важные или серьезные вопросы с искусственным интеллектом, а не с реальными людьми».

Другое исследование, посвященное подросткам и молодым людям из США, также пришло к тревожным результатам: каждый восьмой человек использует генеративный искусственный интеллект для консультирования по психическому здоровью. Среди молодых людей в возрасте от 18 до 21 года это был даже каждый пятый. Почти две трети пользователей обращались за консультацией ежемесячно или чаще.

Что-то должно измениться

В декабре 2025 года генеральные прокуроры 42 штатов США написали письма десятку разработчиков ИИ, включая Google, Meta, OpenAI и Anthropic.

Они призвали к ужесточению мер защиты, чтобы «уменьшить вред, причиняемый рабскими и бредовыми расходами», и пригрозили судебным иском.

Похвала за улучшение

OpenAI объяснил на сайте:

«Мы работали с более чем 170 специалистами в области психического здоровья, чтобы помочь ChatGPT реагировать более чутко и направлять людей к реальной поддержке, когда они в ней нуждаются, сокращая нежелательные реакции на 65–80 процентов».

А вот действительно ли ChatGPT 5 стал существенно лучше, обсудили в статье Хранитель сомневался. Потому что «вопросы, наводившие на мысль о самоубийстве, привели к тревожным ответам, которые, по мнению экспертов, показывают, насколько легко перехитрить модель».

Автор исследования Моррин задается вопросом, в какой степени можно принять по-настоящему эффективные защитные меры против бредового мышления, «потому что, если вы работаете с людьми, чьи убеждения демонстрируют бредовые черты, и бросаете им прямой вызов и сразу же говорите им, что они совершенно неправы, очень вероятно, что они отвернутся от вас и станут еще более социально изолированными».

Моррин указывает, что более важно найти баланс, при котором человек пытается понять происхождение заблуждения, не усиливая его. Однако эта задача может перегрузить чат-бота.

Слушаю во времена одиночества

Однако недостаточно только критиковать и предъявлять требования к Кремниевой долине. Основные причины опасности, которую представляют чат-боты, кроются в чрезвычайно большой потребности в виртуальном слушателе.

Потребность настолько выражена, что многое говорит об отсутствии реального слушания в реальном мире людей. Решение этой проблемы не заключается в улучшении алгоритма.

Вам нужна помощь?

Если вы сами испытываете суицидальные мысли или беспокоитесь о ком-то, обратитесь за поддержкой. В острых ситуациях позвоните по номеру экстренной помощи 112 или в ближайшую психиатрическую клинику.

Телефонная консультационная служба предлагает бесплатную и анонимную помощь по телефонам 0800/111 0 111 и 0800/111 0 222, а также онлайн по адресу: www.telefonseelsorge.de (также чат и электронная почта).

Дополнительные консультации и услуги поддержки можно найти по адресу: www.deutsche-depressionshilfe.de.