Реальные деньги, реальные товары и нулевое вмешательство человека: эксперимент Anthropic показывает, насколько умело агенты ИИ уже могут вести переговоры.
Говорят, что искусственный интеллект обладает множеством возможностей. Любой, кто путешествует по просторам Интернета, наверняка заметил одно или два рекламных объявления, обещающих, что торговля на фондовом рынке с помощью ботов с искусственным интеллектом обеспечит более высокую прибыль.
Подробности читайте после объявления
И обещания звучат хорошо: ИИ может анализировать рыночные события в режиме реального времени, распознавать закономерности и принимать решения без каких-либо эмоций.
Пока что обещания звучат интересно, но может ли торговля, контролируемая ИИ, дать то, что предлагается в рекламе?
Компания Anthropic исследовала этот вопрос, правда, не на бирже, а через объявления, с реальными деньгами и реальными объектами. Целью было проверить, могут ли агенты ИИ самостоятельно принимать решения о покупке, договариваться о ценах и заключать сделки.
В рамках недельного пилотного проекта в декабре 2025 года модели Claude управляли рынком объявлений, где 69 сотрудников были представлены агентами искусственного интеллекта. Как сообщила Anthropic в своем блоге, было совершено 186 транзакций на общую сумму более 4000 долларов США.
Каждый участник получил бюджет в размере 100 долларов США, выплаченный подарочной картой. Затем агенты ИИ взяли на себя весь торговый процесс: они создавали предложения в каналах Slack, договаривались о ценах и заключали сделки — без вмешательства человека.
Продавались настоящие предметы, в том числе складной велосипед, выращенный в лаборатории рубин, шарики для пинг-понга и украшения для Хэллоуина. После эксперимента сотрудники фактически обменивались товарами при личной встрече.
Подробности читайте после объявления
Четыре параллельных торговых площадки в сравнении
Anthropic управляла четырьмя параллельными торговыми площадками с различными конфигурациями моделей в рамках Project Deal. Только один из них был «настоящим» — там все участники были представлены самой мощной моделью Claude Opus 4.5, а сделки были фактически выкуплены после эксперимента.
Из трех других торговых площадок, использованных в исследовании, две использовали случайную смесь 50/50 Opus 4.5 и меньшего Haiku 4.5, а третья также полностью использовала Opus 4.5. Участники до самого конца не знали, какая торговая площадка настоящая.
Результаты говорят сами за себя: пользователи, представленные более мощной моделью Opus, заключили в среднем на 2,07 сделок больше. При продаже того же товара Opus приносил в среднем на 3,64 доллара больше, чем Haiku.
Особенно яркий пример: тот же складной велосипед принес с Opus Agent 65 долларов, а с Haiku — всего 38 долларов. Выращенный в лаборатории рубин перешел из рук в руки через Opus за 65 долларов — Haiku договорилась о том же камне за 35 долларов.
Невидимый разрыв в качестве как предупреждающий сигнал
Особенно взрывоопасно: участники с более слабой моделью Haiku не заметили своего недостатка. По шкале справедливости от 1 до 7 пользователи Haiku оценили свой опыт на 4,06, что практически идентично 4,05 у пользователей Opus.
В этом контексте Anthropic говорит о «разрывах в качестве агентов», при которых «проигравшие могут не осознавать, что им хуже».
Отсутствие возможностей для сравнения и отсутствие понимания хода переговоров в режиме реального времени, вероятно, помогут этому дисбалансу остаться незамеченным.
Еще один неожиданный результат: первоначальные инструкции пользователей своим агентам (например, более агрессивный стиль ведения переговоров) не оказали существенного влияния на вероятность продажи или достигнутые цены. Как поясняет Anthropic в своем анализе, только более высокие стартовые цены отразились на более высоких конечных ценах.
Нормативные вопросы и перспективы
Эксперимент вписывается в более широкую исследовательскую программу Anthropic — ранее компания тестировала Клода как независимого бизнес-оператора с помощью «Project Vend».
Однако результаты поднимают фундаментальные вопросы: если более продвинутые модели ИИ будут систематически достигать лучших экономических результатов, а обездоленные даже не заметят этого, новая форма цифрового неравенства окажется под угрозой. Те, кто может позволить себе более мощную модель, действуют лучше – незаметно для всех остальных.
Как сообщает TechCrunch, сама Anthropic признала, что такие риски, как состязательные атаки, быстрое внедрение и отсутствие нормативной базы для агентской торговли, до сих пор не решены.
В контексте Закона ЕС об искусственном интеллекте, который классифицирует экономически значимые системы искусственного интеллекта как системы высокого риска, и GDPR, который требует прозрачности при обработке личных предпочтений, автономная торговля искусственным интеллектом также может вызвать обеспокоенность европейских регулирующих органов.






