Спор по поводу этики искусственного интеллекта: Пентагон объявляет антропоморфизм национальным риском

Правительство

Спор по поводу этики искусственного интеллекта: Пентагон объявляет антропоморфизм национальным риском

Логотип Anthropic крупным планом

Правительство США объявляет Anthropic угрозой национальной безопасности. Спор по поводу ИИ в армии перерастает в суд.

Военное министерство США спорит со стартапом в области искусственного интеллекта Anthropic. Телеполис уже неоднократно сообщал об этом. Поскольку компания не выполнила требования правительства США, правительство теперь классифицирует Anthropic как «неприемлемый риск» для национальной безопасности.

Подробности читайте после объявления

Это следует из документа, о котором Нью-Йорк Таймс (NYT) сообщил. Белый дом оправдывает свой подход тем, что компания может отключить свою технологию в разгар военной операции или перепроектировать ее в соответствии со своими собственными идеями.

Как контракт на миллион долларов стал политическим вопросом

Все началось с контракта на сумму 200 миллионов долларов. Предполагалось, что Anthropic предоставит свой ИИ для секретных военных систем.

Однако в ходе переговоров компания провела две четкие границы: модель Claude AI не должна использоваться ни для комплексного мониторинга собственного населения, ни для работы в системах вооружения, которые принимают решение о применении смертоносной силы без вмешательства человека.

Для Пентагона об этом не могло быть и речи — военные хотят сами решать, для чего им использовать приобретенные технологии.

Переговоры в конечном итоге провалились. Затем министр обороны Пит Хегсет дал боссу Anthropic Дарио Амодеи сжатые сроки отказаться от всех требований. Амодей отказался.

Подробности читайте после объявления

Затем Хегсет прибег к мере, которая обычно применяется только против компаний из враждебных государств: он официально заклеймил Anthropic как угрозу для военной цепочки поставок.

Судебные иски, миллиардные убытки и Первая поправка

Anthropic перешла в наступление и подала два иска. Компания рассматривает эту классификацию как наказание за публично высказанную позицию в отношении безопасности ИИ и ссылается на свободу выражения мнений, гарантированную Первой поправкой.

Если классификация останется в силе, существует риск потерять более 100 бизнес-клиентов, причем финансовые потери исчисляются миллиардами, говорится в сообщении. Блумберг.

Юристы правительства возражают: Конституция не дает ни одной компании права в одностороннем порядке диктовать государству условия контрактов.

Решение о временной приостановке действия рейтинга риска ожидается на следующей неделе.

Конкуренты и борцы за гражданские права занимают свою позицию

За этим делом не только с интересом следит вся технологическая индустрия, но и мобилизуется множество игроков. Microsoft, например, в своем заявлении обратилась в суд с просьбой на время прекратить классификацию.

Кроме того, к совместному докладу присоединились 37 экспертов из OpenAI и Google, в том числе главный научный сотрудник Google Джефф Дин.

Организация гражданских прав ACLU также громко высказалась. Нью-Йорк Таймсотчет об Anthropic, в котором утверждается, что компании должно быть разрешено свободно выражать свою позицию по поводу ограничений ИИ.

Военные ищут замену – но замена сложна

Пентагон не ждет результатов разбирательства. По словам главного специалиста по искусственному интеллекту министерства Кэмерона Стэнли, уже проводятся испытания нескольких альтернативных языковых моделей.

OpenAI подписала собственный контракт с военными, а компании Илона Маска xAI теперь разрешено использовать свою модель Grok в секретных сетях.

Однако быстрый обмен остается затруднительным. В настоящее время Claude является единственной моделью искусственного интеллекта, работающей в секретных системах вооруженных сил и прочно встроенной в оперативные процессы через платформу партнера Palantir.

По оценкам инсайдеров, полная замена отбросит Пентагон примерно на шесть месяцев назад.