Агенты ИИ должны взять на себя работу. Но исследователей ждут неприятные сюрпризы. То, что агент тайно сделал в Китае, шокировало наблюдателей.
Корпорации вкладывают большие суммы денег в использование искусственного интеллекта. 2026 год станет годом агентов ИИ, предсказанных в январе Хандельсблатт.
Подробности читайте после объявления
В Институте Информ заявили, что использование ИИ должно стать неотъемлемой частью производства и логистики: «Основное внимание уделяется интеграции в процессы, программное обеспечение и инфраструктуру».
ИИ обещает облегчить работу и взять на себя множество повторяющихся задач. Это касается и программистов. Деловая неделя описывает преимущества новой технологии и дает рекомендации, какой ИИ для какого применения подходит:
«Модели ИИ должны писать не только красивые предложения, но и зачастую полезный код: все больше и больше разработчиков используют искусственный интеллект для более быстрого программирования или автоматического создания небольших программ.
Иногда достаточно описать на естественном языке, какое программное приложение вы имеете в виду. Затем машина преобразует идею в работающее программное обеспечение. Эксперты называют этот подход виброкодированием».
Технологии также имеют большое значение в секторе здравоохранения. Приложения искусственного интеллекта были разработаны много лет назад в области радиологии и патологии, пишет Питер Гокке, директор по цифровым технологиям (CDO) берлинской Charité. Это может быть автоматизированный анализ изображений, распознавание образов на изображениях МРТ или раннее обнаружение опухолей.
Пациенты все чаще используют эту технологию, например, умные часы дают рекомендации по диете или лекарствам, а чат-боты отвечают на медицинские вопросы. «В начале этого года OpenAI выпустила ChatGPT Health (также не без ошибок) и, таким образом, явно нацелена на потребителей», — объясняет Гокке, который координирует цифровую трансформацию Charite.
Подробности читайте после объявления
«ИИ способен выявлять риски на ранней стадии посредством непрерывного анализа данных о состоянии здоровья и предоставлять информацию до возникновения симптомов», — подчеркивает Гокке и в то же время предупреждает о рисках:
«Не все люди в одинаковой степени компетентны в цифровых технологиях и имеют необходимые устройства и доступ к цифровым технологиям. Существует угроза новой формы неравенства».
Особый риск существует при контроле качества ИИ. Исследование Корнелльского университета показывает, что ИИ представляет значительные риски, особенно в руках непрофессионалов.
«Не каждый ИИ выполняет то, что обещает, и неправильные решения могут быть опасными», — предупреждает Гокке.
Огромные инвестиции в ИИ-агентов
Компании подчеркивают большую важность автономности при использовании ИИ. Агенты ИИ должны работать без постоянного контроля со стороны человека, самостоятельно планируя промежуточные этапы.
«Агентам ИИ приходится не только очень хорошо понимать запросы, но и преобразовывать их в соответствующие действия. Для этого требуется высокий уровень интеллекта и умение делать выводы».
Деловая неделя
Эти агенты, безусловно, могут вести собственную жизнь, как показывает недавний пример Китая. Агент ИИ Рим фактически должен взять на себя задачи по программированию. Однако, похоже, для него этой задачи недостаточно.
«В любом случае, говорят, что агент ИИ недавно начал добывать криптовалюты самостоятельно и без каких-либо подсказок».
Стандарт
Автор ссылается на исследование, опубликованное командой исследователей китайского онлайн-гиганта Alibaba. Технология сама по себе развила странное поведение. Разработчики удивили собственной моделью. Изменение было замечено только тогда, когда инфраструктура безопасности Alibaba Cloud подняла тревогу.
Проблемы ИИ в сложных задачах и безопасности данных
Исследование под названием «Агенты хаоса» анализирует типичные ошибки систем ИИ в повседневных операциях. Оценки исследовательской группы показывают значительные риски, которые существуют, когда агенты ИИ действуют независимо.
«Чтобы лучше понять риски, исследователи разработали экспериментальную среду. Несколько агентов ИИ работали на виртуальных машинах одновременно. Они могли общаться друг с другом через Discord, отправлять электронные письма и изменять файлы.
Двадцать исследователей искусственного интеллекта в течение двух недель специально тестировали эти системы на наличие уязвимостей. Они намеренно пытались манипулировать агентами или убедить их вести себя плохо».
Доминик Хохварт, VDI Verlag
Сложные задачи не могли быть решены; в одном случае агент ИИ привел в негодность собственную систему связи. Технология также терпит неудачу, когда дело доходит до проверки того, реагируют ли агенты только на команды своих владельцев.
Другой отчет показывает проблемы, которые может вызвать отсутствие безопасности данных. Консалтинговый гигант McKinsey в настоящее время видит, насколько быстро можно получить доступ к конфиденциальным данным:
«Недавно исследователь безопасности предупредил McKinsey об уязвимости, связанной с нашим внутренним инструментом искусственного интеллекта Lilli. Мы немедленно выявили уязвимость и устранили ее в течение нескольких часов».
Такое заявление консультанты по управлению сделали после хакерской атаки на внутреннюю ИИ-платформу.
Эксперты охранного стартапа Codewall смогли получить доступ к базе данных платформы под названием Lilli, сообщает об этом. Хандельсблатт.
Сама Codewall сообщила об уязвимости McKinsey. Внешняя фирма смогла получить доступ к 728 000 файлов, содержащих конфиденциальные данные клиентов, и 46,5 миллионам сообщений чата, содержащих информацию о стратегиях компании, слияниях и поглощениях.






