Дипфейковое мошенничество: почему вы больше не можете доверять своему начальнику

Правительство

Дипфейковое мошенничество: почему вы больше не можете доверять своему начальнику

Палец агрессивно показывает с ноутбука

Мошенники используют дипфейки искусственного интеллекта для имитации целых видеоконференций, тем самым охотясь на миллионы ничего не подозревающих сотрудников.

Новые ИТ-системы во многих местах определяют повседневную работу, но на практике при их использовании часто возникают проблемы. Искусственный интеллект широко распространен. 40 процентов компаний в этой стране уже используют ИИ, а 21 процент планируют использовать его в ближайшем будущем.

Подробности читайте после рекламы

Таков результат исследования «Института обучения и инноваций в сетях» Университета прикладных наук Карлсруэ, в ходе которого были опрошены компании среднего размера с численностью сотрудников от 20 до 500 человек.

Это меняет требования к работникам. В Институте рынка труда и профессиональных исследований говорят о потрясениях на рынке труда. «В результате внедрения ИИ около 1,6 млн рабочих мест будут либо потеряны, либо созданы в течение следующих 15 лет, что указывает на значительные сдвиги в отдельных секторах экономики. Общее количество рабочих мест останется в основном стабильным по сравнению с текущим путем развития», — таков сценарий.

Изменения уже заметны в вашей личной жизни. ChatGPT стал «одной из крупнейших повествовательных, если не сказать бессмысленных, машин в мире», критикует в журнале культурный критик Георг Зисслен. Третий Всемирный информационный центр:

«Как та соседка, которую мы находим очень милой, но по большей части раздражающей, ей есть что сказать обо всем. Она находит ответ на каждый вопрос, даже риторический вопрос, и — несмотря на несколько симптоматических неудач — она ведет себя более или менее дипломатично. Она просто выше этого, великая метафизико-техническая умница. Чат-боты на самом деле были только развлечением, пока они были новичками».

Что касается вопросов ответственности, то здесь многое еще неясно.

В компаниях технологии все чаще используются для контроля работы. Эксперты по трудовому праву предостерегают от нерегулируемых территорий. «Искусственный интеллект быстро меняет мир труда. Чтобы гарантировать использование возможностей и избежать рисков, использование ИИ в компании требует четких правил», — подчеркивает Ева-Мария Стопкотте, редактор отраслевого журнала. Трудовое право в компании.

Подробности читайте после рекламы

Юридические последствия часто неясны. Особенно при использовании ИИ возникает вопрос, кто несет ответственность за ущерб. Европейский Союз постарался идти в ногу с этим развитием и в 2024 году издал Регламент AI (Регламент AI). «Однако многие вопросы ответственности, в частности, остаются нерешенными после того, как Комиссия ЕС отозвала проект директивы об ответственности за искусственный интеллект», — жалуются д-р Надин Крамер и Доминик Зюсс из юридической фирмы Covington & Burling в Юридическая Трибьюн Онлайн.

Однако изначально ответственность несет компания, «поскольку при использовании систем искусственного интеллекта оператор, в данном случае работодатель, который несет предпринимательский риск и, следовательно, несет ответственность за организацию своего бизнеса и рабочее оборудование, помимо прочего, обязан заботиться об организации их использования».

Сюда также входит требование к обучению в соответствии со статьей 4 Регламента ИИ: если сотрудники работают с ИИ, компания должна передать навыки ИИ.

«Требование к обучению в соответствии с Постановлением об искусственном интеллекте, таким образом, влияет на все отношения ответственности с участием сотрудников. Поэтому его соблюдение имеет важное значение. Проблема в том, что Постановление об искусственном интеллекте не содержит каких-либо конкретных указаний относительно того, как следует проводить обучение».

Надин Крамер, Доминик Зюсс

Боязнь дипфейков

Вопросы ответственности становятся более сложными в случае хакерских атак. Существует большая обеспокоенность по поводу дипфейков, которые сейчас наводняют Интернет. Придуманные видеоряды могут показать людей в опасных ситуациях. Для телефонного мошенничества существуют такие инструменты, как ElevenLabs, Resemble.ai или Speechify, которые позволяют создавать синтетические голоса, используя всего лишь несколько минут голосового материала.

По данным цифровой ассоциации Bitkom, дипфейки вызывают неуверенность у многих людей. Потому что обыватель зачастую не может отличить реальность от фальши. Восемь из десяти немцев (81 процент) говорят, что не распознают дипфейк. 44 процента говорят, что уже попались на дипфейк. 70 процентов считают, что фотографиям и видео сегодня уже нельзя доверять, а 63 процента даже говорят, что их пугают дипфейки.

В повседневной деловой жизни манипулируемый контент может служить мошенническим целям. Это может представлять серьезную угрозу для компаний. Одной из тенденций является мошенничество с генеральным директором – мошенничество, в котором преступники выдают себя за главу компании (генерального директора), чтобы получить конфиденциальные платежи:

Сотрудник получает сообщение от предполагаемого финансового директора с просьбой перевести деньги на счет. И не информируя об этом никого в компании. Если у человека возникнут подозрения в отношении этой секретной транзакции, будут приняты дальнейшие меры. Преступники используют «социальную инженерию», чтобы вызвать доверие и оказать давление на жертв, чтобы те выполняли свою работу незаметно. Это может быть видеозвонок с несколькими доверенными контактами или подключение к встрече с менеджерами в другом месте. Большую часть времени мы работаем в условиях дефицита времени. Сотруднику одному будет сложно все это проверить.

«Преступники обычно действуют очень ловко, сначала собирая как можно больше информации о компании и ее структурах. Особое внимание злоумышленники уделяют информации о деловых партнерах и будущих инвестициях, контактам электронной почты или даже информации в социальных сетях о сотрудниках компании. (…)

Это означает, что им регулярно удается заставить даже опытных сотрудников переводить крупные суммы. Ущерб сейчас составляет несколько миллионов евро».

Полиция NRW

Эти сценарии ни в коем случае не являются преувеличением. В 2024 году мошенники в Гонконге украли 23 миллиона евро с помощью фейковой видеоконференции. Слабые стороны технологии обошли с помощью «аферы с боссом»: преступники выдают себя за высокопоставленных менеджеров, чтобы организовать крупные денежные переводы. Весь финансовый директор был подключен к этой цифровой конференции через фейк.