Новое исследование показывает: искусственный интеллект может идентифицировать пользователей под псевдонимами в социальных сетях с высоким уровнем посещаемости. Что это значит для вас?
Тот, кто публикует сообщения в социальных сетях под псевдонимом, часто чувствует себя в безопасности. Соответственно, стиль дебатов часто бывает диким.
Подробности читайте после объявления
Недавнее исследование, проведенное исследователями из ETH Zurich и компанией искусственного интеллекта Anthropic, теперь показывает, что большие языковые модели — технология, лежащая в основе ChatGPT и подобных инструментов — могут с удивительной точностью назначать анонимные учетные записи реальным людям.
Как искусственный интеллект подрывает вашу анонимность
Исследователи снабдили системы искусственного интеллекта анонимными профилями, основанными на данных реальных пользователей. Реддит и ХакерНовости и пусть они ищут в Интернете подходящие личности.
Модели анализировали неструктурированные тексты, то есть обычные комментарии и сообщения, и извлекали такую информацию, как интересы, профессиональные данные, стиль письма или географическая информация. Затем они сравнили эти сигналы с общедоступными профилями на таких платформах, как LinkedIn.
Пример исследователей иллюстрирует принцип: пользователь пишет о школьных проблемах и гуляет со своей собакой Бисквитом по определенному парку. ИИ ищет именно эти данные на других платформах и с высокой степенью достоверности присваивает анонимную учетную запись реальному человеку.
В экспериментах процент попаданий достигал 68 процентов, а точность правильных заданий — до 90 процентов.
Подробности читайте после объявления
Почему старая модель безопасности больше не работает
До сих пор псевдонимность обеспечивала защиту прежде всего потому, что разоблачение требовало огромных усилий. «Если ваша оперативная безопасность требует, чтобы никто не мог часами или днями расследовать, кто вы, то эта модель безопасности устарела», — сказал автор исследования Дэниел Палека. КиберСкуп.
Искусственный интеллект выполняет задачи, на выполнение которых у человека-исследователя ушли бы часы, всего за несколько минут – и с минимальными затратами.
По словам Палеки, модели могут проводить базовые исследования, такие как поиск в Интернете следов человека в поисках подсказок о национальности, местоположении или месте работы, за «пять секунд».
Все, что нужно хакерам, — это доступ к общедоступным языковым моделям и подключение к Интернету.
Конкретные опасности: доксинг, мошенничество и слежка.
Исследователи предупреждают о нескольких сценариях:
- Правительства могли бы использовать искусственный интеллект для наблюдения за диссидентами и активистами.
- преступник могут предпринимать «высоко персонализированные» попытки мошенничества, так называемый целевой фишинг, при котором злоумышленники выдают себя за доверенных лиц.
- Преследовать могли бы создать подробные маркетинговые профили.
Реальный случай уже показывает последствия: недавно громко заявил об инструменте искусственного интеллекта Grok от xAI. Хранитель настоящее имя и адрес порноактрисы, которая работала под сценическими псевдонимами более десяти лет. Их личная информация затем распространилась по всему Интернету.
Питер Бентли, профессор компьютерных наук Университетского колледжа Лондона (UCL), также предостерег от неправильной атрибуции: «Людей будут обвинять в том, чего они не делали».
Чем больше вы публикуете, тем более узнаваемыми вы становитесь
Исследование показывает четкую связь между общей информацией и идентифицируемостью.
Для пользователей, которые обсуждали только один фильм в субреддитах о фильмах, процент попаданий составлял около трех процентов. Когда обсуждалось более десяти фильмов, этот показатель вырос до более чем 48 процентов.
Даже, казалось бы, безобидные детали складываются в цифровой отпечаток пальца.
Что пользователи и платформы должны делать сейчас
Автор исследования Саймон Лермен рекомендует платформам в качестве первого шага ограничить доступ к данным: ограничить скорость загрузки пользовательских данных, обнаружить автоматическое парсинг и ограничить массовый экспорт.
Однако Джейкоб Хоффман-Эндрюс из Electronic Frontier Foundation подчеркнул КиберСкупчто пользователи не обязательно должны быть «экспертами в том, как уклоняться от действительно преданного противника».
Есть одна вещь, которая остается превыше всего для человека: делитесь меньше личными данными, регулярно удаляйте сообщения и не раскрывайте одну и ту же информацию на нескольких платформах.
Потому что, как и Марк Хуарес, преподаватель кибербезопасности в Эдинбургском университете, напротив Хранитель сказал: «Это исследование показывает, что нам следует переосмыслить нашу практику».






