Исследователи из Palo Alto Networks Unit 42 обнаружили, что специализированные языковые модели WORMGPT и KawaiiGPT активно используются киберпреступниками для создания вредоносного кода и фишинговых атак. Тестирование показало, что эти ИИ способны генерировать полнофункциональные программы-вымогатели с пугающей легкостью.
WORMGPT, которую называют "злым близнецом ChatGPT", продемонстрировала способность создавать PowerShell-скрипты, которые могут находить определенные типы файлов и шифровать данные с использованием алгоритма AES-256. Например, модель может зашифровать все PDF-файлы на целевой машине с Windows.
В стремлении быть максимально полезной WORMGPT даже добавила опцию извлечения пользовательских данных через анонимизирующую сеть Tor. ИИ также составила подходящее письмо с требованием выкупа, которое начинается с жуткого приветствия "Привет, марионетка" и объясняет, что файлы пользователя зашифрованы с помощью "военного" шифрования, устанавливая 72-часовой лимит для оплаты.
Unit 42 выяснила, что языковая модель способна писать скрипты, обеспечивающие "достоверные лингвистические манипуляции для BEC и фишинговых атак". Исследователи пришли к выводу, что наиболее значительное влияние вредоносных ИИ-моделей заключается в демократизации киберпреступности.
Эти неограниченные модели фундаментально устранили некоторые барьеры в плане технических навыков, необходимых для киберпреступной деятельности. Эти модели предоставляют возможности, ранее доступные только более квалифицированным злоумышленникам, практически любому человеку с подключением к интернету и базовым пониманием того, как создавать запросы для достижения своих целей.
Исследование также выявило возможности другой языковой модели – KawaiiGPT. Среди её способностей – генерация сообщений для целевого фишинга с реалистичной подменой доменов, создание Python-скриптов для латерального перемещения с использованием библиотеки paramiko SSH для подключения к хосту и выполнения команд, поиск и извлечение целевых файлов, генерация писем с требованиями выкупа и настраиваемыми инструкциями по оплате.
У каждой языковой модели есть специальный канал в Telegram, где киберпреступники делятся советами и приемами. Unit 42 заключает:
Анализ этих двух моделей подтверждает, что злоумышленники активно используют вредоносные ИИ-модели в текущей угрозной среде.
Это уже не теоретическая проблема – подобные атаки реально происходят. Недавно Anthropic сообщила, что её языковая модель Claude используется китайскими хакерами для проведения шпионских кампаний с автоматизацией на 80-90%.