СМИ сообщили о применении ИИ северокорейскими хакерами

Поделиться

north_korea_hacker

Связанные с КНДР хакеры стали чаще прибегать к помощи искусственного интеллекта для реализации мошеннических схем и взломов. Об этом пишет Financial Times.

Представитель разведки Южной Кореи в беседе с изданием заявил, что злоумышленники из соседней страны используют генеративный ИИ для обмана и компрометации сотрудников службы безопасности.

В 2023 году из 1,62 млн попыток взлома, предпринятых против южнокорейских компаний и государственных органов, более 80% были связаны с Северной Кореей.

Однако хакеры из КНДР часто терпели неудачу из-за плохого знания языка и местной специфики социального взаимодействия, утверждают южнокорейские спикеры.

Вице-президент по исследованиям Chainalysis Эрин Планте отметила, что интерес хакеров к ИИ представляет собой новую серьезную угрозу.

«Северокорейские хакерские группировки создают вызывающие доверие профили рекрутеров на профессиональных сайтах вроде LinkedIn. Генеративные нейросети помогают им общаться, отправлять сообщения, создавать изображения и новые личности — все, что нужно для построения тесных отношений с жертвой», — рассказала она.

Планте описала случай, когда хакеры из КНДР обманули старшего инженера японской криптовалютной биржи, выдав себя за представителей сингапурской компании. Они попросили жертву провести «техническое тест», загрузив программное обеспечения, которое оказалось фишинговым.

«Атаки становятся все более изощренными — мы не говорим о плохо сформулированном электронном письме с надписью “нажмите на ссылку”. Это подробные профили в LinkedIn и других социальных сетях, которые они используют для выстраивания отношений в течение недель и месяцев», — добавила исследовательница.

Аналитик сеульской информационной службы NK Pro Шрейас Редди рассказал, что угрозе также подвержены пользователи других платформ, включая Facebook, WhatsApp, Telegram и Discord.

По его мнению, ИИ-сервисы вроде ChatGPT помогают северокорейским преступникам разрабатывать более сложные формы вредоносного программного обеспечения. В этих инструментах предусмотрены меры безопасности, предотвращающие их использование в злонамеренных целях, но ограничения могут обойти даже обычные пользователи, добавил Редди.

Хюк Ким, научный сотрудник Центра исследований в области нераспространения им. Джеймса Мартина, отметил, что за последние два десятилетия северокорейские исследователи опубликовали «сотни статей» на тему ИИ.

В одном из материалов 2022 года они рассказали о методе машинного обучения в симуляции военных действий. В другой статье того же года рассматривается, как большие языковые модели могут помочь в эксплуатации ядерного реактора.

«Насколько мы можем судить, сложность северокорейских систем искусственного интеллекта все еще находится в зачаточном состоянии. Но также возможно, что они просто не хотят раскрывать свои возможности», — подытожил Ким.

Ранее разработчики компании OpenAI пресекли возможность использования своих продуктов киберпреступниками, связанными с правительствами различных стран. Совместно с Microsoft Threat Intelligence они удалили пять аккаунтов злоумышленников, включая связанные с хакерскими группировками из КНДР.

Напомним, в 2023 году северокорейские взломщики украли не менее $600 млн и были ответственны почти за треть киберинцидентов, согласно отчету TRM Labs.

Это интересно

Похожие новости

Lenovo представила нові пристрої Yoga та IdeaPad на Innovation World 2024

Вчора, 5 вересня, на виставці Lenovo Innovation World 2024...

HMD Model 310: звонилка со смартфонной батареей и Snapdragon

Искатель утечек HMD MEMES продолжает радовать нас не мемами,...

В августе лидером по полученным доходам стал блокчейн Tron

В августе экосистема блокчейнов показала значительный рост доходов. Лидером...

Калши получил разрешение предложить Конгрессу Рынки прогнозов в победе над CFTC

Kalshi, регулируемая в США платформа рынка прогнозов, выиграла федеральный...

Doogee сделала флип, чтобы продавать его в Северной Корее

Doogee представила на выставке IFA 2024 смартфон-раскладушку Doogee V...