Искусственный интеллект в арсенале современного преступника

На подпольных форумах встречаются длинные обсуждения о том, как чат-боты помогают составлять фишинговые письма, генерировать фрагменты кода и инструктировать по социальной инженерии в телефонных звонках. Новое исследование изучило переписки, собранные с 1 января 2025 года по 31 июля 2025 года на десятках киберпреступных форумов, чтобы понять, как инструменты искусственного интеллекта внедряются в повседневную преступную деятельность.

В набор данных вошли 163 темы для обсуждения, взятые с 21 форума, что в сумме составляет 2264 сообщения от 1661 уникального участника. Большая часть активности сосредоточена на известных платформах, таких как XSS, BreachForums, Dread и Exploit.in.

В дискуссиях преобладали четыре основные темы: перепрофилирование массовых ИИ-сервисов, продвижение криминальных ИИ-продуктов, адаптация моделей под конкретные операции и споры об операционных рисках.

Массовые инструменты стимулируют эксперименты

Коммерческие чат-боты служат отправной точкой для многих участников. ChatGPT упоминался в 52,5% тем, где говорилось о легальных ИИ-продуктах. За ним следовали DeepSeek (27,9%), Claude (19,7%) и Grok (18,0%). Llama, Gemini, Mistral, Hugging Face, Manus AI и WhiteRabbitNeo также фигурировали в многочисленных беседах.

Модели с открытым исходным кодом и локальным развертыванием привлекали внимание из-за конфиденциальности и меньшего количества встроенных ограничений на контент. Участники описывали запуск моделей в автономном режиме для написания скриптов, оттачивания языка фишинга и изучения концепций атак. В обсуждениях также затрагивались вопросы аппаратного обеспечения и времени, необходимого для обучения или доработки модели под наступательные задачи, причем несколько участников отмечали длительные циклы разработки даже при использовании высокопроизводительных потребительских видеокарт.

Взлом систем оставался распространенным явлением. Пользователи обменивались промптами, предназначенными для обхода защитных механизмов, включая сценарии ролевых игр и инструкции, пытающиеся отменить внутренние политики безопасности. Некоторые темы были посвящены тому, какие модели в ходе тестирования казались более податливыми. Другие описывали способы получения премиум-доступа через украденные или перепроданные учетные записи. В списках фигурировали аккаунты с активными подписками и инструкции по злоупотреблению процедурами верификации для студентов.

Криминальные ИИ-бренды заполонили форумы

Второе направление деятельности было связано с инструментами, целенаправленно продвигаемыми для мошенничества, рассылки спама и вредоносного ПО. Пятьдесят обсуждений были сосредоточены на продаже, поиске или оценке этих продуктов. Упоминания сгруппировались вокруг нескольких названий. WormGPT составил 26 процентов упоминаний продуктов, FraudGPT — 18 процентов, а DarkGPT — 16 процентов. ChaosGPT, GhostGPT и SpamGPT фигурировали в 6 процентах упоминаний каждый.

Многие предложения функционировали как оболочки, перепродающие доступ к основным моделям через интерфейс бота или API-шлюз в паре с джейлбрейк-промптом. В обсуждениях описывались недолговечные сервисы, споры о качестве, а также опасения по поводу ведения логов или скрытых функций сбора данных. Продавцы также рекламировали индивидуальную разработку. Некоторые предлагали разместить большие языковые модели для клиентов, не имеющих собственной инфраструктуры. Другие продвигали системы с ИИ для совершения звонков, предназначенные для автоматизации мошеннических операций и взаимодействия с жертвами.

Наблюдение за тем, как продвигаются эти продукты, может дать раннее предупреждение об их более широком распространении. Бенуа Дюпон, доктор философии, профессор криминологии и соавтор исследования, рассказал Help Net Security, что защитники могут отслеживать, насколько часто заявления об использовании ИИ появляются в подпольных списках продаж.

«Мы могли бы мониторить форумы, рынки и каналы Telegram, чтобы оценить, какая доля продаваемых вредоносных продуктов и услуг заявляет о своей работе или поддержке со стороны ИИ», — сказал Дюпон. «Это утверждение часто является ключевым для получения конкурентного преимущества, поэтому продавцы вряд ли будут его скрывать в своих предложениях. Если бы мы могли надежно измерить долю рекламируемых продуктов и услуг киберпреступников с поддержкой ИИ, мы могли бы отслеживать достижение определенных пороговых значений и с большей уверенностью заявлять, что мы выходим из экспериментальной фазы в более промышленную. Конечно, реклама не означает внедрение, но это показатель направления развития».

Адаптация сосредоточена на аферах и автоматизации

Обсуждения более высокого уровня навыков были сосредоточены на адаптации ИИ под конкретные рабочие процессы. Участники описывали использование чат-ботов для репетиции сценариев социальной инженерии, адаптированных под целевую организацию. Другие описывали инструменты, генерирующие вариативный спам-контент для обхода фильтров за счет изменения формулировок и структуры. Автоматизация колл-центров фигурировала особенно часто. В публикациях подробно описывались виртуальные помощники, которые в реальном времени поддерживают операторов, предлагая ответы, извлекая одноразовые пароли и передавая жертв живым агентам.

Более узкий круг обсуждений был посвящён разработке вредоносного ПО. Участники подчёркивали необходимость технических знаний для превращения сгенерированных фрагментов кода в рабочие полезные нагрузки и цепочки доставки. Несколько авторитетных форумов создали специальные разделы по искусственному интеллекту, чтобы сконцентрировать дискуссию и привлечь специалистов. В объявлениях о найме предлагалась почасовая помощь с настройкой моделей и их интеграцией в существующие инструментальные цепочки.

Дюпон ожидает, что мошеннические операции внедрят искусственный интеллект быстрее, чем другие категории киберпреступности.

«Операции социальной инженерии и мошенничества, вероятно, смогут использовать возможности ИИ более систематично, прибыльно и раньше, чем операции по написанию вредоносного кода, по крайней мере, в ближайшем будущем, — сказал он. — Эта весьма неопределённая оценка основана на том, что прибыльные стимулы и вознаграждения более доступны для мошенничества с использованием ИИ, а также на том, что защитные системы на основе ИИ развёртываются более систематично для защиты организаций, тогда как частные лица кажутся более уязвимыми и имеют ограниченную защиту с помощью ИИ».

Скептицизм и операционные риски

Скептицизм пронизывал многие беседы. Участники ставили под сомнение надёжность кода, созданного искусственным интеллектом, для сложных наступательных задач и указывали на частые ошибки и выдуманные функции. Жалобы на низкокачественные сообщения на форумах, сгенерированные чат-ботами, появлялись во многих сообществах, участники которых отмечали рост повторяющегося и вторичного контента.

Проблемы операционной безопасности также возникали неоднократно. Участники рассматривали промпты и историю чатов как конфиденциальные данные, которые могут отслеживаться и храниться операторами платформ. Распространялись советы о минимизации идентифицирующих деталей в запросах и смене аккаунтов. Аналогичная осторожность применялась к криминальным сервисам на основе ИИ, где покупатели выражали обеспокоенность по поводу ведения логов, скрытых бэкдоров и возможного перехвата похищенных данных.

Дюпон заявил, что защитники могут следить за измеримыми сигналами, указывающими на масштабную автоматизацию.

«Сигналы для защиты, которые можно отслеживать, могут включать количество определенных типов мошенничества, о которых сообщают пострадавшие, при условии, что мы имеем доступ к этим отчетам в реальном времени, объем перехваченных фишинговых сообщений, вишинговых звонков и смс-спама, уровень изощренности этих сообщений и звонков, степень координации определенных кампаний по обзвону и рассылке, объем создания новых аккаунтов на определенных цифровых платформах, используемых для онлайн-мошенничества, и это лишь несколько примеров», — сказал он. «Любой сигнал мошенничества, который масштабируется и демонстрирует высокий уровень координации, должен быть тщательно изучен, чтобы определить, не задействованы ли здесь инструменты искусственного интеллекта».

В течение семимесячного периода внедрение сконцентрировалось в сферах мошенничества, афер и социальной инженерии. Основная группа новаторов экспериментировала с автоматизацией и новыми моделями обслуживания, а более широкий круг пользователей тестировал популярные инструменты для составления сообщений и оттачивания сценариев. Более широкая экосистема демонстрирует раннюю стадию интеграции, где эксперименты, маркетинговая активность и дискуссии разворачиваются на множестве площадок.