Поставщики ИИ-СОК продают будущее, до которого реальные внедрения ещё не доросли

Поставщики платформ для операций безопасности на базе искусственного интеллекта строят свои предложения вокруг стандартного набора обещаний: автономное расследование угроз, резкое сокращение нагрузки на аналитиков и ускоренный путь к полностью автоматизированным процессам. Специалисты, которые приобретают и внедряют эти платформы, описывают иную реальность.

Отчёт, подготовленный Антоном Чувакиным, советником по безопасности в Управлении CISO Google Cloud, и Оливером Рочфордом, сооснователем Aunoo AI, основан на более чем 30 презентациях вендоров, публичных комментариях практиков с Reddit и Discord, а также прямых интервью с руководителями информационной безопасности и инженерами по обнаружению угроз, которые уже используют инструменты ИИ в рабочей среде. Возникающая картина демонстрирует поверхностное внедрение, ограниченные сценарии использования и модель коммуникации поставщиков, которая, по мнению авторов, систематически списывает ограничения продуктов на психологию покупателей.

Внедрение носит узкий и осознанный характер

В Цикле хайпа Gartner по операциям безопасности на 2025 год агенты ИИ для SOC находятся на стадии «Триггер инноваций» с проникновением на рынок от 1 до 5 процентов. Эта цифра соответствует выводам авторов отчёта из собственных бесед. Многие организации ждут, когда возможности ИИ будут интегрированы в существующие платформы SIEM, XDR и SOAR. Команды, которые уже действуют, развёртывают ИИ в ограниченных, менее рискованных областях: обогащение оповещений, суммирование данных расследования, составление отчётов и этапы рабочих процессов, не требующие принятия решений.

Распространена модель, которую авторы называют «чистилищем пилотных проектов». Пилотное внедрение перерастает в небольшое промышленное развёртывание, ИИ занимается обогащением и суммированием, люди-аналитики сохраняют право принятия решений, а расширение на более ответственные рабочие процессы не происходит.

Некоторые зрелые команды создают собственные решения, используя инструменты ИИ общего назначения, интегрированные с внутренними системами. Несколько команд инженеров по обнаружению угроз сообщают, что правильно настроенная большая языковая модель с доступом к внутренней документации превосходит продукты вендоров, которым не хватает контекста об их конкретной среде.

Заявления поставщиков ИИ для SOC не подтверждаются метриками

Статистика внедрения от вендоров часто учитывает активацию функций или ответы на опросы, указывающие, что организации «изучают» или «рассматривают» инструменты ИИ для SOC. Практики описывают иную ситуацию: функции включаются для оценки, а затем игнорируются или обходятся при возникновении инцидентов.

Оливер Рочфорд проводит различие между знакомством и доверием. «Аналитики могут видеть сгенерированные ИИ сводки, предлагаемые действия или оценки риска по каждому оповещению, — сказал он. — Это не означает, что они им доверяют».

Антон Чувакин утверждает, что маркетинговые показатели требуют более чётких определений. «Сейчас фраза "расследования на 50% быстрее" может означать почти что угодно, — заявил он. — Быстрее какого исходного уровня, при каких условиях и как это измеряется? Мы ожидаем кейсы с проверяемыми утверждениями. Лучше было бы что-то вроде "Среднее время до вердикта сокращено до 7 минут при разборе случаев захвата учётных записей в средах AWS". Это должно быть достаточно конкретно, чтобы покупатель мог призвать вендора к ответу, иначе это просто пустые слова».

Схема пророчества

В отчёте используется концепция социальной психологии из книги «Когда пророчество не сбывается», посвящённой устойчивости веры перед лицом противоречивых доказательств. Когда инструменты ИИ для SOC не соответствуют заявленным возможностям, вендоры чаще всего объясняют это тем, что покупатели не готовы к ИИ, что препятствием является сопротивление изменениям или что доверию нужно время. Авторы утверждают, что такая схема смещает ответственность с незрелости продукта на психологию покупателя, что они описывают как структурный сбой интеграции обратной связи между инженерной реальностью и маркетинговыми сообщениями.

«Маркетинг ИИ для SOC лучше понимать как пророческий, а не технический, — говорится в отчёте. — Большинство утверждений, сделанных сегодня, описывают будущее состояние, например, автономные расследования, замена аналитиков, агентные операции, а не демонстрируемые, повторяемые возможности в рабочей среде».

Что не работает в реальных условиях

Чейз Теодос, инженер по обнаружению угроз в C3 Integrated Solutions, определяет автономные рабочие процессы расследования и реагирования как возможность, наиболее часто демонстрируемую на презентациях и наименее надёжную в реальных условиях. «Демонстрации используют подготовленные данные, и рабочие процессы выглядят бесшовными во время презентаций, но могут давать сбои при масштабировании или когда данные неполны или неоднозначны, — сказал он. — В контролируемых средах эти продукты хорошо работают, когда оповещения чистые, телеметрия полная, а путь атаки линейный. В реальных средах SOC многие инциденты не соответствуют этим условиям».

Феодос также выражает обеспокоенность по поводу конкретных категорий автоматизации, которые поставщики продвигают как готовые к промышленному использованию. Отключение учётных записей, изоляция хостов и изменения политик несут риски, с которыми современные системы ИИ не способны справляться надёжно. «Искусственный интеллект с трудом надёжно отличает вредоносное поведение от легитимной, но необычной активности», — заявил он. Определение атрибуции и классификация намерений злоумышленника, которые поставщики часто демонстрируют, являются вероятностными результатами и могут задержать реагирование и эффективное сдерживание в случае ошибки.

Сокращение оповещений как метрика

Мерлин Жильспи, технический директор Cybanetix, определяет сокращение количества оповещений как наиболее часто упоминаемую метрику поставщиков и ту, которая с наибольшей вероятностью скрывает операционные риски. Когда ИИ находится между генерацией сигналов и человеческой проверкой без возможности отслеживания, снижение объёма оповещений может отражать подавление сигналов, а не повышение точности обнаружения.

«Пока выводы, сделанные ИИ, не могут быть подтверждены доказательствами, воспроизведены или подвергнуты сомнению, сохраняется значительная нагрузка по валидации», — сказал Жильспи. «Эта работа не обязательно сложнее традиционного анализа, но она качественно иная и часто недооценивается».

Публичные комментарии практиков, собранные в сообществах по кибербезопасности на Reddit, подтверждают эту озабоченность. В одной широко обсуждаемой ветке практик описал запуск большой языковой модели на 348 известных ложных срабатываниях плюс одном синтетическом истинно положительном. Модель показала 71 процент точности, назвала очевидные ложные срабатывания вредоносными и полностью пропустила реальный тестовый инцидент.

Суждение аналитика под влиянием ИИ

Жильспи выделяет второй риск, которому в сообщениях поставщиков уделяется меньше внимания: влияние сводок, сгенерированных ИИ, на рассуждения аналитиков со временем. Генеративные системы ИИ эффективно преобразуют сложные данные оповещений в сжатое повествование. Это делает их сильной отправной точкой для расследования. Это также создаёт условия, при которых аналитики полагаются на вывод ИИ, взвешенный по уверенности, а не проводят анализ, взвешенный по доказательствам.

«Мы наблюдали сценарии, когда команды начинают беспокоиться из-за вывода, сгенерированного ИИ, даже когда исходные данные указывают на более безобидное объяснение», — сказал Жильспи. «ИИ повышает скорость понимания. Он может ухудшить суждение, если его результаты воспринимаются как авторитетные».

Заявление о сокращении персонала

Джиллеспи оспаривает нарративы вендоров, которые представляют ИИ в первую очередь как механизм сокращения затрат. По опыту Cybanetix, улучшения в возможностях расследования возникают, когда аналитики воспроизводят логику ИИ и проверяют его шаги. Ценность напоминает управляемое обучение. «К утверждениям, которые представляют ИИ главным образом как инструмент сокращения штата, следует относиться с осторожностью, — сказал Джиллеспи. — Когда ИИ преподносится как инструмент снижения затрат, а не усилитель возможностей, мы наблюдаем, как риски не устраняются, а перераспределяются и маскируются».

Кейсовые исследования в отчете рисуют более разнообразную картину. Один директор по информационной безопасности в крупной европейской компании действительно столкнулся с кадровыми изменениями после внедрения платформы управляемого обнаружения и реагирования на базе ИИ: роли, связанные с анализом фишинга и заголовков, были автоматизированы за несколько недель, и команда безопасности прошла реорганизацию. Директор описал переход как реактивный и отметил, что следовало бы раньше инвестировать в создание новых должностей. Единственный специалист в американской природоохранной НКО развернул другую платформу ИИ для центра безопасности примерно вдвое дешевле предыдущего сервиса с участием людей, получив возможности корреляции и глубину расследования, которых раньше не было.

Что сделали бы иначе ответственные вендоры

Чувакин утверждает, что если бы покупатели требовали доказательств глубины внедрения в условиях реальных инцидентов, дорожные карты вендоров сместились бы от позиционирования автономных агентов к возможностям, которые помогают аналитикам быстрее разрешать инциденты. «Хороший пример здесь — Claude от Anthropic и его специализированные агенты, например, агент, упрощающий код, — сказал он. — Они не претендуют на замену инженера-человека. Они решают очень узкий, конкретный набор задач. Сравните это с некоторыми чрезмерными заявлениями в кибербезопасности, вроде «Автономных ИИ-охотников за угрозами» или «Агентных команд центра безопасности».

Рочфорд определяет набор возможностей, которые ответственные вендоры сделали бы приоритетными, если бы точность моделей перестала расти: более надежная инженерия безопасности и отказоустойчивости, детерминированная логика там, где это применимо, многосостоятельные исходы вместо бинарных вердиктов, обязательные предохранители, останавливающие автоматические цепочки реагирования при падении уверенности, и объяснимость после инцидента, позволяющая аналитикам проверить, почему модель пришла к конкретному выводу.

«Если низкое внедрение списывают на психологию пользователей, сопротивление изменениям или страх перед ИИ — это тревожный сигнал, — заявил Рочфорд. — Многие продукты на основе ИИ попросту не готовы для корпоративного использования. Именно об этом говорят нам цифры по их внедрению».