Заслуживает ли Anthropic доверия в вопросах кибербезопасности?

Индустрия кибербезопасности держится на доверии. На вере в то, что поставщик будет действовать так, как обещает, что критические уязвимости действительно критичны, а заявления о соответствии GDPR — правдивы. Но заслужить доверие — это не разовое действие.

Anthropic понимала это лучше любой другой компании в сфере ИИ. Пока OpenAI двигалась быстро и ломала устои, Anthropic опубликовала Политику ответственного масштабирования — структурированный подход к предотвращению катастрофических рисков. Будучи добровольным обязательством, в сочетании с искренним стремлением руководства возглавить "гонку к вершине" в области безопасности, Anthropic быстро стала образцом надежного ИИ.

В январе 2026 года соперничество Anthropic и OpenAI выплеснулось на публику, и события быстро приняли странный оборот.

В преддверии Суперкубка Anthropic потратила миллионы на рекламу, высмеивающую OpenAI за запуск рекламы в ChatGPT. С заголовками "Обман", "Предательство", "Вероломство" и "Нарушение", Anthropic открыто заявила о своих моральных принципах. Клод, гласила реклама, никогда не будет использовать ваши самые личные разговоры для показа рекламы.

20 февраля Anthropic запустила Claude Code Security, что вызвало беспокойство в индустрии кибербезопасности и среди инвесторов.

Затем, 24 февраля, компания тихо опубликовала Политику ответственного масштабирования версии 3.0. Это было представлено как эволюция политики, и в некотором смысле так оно и есть. Однако в тексте скрывается структурный сдвиг, на который специалистам по безопасности стоит обратить внимание.

Предыдущая версия обязывала Anthropic удерживать абсолютный уровень рисков ниже допустимых порогов независимо от действий конкурентов. Версия 3.0 прямо отказывается от этого подхода. Теперь строгие обязательства по безопасности стали относительными. Если конкуренты не приостанавливают разработки, Anthropic тоже не будет, так как пауза лишь передаст управление наименее ответственным игрокам. Это понятно, но стоит сместить ориентиры — и репутация бренда смещается вместе с ними. А слухи о разногласиях с Пентагоном уже циркулировали, когда вышла новая версия политики.

26 февраля генеральный директор Anthropic Дарио Амодеи опубликовал заявление, настаивая на том, что компания не будет сотрудничать с Пентагоном, если тот не согласится не использовать её модели для массовой слежки за американцами или создания полностью автономного оружия.

27 февраля Пентагон разорвал контракт с Anthropic и обозначил компанию как риск в цепочке поставок — статус, обычно зарезервированный для иностранных противников.

28 февраля OpenAI стремительно заменила Anthropic, первоначально заявляя, что будет придерживаться установленных Anthropic границ в работе с военными. Вскоре после этого (как и свойственно ей) она признала, что это не совсем так.

9 марта Anthropic подала иск против Пентагона, и более 30 сотрудников из OpenAI и Google DeepMind подали судебное заключение в её поддержку. Общественность также встала на сторону Anthropic.

Да, событий много. Давайте сделаем шаг назад и соединим точки:

За пять недель Anthropic очень публично сделала свою основную идентичность бренда — заслуживающей доверия. После запуска первых инструментов безопасности она смягчила конкретные, проверяемые обязательства, которые и делали её заслуживающей доверия. Затем она нашла в себе силы и твёрдо противостояла Пентагону, затмив тот факт, что уже сдвинула рамки своей внутренней системы безопасности. После этого её уволили крайне неуважительным образом.

Именно так часто и разрушается доверие — не в результате одного громкого предательства, а в цепочке внешне оправданных решений. Специалисты по безопасности хорошо знают эту схему, потому что так действуют злоумышленники. Они незаметно переходят от одной, казалось бы, безобидной уязвимости к другой, а соединённые вместе, эти уязвимости создают путь для атаки.

Чтобы было ясно, я не обвиняю Anthropic в коварстве или злом умысле. Я на 100% согласен с основанием её иска: договорные ограничения на использование ИИ — это критически важная защита в отсутствие публичного закона. И я надеюсь, что она выиграет.

Но затяжные судебные разбирательства имеют свойство высасывать душу из участников. Процесс наверняка будет грязным, и многие любимые поставщики уже падали с пьедестала — от Kodak и Enron до Blackberry и Boeing. Ставки здесь отличаются по масштабу, но не по сути.

Модели ИИ теперь внедряются в процессы проверки кода, управления уязвимостями и проектирования архитектуры безопасности с такой скоростью, с которой системы управления за ними не поспевают. Специалисты доверяют поставщикам ИИ на уровне, не имеющем прецедентов в истории корпоративного программного обеспечения.

Anthropic должна была стать нашей канарейкой в угольной шахте ИИ. Вся ценность канарейки в том, что она не ведёт переговоров. Она не проверяет, что делают другие канарейки, прежде чем среагировать, — она просто падает. Именно так вы понимаете, что она говорит правду о воздухе, нравится это угольной компании или нет.

RSP 3.0 изменил правила игры. Теперь канарейке необходимо изучить конкурентную среду, прежде чем спускаться в шахту. Это не система безопасности, а пресс-релиз.

Итак, я закончу там, где начал: заслуживает ли Anthropic доверия сообщества кибербезопасности?

На данный момент, я бы сказал, да. Но посмотрите, как быстро всё изменилось за шесть недель. Я бы приостановился, прежде чем позволить поставщику, погружённому в двусмысленность, так глубоко внедриться в исходный код моей компании и её защитный комплекс.

Но это не моё решение, а ваше.