Защита критически важного программного обеспечения всегда зависела от способности находить и устранять уязвимости быстрее, чем злоумышленники могут их использовать. OpenAI расширяет программу, призванную предоставить профессиональным защитникам приоритетный доступ к инструментам искусственного интеллекта, созданным именно для этой цели.
Компания масштабирует свою программу «Доверенный доступ для кибербезопасности» (TAC) на тысячи проверенных индивидуальных защитников и сотни команд, отвечающих за безопасность критического ПО. Параллельно с этим расширением OpenAI выпускает GPT-5.4-Cyber — версию GPT-5.4, специально доработанную для задач оборонительной кибербезопасности.

У GPT-5.4-Cyber снижен порог отказа для легитимной работы в сфере кибербезопасности по сравнению со стандартной GPT-5.4. Модель получила новые возможности, ориентированные на сложные защитные процессы, включая обратную разработку бинарного кода. Эта функция позволяет специалистам по безопасности анализировать скомпилированное программное обеспечение на предмет наличия вредоносного потенциала, уязвимостей и общей устойчивости, не имея доступа к исходному коду.
OpenAI представила программу TAC в феврале 2026 года с автоматической проверкой личности для частных лиц и ограниченным партнёрством для организаций, стремящихся получить доступ к более разрешённым для киберзадач моделям. Расширенная программа добавляет дополнительные уровни доступа для пользователей, которые подтверждают свой статус защитников киберпространства.
Клиенты высших уровней получают доступ к GPT-5.4-Cyber. Разрешительные и специализированные модели могут иметь ограничения, связанные с использованием в условиях нулевой видимости, в особенности при политике «Нулевого хранения данных» (ZDR). Это ограничение особенно актуально для разработчиков и организаций, получающих доступ к моделям OpenAI через сторонние платформы, где у OpenAI меньше прямого контроля над пользователем, средой или целью запроса.
Процесс получения доступа осуществляется по двум направлениям. Частные пользователи могут подтвердить свою личность на сайте chatgpt.com/cyber. Предприятия могут запросить доверенный доступ для своей команды через представителя OpenAI.
Клиенты, одобренные любым из этих путей, получают доступ к версиям моделей со сниженными ограничениями, которые в ином случае могли бы сработать на активность двойного назначения в киберсфере. К разрешённым видам деятельности относятся обучение безопасности, защитное программирование и ответственное исследование уязвимостей. Участники программы TAC, желающие получить более широкие возможности и подтвердить статус киберзащитника, могут выразить интерес к дополнительным уровням доступа, включая GPT-5.4-Cyber.
Развёртывание более доступной модели начинается с ограниченного, поэтапного внедрения для проверенных поставщиков услуг безопасности, организаций и исследователей.
Подход OpenAI к кибердоступу основывается на трёх принципах. Первый — это демократизация доступа: использование объективных критериев и методов, включая строгую проверку личности (KYC), для определения, кто может получить доступ к более продвинутым возможностям, с целью сделать эти возможности доступными для законных субъектов любого масштаба, включая тех, кто защищает критическую инфраструктуру и общественные службы.
Второй — это поэтапное развёртывание. OpenAI обновляет модели и системы безопасности по мере изучения преимуществ и рисков конкретных версий, включая повышение устойчивости к взлому и враждебным атакам.
Третий — это устойчивость экосистемы. Это включает целевые гранты, вклад в инициативы безопасности с открытым исходным кодом и такие инструменты, как Codex Security.
Codex Security был запущен в закрытой бета-версии шесть месяцев назад и перешёл в стадию предварительного ознакомления ранее в 2026 году. Он автоматически отслеживает кодовые базы, проверяет проблемы и предлагает исправления. С момента запуска Codex Security способствовал устранению более 3000 критических и высокоуровневых уязвимостей, а также выявлению проблем меньшей серьёзности по всей экосистеме.
OpenAI также охватила более 1000 проектов с открытым исходным кодом через Codex for Open Source, который предоставляет бесплатное сканирование безопасности.
OpenAI признаёт, что кибервозможности по своей природе имеют двойное назначение, то есть риск определяется не только моделью. Он также зависит от пользователя, сигналов доверия вокруг него и уровня доступа, который он получает. Позиция компании заключается в том, что широкий доступ к общим моделям с защитными механизмами может сосуществовать с более детальным контролем для возможностей с более высоким риском, что поддерживается более строгой верификацией, более чёткими сигналами о намерениях и лучшей видимостью использования.
Злоумышленники также экспериментируют с ИИ. OpenAI отмечает, что сложные атакующие уже получают более мощные возможности от существующих моделей, используя больше вычислительных ресурсов во время тестирования, а это означает, что защитные меры не могут ждать, пока некий будущий порог возможностей станет триггером для действий.