В конце декабря 2025 года компания OpenAI официально объявила о поиске кандидата на стратегически важную должность — Head of Preparedness (Руководитель по обеспечению готовности). С базовым окладом в $555 000 плюс опционы, эта роль сигнализирует о фундаментальном сдвиге: безопасность ИИ перестает быть лишь этической концепцией и становится жесткой инженерной дисциплиной.
Причины и техническая необходимость
Согласно публикациям Reuters и профильных технологических изданий, Сэм Альтман аргументировал необходимость этой роли резким скачком возможностей моделей. В частности, к концу 2025 года системы ИИ начали демонстрировать аномально высокие результаты в поиске критических системных уязвимостей. Альтман признал, что модели становятся настолько эффективными в кибербезопасности, что это создает риск их агрессивного использования «плохими игроками».
Ключевые обязанности и приоритеты
Новый руководитель возглавит реализацию Preparedness Framework. Это структура для мониторинга «фронтирных» рисков в четырех областях:
-
Кибербезопасность: предотвращение создания автономного вредоносного кода и эксплойтов.
-
Биологические угрозы: строгий контроль над способностью моделей помогать в создании патогенов.
-
Психологическое воздействие: ответ на критику 2025 года относительно влияния чат-ботов на ментальное здоровье пользователей и риск развития зависимостей.
-
Автономия: мониторинг признаков несанкционированного самосовершенствования систем.
Влияние на индустрию
Данный шаг OpenAI создает прецедент «ответственного лидерства». Устанавливая столь высокую планку оплаты и полномочий (включая влияние на решения о запуске моделей), Альтман вынуждает конкурентов — Google, Meta и Anthropic — пересматривать свои протоколы безопасности. Это сигнал регуляторам о том, что лидеры рынка готовы к самоконтролю. Однако для отрасли это также означает конец эры «чистых инноваций»: теперь каждый технологический прорыв будет сопровождаться обязательным аудитом на предмет потенциально катастрофических последствий. Этот найм — попытка OpenAI сохранить доверие общества в условиях, когда ИИ начинает превосходить человеческие возможности в критических инфраструктурах.
Анализ бюджета
Анализ бюджета должности Head of Preparedness в OpenAI на фоне рыночных показателей 2025 года выявляет колоссальный разрыв между частным и государственным секторами. Зарплата в $555 000 (базовая часть, без учета акций) — это не просто компенсация, это инструмент в «войне за таланты», где государственные институты безопасности ИИ пока проигрывают.
Сравнение зарплат лидеров по безопасности (2025 год)
Зарплата в OpenAI более чем в два раза превышает средние показатели в государственном секторе и значительно опережает большинство конкурентов, за исключением Anthropic.
| Организация | Должность | Примерный годовой доход (Base + Equity) |
| OpenAI | Head of Preparedness | $1 200 000 — $1 500 000+ |
| Anthropic | AI Safety Lead | $900 000 — $1 300 000 |
| Правительство США | Chief AI Officer (среднее) | $370 000 — $420 000 |
| UK AI Safety Institute | Senior Research Lead | £150 000 — £210 000 ($190k — $260k) |
| Гос. институты РФ | Руководитель направления ИИ | 6 — 12 млн руб. ($65k — $130k) |
Разбор анализа бюджетов
1. «Утечка мозгов» из регуляторов в корпорации
При бюджете UK AI Safety Institute в £100 млн на 2023–2025 годы, содержание одной лишь команды «Preparedness» в OpenAI (около 10–15 высококлассных специалистов) может обходиться в $15–20 млн в год. Это означает, что одна частная компания тратит на лидерство в безопасности столько же, сколько целые департаменты средних европейских стран на все исследования в этой области.
2. Разрыв в ресурсах на «Red Teaming»
Государственные институты безопасности (такие как институт при NIST в США) часто ограничены жесткими тарифными сетками. В то время как OpenAI может нанять топового хакера или эксперта по биотерроризму на зарплату в $500k+, государственные структуры вынуждены полагаться на внешних консультантов или «патриотический энтузиазм», что создает риск интеллектуального превосходства корпораций над регуляторами.
3. Безопасность как «элитарная» дисциплина
Высокий бюджет этой роли в OpenAI показывает, что безопасность перестала быть «дополнением» к разработке. Теперь это критическая часть R&D. В Anthropic, например, зарплаты инженеров по безопасности в 2025 году достигли $690 000 (база), что делает сферу AI Safety самой высокооплачиваемой в мире IT.
Что это значит для будущего?
Мы наблюдаем приватизацию экспертизы по безопасности. Если государственные органы не смогут предложить сопоставимые (или хотя бы конкурентные) условия, «арбитрами» безопасности ИИ останутся сами создатели систем. Это создает ситуацию, в которой правила игры пишут те, кто в ней лидирует.


