На саммите по безопасности ИИ в Сеуле следующие компании, работающие в сфере ИИ, согласились принять на себя обязательства по соблюдению ряда глобальных стандартов безопасности ИИ, получивших название Frontier AI Safety Commitments:
- Amazon
- Anthropic
- Cohere
- IBM
- Inflection AI
- Meta
- Microsoft
- Mistral AI
- OpenAI
- Samsung
- Институт технологических инноваций
- xAi
- Zhipu.ai (Zhipu.ai – китайская компания, поддерживаемая Alibaba, Ant и Tencent).
Что такое “Обязательства по безопасности передового искусственного интеллекта”?
Обязательства по безопасности передового искусственного интеллекта (Frontier AI Safety Commitments) были разработаны для того, чтобы гарантировать компаниям, занимающимся разработкой и внедрением моделей ИИ, безопасность и прозрачность в отношении того, как они измеряют и управляют связанными с этим рисками.
Подписав документ, эти компании обязуются опубликовать пороговые значения, которые описывают, какие риски они считают неприемлемыми, как они планируют снижать риски и что они будут делать, чтобы их разработки в области ИИ не превышали установленных пороговых значений.
Они также обязались “не разрабатывать и не внедрять модель или систему вообще”, если их меры по снижению рисков не смогут удержать их ниже пороговых значений.
Что это значит для безопасности ИИ?
Впервые так много компаний, работающих в сфере ИИ, со всего мира собрались вместе и взяли на себя обязательства по соблюдению единых стандартов безопасности ИИ. Это не только создает прецедент для глобальных стандартов безопасности ИИ, но и гарантирует, что ИИ разрабатывается безопасно и что эти компании прозрачны и несут ответственность за риски, связанные с их разработками.
OpenAI заявила, что уже опубликовала набор рамок безопасности – Preparedness Framework, – которые они разработали и приняли в прошлом году, и которые содержат практики, которые они “активно используют и совершенствуют”.
Некоторые из них включают в себя красное тестирование и тестирование перед публичным выпуском, мониторинг злоупотреблений, защиту детей и “сотрудничество с правительствами и заинтересованными сторонами для предотвращения злоупотреблений, обеспечения прозрачности контента, созданного ИИ, и улучшения доступа к точной информации о голосовании”.