Главное меню » Важнейший прорыв в области безопасности ИИ

Важнейший прорыв в области безопасности ИИ

16 крупнейших компаний, занимающихся разработкой ИИ, согласились принять на себя обязательства по соблюдению стандартов безопасности ИИ

Редакция
0 коммент. 61 просм. 2 мин. на чтение

На саммите по безопасности ИИ в Сеуле следующие компании, работающие в сфере ИИ, согласились принять на себя обязательства по соблюдению ряда глобальных стандартов безопасности ИИ, получивших название Frontier AI Safety Commitments:

  • Amazon
  • Anthropic
  • Cohere
  • Google
  • IBM
  • Inflection AI
  • Meta
  • Microsoft
  • Mistral AI
  • OpenAI
  • Samsung
  • Институт технологических инноваций
  • xAi
  • Zhipu.ai (Zhipu.ai – китайская компания, поддерживаемая Alibaba, Ant и Tencent).

Что такое “Обязательства по безопасности передового искусственного интеллекта”?

Обязательства по безопасности передового искусственного интеллекта (Frontier AI Safety Commitments) были разработаны для того, чтобы гарантировать компаниям, занимающимся разработкой и внедрением моделей ИИ, безопасность и прозрачность в отношении того, как они измеряют и управляют связанными с этим рисками.

Подписав документ, эти компании обязуются опубликовать пороговые значения, которые описывают, какие риски они считают неприемлемыми, как они планируют снижать риски и что они будут делать, чтобы их разработки в области ИИ не превышали установленных пороговых значений.

Они также обязались “не разрабатывать и не внедрять модель или систему вообще”, если их меры по снижению рисков не смогут удержать их ниже пороговых значений.

Что это значит для безопасности ИИ?

Впервые так много компаний, работающих в сфере ИИ, со всего мира собрались вместе и взяли на себя обязательства по соблюдению единых стандартов безопасности ИИ. Это не только создает прецедент для глобальных стандартов безопасности ИИ, но и гарантирует, что ИИ разрабатывается безопасно и что эти компании прозрачны и несут ответственность за риски, связанные с их разработками.

OpenAI заявила, что уже опубликовала набор рамок безопасности – Preparedness Framework, – которые они разработали и приняли в прошлом году, и которые содержат практики, которые они “активно используют и совершенствуют”.

Некоторые из них включают в себя красное тестирование и тестирование перед публичным выпуском, мониторинг злоупотреблений, защиту детей и “сотрудничество с правительствами и заинтересованными сторонами для предотвращения злоупотреблений, обеспечения прозрачности контента, созданного ИИ, и улучшения доступа к точной информации о голосовании”.

Похожие материалы

Оставить комментарий

Этот сайт использует файлы cookie для улучшения вашего опыта. Мы будем считать, что вы согласны с этим, но при желании вы можете отказаться. Принять Подробнее