Главное меню » Закон ЕС об искусственном интеллекте

Закон ЕС об искусственном интеллекте

Проект руководства для ИИ общего назначения показывает первые шаги по соблюдению требований Большого ИИ

Administrator
0 комментариев 16 просм. 7 мин. на чтение

Опубликован первый проект Свода практических правил, который будет применяться к поставщикам моделей искусственного интеллекта общего назначения в соответствии с Законом Европейского союза об искусственном интеллекте, а также приглашение к обратной связи (открыто до 28 ноября), поскольку процесс разработки продолжается в следующем году, а официальные сроки соблюдения требований наступят в ближайшие годы.

Общеевропейский закон, вступивший в силу летом этого года, регулирует применение искусственного интеллекта в рамках системы, основанной на оценке рисков. Однако некоторые меры направлены и на более мощные фундаментальные модели ИИ общего назначения (GPAI). Именно здесь и пригодится данный Свод правил.

Среди тех, кто, вероятно, окажется в поле зрения, – OpenAI, создатель моделей GPT (которые лежат в основе ИИ-чатбота ChatGPT), Google со своими GPAI Gemini, Meta с Llama, Anthropic с Claude и другие, например, французская компания Mistral. Они должны будут соблюдать Кодекс практики ИИ общего назначения, если хотят быть уверенными в том, что соблюдают Закон об ИИ, и таким образом избежать риска принудительного взыскания за его несоблюдение.

Следует уточнить, что Кодекс призван служить руководством по выполнению обязательств, предусмотренных Законом ЕС об ИИ. Поставщики услуг GPAI могут отклониться от предложений по лучшей практике, если они считают, что могут продемонстрировать соблюдение закона с помощью других мер.

Первый проект Кодекса состоит из 36 страниц, но, скорее всего, он станет длиннее – возможно, значительно, – поскольку составители предупреждают, что в нем мало деталей, поскольку это «план высокого уровня, в котором изложены наши руководящие принципы и цели Кодекса».

Проект снабжен врезками с «открытыми вопросами», которые рабочие группы, которым поручено разработать Кодекс, еще не решили. Очевидно, что обратная связь с промышленностью и гражданским обществом сыграет ключевую роль в формировании содержания конкретных подмер и ключевых показателей эффективности (KPI), которые еще предстоит включить.

Однако документ дает представление о том, что ожидает разработчиков GPAI после наступления соответствующих сроков соблюдения.

Требования к прозрачности для создателей GPAI должны вступить в силу 1 августа 2025 года.

Но для самых мощных GPAI – тех, которые закон определяет как имеющие «системный риск», – предполагается, что они должны соблюдать требования по оценке и снижению рисков через 36 месяцев после вступления в силу (или 1 августа 2027 года).

Существует еще одна оговорка: проект Кодекса был разработан исходя из предположения, что будет лишь «небольшое количество» создателей GPAI и GPAI с системным риском. «Если это предположение окажется неверным, в будущие проекты, возможно, придется внести существенные изменения, например, ввести более подробную многоуровневую систему мер, направленную в первую очередь на те модели, которые создают наибольшие системные риски», – предупреждают разработчики.

Авторское право

Что касается прозрачности, то в Кодексе будет указано, как GPAI должны соблюдать информационные положения, в том числе в области материалов, защищенных авторским правом.

Одним из примеров здесь является «Подмероприятие 5.2», которое в настоящее время обязывает подписавшихся предоставлять подробную информацию об именах всех веб-краулеров, использованных для разработки GPAI, и их соответствующих функциях robots.txt, «в том числе на момент создания краулера».

Создатели моделей GPAI продолжают сталкиваться с вопросами о том, как они получали данные для обучения своих моделей, поскольку правообладатели подали множество исков, утверждая, что компании, занимающиеся разработкой ИИ, незаконно обрабатывали информацию, защищенную авторским правом.

Еще одно обязательство, изложенное в проекте Кодекса, требует, чтобы поставщики GPAI имели единую точку контакта и обработки жалоб, чтобы правообладателям было проще сообщать о претензиях «напрямую и быстро».

Другие предлагаемые меры, связанные с авторским правом, касаются документации, которую GPAI должны будут предоставлять об источниках данных, используемых для «обучения, тестирования и проверки, а также о разрешениях на доступ и использование защищенного контента для разработки ИИ общего назначения».

Системный риск

На самые мощные GPAI также распространяются правила Закона ЕС об искусственном интеллекте, направленные на снижение так называемого «системного риска». В настоящее время под такими системами ИИ понимаются модели, которые были обучены с использованием общей вычислительной мощности более 10^25 FLOPs.

Кодекс содержит список типов рисков, которые стороны, подписавшие его, должны будут рассматривать как системные риски. К ним относятся:

Наступательные риски кибербезопасности (например, обнаружение уязвимостей).
Химический, биологический, радиологический и ядерный риск.
«Потеря контроля» (здесь имеется в виду неспособность контролировать »мощный автономный ИИ общего назначения) и автоматизированное использование моделей для НИОКР ИИ.
Убеждение и манипулирование, включая масштабную дезинформацию/дезинформирование, которые могут представлять опасность для демократических процессов или привести к потере доверия к СМИ.
Крупномасштабная дискриминация.
Данная версия кодекса также предполагает, что разработчики GPAI могут выявить и другие виды системных рисков, которые не перечислены в явном виде – например, «масштабные» нарушения неприкосновенности частной жизни и слежка, или использование, которое может представлять риск для здоровья населения. Один из открытых вопросов, заданных в документе, касается того, какие риски должны быть приоритетными для добавления в основную таксономию. Другой вопрос – как в таксономии системных рисков следует рассматривать риски deepfake (связанные с создаваемыми ИИ материалами о сексуальном насилии над детьми и интимными изображениями без согласия).

Кодекс также стремится предоставить руководство по определению ключевых атрибутов, которые могут привести к созданию системных рисков, таких как «опасные возможности модели» (например, кибернетическое нападение или «возможности приобретения или распространения оружия») и «опасные склонности модели» (например, несоответствие намерениям и/или ценностям человека, склонность к обману, предвзятость, конфабуляция, недостаточная надежность и безопасность, а также устойчивость к модификации целей).

Несмотря на то, что в процессе разработки кодекса еще предстоит проработать множество деталей, его авторы пишут, что меры, подмеры и КПЭ должны быть «пропорциональными», с особым акцентом на «адаптацию к размеру и возможностям конкретного поставщика, особенно МСП и стартапов с меньшими финансовыми ресурсами, чем тех, кто находится на переднем крае развития ИИ». Также следует уделить внимание «различным стратегиям распространения (например, открытые источники), где это уместно, отражая принцип пропорциональности и принимая во внимание как выгоды, так и риски», добавляют они.

Многие из открытых вопросов, поставленных в проекте, касаются того, как конкретные меры должны применяться к моделям с открытым исходным кодом.

Охрана и безопасность в рамках

Еще одна мера, предусмотренная кодексом, касается «Рамок безопасности и охраны» (SSF). Создатели GPAI должны будут подробно описать свою политику управления рисками и «постоянно и тщательно» выявлять системные риски, которые могут возникнуть в связи с их GPAI.

Здесь есть интересный подпункт «Прогнозирование рисков». Оно обязывает подписавшие его стороны включить в свои SSF «оценку наилучших усилий» в отношении сроков, когда они ожидают разработать модель, вызывающую индикаторы системного риска – например, вышеупомянутые опасные возможности и склонности модели. Это может означать, что, начиная с 2027 года, мы увидим, как передовые разработчики ИИ будут указывать сроки, когда они ожидают, что разработка модели пересечет определенные пороги риска.

Кроме того, в проекте Кодекса особое внимание уделяется тому, чтобы ИГП с системным риском использовали «лучшие в своем классе оценки» возможностей и ограничений своих моделей и применяли для этого «ряд подходящих методик». Перечисленные примеры включают: наборы вопросов и ответов, контрольные показатели, «красная группа» и другие методы состязательного тестирования, исследования человеческого подъема, модельные организмы, симуляции и прокси-оценки для секретных материалов.

Еще одна мера, касающаяся «уведомления о существенном системном риске», обязывает подписавшие стороны уведомлять Управление по ИИ, надзорный и руководящий орган, созданный в соответствии с Законом, «если у них есть веские основания полагать, что существенный системный риск может материализоваться».

Кодекс также устанавливает меры по «информированию о серьезных инцидентах».

«Подписавшие стороны обязуются выявлять и отслеживать серьезные инциденты, если они происходят из их моделей ИИ общего назначения с системным риском, документировать и сообщать, без неоправданной задержки, любую соответствующую информацию и возможные корректирующие меры в Управление ИИ и, в случае необходимости, в национальные компетентные органы», – говорится в документе, хотя в соответствующем открытом вопросе содержится просьба ответить на вопрос, „что подразумевается под серьезным инцидентом“. Так что, похоже, предстоит еще поработать над уточнением определений.

Проект кодекса содержит дополнительные вопросы о «возможных корректирующих мерах», которые могут быть приняты в ответ на серьезные инциденты. В нем также содержится вопрос: «Какие процессы реагирования на серьезные инциденты подходят для поставщиков с открытым весом или открытым исходным кодом?», а также другие формулировки, направленные на получение обратной связи.

«Этот первый проект Кодекса является результатом предварительного анализа существующих передовых практик, проведенного четырьмя специализированными рабочими группами, консультаций с заинтересованными сторонами, на которые было подано около 430 заявок, ответов на семинаре для провайдеров, международных подходов (включая Кодекс поведения G7, Обязательства по безопасности ИИ на границе, Блетчлийскую декларацию и документы соответствующих правительственных и стандартизирующих органов) и, что самое важное, самого Закона об ИИ», – говорится в заключении разработчиков.

«Мы подчеркиваем, что это только первый проект, и, следовательно, предложения в проекте Кодекса носят предварительный характер и могут быть изменены», – добавляют они. «Поэтому мы приглашаем вас к конструктивному участию в процессе дальнейшего развития и обновления содержания Кодекса и работы по подготовке более детальной окончательной формы к 1 мая 2025 года».

Похожие материалы

Этот сайт использует файлы cookie для улучшения вашего опыта. Мы будем считать, что вы согласны с этим, но при желании вы можете отказаться. Принять Подробнее