Закон об искусственном интеллекте

Регламент Европейского Союза 2024 года об искусственном интеллекте

Регламент 2024/1689
Регулирование Европейского Союза
Текст, имеющий отношение к ЕЭЗ
ЗаголовокЗакон об искусственном интеллекте [1]
СделаноЕвропейский парламент и совет
Ссылка на журналOJ L, 2024/1689, 12.7.2024
История
Голосование в Европейском парламенте13 марта 2024 г.
Голосование в Совете21 мая 2024 г.
Вступление в силу1 августа 2024 г.
Подготовительные тексты
Предложение комиссии2021/2020
Другое законодательство
ПоправкиРегламенты (ЕС) № 300/2008, (ЕС) № 167/2013, (ЕС) № 168/2013, (ЕС) 2018/858, (ЕС) 2018/1139 и (ЕС) 2019/2144 и Директивы 2014/90 /ЕВРОСОЮЗ
Действующее законодательство

Закон об искусственном интеллекте ( Закон об ИИ ) [1] — это регламент Европейского союза, касающийся искусственного интеллекта (ИИ). Он устанавливает общую нормативно- правовую базу для ИИ в Европейском союзе (ЕС). [2] Он вступил в силу 1 августа 2024 года [3] с положениями, которые вступят в силу постепенно в течение следующих 6–36 месяцев. [4]

Он охватывает все типы ИИ в широком спектре секторов, за исключением систем ИИ, используемых исключительно в военных, национальных, исследовательских и непрофессиональных целях. [5] Как часть регулирования продукта, он не предоставляет права отдельным лицам, но регулирует поставщиков систем ИИ и организации, использующие ИИ в профессиональном контексте. [6]

Закон классифицирует неисключенные приложения ИИ по их риску причинения вреда. Существует четыре уровня — неприемлемый, высокий, ограниченный, минимальный — плюс дополнительная категория для ИИ общего назначения. [7]

  • Приложения с неприемлемыми рисками запрещены.
  • Приложения с высоким уровнем риска должны соответствовать требованиям безопасности, прозрачности и качества, а также проходить оценку соответствия .
  • Приложения с ограниченным риском имеют только обязательства по обеспечению прозрачности.
  • Приложения с минимальным риском не регулируются.

Для ИИ общего назначения предъявляются требования к прозрачности, при этом для моделей с открытым исходным кодом требования снижены , а для моделей с высокими возможностями требуются дополнительные оценки. [8] [9]

Закон также создает Европейский совет по искусственному интеллекту для содействия национальному сотрудничеству и обеспечения соблюдения регламента. [10] Как и Общий регламент ЕС о защите данных , Закон может применяться экстерриториально к поставщикам из-за пределов ЕС, если у них есть пользователи в пределах ЕС. [6]

Предложенный Европейской комиссией 21 апреля 2021 года [11], он был принят Европейским парламентом 13 марта 2024 года [12] и единогласно одобрен Советом ЕС 21 мая 2024 года [13]. Проект закона был пересмотрен с учетом роста популярности генеративных систем искусственного интеллекта , таких как ChatGPT , чьи универсальные возможности не соответствовали основной структуре. [14]

Положения

Категории риска

Существуют различные категории риска в зависимости от типа приложения, при этом особая категория посвящена универсальному генеративному ИИ:

  • Неприемлемый риск — приложения ИИ в этой категории запрещены, за исключением особых исключений. [15] Если исключения не применяются, сюда входят приложения ИИ, которые манипулируют поведением человека , те, которые используют удаленную биометрическую идентификацию в реальном времени (например, распознавание лиц ) в общественных местах, и те, которые используются для социального скоринга (ранжирования людей на основе их личных характеристик, социально-экономического статуса или поведения). [9]
  • Высокий риск — приложения ИИ, которые, как ожидается, будут представлять значительную угрозу здоровью, безопасности или основным правам человека. В частности, системы ИИ, используемые в здравоохранении, образовании, подборе персонала, управлении критической инфраструктурой, правоохранительных органах или правосудии. Они подлежат качеству, прозрачности, человеческому надзору и обязательствам по безопасности, а в некоторых случаях требуют «Оценки воздействия на основные права» перед развертыванием. [16] Они должны быть оценены как до их размещения на рынке, так и на протяжении всего их жизненного цикла. Список приложений с высоким риском может быть расширен со временем, без необходимости внесения изменений в сам Закон об ИИ. [6]
  • ИИ общего назначения – добавлено в 2023 году, эта категория включает в себя, в частности, базовые модели, такие как ChatGPT. Если только веса и архитектура модели не выпущены под свободной и открытой лицензией, в этом случае требуются только сводка данных обучения и политика соблюдения авторских прав, они подчиняются требованиям прозрачности. Высокоэффективные системы ИИ общего назначения, включая бесплатные и открытые, которые могут представлять системные риски (особенно те, которые обучены с использованием вычислительной мощности, превышающей 1025 FLOPS ) [ 17], также должны пройти тщательную процедуру оценки. [9]
  • Ограниченный риск — системы ИИ в этой категории имеют обязательства по прозрачности, гарантируя пользователям, что они взаимодействуют с системой ИИ, и позволяя им делать осознанный выбор. В эту категорию входят, например, приложения ИИ, которые позволяют генерировать или манипулировать изображениями, звуком или видео (например, deepfakes ). [9]
  • Минимальный риск — в эту категорию входят, например, системы ИИ, используемые для видеоигр или спам-фильтров . Ожидается, что большинство приложений ИИ попадут в эту категорию. [18] Эти системы не регулируются, и государства-члены не могут вводить дополнительные правила из-за правил максимальной гармонизации . Существующие национальные законы, касающиеся разработки или использования таких систем, переопределяются. Однако предлагается добровольный кодекс поведения. [19]

Исключения

Статьи 2.3 и 2.6 освобождают системы ИИ, используемые в военных целях или целях национальной безопасности или для чисто научных исследований и разработок, от действия Закона об ИИ. [15]

Статья 5.2 запрещает алгоритмическое видеонаблюдение только в том случае, если оно ведется в режиме реального времени. Исключения, разрешающие алгоритмическое видеонаблюдение в режиме реального времени, включают цели охраны порядка, включая «реальную и существующую или реальную и предвидимую угрозу террористической атаки». [15]

В пункте 31 декларативной части закона говорится, что он направлен на запрет «систем ИИ, предоставляющих социальную оценку физических лиц государственными или частными субъектами», но допускает «законную практику оценки физических лиц, которая осуществляется для определенной цели в соответствии с законодательством Союза и национальным законодательством». [20] La Quadrature du Net интерпретирует это исключение как разрешение систем социальной оценки, специфичных для сектора, [15] таких как оценка подозрения, используемая французским агентством семейных выплат Caisse d'allocations familiales . [21] [15]

Управление

Закон об ИИ устанавливает различные новые органы в статье 64 и последующих статьях. Эти органы отвечают за реализацию и обеспечение соблюдения Закона. Подход сочетает координацию на уровне ЕС с национальной реализацией, вовлекая как государственные органы, так и участие частного сектора.

Будут созданы следующие новые органы: [22] [23]

  1. Офис по искусственному интеллекту: этот орган, прикрепленный к Европейской комиссии, будет координировать реализацию Закона об искусственном интеллекте во всех государствах-членах и контролировать соблюдение положений Закона поставщиками услуг искусственного интеллекта общего назначения.
  2. Европейский совет по искусственному интеллекту: состоящий из одного представителя от каждого государства-члена, Совет будет консультировать и помогать Комиссии и государствам-членам в содействии последовательному и эффективному применению Закона об ИИ. В его задачи входит сбор и обмен технической и нормативной экспертизой, предоставление рекомендаций, письменных заключений и других советов.
  3. Консультативный форум: созданный для консультирования и предоставления технической экспертизы Совету и Комиссии, этот форум будет представлять сбалансированный выбор заинтересованных сторон, включая промышленность, стартапы, малые и средние предприятия, гражданское общество и научные круги, гарантируя, что в процессе внедрения и подачи заявок будет представлен широкий спектр мнений.
  4. Научная группа независимых экспертов: эта группа будет предоставлять технические консультации и информацию Управлению по искусственному интеллекту и национальным органам власти, обеспечивать соблюдение правил для универсальных моделей искусственного интеллекта (в частности, путем запуска квалифицированных оповещений о возможных рисках для Управления по искусственному интеллекту) и обеспечивать соответствие правил и реализаций Закона об искусственном интеллекте последним научным открытиям.

В то время как на уровне ЕС планируется создание новых органов, государствам-членам необходимо будет назначить «национальные компетентные органы». [24] Эти органы будут отвечать за обеспечение применения и реализации Закона об ИИ, а также за проведение «надзора за рынком». [25] Они будут проверять, соответствуют ли системы ИИ правилам, в частности, путем проверки надлежащего выполнения оценок соответствия и назначения третьих сторон для проведения внешних оценок соответствия.

Исполнение

Акт регулирует выход на внутренний рынок ЕС с использованием Новой законодательной базы . Он содержит основные требования, которым должны соответствовать все системы ИИ для доступа на рынок ЕС. Эти основные требования передаются в Европейские организации по стандартизации , которые разрабатывают технические стандарты, которые более подробно описывают эти требования. [26] Эти стандарты разрабатываются CEN/CENELEC JTC 21. [27]

Акт обязывает государства-члены создавать собственные уведомляющие органы. Оценки соответствия проводятся для проверки соответствия систем ИИ стандартам, изложенным в Акте об ИИ. [28] Эта оценка может быть проведена двумя способами: либо путем самооценки, когда поставщик системы ИИ проверяет соответствие, либо путем оценки соответствия третьей стороной, когда оценку проводит уведомляющий орган. [19] Уведомляющие органы также имеют полномочия проводить аудиты для обеспечения надлежащей оценки соответствия. [29]

Возникла критика в отношении того факта, что многие системы ИИ с высоким уровнем риска не требуют оценки соответствия третьей стороной. [30] [31] [32] Некоторые комментаторы утверждают, что независимые оценки третьей стороной необходимы для систем ИИ с высоким уровнем риска, чтобы гарантировать безопасность перед развертыванием. Юристы предположили, что системы ИИ, способные генерировать deepfakes для политической дезинформации или создавать несогласованные интимные изображения, следует классифицировать как высокорисковые и подвергать более строгому регулированию. [33]

Законодательная процедура

В феврале 2020 года Европейская комиссия опубликовала «Белую книгу об искусственном интеллекте — европейский подход к совершенству и доверию». [34] В октябре 2020 года в Европейском совете состоялись дебаты между лидерами ЕС . 21 апреля 2021 года Комиссия официально предложила Закон об ИИ. [11] 6 декабря 2022 года Европейский совет принял общую ориентацию, что позволило начать переговоры с Европейским парламентом . 9 декабря 2023 года, после трех дней «марафонных» переговоров, Совет ЕС и Парламент заключили соглашение. [35] [36]

Закон был принят в Европейском парламенте 13 марта 2024 года 523 голосами «за», 46 «против» и 49 «воздержавшихся». [37] Он был одобрен Советом ЕС 21 мая 2024 года. [13] Он вступил в силу 1 августа 2024 года, [3] через 20 дней после публикации в Официальном журнале 12 июля 2024 года. [12] [38] После вступления в силу будет задержка, прежде чем он станет применимым, которая зависит от типа заявки. Эта задержка составляет 6 месяцев для запретов на системы ИИ «неприемлемого риска», 9 месяцев для кодексов практики, 12 месяцев для систем ИИ общего назначения, 36 месяцев для некоторых обязательств, связанных с системами ИИ «высокого риска», и 24 месяца для всего остального. [38] [37]

Реакции

Эксперты утверждают, что, хотя юрисдикция закона является европейской, он может иметь далеко идущие последствия для международных компаний, которые планируют расширяться в Европу. [39] Ану Брэдфорд из Колумбийского университета утверждает, что закон дает значительный импульс всемирному движению по регулированию технологий ИИ. [39]

Amnesty International раскритиковала Закон об ИИ за то, что он не полностью запрещает распознавание лиц в реальном времени , что, по их словам, может нанести ущерб «правам человека, гражданскому пространству и верховенству закона» в Европейском союзе. Она также раскритиковала отсутствие запрета на экспорт технологий ИИ, которые могут нанести ущерб правам человека. [39]

Некоторые технологические наблюдатели утверждают, что в законе есть серьезные лазейки, которые позволят крупным технологическим монополиям закрепить свое преимущество в области ИИ или лоббировать ослабление правил. [40] [41] Некоторые стартапы приветствовали разъяснения, предоставляемые актом, в то время как другие утверждали, что дополнительное регулирование сделает европейские стартапы неконкурентоспособными по сравнению с американскими и китайскими стартапами. [41] La Quadrature du Net (LQDN) описала Закон об ИИ как «специально созданный для технологической отрасли, европейских полицейских сил, а также других крупных бюрократий, стремящихся автоматизировать социальный контроль». LQDN описала роль саморегулирования и исключений в законе, которые делают его «в значительной степени неспособным противостоять социальному, политическому и экологическому ущербу, связанному с распространением ИИ». [15]

Смотрите также

Примечания

Ссылки

  1. ^ abc Регламент (ЕС) 2024/1689 Европейского парламента и Совета от 13 июня 2024 г., устанавливающий гармонизированные правила в отношении искусственного интеллекта и вносящий поправки в Регламенты (ЕС) № 300/2008, (ЕС) № 167/2013, (ЕС) № 168/2013, (ЕС) 2018/858, (ЕС) 2018/1139 и (ЕС) 2019/2144 и Директивы 2014/90/ЕС, (ЕС) 2016/797 и (ЕС) 2020/1828 (Закон об искусственном интеллекте)
  2. ^ «Предложение о Регламенте, устанавливающем гармонизированные правила в отношении искусственного интеллекта: формирование цифрового будущего Европы». digital-strategy.ec.europa.eu . 21 апреля 2021 г. Архивировано из оригинала 4 января 2023 г. Получено 6 октября 2024 г.
  3. ^ ab "Закон об искусственном интеллекте вступает в силу" (пресс-релиз). Брюссель: Европейская комиссия . 1 августа 2024 г. Получено 5 августа 2024 г.
  4. ^ "Хронология развития". artificialintelligenceact.eu . Future of Life Institute . Получено 13 июля 2024 г. .
  5. ^ «Закон об искусственном интеллекте: Совет и парламент заключают соглашение о первых в мире правилах для ИИ». Совет ЕС . 9 декабря 2023 г. Архивировано из оригинала 10 января 2024 г. Получено 6 января 2024 г.
  6. ^ abc Mueller, Benjamin (4 мая 2021 г.). «Закон об искусственном интеллекте: краткое объяснение». Center for Data Innovation . Архивировано из оригинала 14 октября 2022 г. Получено 6 января 2024 г.
  7. ^ Лилков, Димитар (2021). «Регулирование искусственного интеллекта в ЕС: рискованная игра». European View . 20 (2): 166–174. doi : 10.1177/17816858211059248 .
  8. ^ Эспиноза, Хавьер (9 декабря 2023 г.). «ЕС согласовывает знаковые правила в отношении искусственного интеллекта». Financial Times . Архивировано из оригинала 29 декабря 2023 г. Получено 6 января 2024 г.
  9. ^ abcd "EU AI Act: first Regulation on artificial intelligence". Новости Европейского парламента . Архивировано из оригинала 10 января 2024 года . Получено 6 января 2024 года .
  10. ^ Маккарти, Марк; Пропп, Кеннет (4 мая 2021 г.). «Машины узнают, что Брюссель пишет правила: новое регулирование ЕС в области ИИ». Brookings . Архивировано из оригинала 27 октября 2022 г. . Получено 7 сентября 2021 г. .
  11. ^ abc Предложение о Регламенте, устанавливающем гармонизированные правила в отношении искусственного интеллекта
  12. ^ ab "Европейские законодатели приняли первый в мире крупный закон о регулировании ИИ". CNBC . 14 марта 2024 г. Архивировано из оригинала 13 марта 2024 г. Получено 13 марта 2024 г.
  13. ^ ab Browne, Ryan (21 мая 2024 г.). «Первый в мире крупный закон об искусственном интеллекте получает окончательный зеленый свет ЕС». CNBC . Архивировано из оригинала 21 мая 2024 г. Получено 22 мая 2024 г.
  14. ^ Coulter, Martin (7 декабря 2023 г.). «Что такое Закон ЕС об искусственном интеллекте и когда регулирование вступит в силу?». Reuters . Архивировано из оригинала 10 декабря 2023 г. Получено 11 января 2024 г.
  15. ^ abcdef С принятием Закона об ИИ золотая лихорадка техно-решений может продолжиться, La Quadrature du Net , 22 мая 2024 г., Wikidata  Q126064181, архивировано из оригинала 23 мая 2024 г.
  16. ^ Мантелеро, Алессандро (2022), Beyond Data. Права человека, этическая и социальная оценка воздействия в ИИ , Серия информационных технологий и права, т. 36, Гаага: Springer-TMC Asser Press, doi : 10.1007/978-94-6265-531-7 , ISBN 978-94-6265-533-1
  17. ^ Бертуцци, Лука (7 декабря 2023 г.). «Закон об ИИ: политики ЕС устанавливают правила для моделей ИИ, сталкиваются с проблемами правоприменения». Euractiv . Архивировано из оригинала 8 января 2024 г. Получено 6 января 2024 г.
  18. Либорейро, Хорхе (21 апреля 2021 г.). «'Более высокий риск, более строгие правила': новые правила ЕС в области искусственного интеллекта». Евроньюс . Архивировано из оригинала 6 января 2024 года . Проверено 6 января 2024 г.
  19. ^ ab Veale, Michael; Borgesius, Frederik Zuiderveen (1 августа 2021 г.). «Демистификация проекта закона ЕС об искусственном интеллекте — анализ хороших, плохих и неясных элементов предлагаемого подхода». Computer Law Review International . 22 (4): 97–112. arXiv : 2107.03721 . doi : 10.9785/cri-2021-220402. ISSN  2194-4164. S2CID  235765823.
  20. ^ Закон об искусственном интеллекте: [1] Декламация 31
  21. ^ Notation des allocataires: la CAF étend sa наблюдение à l'analyse des revenus en temps réel (на французском языке), La Quadrature du Net , 13 марта 2024 г., Викиданные  Q126066451, заархивировано из оригинала 1 апреля 2024 г.
  22. ^ Бертуцци, Лука (21 ноября 2023 г.). «Законодатели ЕС обсудят пересмотренную структуру управления сводом правил ИИ». Euractiv . Архивировано из оригинала 22 мая 2024 г. Получено 18 апреля 2024 г.
  23. ^ Фридл, Пол; Гасиола, Густаво Джил (7 февраля 2024 г.). «Изучение Закона ЕС об искусственном интеллекте». Verfassungsblog . doi :10.59704/789d6ad759d0a40b. Архивировано из оригинала 22 мая 2024 г. Получено 16 апреля 2024 г.
  24. ^ Предложение: [11] Статья 3 – определения. Выдержка: «"национальный компетентный орган" означает национальный надзорный орган, уведомляющий орган и орган по надзору за рынком».
  25. ^ "Искусственный интеллект – Вопросы и ответы". Европейская комиссия . 12 декабря 2023 г. Архивировано из оригинала 6 апреля 2024 г. Получено 17 апреля 2024 г.
  26. ^ Тартаро, Алессио (2023). «Регулирование по стандартам: текущий прогресс и основные проблемы стандартизации искусственного интеллекта в поддержку Закона об ИИ». Европейский журнал права и технологий конфиденциальности . 1 (1). Архивировано из оригинала 3 декабря 2023 г. . Получено 10 декабря 2023 г. .
  27. ^ «С Законом об ИИ нам нужно учитывать разрыв в стандартах». CEPS . 25 апреля 2023 г. Получено 15 сентября 2024 г.
  28. ^ РАБОЧИЙ ДОКУМЕНТ СОТРУДНИКОВ КОМИССИИ ОЦЕНКА ВОЗДЕЙСТВИЯ, прилагаемый к предложению о Регламенте Европейского парламента и Совета, УСТАНАВЛИВАЮЩЕМ ГАРМОНИЗИРОВАННЫЕ ПРАВИЛА В ОБЛАСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА (ЗАКОН ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕ) И ВНОСЯЩЕМ ИЗМЕНЕНИЯ В НЕКОТОРЫЕ ЗАКОНОДАТЕЛЬНЫЕ АКТЫ СОЮЗА
  29. ^ Касароса, Федерика (1 июня 2022 г.). «Сертификация искусственного интеллекта по кибербезопасности: упущенная возможность скоординировать Закон об искусственном интеллекте и Закон о кибербезопасности». International Cybersecurity Law Review . 3 (1): 115–130. doi :10.1365/s43439-021-00043-6. ISSN  2662-9739. S2CID  258697805.
  30. ^ Смуха, Натали А.; Ахмед-Ренгерс, Эмма; Харкенс, Адам; Ли, Вэньлун; Макларен, Джеймс; Пизелли, Риккардо; Йенг, Карен (5 августа 2021 г.). «Как ЕС может добиться юридически надежного ИИ: ответ на предложение Европейской комиссии о принятии закона об искусственном интеллекте». SSRN  3899991.
  31. ^ Эберс, Мартин; Хох, Вероника РС; Розенкранц, Франк; Рушемайер, Ханна; Штайнрёттер, Бьёрн (декабрь 2021 г.). «Предложение Европейской комиссии о законе об искусственном интеллекте — критическая оценка членами Общества по праву робототехники и искусственного интеллекта (RAILS)». J: Multidisciplinary Scientific Journal . 4 (4): 589–603. doi : 10.3390/j4040043 . ISSN  2571-8800.
  32. ^ Алмада, Марко; Пети, Николя (27 октября 2023 г.). «Закон ЕС об искусственном интеллекте: между безопасностью продукции и основными правами». ССНН  4308072.
  33. ^ Ромеро-Морено, Фелипе (29 марта 2024 г.). «Генеративный ИИ и дипфейки: подход к борьбе с вредоносным контентом с точки зрения прав человека». International Review of Law, Computers & Technology . 39 (2): 1–30. doi : 10.1080/13600869.2024.2324540 . hdl : 2299/20431 . ISSN  1360-0869.
  34. ^ «Белая книга по искусственному интеллекту – европейский подход к совершенству и доверию». Европейская комиссия . 19 февраля 2020 г. Архивировано из оригинала 5 января 2024 г. Получено 6 января 2024 г.
  35. ^ Процедура 2021/0106/COD
  36. ^ "Хронология – Искусственный интеллект". Европейский совет . 9 декабря 2023 г. Архивировано из оригинала 6 января 2024 г. Получено 6 января 2024 г.
  37. ^ ab "Закон об искусственном интеллекте: депутаты Европарламента принимают знаковый закон". Европейский парламент . 13 марта 2024 г. Архивировано из оригинала 15 марта 2024 г. Получено 14 марта 2024 г.
  38. ^ ab Дэвид, Эмилия (14 декабря 2023 г.). «Закон ЕС об искусственном интеллекте принят — теперь пришло время ожидания». The Verge . Архивировано из оригинала 10 января 2024 г. . Получено 6 января 2024 г. .
  39. ^ abc «Европа согласовала ведущие в мире правила в области ИИ. Как они работают и затронут ли они людей по всему миру?». AP News . 11 декабря 2023 г. Получено 31 мая 2024 г.
  40. ^ "Парламент ЕС дал зеленый свет знаковым правилам в области искусственного интеллекта". Al Jazeera . Получено 31 мая 2024 г.
  41. ^ ab "ЕС принял первый закон об ИИ. Технические эксперты говорят, что это "горько-сладко"". euronews . 16 марта 2024 г. Получено 31 мая 2024 г.
Взято с "https://en.wikipedia.org/w/index.php?title=Искусственный_интеллект_Act&oldid=1249744296"