Закон об искусственном интеллекте: еще один шаг к принятию

Закон об искусственном интеллекте: еще один шаг к принятию

  • Пятница, 15 декабря 2023 12:16
    • Иллюстрация freepik.com Иллюстрация freepik.com

    9 декабря 2023 года Европарламент пришел к предварительному соглашению по Регламенту об установлении гармонизированных правил в области искусственного интеллекта (другие названия – Закон об искусственном интеллекте или AI Act). Будущий регламент содержит положения о регулировании разработки ИИ и обеспечении его ответственного, этичного и безопасного использования.

    Акцентируем внимание, что закон об искусственном интеллекте еще не принят и должен пройти формальную процедуру одобрения. Так как AI Act является Регламентом, то его действие будет распространяться на все страны-члены ЕС без необходимости отдельной имплементации через принятие соответствующего закона каждой из стран.

    Проект AI Act в первой редакции был опубликован еще в апреле 2021 года, то есть до бума генеративного искусственного интеллекта (GenAI) 2023 года.

    Помимо AI Act в ЕС рассматривается также проект AI Liability Directive. Это директива, призванная урегулировать вопросы ответственности владельцев ИИ-продуктов в случае причинения ущерба пользователям.

    Кратко основные положения AI Act, по которым было достигнуто согласие:

    Классификация ИИ-систем по уровню риска

    Регламент разделяет системы искусственного интеллекта по критерию уровня риска на три уровня:
    - запрещенные ИИ-системы, создающие недопустимый риск (о них ниже);
    - ИИ программы с высоким уровнем риска, к примеру, решения в сфере медицины, транспорта, рекрутинга;
    - ИИ программы с низким или минимальным уровнем риска, к примеру, в сфере развлечений.

    В зависимости от уровня риска, к которому будет отнесена ИИ-программа, будут различаться требования к ее разработке и использованию.

    Запрещенные ИИ-системы

    AI Act прямо запрещает ИИ-системы, которые могут представлять угрозу основным правам человека. Здесь примерами могут быть программы, манипулирующие человеческим поведением, используемые для социальной оценки населения, для сбора информации с камер видеонаблюдения, а также ИИ, классифицирующие людей по «чувствительным» параметрам, например, расе, политическим взглядам и др.

    Данные ограничения будут распространяться как на частные компании, так и на государства.

    Обязательства прозрачности

    Разработчики систем ИИ должны будут обеспечить их прозрачность путем предоставления подробных руководств и разборов материалов, используемых при обучении данного ИИ. Нововведение направлено на усиление доверия пользователей к искусственному интеллекту.

    Применительно к данному положению, интересно, что компания OpenAI, владелец наиболее известного GenAI – ChatGPT – до сих пор отказывается раскрывать сведения об обучении алгоритма, однако в случае принятия AI Act в текущей редакции OpenAI обязана будет это сделать.

    Дополнительные права граждан

    AI Act также предоставляет гражданам дополнительные права, в частности, закрепляет их право на подачу жалоб на ИИ-системы и получение разъяснений о решениях ИИ, которые затрагивают их права. Это относится к системам искусственного интеллекта, классифицированным как обладающие высокой степенью риска.

    Защита данных и конфиденциальность

    AI Act гарантирует защиту частной жизни граждан, а также уделяет значительное внимание защите персональных данных. В частности, требует ясного согласия граждан на использование их персональных данных и запрещает использование ИИ для массового наблюдения или контроля населения. Данные положения подчеркивают значение защиты данных и конфиденциальности во всех секторах экономики, где используется ИИ.

    Как известно, на текущий момент есть сомнения, соответствует ли GenAI программы требованиям GDPR. В частности, если ввести в ChatGPT или Claude 2 информацию, содержащую персональные данные, то эти программы будут использовать далее эту информацию для своего обучения. При этом отсутствует техническая возможность «вывести» эти данные из GenAI, что противоречит положениям GDPR, по которому пользователь всегда вправе отозвать согласие на обработку персональных данных.

    Регуляторные ИИ «песочницы»

    AI Act предусматривает «песочницы» для ИИ с более гибким регулированием, то есть контролируемые среды для разработки и тестирования систем ИИ в реальных условиях. Цель состоит в том, чтобы облегчить вывод инновационных систем ИИ на рынок посредством более гибкого тестирования.

    Ответственность за нарушение закона

    Штрафы за нарушения закона об искусственном интеллекте установлены в процентах от глобального годового оборота компании-нарушителя за предыдущий финансовый год или в виде заранее определенной суммы, в зависимости от того, что больше. Например, за нарушение регулирования о запрещенных ИИ сумма штрафа может составить 35 миллионов евро или 7% от оборота, а за предоставление неверной информации – 7,5 миллионов евро или 1,5% от оборота.

    Создание Офиса ЕС по вопросам ИИ

    В рамках Еврокомиссии будет создан Офис ЕС по вопросам ИИ (AI Office). Ему будет поручено осуществлять надзор за передовыми моделями ИИ, вносить вклад в развитие стандартов и практики тестирования новых ИИ, а также обеспечивать соблюдение Закона во всех государствах-членах ЕС.

    Окончательное соглашение должно быть достигнуто до конца 2023 года. Текст должен быть ратифицирован Европарламентом в начале 2024 года, а вступить в силу закон сможет не ранее 2025-го.

    Этот документ может стать первым в мире специальным актом по регулированию искусственного интеллекта и, вероятно, будет воспринят другими странами мира, по аналогии с GDPR. С учетом активного роста AI-generated продуктов на рынке, его влияние будет ощутимым и затронет множество отраслей.

    Камаль Терехов
    Соруководитель, REVERA Polska

    Андрей Рутковский
    Юрист, REVERA Cyprus

    REVERA Law Group https://revera.legal

     

  • Read 503 times