2024/03/15 12:22:48

Стратегия Евросоюза в области искусственного интеллекта

В феврале 2020 года Еврокомиссия представила документ, излагающий политику Европы касательно искусственного интеллекта (ИИ), которая ставит целью обеспечить доверенное и безопасное развитие этих технологий, при этом соблюдая права граждан. Он дополняет ранее выпущенные директивы в области ИИ и является частью инициатив ЕС по цифровой трансформации.

Содержание

Представленный в феврале 2020-го Еврокомиссией документ (скачать) не является первым, где излагается стратегия и видение развития ИИ в Европе. В 2018 году в ЕС была представлена стратегия развития ИИ и позже - основанный на ней скоординированный план действий, рассчитанный на срок до 2027 года.

Политики, представленные в феврале 2020-го, дополняют предыдущие инициативы. Основной акцент в них сделан на развитии экосистемы ИИ в ЕС, объединении усилий стран-членов ЕС и разработке необходимых для этого законодательных изменений.

Планируется собрать обратную связь, предложения и провести публичные консультации касательно нового документа, после чего Еврокомиссия предлагает странам-членам ЕС пересмотреть ранее разработанный скоординированный план и принять новую его версию до конца 2020 года. С учетом предложений в итоге стоит цель выработать европейский подход к ИИ.

Документ сфокусирован на двух направлениях:

  • Разработка свода политик, нормативных документов, которые выстроили бы в один ряд усилия в области развития ИИ на европейском, национальном и локальном уровнях. Они должны позволить бизнесу совместно с государством мобилизовать свои ресурсы для создания «экосистемы передового опыта», включая полную производственную цепочку – от начала исследований и разработки до внедрения решений на базе ИИ, в том числе в сегменте среднего и малого бизнеса (СМБ).
  • Разработка ключевых элементов регуляторной базы, которая создала бы уникальную «экосистему доверия». Регуляторная база в этом случае будет направлена на то, чтобы обеспечить соблюдение фундаментальных прав и потребительских прав при использовании систем ИИ. Речь идет, в первую очередь, о системах, несущих высокие риски. Еврокомиссия поддерживает подход, ориентированный прежде всего на человека, подчеркивается в документе.

TAdviser изучил, какие шаги ЕС рассчитывает предпринять по обоим направлениям, и вкратце изложил их ниже.

Политики ЕС в области ИИ дополняют ранее выпущенные директивы в этой области и является частью инициатив по цифровой трансформации (фото - Venturecafecambridge.org)

Экосистема передового опыта

Развитие этого направления предполагает сосредоточение усилий на работе с сообществом, ведущим исследования и разработки. Существующий ландшафт центров компетенций в Европе довольно фрагментированный и не позволяет достигнуть того масштаба, который позволил бы конкурировать на глобальном уровне, полагают авторы документа. Поэтому важно обеспечить большую синергию между различными европейскими исследовательскими центрами в области ИИ. Еврокомиссия будет способствовать созданию центров лучших практик и тестирования, которые могли бы функционировать за счет привлечения национальных и частных инвестиций.

Отдельное внимание уделяется профессиональной подготовке. Планируется ряд мер для привлечения лучших ученых и профессоров, а также предоставление лучших мировых программ обучения в сфере ИИ.Как DevOps-сервис помогает «разгрузить» высоконагруженные системы BPMSoft 2.3 т

Направление создания экосистемы передового опыта предполагает создание ситуации, когда в каждой стране-члене ЕС есть хотя бы один центр цифровых инноваций, обладающий высокой степенью специализации на ИИ. Поддержка таким центрам может оказываться в том числе за счет программы «Цифровая Европа».

Здесь же предполагается запуск пилотной схемы, в рамках которой будет предоставляться финансирование инноваций в области ИИ в обмен на акции компаний-разработчиков. Общий объем финансирования пилота – 100 млн евро.

Еще одна инициатива – создание государственно-частного партнерства в области ИИ, робототехники, в рамках которого планируется объединить усилия, обеспечить координацию исследований и разработок и взаимодействовать с центр цифровых инноваций и тестирования, о которых шла речь выше.

Другая инициатива – продвижение и адаптация решений ИИ в госсекторе. Еврокомиссия планирует запустить серию открытых и прозрачных диалогов с приоритетом в области здравоохранения, администраций небольших населенных пунктов и государственным операторам сервисов, чтобы выработать план по ускорению разработки, экспериментов и адаптации технологий.

Экосистема доверия

Построение такой экосистемы опирается, в первую очередь, на создание регуляторной базы для ИИ, исходя их того, что ИИ, как и другие технологии, приносит и новые возможности, и риски. Граждане опасаются, что останутся бессильными в защите своих прав и безопасности в условиях, когда решения принимаются с участием алгоритмов. В свою очередь, бизнес озадачивается законодательной неопределенностью в этой сфере.

Ряд уже принятых документов затрагивает эти проблемы и необходимость совершенствования законодательства в сфере ИИ, а представленные в феврале 2020-го политики обозначают их роль в создании экосистемы доверия с учетом уже существующих законов и правовых актов. Еврокомиссия отмечает, что любые изменения в законодательстве должны определяться четко обозначенными проблемами, для которых есть посильные решения.

По мнению Еврокомиссии, в существующее законодательство него могли бы вноситься изменения, затрагивающие следующие риски и ситуации:

  • Эффективное применение и контроль исполнения существующих законов национального уровня и уровня ЕС. Для этого могут потребоваться изменения нормативных актов в некоторых областях, чтобы обеспечить большую прозрачность законодательства;
  • Ограниченность спектра существующего законодательства ЕС: оно сфокусировано на продуктах, а не на сервисах, соответственно, здесь есть пробел и в отношении сервисов с использованием ИИ;
  • Меняющаяся функциональность систем на базе ИИ: существующее законодательство не учитывает риски в области безопасности, которые могут быть этим вызваны, фокусируясь на тех рисках, которые присутствуют в момент выхода системы на рынок;
  • Неопределенность в распределении ответственности между поставщиками: основная часть ответственности лежит на производителе решения, но существует регуляторная неопределенность для случаев, когда функции ИИ добавляются к решению позже кем-то другим, а не производителем этого решения;
  • Изменения концепции безопасности: законодательство в сфере безопасности должно учитывать не только риски, которые могут нести продукты в момент вывода на рынок, но и потенциальные риски, которые они могут нести в будущем в результате получения обновлений или самообучения.

Регулирование

2024: В ЕС принят закон об ИИ, запрещающий работу систем распознавания лиц в общественных местах

13 марта 2024 года Европейский союз принял «Закон об искусственном интеллекте». Документ нацелен на обеспечение безопасности при использовании ИИ и соблюдение основных прав при одновременном стимулировании инноваций. Закон в числе прочего запрещает работу систем распознавания лиц на основе ИИ в общественных местах.

Новые правила запрещают определенные сценарии применения ИИ, которые угрожают правам граждан. Это, в частности, системы биометрической категоризации, основанные на определенных характеристиках, а также нецелевое извлечение изображений лиц из интернета или записей с камер видеонаблюдения для создания баз данных. Кроме того, накладывается запрет на распознавание эмоций на рабочем месте и в школах, формирование социальных рейтингов и на предиктивную полицейскую деятельность — когда она основана исключительно на профилировании человека.

ЕС принял «Закон об искусственном интеллекте»

Использование ИИ-систем биометрической идентификации в режиме реального времени допускается только при условии соблюдения строгих мер безопасности. Причем такое применение подлежит предварительному судебному или административному разрешению. Это может быть, например, целенаправленный поиск пропавшего человека или предотвращение террористической атаки.

Сценарии использования ИИ «высокого риска» включают критически важные инфраструктуры, образование и профессиональную подготовку, занятость, основные частные и государственные услуги (например, здравоохранение, банковское дело), некоторые системы правоохранительных органов, миграцию и демократические процессы (включая те, которые влияют на выборы). Граждане смогут подавать жалобы на системы ИИ и получать разъяснения по поводу решений, основанных на инструментах ИИ высокого риска, которые затрагивают их права. Кроме того, вводятся требования прозрачности в отношении ИИ.[1]

2023: В ЕС приняли закон о регулировании сферы искусственного интеллекта

11 мая 2023 года профильные органы Европарламента согласовали Закон ЕС об искусственном интеллекте. Документ под названием AI Act определяет нормы использования и этичного развития различных сервисов, систем и приложений, в основе которых лежат нейросети и алгоритмы ИИ.

Проект получил одобрение со стороны двух структур Европарламента — Комитета по внутреннему рынку и Комитета по гражданским свободам. В ходе голосования за принятие правил высказались 84 депутата, против — только 7. Ещё 12 человек воздержались. Документ станет первым в мире законом, направленным на всестороннее регулирование в ИИ-сфере. По мнению авторов инициативы, такие системы должны находиться под контролем людей, быть безопасными, прозрачными, отслеживаемыми и недискриминационными.

AI Act получил одобрение со стороны двух структур Европарламента

В законе определены пять ключевых положений. В частности, запрещено применение ИИ-систем для дистанционной биометрической идентификации граждан в режиме реального времени в общедоступных местах. Кроме того, нейросети и алгоритмы ИИ не должны использоваться для распознавания эмоций людей: этот запрет распространяется на работодателей, учебные заведения, правоохранительные органы и пр.

Документ запрещает применение ИИ для развёртывания прогностических полицейских систем, работающих на основе профилирования, местонахождения тех или иных лиц или прошлого преступного поведения. Ещё одно направление — области высокого риска: это, в частности, медицинские системы и средства обеспечения безопасности на базе ИИ. Закон также распространяется на платформы генеративного ИИ, такие как ChatGPT: операторы подобных сервисов должны будут соблюдать нормы прозрачности, раскрывая информацию об авторских правах и сообщая, что конкретный контент был сгенерирован нейросетью.[2]

См. также

Примечания