2024/09/13 11:26:34

Регулирование искусственного интеллекта


Содержание

Основная статья: Искусственный интеллект

Хроника

2024

РПЦ разработала и утвердила принципы использования искусственного интеллекта

Общецерковная аспирантура и докторантура имени святых равноапостольных Кирилла и Мефодия утвердила первый в России документ, регламентирующий применение технологий искусственного интеллекта в духовном образовании. Решение принято Ученым советом учреждения 30 сентября 2024 года. Подробнее здесь.

Минэкономики РФ подготовит регуляторные песочницы к использованию ИИ

В начале сентября 2024 года Минэкономики РФ обнародовало три проекта постановлений правительства, направленных на реализацию поправок к федеральному закону об экспериментальных правовых режимах (ЭПР — «регуляторные песочницы») в сфере цифровых инноваций (169-ФЗ). Речь, в частности, идет об использовании средств искусственного интеллекта.

Отмечается, что по состоянию на сентябрь 2024-го в России реализуются 16 ЭПР, из которых 13 связаны с беспилотниками. При этом «регуляторные песочницы» позволяют отказаться от некоторых нормативных требований, мешающих развитию инноваций. Благодаря такому подходу компании, занимающиеся разработкой новых продуктов и услуг, а также представители органов власти могут тестировать их без риска нарушить действующее законодательство, а впоследствии, если тестирование прошло успешно, — выходить с ними на рынок.

Минэкономики РФ создаст регуляторные песочницы для использования ИИ

Один из проектов постановлений Минэкономики меняет правила внесения изменений в ЭПР — они, как отмечает газета «Коммерсантъ», могут быть подготовлены уполномоченным органом или регулятором по собственной инициативе, поручению президента или правительства, а также по предложениям компаний. Второй проект призван оптимизировать процедуры представления отчетов субъектов ЭПР о своей деятельности. Третий документ дает Минэкономики дополнительное основание для приостановления статуса субъекта ЭПР — по заключению комиссии ведомства, созданной для установления обстоятельств, при которых был причинен вред в результате использования решений с использованием искусственного интеллекта.Михаил Садиров, SMART technologies: На тестирование мультивендорных решений есть спрос

В целом, поправки ориентированы на ускорение запуска новых программ, а также на уточнение порядка апробации технологий ИИ. Предполагается, что изменения значительно упростят доступ к ЭПР со стороны бизнеса.[1]

Минцифры РФ готовит правила использования искусственного интеллекта

26 июля 2024 года Совет по правам человека при президенте РФ (СПЧ) и Минцифры России сообщили о совместной инициативе по разработке правил и ограничений использования искусственного интеллекта в определенных отраслях. Речь идет о здравоохранении, образовании, судопроизводстве, транспорте, сфере безопасности и психологической помощи.

Говорится, что советник президента РФ, глава СПЧ Валерий Фадеев встретился с Министром цифрового развития, связи и массовых коммуникаций Максутом Шадаевым, предложив обсудить статью председателя Конституционного суда Валерия Зорькина о необходимости конституционно-правового анализа внедрения ИИ. По словам Фадеева, вокруг цифровизации «существует некая эйфория», которая зачастую не оправдана и иногда приводит к ошибочным, преждевременным решениям.

Минцифры РФ разрабатывает правила использования искусственного интеллекта

Отмечается, что ИИ все активнее используется при анализе медицинских данных и постановке диагноза. Однако есть опасность профессиональной деградации медиков, которые предпочтут отдавать решения на откуп ИИ, а не принимать их самостоятельно. Новые цифровые технологии позволяют более тщательно следить за успеваемостью школьников, но это, как утверждается, чревато выстраиванием траектории развития детей. Кроме того, на фоне повсеместного внедрения ИИ может наблюдаться избыточный сбор и незаконный оборот персональных данных. Поэтому необходима разработка правил использования ИИ, которые помогут минимизировать возможные риски и избежать утечек информации.

«
Будем разбираться в конкретных отраслях, разрабатывать конкретные правила и на уровне отраслей определять объем собираемых данных. Начать предлагаю с образования как самой «фонящей» темы. Подготовим наши предложения в ближайший месяц (до конца августа 2024 года), — сказал Шадаев.[2]
»

В России введена ответственность за причинение вреда при использовании решений с ИИ

9 июля 2024 года в России введена ответственность за причинение вреда при использовании решений с искусственным интеллектом. Этот шаг стал результатом внесения поправок в Федеральный закон «Об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации». По новым положениям закона предусмотрено страхование рисков, возникающих при использовании технологий ИИ, что обеспечит дополнительную защиту для граждан и юридических лиц.

Законодательные изменения включают ответственность за вред, нанесённый жизни, здоровью или имуществу физических и юридических лиц при реализации экспериментальных правовых режимов с использованием ИИ. Поправки предусматривают создание комиссии для расследования всех обстоятельств, связанных с причинением такого вреда. Комиссия будет оценивать объем и характер вреда, включая технические сбои и ошибки, допущенные при разработке и внедрении технологий ИИ, а также действия или бездействия лиц, которые могли повлечь причинение вреда.

В России введена ответственность за вред от использования решений с ИИ

На основании выводов комиссии будут приниматься решения по минимизации и устранению последствий причинения вреда, предупреждению подобных случаев в будущем, изменению условий экспериментального правового режима или приостановлению статуса субъекта экспериментального правового режима. Эти меры направлены на обеспечение безопасности и надежности технологий ИИ в рамках правовых экспериментов.

Закон также устанавливает обязательное страхование гражданской ответственности участников экспериментальных правовых режимов за вред, причиненный жизни, здоровью или имуществу других лиц, включая случаи, связанные с использованием решений на основе ИИ. Введены требования к условиям такого страхования, включая минимальный размер страховой суммы, перечень страховых рисков и страховых случаев. Субъект экспериментального правового режима обязан вести реестр лиц, вступивших с ним в правоотношения, что позволит обеспечить прозрачность и контроль за процессом страхования.

Закон вступит в силу через 180 дней после его официального опубликования.[3]

Разработчиков ИИ в России обязали страховать риски нанесения вреда их системами

25 июня 2024 года Госдума РФ приняла закон об обязательном страховании ответственности за вред от искусственного интеллекта. Документ, как отмечается, направлен на совершенствование механизмов применения экспериментальных правовых режимов (ЭПР) в сфере цифровых инноваций.

Закон нацелен в том числе на предупреждение и минимизацию рисков возникновения негативных последствий использования ИИ-технологий. Участникам ЭПР предписано страховать гражданскую ответственность за причинение вреда жизни, здоровью или имуществу других лиц в результате применения ИИ. В соответствии с новыми правилами, субъект ЭПР обязан вести реестр лиц, вступающих с ним в правоотношения. В этой базе должна содержаться информация об ответственных за использование решений, основанных на ИИ. Кроме того, компаниям придется вести реестр созданных результатов интеллектуальной деятельности с указанием их правообладателя.

Разработчиков ИИ в России обязали страховать риски

Еще одним нововведением является формирование комиссии по выявлению обстоятельств, в результате которых при применении ИИ причинен вред. Предлагается, что в состав комиссии будут входить представители уполномоченного и регулирующего органов, а также организации предпринимательского сообщества. Кроме того, при необходимости могут быть включены иные лица. Вносимые изменения согласуются с основными принципами развития и использования технологий ИИ, соблюдение которых обязательно при реализации Национальной стратегии развития искусственного интеллекта на период до 2030 года.

«
В случае если при реализации ЭПР в результате использования решений, разработанных с применением технологий ИИ, причинен вред жизни, здоровью или имуществу человека либо имуществу юридического лица, в течение 30 дней со дня выявления факта причинения такого вреда регулирующий орган создает комиссию для установления обстоятельств, при которых был причинен такой вред, — отмечается в документе.
»

В соответствии с законом исключается требование к инициатору об отсутствии у него судимости, поскольку практика установления ЭПР показала отсутствие необходимости и эффективности данного требования в целом. Подчеркивается, что наличие справки об отсутствии судимости не влияет на решение вопроса об установлении ЭПР — указанный документ не является предметом рассмотрения заинтересованными органами (в частности, МВД России, ФСБ России и правительством Российской Федерации). Вместе с тем требование об отсутствии судимости может предъявляться в рамках программы ЭПР в первую очередь в отношении лиц, непосредственно осуществляющих апробацию инноваций.

«
Данный подход уже нашел отражение в действующих программах ЭПР, где лицу, имеющему судимость, запрещается осуществлять функции водителя-испытателя, диспетчера беспилотных авиационных систем, что является более адресной и эффективной мерой противодействия совершению противоправных действий, — сказано в документе.
»

Президент Всероссийского союза страховщиков (ВСС) Евгений Уфимцев в качестве примера приводит риск гражданской ответственности причинения вреда беспилотным автомобилем. По его словам, само по себе страхование ответственности за причинение вреда в результате использования ИИ ставит ряд новых для юридической и страховой практики вопросов. Вместе с тем начальник управления страхования ответственности «Ингосстраха» Дмитрий Шишкин говорит, что рынок страхования ИИ будет развиваться, но «драйвером этого развития должна стать определенная законом ответственность разработчиков ИИ».[4]

Как в США, ЕС и Китае проводится госрегулирование сферы ИИ

Стремительное развитие искусственного интеллекта, в том числе генеративных сервисов, привело к необходимости регулирования соответствующей сферы. Различные законодательные инициативы в области ИИ уже приняты или обсуждаются на уровне правительств в Евросоюзе, Китае и США. О новых требованиях в середине января 2024 года рассказал Институт статистических исследований и экономики знаний НИУ ВШЭ.

В частности, Европарламент и Евросовет согласовали положения Закона об искусственном интеллекте (AI Act). Документ призван защитить от высокорискового ИИ гражданские права и демократию, обеспечить верховенство закона и экологическую устойчивость, а также стимулировать инновации. В основе законопроекта лежит риск-ориентированный подход: вводятся понятия запрещенных вредоносных ИИ-практик, высокорисковых систем ИИ, систем ограниченного риска и систем с низким или минимальным риском (на них не налагаются никакие ограничения). Высокорисковые системы ИИ должны соответствовать требованиям по риск-менеджменту, тестированию, технической надежности, обучению и управлению данными, прозрачности, кибербезопасности и управляемости людьми. Для систем ИИ, используемых для биометрической идентификации, потребуется оценка со стороны специализированного органа.

В США, в свою очередь, принят Указ о безопасном, надежном и заслуживающем доверия ИИ. Как и европейский законопроект, американский документ требует от создателей систем ИИ прозрачности процессов. Для повышения безопасности использования технологий на базе ИИ Национальный институт стандартов и технологий разработает требования, которым должны соответствовать эти системы.

Китай принял так называемые Временные меры по управлению генеративными системами ИИ. В соответствии с документом, разработчики таких платформ отвечают за весь генерируемый контент. Создатели сервисов обязаны улучшать точность и надежность генерируемых материалов, а также повышать прозрачность услуг. Кроме того, разработчики должны предотвращать создание контента, подрывающего социалистические ценности или подстрекающего к свержению государственного строя. Необходимо также защищать персональные данные пользователей и соблюдать права на интеллектуальную собственность и частную жизнь.[5]

Робототехника