Содержание |
История
2024
Определены 6 направлений развития безопасности ИИ в России
Александр Шойтов, замминистра цифрового развития РФ, 10 декабря на конференции ИСП РАН рассказал о работе, которая планируется в рамках созданного в мае консорциума для исследований безопасности технологий искусственного интеллекта. По состоянию на декабрь в состав консорциума входят 12 организаций, а в январе 2025 года ожидается присоединение еще 16 значимых организаций, которые занимаются искусственным интеллектом.
По словам Александра Шойтова, консорциум создан для того, чтобы на одной площадке собрать разработчиков искусственного интеллекта, самых компетентных производителей средств защиты, научное сообщество, ФОИВ и регуляторов. Ожидается, что это позволит реализовать зрелый подход к развитию технологий искусственного интеллекта, который даст возможность в рамках одного объединения подготовить удобные, унифицированные, недорогие и достаточно простые технические решения для внедрения и предложить регулятору необходимые документы для нормативного регулирования их использования.
В национальный программе «Экономика данных» сформирована новая стратегия развития искусственного интеллекта до 2030 года, которая предполагает ускоренное, масштабное и массовое внедрение технологий ИИ.
В новой стратегии существенно больше внимания уделяется вопросам доверия к системам искусственного интеллекта, безопасности в целом и информационной безопасности, в том числе, – заявил Александр Шойтов. – В программе говориться о том, что в критической информационной инфраструктуре, в государственных информационных системах и в целом в критических областях, где существенные требования по безопасности, необходимо применять адекватные компенсирующие меры по информационной безопасности. |
Работы в области обеспечения информационной безопасности ИИ были начаты еще в 2019 году в рамках Академии криптографии (АНО НТЦ ЦК), которую возглавляет Александр Шойтов. Она является одним из учредителей консорциума. К теоретическим исследованиям академия также привлекала ведущих производителей по информационной безопасности. Кроме того, создан опорный центр доверенного ИИ, построенный на базе ИСП РАН, который занимается созданием доверенных рабочих сред (framework). Дмитрий Бородачев, DатаРу Облако: Наше преимущество — мультивендорная модель предоставления облачных услуг
В процессе работы выявлены основные риски и виды атак, которые можно проводить с помощью искусственного интеллекта. На консорциум по безопасности ИИ возлагается задача по разработке таких технологических решений, которые не требовали бы жесткого регулирования в области ИИ, но были бы при этом безопасными. Основные объекты приложения сил компаний, входящих в консорциум, следующие: доверенные рабочие среды для разработки ИИ-решений, полигон тестирования, центр обезличивания данных и теоретические исследования.
В консорциуме формируется 6 рабочих групп: нормативное регулирование в сфере ИИ (НПА), тестирование технологий ИИ на предмет атак (полигон), доверенные технологии ИИ (реестр решений), безопасная разработка ИИ (MLSecOps), обезличивание больших данных и искусственный интеллект в КИИ.
Предполагается, что работа будет организована так: все предлагают идеи в группу по разработке НПА, которая формирует и представляет в адрес регуляторов предложения по совершенствованию соответствующих документов. В рамках рабочей группы по тестированию лидирует НТЦ ЦК. Она занимается разработкой комплекса различных проверок – на безопасность, на функциональную устойчивость и др. Реестр должен наполняться решениями, которые прошли проверку на полигоне и доказали свою безопасность. Предположительно, результатом деятельности этой группы станет государственная информационная система, где будут храниться доверенные модели ИИ. Скорее всего, за эту систему будет отвечать Минцифры. Также НТЦ ЦК является лидером и в рабочей группе по обезличиванию данных.
Группу по безопасной разработке возглавляет ИСП РАН. Там планируется разработка методик, как правильно организовать безопасную разработку технологий искусственного интеллекта. Она будет отвечать за практическую реализацию необходимых проверок как по безопасности и по смежным аспектам. В нее, возможно, попадут и какие-то вопросы, связанные с этикой. Работа в группе только началась.
Мы в ней лидируем, поскольку у нас уже есть многолетняя история с центром безопасности искусственного интеллекта, – пояснил для TAdviser Вартан Падарян, ведущий научный сотрудник ИСП РАН. – То, что мы ранее разработали для организации рабочих сред в части разработки необходимых проверок, частных методик реализации, практики разработки безопасного ПО, специфических проверок, учитывающих особенности искусственного интеллекта, это будет наш вклад в рабочую группу. Мы хотим синхронизировать предложения от остальных участников, чтобы на выходе получился некоторый MLSecOps-конвейер, удовлетворяющий всех. Он должен быть полным, отвечающим мировому уровню и требованиям регуляторов, хотя они сейчас четких нормативных требований и не выставляли. |
В дальнейшем планируется в рамках консорциума заниматься разработкой различных методик внедрения и использования ИИ, а также проектов стандартов. Специализированные стандарты будут создаваться. Сейчас идёт разработка концепции расширения карты национальных стандартов по безопасной разработке ПО на поддержку работы с технологиями искусственного интеллекта.
Движение в сторону стандартизации неизбежно, поэтому стандарты по безопасности и доверию к ИИ необходимо синхронизировать с профильными техническими комитетами Росстандарта для различных отраслей. Одной из задач консорциума является доведение консолидированной научно обоснованной позиции до всех отраслевых технических комитетов.
По мнению Александра Шойтова, искусственный интеллект сейчас находится на ранней стадии развития по сравнению с криптографией. Пока не очень понятно, как интерпретировать его результаты. Есть существенные особенности, которые заключаются в том, что это программное обеспечение объединяется с данными. Россия полноценно не владеет всей технологией искусственного интеллекта, хотя в этом направлении идет существенное движение. В таких условиях необходимы адекватные меры по обеспечению доверия к ИИ. Если такие меры не будут приняты, то в критических сферах придется ставить жесткие требования по развитию технологии, а они будут тормозить развитие. Этого, по словам Александра Шойтова, делать нельзя.
Важно, чтобы работа проходила при поддержке госорганов, – заявил также Дмитрий Шевцов, начальник управления ФСТЭК. – В работу по обеспечению доверия к искусственному интеллекту должны быть вовлечены, в том числе, специалисты из федеральных органов исполнительной власти, которые занимаются регуляторикой в соответствующей сфере, где эти технологии либо применяются, либо их планируют применять. Мы поддерживаем работу этого консорциума и участвуем в ней. |
Консорциум открыт для компетентных участников. Есть, например, задачи, связанные с дипфейками и их регулированием, которые также нужно решать. Это актуальная задача, но рабочая группа по этому направлению еще не сформирована. Ожидается вступление в консорциум сильных компаний, которые могут предложить решение для контроля за дипфейками. Возможны и другие направления развития.
Создание консорциума
Министерство цифрового развития, связи и массовых коммуникаций России (Минцифры РФ) создало консорциум, задачей которого станет обеспечение информационной безопасности в области искусственного интеллекта (ИИ). Как стало известно в августе 2024 года в состав нового объединения войдут порядка 10 ведущих компаний и 5 высших учебных заведений, занимающихся разработкой и исследованием технологий ИИ.
Консорциум создан при участии Академии криптографии, Института системного программирования Российской академии наук (ИСП РАН) и Национального координационного центра по компьютерным инцидентам. Основная цель консорциума – разработка и внедрение защищённых технологий для работы с различными типами данных, включая обезличенные персональные данные. Внедрение этих технологий будет происходить с использованием методов машинного обучения и искусственного интеллекта.
Заместитель министра цифрового развития, связи и массовых коммуникаций Александр Шойтов отметил, что в сентябре 2024 года к консорциуму присоединятся ещё порядка 10 компаний и 5 вузов. Среди ключевых задач, стоящих перед новыми участниками, будет повышение уровня защищённости отечественных программных продуктов и программно-аппаратных комплексов (ПАК), использующих технологии доверенного и защищённого ИИ.
Сегодня для России в рамках работы над искусственным интеллектом особенно актуальными являются вопросы информационной безопасности и надёжности технологий, — подчеркнул Шойтов. |
Консорциум также займётся разработкой новых методов и решений, которые будут направлены на обеспечение доверия к технологиям ИИ и повышение их защищённости с использованием передовых криптографических средств. В рамках работы консорциума планируется создать центры коллективного пользования научным и технологическим оборудованием, что позволит значительно усилить исследовательские и производственные возможности участников.[1]