2024/07/19 10:32:41

Риски использования искусственного интеллекта

Развитие технологий искусственного интеллекта в перспективе может нести не только пользу, но и вред. Потенциальным рискам применения ИИ посвящена данная статья.

Содержание

Основная статья: Искусственный интеллект

Преимущества и недостатки ИИ в сравнении с человеком

Человек против ИИ – какая предельная глубина интеграции и какая способность замещения человека ИИ?

Вопрос крайне важный, писал Spydell Finance в 2023 г, т.к. от этого зависит способность ИИ интегрироваться в человеческие сферы деятельности, а следовательно, фундаментально влиять на структуру рынка труда со всеми вытекающими последствиями.

Какие фундаментальные преимущества ИИ над человеком?

  • Неограниченный объем памяти и скорость накопления информации. Скорость обучения человека крайне низка, но даже обучившись, человек ежедневно теряет навыки и информацию, т.е. требуется постоянная концентрация на информационной единице (объекте исследований) и поддержка навыков. ИИ достаточно обучиться один раз, чтобы держать информацию в прямом доступе.

  • Скорость обработки информации. Параллельная обработка неограниченных массивов информации позволяет практически неограниченно масштабировать вычислительные мощности, где математические задачи могут решаться в миллиарды раз быстрее, чем средний человек. Для чтения и осмысления 5 млн знаков у среднего человека потребуется около 3500 минут, тогда как ИИ может управиться в пределах доли секунды.

Если у человека не хватит жизни, чтобы познакомиться со всеми произведениями мировой литературы (даже основными), то для ИИ это мгновения. Даже прочитав литературу, человек уже забудет, что было в предыдущей книге (по крайней мере, основные детали), тогда как ИИ помнит все. За пренебрежительно малый временной интервал, ИИ может изучить всю научную литературу по физике, химии, астрономии, биологии, истории и т.д. Не просто изучить, но и в первичном виде помнить до мельчайших деталей.

  • Точность и объективность. ИИ не ошибается, по крайней мере, если не ошибается вшитый алгоритм функционирования. Человек ошибается постоянно из-за ограниченных способностей удержания, обработки и интерпретации информации. Человек склонен к предубеждениям, ИИ воспроизводит информацию по принципу «как есть».

  • Информационная трансмиссия. Выход на правильный вектор исследования одним из сегментов ИИ моментально транслируется на всю подсеть ИИ, что расширяет знания одного сегмента на всю подсеть сразу. Открытие одного человека или группы ученых невозможно моментально расширить на заинтересованный круг лиц. ИИ можно масштабировать, копировать и клонировать, но нельзя пересадить знания одного человека в другого.

  • Отсутствие усталости. Производительность и эффективность человека падает по мере выработки ресурса, как в пределах дня, так и возрастом. ИИ может работать 24 на 7 с паритетной эффективностью стабильно и без провалов (до тех пор, пока работают серверы). Человек стареет, когнитивные функции ослабевают, тогда как у ИИ только увеличиваются.

  • Непрерывное обучение. Человеку необходимо менять род деятельности, чтобы поддерживать необходимый эмоциональный баланс, тогда как ИИ непрерывно расширяет свое могущество.

  • Отсутствие эмоциональности. ИИ не подвержен перепадам настроения, ИИ не требует повышения зарплаты, уважения, не требует справедливости и не рефлексирует об уровне свободы, ИИ не чувствует ни жалости, ни боли, ни усталости, не плетет интриг, заговоров и не пытается соскочить с рабочего процесса, т.к. «внезапно появились неотложные дела».

Минусов немного, но они есть:

  • Сложность в понимании контекста информации (исправимо со временем);

  • Отсутствие эмпатии, что формирует этические проблемы, если в пользу ИИ дать слишком много прав;

  • Ограниченное пространство для творчества и инноваций из-за фундаментальных встроенных ограничений на понимание того «что такое хорошо, а что такое плохо».

ИИ способен реплицировать успешные творческие опыты на основе анализа паттернов и предпочтений, но способен ли ИИ создавать принципиально новые продукты? Пока нет.

Способен ли ИИ к неупорядоченной интеграции и принятию решений, где важным элементом может быть интуиция? Сейчас нет.

Ограничений много, но на 2024 год пока баланс сильно в пользу ИИ.

Как роботы заменяют людей

Основная статья: Как роботы заменяют людей

2024

Используемая в больницах модель OpenAI оказалась подвержена галлюцинациям

Используемая в больницах модель OpenAI оказалась подвержена галлюцинациям.

Генеративные модели искусственного интеллекта склонны к генерации некорректной информации. Удивительно, но эта проблема затронула и область автоматической транскрипции, где модель должна точно воспроизводить аудиозапись. Инженеры-программисты, разработчики и ученые серьезно обеспокоены расшифровками Whisper от OpenAI, сообщили 28 октября 2024 года в "Хайтек+" со ссылкой на Associated Press. Подробнее здесь.

В МВД предупредили о мошенничестве с поддельными приказами ФСБ

В МВД России сообщили о появлении мошеннической схемы, в которой злоумышленники используют поддельные приказы ФСБ. Так, действуя от имени руководителя, они выходят на сотрудников компании и сообщают, что в отношении них ФСБ России начала проверку из-за возможного нарушения действующих норм законодательства. Об этом 8 октября 2024 года сообщила пресс-служба члена комитета ГосДумы РФ по информационной политике, информационным технологиям и связи Антона Немкина. Подробнее здесь.

Минцифры РФ создало консорциум по безопасности искусственного интеллекта

Министерство цифрового развития, связи и массовых коммуникаций России (Минцифры РФ) создало консорциум, задачей которого станет обеспечение информационной безопасности в области искусственного интеллекта (ИИ). Как стало известно в августе 2024 года в состав нового объединения войдут порядка 10 ведущих компаний и 5 высших учебных заведений, занимающихся разработкой и исследованием технологий ИИ. Подробнее здесь

Названы 9 главных рисков генеративного ИИ

Генеративный искусственный интеллект (ГенИИ) знаменует собой значительный скачок в способности нейросетей понимать сложные структуры данных, взаимодействовать с ними и создавать новый контент. Эта технология открывает широчайший спектр возможностей в самых разных отраслях. Вместе с тем создаются и новые риски, о чем говорится в материалах IDC, обнародованных 10 июля 2024 года.

IDC отмечает, что существует множество вариантов использования ГенИИ в различных сферах: это маркетинг, взаимодействие с клиентами, повышение производительности труда, планирование производства, контроль качества, техническое обслуживание с помощью ИИ, генерация программного кода, управление цепочками поставок, розничная торговля, анализ медицинских данных и многое другое. Компании во всех сегментах рынка интегрируют ГенИИ в бизнес-операции и продукты, что часто обусловлено необходимостью удовлетворения ожиданий бизнеса и поддержания конкурентоспособности. Однако, как отмечается, поспешное внедрение ГенИИ может обернуться серьезными проблемами. В частности, существует вероятность утечек персональных или конфиденциальных данных. Из-за некорректных действий ГенИИ могут возникнуть юридические проблемы, а репутации бренда будет нанесен ущерб. Авторы обзора называют девять главных рисков внедрения и использования ГенИИ:

  • Отравление данных (нейросеть может придумывать цифры, факты и создавать фальшивые объекты или признаки);
  • Предвзятость и ограниченная объяснимость;
  • Угроза репутации бренда;
  • Нарушение авторских прав;
  • Перерасход средств;
  • Воздействие на окружающую среду;
  • Проблемы управления и безопасности;
  • Проблемы интеграции и взаимодействия;
  • Судебные разбирательства и соблюдение нормативных требований.

Названы главные риски ГенИИ

Некоторые из перечисленных рисков можно минимизировать путем введения маркировки (в том числе скрытой) контента, полученного с применением ГенИИ. Кроме того, могут создаваться специализированные сервисы для проверки наличия сгенерированных нейросетью материалов. Кроме того, требуется ответственный подход к использованию ГенИИ.Михаил Рожков, PARMA TG: Большинство наших BPM-проектов выходят за рамки отдельных процессов и организаций 3.4 т

Как отмечается в исследовании IDC, значительная часть генеральных директоров (45%) и ИТ-директоров (66%) считают, что поставщики технологий не полностью осознают риски, связанные с ГенИИ. А поэтому, полагают аналитики, следует тщательно изучать вопросы, связанные с конфиденциальностью, защитой информации и безопасностью. Внимание также необходимо уделять тому, на каких наборах данных обучалась ИИ-модель. В целом, как полагает IDC, управление рисками ГенИИ требует всестороннего понимания зрелости ИИ в организации, применения сбалансированного подхода и тщательной оценки поставщиков технологий. Решая эти вопросы и используя необходимую инфраструктуру, организации смогут извлечь максимальную выгоду из ГенИИ, минимизируя при этом риски.

Вместе с тем, полагает IDC, в перспективе ГенИИ приведет к фундаментальным изменениям в компаниях. По словам президента IDC Кроуфорда Дель Прете (Crawford Del Prete), к 2027 году на ГенИИ будет приходиться до 29% расходов организаций на ИИ в целом. Предполагается, что большинство компаний выберут гибридный подход к построению своих ИИ-инфраструктур, то есть, будут использовать сторонние решения с оптимизацией под собственные нужды, а также разрабатывать свои ИИ-инструменты для конкретных целей. По оценкам, к 2027 году организации по всему миру потратят около $150 млрд на технологии в области ГенИИ, а общий экономический эффект составит $11 трлн.[1]

Власти США настаивают на демонополизации рынка ИИ-технологий

Главный антимонопольный инспектор США "в срочном порядке" займется сектором ИИ, опасаясь, что власть над трансформирующейся технологией концентрируется у нескольких игроков с большими капиталами.

Джонатан Кантер в июне 2024 г настаивает на "значимом вмешательстве" в ситуацию с концентрацией власти в секторе искусственного интеллекта.

Сотрудники OpenAI хотят получить защиту, чтобы высказываться о "серьезных рисках" ИИ

Нынешние и бывшие сотрудники OpenAI и Google DeepMind в июне 2024 г заявили, что "широкие соглашения о конфиденциальности не позволяют нам высказывать свои опасения". Пока не существует эффективного государственного надзора за этими корпорациями, нынешние и бывшие сотрудники - одни из немногих, кто может призвать их к ответу перед общественностью.

Мошенники при помощи дипфейков подделывают документы россиян

Мошенники научились подделывать документы граждан при помощи технологий искусственного интеллекта (ИИ). Как и раньше, при создании цифровых поддельных копий, они либо меняют цифры, либо пытаются выдать недействительный документ за действительный, однако теперь в этих целях также используются дипфейки для процесса аутентификации и синтеза данных. Такой информацией 8 мая 2024 года с TAdviser поделились в пресс-службе депутата Государственной Думы РФ Антона Немкина со ссылкой на «Известия». Подробнее здесь.

Минэкономразвития создает комиссию по расследованию ИИ-инцидентов

В середине апреля 2024 года появилась информация о том, что Минэкономразвития РФ создает специальную комиссию по расследованию инцидентов, связанных с использованием искусственного интеллекта. Новая структура также будет регламентировать права собственности на результаты интеллектуальной деятельности, полученные с применением ИИ.

Как сообщает газета «Ведомости», ссылаясь на информацию, предоставленную представителями Минэкономразвития, изменения вносятся в законопроект «Об экспериментальных правовых режимах (ЭПР) в сфере цифровых инноваций» (258-ФЗ). В общей сложности подготовлены более 20 поправок. В частности, речь идет о сокращении перечня предоставляемых документов при подаче инициативного предложения по ЭПР и уменьшении сроков согласования благодаря оптимизации процедур.

Минэкономразвития РФ создает специальную комиссию по расследованию инцидентов, связанных с использованием искусственного интеллекта

Идея состоит в том, что создать ЭПР можно будет быстрее. Гендиректор ассоциации разработчиков и пользователей ИИ в медицине «Национальная база медицинских знаний» Борис Зингерман отмечает, что в случае введения страхование инцидентов, связанных с ЭПР, оценкой страховых случаев будет заниматься специальная комиссия.

«
ЭПР мало, и процесс их рассмотрения идет медленно, потому что ведомства боятся этих экспериментов исходя из того, что могут возникнуть какие-то проблемы. Чтобы ЭПРы двигались быстрее, пытаются придумать механизм, с помощью которого можно будет защититься от таких инцидентов, но, как это будет работать на практике, не совсем понятно, — говорит Зингерман.
»

Вместе с тем сенатор Артем Шейкин подчеркивает, что участник ЭПР должен будет вести реестр лиц, которые связаны с технологией и которые являются ответственными при использовании решений, созданных с применением ИИ. В случае инцидента с ИИ субъект ЭПР в течение двух рабочих дней обязан предоставить комиссии документы, необходимые для расследования причин и установления круга ответственных. Далее комиссия займется подготовкой заключения о причинах происшедшего, обстоятельствах, указывающих на виновность лиц, а также о необходимых мерах по возмещению вреда.[2]

Искусственный интеллект начали применять для подделки документов

В интернете появился сайт OnlyFake, с помощью которого любой пользователь может создать фотографию поддельных документов, говорится в сообщении Известий. При этом данных о создателях сервиса нигде нет. Об этом 13 февраля 2024 года сообщила пресс-служба депутата ГосДумы РФ Антона Немкина. Подробнее здесь.

2023

В ЦБ России перечислили главные риски внедрения искусственного интеллекта

В конце сентября 2023 года в Банке России назвали основные риски при внедрении искусственного интеллекта. Главными среди них, как следует из презентации статс-секретаря - зампреда ЦБ Алексея Гузнова, являются:

  • Вероятность возникновения монополизации среди крупных игроков технологий. Для поддержки ИИ необходимы большие инвестиции для вычислительных мощностей, инфраструктур обработки данных, подготовки профессиональных кадров и так далее. Гузнов отметил, что результат при использовании ИИ смогут получить только компании, которые имеют возможность «вложить», что станет причиной «перекосов» на рынке;
  • Риск утечки информации, которая используется для обучения ИИ;
  • Риск принятия предвзятых или дискриминационных решений на фоне того, что модель ИИ предусматривает выдачу решений, основываясь на определенных факторов и внесенных алгоритмов. «По большей степени это не наша проблема. Она сейчас осмысляется как философская, если хотите, проблема сочетания человеческого интеллекта и искусственного», — заявил Гузнов. Так он отметил, что в рамках особой работы ИИ могут возникнуть проблемы при общении искусственного интеллекта с потребителями.

ЦБ назвал основные риски внедрения ИИ

Банк России до конца 2023 года планирует выпустить консультативный доклад по искусственному интеллекту, в котором затронет вопросы применения и регулирования ИИ в сфере финансов, говорила в начале сентября 2023-го первый зампред ЦБ Ольга Скоробогатова. Банк России также намерен создать центр компетенций по ИИ. Регулятора в первую очередь интересует вопрос безопасности данных и операций клиентов. И уже на основе общественных обсуждений ЦБ будет принимать решение о необходимости регулирования ИИ.

По словам Алексея Гузнов, к концу сентября 2023 года в вопросе регулирования применения искусственного интеллекта ЦБ не предполагает каких-то радикальных решений, но «вопрос стоит».[3]

Минэкономразвития разработало механизм защиты от причиненного технологиями ИИ вреда

В декабре 2023 года Министерство экономического развития РФ сообщило о разработке механизма защиты от причиненного искусственным интеллектом вреда. Поправки внесены в закон «Об экспериментальных правовых режимах в сфере цифровых инноваций».

Участники экспериментальных правовых режимов (ЭПР) в сфере инновационных разработок будут обязаны оформлять страхование, предусматривающее ответственность за негативные эффекты технологии ИИ.

МЭР разработало механизм защиты от причиненного искусственным интеллектом вреда
«
Апробация даже такого сложного инструмента, как ИИ, была безопасной и последовательной, чтобы можно было зафиксировать, в каких отраслях, в каких бизнес-процессах его можно применять эффективно и какие при этом правовые механизмы могут это обеспечить, — отметили РБК в пресс-службе Минэкономразвития.
»

Издание перечисляет основные нововведения, инициированные Минэкономразвития:

  • субъекты экспериментального правового режима (в основном это юрлица, но также могут быть и госорганы, в том числе региональные) будут обязаны вести реестр лиц, вступивших с ним в правоотношения, и в этом реестре должна будет содержаться информация об ответственных за использование решений, основанных на ИИ. Кроме того, законопроектом предлагается обязать компании вести реестр результатов интеллектуальной деятельности, созданных с применением ИИ, с указанием их правообладателя;
  • в реестре будет отображаться информация о лицах, непосредственно работающих с технологиями ИИ, которые «в случае возникновения нештатных ситуаций будут нести ответственность за неправильную эксплуатацию таких технологий», отмечается в сопроводительных материалах к поправкам;
  • участникам «цифровых песочниц» будет предписано страховать гражданскую ответственность за причинение вреда жизни, здоровью или имуществу других лиц в результате использования ИИ. Программа экспериментального режима (акт спецрегулирования с условиями режима) должна будет содержать требования к условиям такого страхования — в том числе к минимальному размеру страховой суммы, перечню рисков и страховых случаев.[4]

Известный криптограф предупредил о риске использования ИИ для массового шпионажа

Известный американский криптограф Брюс Шнайер[5] опубликовал в своем блоге запись, озаглавленную «ИИ и массовый шпионаж». В ней он объясняет разницу между слежкой (сбором данных о человеке) и шпионажем, который направлен на выяснение контекста тех или иных действий каждого отдельного человека.

«
Если бы я нанял частного детектива, чтобы шпионить за вами, этот детектив мог бы спрятать жучок в вашем доме или машине, прослушивать ваш телефон и слушать, что вы говорите, – пояснил свою мысль Брюс Шнайер[6]. – В конце я бы получил отчет обо всех разговорах, которые у вас были, и о содержании этих разговоров. Если бы я нанял того же частного детектива, чтобы он установил за вами слежку, я бы получил другой отчет: куда вы ходили, с кем разговаривали, что покупали, что делали
»

По его словам интернет упростил слежку за человеком, и отказаться от нее практически невозможно, поскольку большая часть деятельности человека в современном мире так или иначе оставляет следы в интернете или различных базах данных. Причем за счет использования технологий больших данных появилась возможность анализировать накопленную информацию и делать выводы.

«
Массовая слежка коренным образом изменила природу слежки, – считает Брюс Шнайер. – Поскольку все данные сохраняются, массовая слежка позволяет людям вести наблюдение в прошлом и даже не зная, на кого конкретно вы хотите нацелиться. Скажите, где этот человек был в прошлом году. Перечислите все красные седаны, которые проехали по этой дороге за последний месяц. Перечислите всех людей, которые приобрели все ингредиенты для бомбы-скороварки в прошлом году. Найдите мне все пары телефонов, которые двигались навстречу друг другу, выключились, а затем снова включились через час, удаляясь друг от друга (признак тайной встречи)
»

Американский криптограф Брюс Шнайер со своей книгой

Однако до недавнего времени шпионить за всеми с помощью технологий было сложно, поскольку для понимания контекста тех или иных действий приходилось привлекать человека, который разбирался в последовательности событий и делал вывод об их целях. С привлечением технологий искусственного интеллекта это ограничение может быть снято – ИИ в состоянии самостоятельно построить непротиворечивую картину для последовательности действий человека и предположить ее цель. Поэтому использование ИИ для анализа накопленной в различных базах данных информации позволит организовать массовый шпионаж.

«
Массовый шпионаж изменит природу шпионажа, – предупреждает известный криптограф. – Все данные будут сохранены. Все это будет доступно для поиска и понятно для массового использования. Скажите, кто говорил на ту или иную тему в прошлом месяце, и как развивались дискуссии на эту тему. Человек А что-то сделал – проверьте, не сказал ли ему кто-нибудь это сделать. Найдите всех, кто замышляет преступление, распространяет слухи или планирует принять участие в политическом протесте.

И это еще не все. Чтобы раскрыть организационную структуру, найдите кого-нибудь, кто дает аналогичные инструкции группе людей, а затем всем людям, которым они передали эти инструкции. Чтобы найти доверенных лиц людей, посмотрите, кому они рассказывают секреты. Вы можете отслеживать дружбу и союзы по мере их формирования и распада в мельчайших подробностях. Короче говоря, вы можете знать все о том, о чем все говорят

»

Конечно, Брюс Шнайер, как американец, в первую очередь боится использования массового шпионажа со стороны государства для выявления протестных настроений и лидеров противоположных мнений, приводя в пример разработчика шпионского ПО NSO Group и правительство Китая. Намекает, что крупные корпорации и технологические монополии не смогут устоять от соблазна использовать технологии массового шпионажа для точечного маркетинга своих продуктов и формирования предложений, от которых невозможность отказаться. Однако он совсем не говорит, что то же самое может делать и криминал для оптимизации своей мошеннической и фишинговой активности. Сейчас мошенники тратят много сил и средств впустую, обзванивая всех, а с использованием технологий массового шпионажа они смогут выбирать наиболее приоритетные цели, которые им принесут больше «дохода». И сейчас подобные технологии уже вырабатываются, а данные накапливаются, чтобы в дальнейшем обучить на них криминальные искусственные интеллекты.

«
Мы могли бы ограничить эту возможность, – подводит итог Брюс Шнайер. – Мы могли бы запретить массовый шпионаж. Мы могли бы принять строгие правила конфиденциальности данных. Но мы ничего не сделали, чтобы ограничить массовую слежку. Почему шпионаж должен быть другим?
»

2022

Администрация президента США выпустила 5 положений о защите людей от ИИ

7 октября 2022 года Управление по научно-технической политике (OSTP) Белого дома выпустило пять положений, которыми следует руководствоваться при разработке, использовании и внедрении автоматизированных систем. Документ подготовлен на фоне того, как по мере развития искусственного интеллекта все больше голосов присоединяются к призыву принять меры по защите людей от этой технологии. Опасность, по мнению экспертов, заключается в том, что нейросети легко становятся предвзятыми, неэтичными и опасными.

Управление по научно-технической политике Белого дома выпустило пять положений, которыми следует руководствоваться при разработке, использовании и внедрении автоматизированных систем
  • Безопасные и эффективные системы

Пользователь должен быть защищен от небезопасных или неэффективных систем. Автоматизированные системы должны разрабатываться на основе консультаций с различными сообществами, заинтересованными сторонами и экспертами в данной области для определения проблем, рисков и потенциального воздействия системы. Системы должны проходить тестирование перед развертыванием для выявления и снижения рисков, а также постоянный мониторинг, который продемонстрирует их безопасность и эффективность.

  • Защита от алгоритмической дискриминации

Пользователь не должны сталкиваться с дискриминацией со стороны алгоритмов, а системы должны использоваться и разрабатываться на принципах равноправия. В зависимости от конкретных обстоятельств, алгоритмическая дискриминация может нарушать правовую защиту. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны принимать проактивные и последовательные меры для защиты отдельных лиц и сообществ от алгоритмической дискриминации, а также для использования и проектирования систем на основе равноправия.

  • Конфиденциальность данных

Пользователь должен быть защищен от неправомерного использования данных с помощью встроенных средств защиты, и он должен иметь право распоряжаться тем, как используются данные о нем. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны запрашивать у пользователя разрешение и уважать его решения относительно сбора, использования, доступа, передачи и удаления его данных соответствующими способами и в максимально возможной степени; если это невозможно, следует использовать альтернативные средства защиты конфиденциальности на основе дизайна.

  • Уведомление и разъяснение

Пользователь должен знать, что автоматизированная система используется, и понимать, как и почему она способствует достижению результатов, которые влияют на него. Проектировщики, разработчики и специалисты по внедрению автоматизированных систем должны предоставлять общедоступную документацию на простом языке, включающую четкое описание общего функционирования системы и роли, которую играет автоматизация, уведомление о том, что такие системы используются, о лице или организации, ответственной за систему, и объяснение результатов, которое должно быть четким, своевременным и доступным.

  • Альтернативы для человека, принятие решений и запасной вариант

Пользователь должен иметь возможность отказаться от услуг, где это необходимо, и иметь доступ к специалисту, который может быстро рассмотреть и устранить возникшие проблемы. Пользователь должен иметь возможность отказаться от автоматизированных систем в пользу человеческой альтернативы, где это уместно.[7]

Бывший глава Google Эрик Шмидт создаёт фонд для решения "ключевых" проблем ИИ и его предвзятости

16 февраля 2022 года появилась информация о том, что бывший исполнительный директор Google Эрик Шмидт (Eric Schmidt) объявил о создании благотворительного фонда с общим капиталом 125 млн долларов, который будет оказывать содействие исследованиям в сфере искусственного интеллекта. Речь, в первую очередь, идёт об исследованиях, направленных на решение кардинальных проблем, проявляющихся при использовании технологий искусственного интеллекта, в том числе предвзятости (феномен AI bias - прим. TAdviser), возможности причинения вреда и злоупотреблений. В списке значатся также геополитические конфликты и научная ограниченность самой технологии. Подробнее здесь.

2019: Сексизм и шовинизм искусственного интеллекта. Почему так сложно его побороть?

В основе всего того, что является практикой ИИ (машинный перевод, распознавание речи, обработка текстов на естественных языках, компьютерное зрение, автоматизация вождения автомобилей и многое другое) лежит глубинное обучение. Это подмножество машинного обучения, отличающееся использованием моделей нейронных сетей, о которых можно сказать, что они имитируют работу мозга, поэтому их с натяжкой можно отнести к ИИ. Любая модель нейронной сети обучается на больших наборах данных, таким образом, она обретает некоторые «навыки», но то, как она ими пользуется - для создателей остается не ясным, что в конечном счете становится одной из важнейших проблем для многих приложений глубинного обучения. Причина в том, что такая модель работает с образами формально, без какого-либо понимания того, что она делает. Является ли такая система ИИ и можно ли доверять системам, построенным на основе машинного обучения? Значение ответа на последний вопрос выходит за пределы научных лабораторий. Поэтому заметно обострилось внимание средств массовой информации к явлению, получившему название AI bias. Его можно перевести как «необъективность ИИ» или «пристрастность ИИ». Подробнее здесь.

2017: Риск уничтожения человечества

Британский ученый Стивен Хокинг часто высказывался о развитии искусственного интеллекта (ИИ) как о реальной причине возможного уничтожения человеческого рода.

В апреле 2017 года Стивен Хокинг в ходе видеоконференции в Пекине, состоявшейся в рамках Глобальной конференции мобильного интернета, заявил:

"Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он собой представляет", - подчеркнул он[8].

Как рассказал ученый в своем интервью изданию Wired в конце ноября 2017 года, он опасается того, что ИИ может в целом заменить людей.

По словам самого Хокинга, люди могут создать слишком мощный искусственный интеллект, который будет чрезвычайно хорош в достижении своих целей. И если эти цели не будут совпадать с человеческими, то у людей будут проблемы, считает ученый. Подробнее здесь

Примечания