Системы, основанные на ИИ, начинают применяться во все большем количестве стран. Использование новых ИИ-технологий, однако, вызывает не только одобрение, но и критику.
Основными лидерами по критике применения ИИ являются США и Китай. В 2010-2011 году более 206 учителей в штате Вашингтон были уволен на основании сомнительных результатов работы интеллектуальной системы IMPACT. В 2016 году при независимом анализе использующейся в США ИИ-системы прогноза криминального рецидива COMPAS было установлено, что в качестве входных параметров система учитывала расу: осужденным афроамериканского происхождения в результате анализа она рекомендовала назначить более длительные сроки наказания. В Китае ИИ-системы используются для контроля над поведением граждан.
На фоне таких неоднозначных решений, Европа решила создать свой собственный тренд – ИИ с человеческим лицом. С этой целью в апреле Еврокомиссией был подготовлен Проект общеевропейского регулирования рынка ИИ.
Основная цель
Европа должна стать мировым центром надежного ИИ под этим девизом проходила работа Еврокомиссии. В работе с ИИ доверие является обязательным условием. С помощью новых правил ЕС сможет выдвинуться на передовую в области разработки новых глобальных стандартов обеспечения надежности ИИ, – утверждает вице-председатель Еврокомиссии Маргрете Вестагер. Планируется запрет таких ИИ-продуктов, которые могут угрожать безопасности, имущественным интересам и правам людей. К системам ИИ с высокой степенью угрозы будут предъявляться строгие требования, которым они должны соответствовать для выхода на рынок.
Европейская комиссия обновила свой подход к передовым достижениям в области ИИ, сосредоточив внимание на ускорении инвестиций в ИИ-технологии и учёт новых вызовов, возникших, в частности, в связи с пандемией коронавируса. В рамках этого подхода планируется ввести новые правила, которые позволят адаптировать новое поколение ИИ-продуктов к требованиям безопасности и повысить доверие к ним со стороны пользователей.
Комиссар по внутреннему рынку ЕС Тьерри Бретон в связи с этим отметил: ИИ – это не самоцель, это инструмент, который используется на протяжении десятилетий. Но благодаря современным вычислительным мощностям у него появились совершенно новые возможности. Это открывает огромный потенциал в таких разных областях, как здравоохранение, транспорт, энергетика, сельское хозяйство, туризм и кибербезопасность. Однако ИИ-технологии также связаны с рисками. Новые правила Еврокомиссии направлены на укрепление позиций Европы как глобального центра разработки и продажи ИИ-продуктов от лаборатории до рынка. Они также направлены на обеспечение соответствия ИИ европейским ценностям, а также призваны помочь раскрыть потенциал ИИ в направлении промышленного использования.
Как утверждает Еврокомиссия, новое регулирование ИИ обеспечит европейцам доверие к тому, что он может предложить. Гибкие правила будут учитывать конкретные риски, создаваемые системами ИИ, и установят самые высокие стандарты к ИИ в мире. Скоординированный план Еврокомиссии определяет изменения во внутренней и инвестиционной политике стран-членов ЕС, необходимые для укрепления лидерства Европы в разработке ориентированного на человека, устойчивого, безопасного, инклюзивного и надежного ИИ.
Европейский подход
Новые правила будут применяться непосредственно и одинаково во всех государствах-членах ЕС. Они основываются на следующей шкале рисков:
Неприемлемый риск. В эту группу входят приложения, которые манипулируют поведением человека в обход свободной воли пользователя (например, игрушки с голосовым помощником, побуждающие несовершеннолетних к опасному поведению), а также системы, позволяющие властям оценивать социальное поведение (социальный скоринг). Такие системы подлежат запрету.
Высокий риск. К данной категории относятся ИИ-продукты, использующиеся в следующих сферах:
-
Критическая инфраструктура (например, транспорт), где жизнь и здоровье людей могут быть подвергнуты чрезвычайному риску.
-
Образование или профессиональная подготовка, где технологиями может быть затронут доступ человека к образованию и профессиональной деятельности (например, оценка экзаменов).
-
Важные для безопасности компоненты других продуктов (например, ИИ для роботизированной хирургии).
-
Трудоустройство, управление человеческими ресурсами и самозанятость (например, программное обеспечение для оценки резюме соискателей при приеме на работу).
-
Основные частные и государственные услуги (например, кредитный скоринг, лишающий граждан возможности получить кредит).
-
Правоохранительная деятельность, в рамках которой могут нарушаться основные права людей (например, оценка доказательств).
-
Миграция, предоставление убежища и пограничный контроль (например, проверка подлинности проездных документов).
-
Отправление правосудия и демократические процессы (например, правоприменительная деятельность).
ИИ с высокой степенью риска должны будут соответствовать строгим требованиям (в противном случае они не смогут выйти на рынок):
-
Адекватные системы оценки и снижения рисков.
-
Высокое качество наборов данных, используемых для обучения ИИ.
-
Протоколирование операций для обеспечения возможности отслеживания результатов обучения и работы ИИ.
-
Подробная техническая документация, содержащая всю необходимую информацию об ИИ и его назначении.
-
Четкая и адекватная информация для пользователей.
-
Адекватный контроль со стороны техподдержки для минимизации рисков.
-
Высокий уровень надежности, безопасности и точности.
В частности, все виды систем удаленной биометрической идентификации несут в себе высокий уровень риска, и к ним будут предъявляться повышенные требования. Их использование правоохранительными органами в режиме реального времени в общественных местах будет запрещено.
Низкий риск. К данной группе относятся такие системы ИИ, как чат-боты. Пользователи должны понимать, что имеют дело с машиной, и иметь возможность принять взвешенное решение о том, стоит ли продолжать пользоваться приложением.
Минимальный риск. К интеллектуальным технологиям с минимальным риском Еврокомиссия отнесла видеоигры и спам-фильтры, а также иные технологии, не вошедшие в другие группы риска. Правила предлагают не вмешиваться в регулирование данной сферы, так как такие технологии представляют минимальную опасность для гражданских свобод или безопасности.
Проект Еврокомиссии направлен для обсуждения и утверждения в Европейский парламент. В случае утверждения, правила должны будут быть имплементированы в законодательство всех стран-участниц ЕС.
Рейтинг
статьи