В среду Еврокомиссия опубликовала «Предложения о регулировании искусственного интеллекта на основе европейского подхода» (Proposal for a Regulation on a European approach for Artificial Intelligence) – документ декларирует необходимость полного запрета на применение систем искусственного интеллекта (ИИ) в ряде случаев.
Объявлены следующие цели регулирования ИИ в Евросоюзе:
- обеспечить, чтобы ИИ-системы на рынке ЕС были безопасны и соответствовали закону об основных правах и ценностях Евросоюза;
- обеспечить правовую определённость использования ИИ-систем, чтобы содействовать инвестициям и инновациям в области ИИ;
- усовершенствовать регулирование, обеспечить эффективное соблюдение существующего законодательства об основных правах и требованиях безопасности применительно к ИИ-системам;
- способствовать развитию единого, нефрагментированного рынка законных, безопасных и надёжных ИИ-систем.
Напомним, что Европа стремится стать сверхдержавой в вопросах этики, морали и кибербезопасности в связи с разработкой и использованием ИИ. Ничего другого ей, впрочем, не остаётся, поскольку ЕС существенно (возможно, даже безнадёжно) отстаёт в развитии технологий ИИ от Китая и США, и в области ИИ может рассматриваться даже как киберколония.
Впрочем, тем больше оснований изучить европейский опыт разработки законов об ИИ, регулирования ИИ-систем с упором на достижение этических целей и обеспечение прав человека.
Что Европа запрещает ИИ-системам
Документ содержит прямые запреты на использование ИИ-систем при определённых условиях и для определённых целей: за нарушение компании могут получить штраф в размере до 6% их глобальной выручки.
Прежде всего запрет касается «удалённой биометрической идентификации» в режиме реального времени в общедоступных местах для целей правоохранительной деятельности (речь о видеонаблюдении и технологии распознавания лиц). Однако упоминание режима реального времени, а также оговорка «если не применяются определённые ограниченные исключения» позволяют предположить, что полиция не будет стеснена в возможностях использовать ИИ-системы для слежки за гражданами. Поскольку есть «ограниченные исключения», есть и возможность прописать в этих исключениях всё, что желательно полиции. Например, если нельзя распознавать лица в реальном времени – значит, можно видео записать, а потом его проанализировать.
О важности запретов на распознавание лиц
Полный и безусловный запрет распознавания лиц в реальном времени в общественных местах был бы гарантией от повторения скандалов, подобных тем, которые случились по вине американской компании Clearview AI. Однако Еврокомиссия не сумела ввести этот запрет на ранней стадии разработки законодательства об ИИ – хотя и намеревалась, судя по сообщениям, предшествовавшим публикации документа.
Ранее имели место попытки использовать для запрета систем распознавания GPPR – европейский закон о защите персональных данных. Так, в 2018 году в Швеции регулятор оштрафовал одну из школ, где ученики добровольно согласились на применение системы распознавания лиц для контроля посещаемости.
Под запрет попали также следующие применения ИИ:
- присвоение человеку «социальных кредитных баллов», ограничивающее его доступ к банковским кредитам и иным ресурсам – по произволу машины, без принятия решения другим человеком;
- любое использование ИИ-систем, способное причинить физический вред людям (например, неконтролируемое врачом назначение лечения ИИ-системой);
- манипулирование поведением людей с помощью «подсознательных сигналов» (насколько люди некритично воспринимают прочитанное в социальных сетях и насколько подвержены влиянию, свидетельствуют результаты многих исследований, подробнее см., например, здесь и здесь).
Представлявшая «Предложения…» еврокомиссар по вопросам конкуренции Маргрете Вестагер (Margrethe Vestager) заявила: «Мы запрещаем это вообще, поскольку считаем просто неприемлемым», пишет The Verge.
Ограничения на применение ИИ-систем
Принцип «если не запрещено, то разрешено» в отношении ИИ-систем в Европе действовать не будет: документ распределяет ИИ-системы по уровням риска для человека, определяя для каждого уровня свои ограничения.
На нижнем уровне ИИ-системы, работа которых непосредственно с людьми не связана. Таковы, например, самообучающиеся системы фильтрации спама – для них и подобных им систем новое регулирование не будет применяться вообще.
Второй уровень – ИИ-системы ограниченного риска: например, чат-боты для заказа билетов или технологии, потенциально применимые для создания «deep fakes». Регулирование таких систем предусмотрено и будет разработано, но не для них написаны «Предложения…».
Высший уровень – высокорискованные ИИ-системы, управляющие критически важными механизмами, непосредственно влияющие на материальные аспекты жизни людей и на их здоровье. Именно на таких системах документ и сосредоточен. Пример высокорискованных ИИ-систем – беспилотные автомобили.
Для таких ИИ-систем декларируется обязательное использование высококачественных обучающих данных (цель – минимизировать риск «предвзятости», т.е. фиксации в ИИ-системе не обязательно правильной практики, сложившейся к моменту обучения нейросети), обязательный «надзор» со стороны людей, подробное документирование, позволяющее регулятору и гражданам понять, как «рассуждает» ИИ. В первую очередь это относится к ИИ-системам, непосредственно взаимодействующим с людьми.
Резюме
«Предложения…» Еврокомиссии при ближайшем рассмотрении не содержат ничего нового, ничего такого, о чём не было бы сказано ранее специалистами или примкнувшими к ним представителями других организаций, далёких от науки и технологий.
Ценность европейских «Предложений…» состоит в самом факте их появления, в попытке кодифицировать в юридически значимом тексте этические принципы использования обслуживающих человека машин, способных к самостоятельному принятию решений.
Документ ставит, но ещё не решает такую задачу. Для создания действующих законов об ИИ потребуются, очевидно, годы.