Одной из главных вех в регулировании этой сферы стало появление в 2018 году общего регламента ЕС о защите персональных данных, устанавливающего штрафы за нарушения в размере от €10 млн до €20 млн или от 2 до 4 % от глобальной выручки для компаний. За прошедшие годы примеру ЕС последовали и другие страны. В США законодательство о защите данных постоянно ужесточается, неуклонно приближаясь к европейскому. Понятно, что всех беспокоит риск утечек персональных данных, но какой вред человеку и обществу могут нанести машинное обучение и ИИ?
Известно, однако, что с цифровым разумом сопряжены особые риски: нарушение авторских прав, дискриминация, высокие энергозатраты и пр. В сфере найма, например, ИИ отличает предвзятость в отношении женщин, расовых меньшинств и людей с ограниченными возможностями – ведь у них, как правило, послужные списки хуже. Компания Amazon потратила несколько лет и миллионы долларов на разработку механизма найма с использованием ИИ, а затем выбросила этот алгоритм, поняв, что не может устранить в нем дискриминацию женщин[25].
14 июня 2023 года Европейский парламент принял проект закона об ИИ[26], который серьезно ограничит использование программного обеспечения с ИИ для распознавания лиц, а также потребует от создателей систем ИИ, таких как чат-бот ChatGPT, раскрывать больше информации о данных, используемых при разработке их решений. Другое положение запрещает компаниям собирать биометрические данные из социальных сетей для наполнения баз данных ИИ. Эта практика вызвала пристальное внимание после того, как ее использовала компания Clearview AI – лидер в системах распознавания лиц.
Европарламентарии также добавили запрет на использование технологий определения эмоций правоохранительными органами, пограничными службами, на рабочих местах и в учебных заведениях. Ожидается, что окончательный вариант закона будет принят до конца 2023 года.
Проект закона предполагает запрет в ЕС разработок с неприемлемым уровнем ИИ-риска. Что касается разработок с ограниченным ИИ-риском, то главное требование к ним таково: пользователь должен быть осведомлен о том, что взаимодействует не с человеком, а с роботом. Компании с высоким уровнем риска по ИИ должны будут подчиняться правилам, среди которых, например, такие:
• внедрение системы управления рисками;
• контроль управления данными;
• техническая документация;
• надзор человека за работой ИИ;
• транспарентность и доступность информации для пользователей;
• кибербезопасность;
• аудит кибербезопасности;
• регистрация в одной из стран ЕС;
Оценка комплаенса основных моделей ИИ с проектом закона ЕС об искусственном интеллекте
• контроль отдаленных последствий.
Нарушения правил повлечет штрафы до €30 млн или 6 % глобальной выручки.
Ученые из Стэнфордского центра Hai (Human-Centered AI) проанализировали действующие модели ИИ с точки зрения их соответствия новым правилам ЕС. Почти половина из них не дотянула и до 24 баллов по 48-балльной шкале[27].
Исследовательская компания Gartner выделила в отдельный тренд 2023 года системы управления рисками в сфере ИИ (AI Trust, Risk and Security Management – AI TRiSM). В качестве примера этического контроля ИИ Gartner приводит Датское управление бизнеса (DBA), которое выработало специальные методы. DBA устанавливает системы мониторинга, а также конкретными действиями проверяет справедливость аналитики ИИ. С помощью этого подхода уже контролируется 16 моделей ИИ, которые применяются в финтехе с совокупным объемом транзакций в миллиарды долларов