ЕС одобрил проект закона о регулировании применения искусственного интеллекта
Еще 14 июня Европарламент проголосовал за утверждение проекта закона, который станет первым законодательным актом в мире, посвященным регулированию применения ИИ практически во всех сферах жизни общества (кроме обороны). Рассказываем, как он будет работать.
Законопроект полностью основан на понятии риска. Регулируется не сам искусственный интеллект, а то, как он используется в определенных сферах жизни общества, в каждую из которых он может принести определенные потенциальные проблемы. Выделено четыре категории риска: неприемлемая, высокая, ограниченная и минимальная.
Системы, представляющие угрозу фундаментальным правам или ценностям ЕС, будут отнесены к категории «неприемлемого риска» и запрещены. Примером такого риска могут быть системы ИИ, используемые для «прогностического контроля», что обозначает использование ИИ для оценки риска лиц на основе личной информации с целью предсказания вероятного совершения преступления тем или иным лицом.
Более спорный случай — использование технологии распознавания лиц с использованием уличных камер. Это также было добавлено в список неприемлемого риска, и, в отличие от Беларуси, такое применение ИИ будет разрешено только после совершения настоящего преступления и после соответствующего решения суда.
Системы, классифицированные как «высокий риск», будут иметь обязанность раскрытия информации и, как ожидается, будут зарегистрированы в специальной базе данных. То есть такие системы также будут подвергаться различным требованиям мониторинга или аудита.
Под классификацию приложений с «высоким риском» будет подпадать ИИ, который может контролировать доступ к услугам в сфере образования, трудоустройства, финансирования, здравоохранения и других важных областях. Использование ИИ в таких областях не рассматривается как нежелательное, но надзор за ним очень важен из-за того, что он может негативно повлиять на безопасность или основные права граждан.
Идея европейских законотворцев заключается в том, что граждане должны верить, что любое программное обеспечение, принимающее решения, например, о нашей ипотеке, будет тщательно проверяться на соответствие европейским законам. Таким образом каждый cможет убедиться, что он не подпадает под дискриминацию на основе таких защищенных характеристик личности, как пол или этническое происхождение и т.д.
Системы ИИ с «ограниченным риском» будут подчиняться минимальным требованиям прозрачности. Аналогичным образом операторы генеративных систем ИИ, например, боты, создающие текст или изображения, должны будут раскрывать информацию о том, что пользователи взаимодействуют с машиной.
Законопроект, который только что был одобрен Европарламентом, характеризуется менее яркими выражениями по сравнению с некоторыми последними петициями и заявлениями о «риске вымирания» человечества в результате деятельности ИИ, но при этом имеет больше сущности. Он пытается найти тонкую границу между защитой прав и ценностей, при этом не препятствуя инновациям и конкретно обращаясь к опасности и средствам правовой защиты. Хотя законопроект пока и далек от совершенства, он, по крайней мере, предусматривает конкретные действия.
Следующим этапом законотворчества станут трехсторонние переговоры, в ходе которых отдельные проекты парламента, комиссии и совета будут объединены в окончательный текст. Ожидается, что на этом этапе будут достигнуты некоторые компромиссы. Голосование по проекту состоится, вероятно, в конце 2023 года, а через два-три года закон наконец вступит в силу — и только тогда любой бизнес, работающий в ЕС, должен будет его исполнять.
Конечно, такая длинная временная шкала действительно вызывает некоторые вопросы, так как непонятно, как ИИ и мир вообще будут выглядеть в 2027 году. Плюсом однако выглядит то, что проект написан в достаточно универсальной форме, что может помочь ему некоторое время оставаться актуальным.
Кстати The Conversation напоминает, что президент Европейской комиссии Урсула фон дер Ляйен впервые предложила этот законопроект еще летом 2019 года, непосредственно перед пандемией, войной и энергетическим кризисом, а также до того, как ChatGPT заставил политиков и медиа регулярно говорить об экзистенциальном риске со стороны ИИ.
Комментарии