Использование ИИ становится все более и более распространенным, и поэтому ЕС предлагает новые и более строгие правила. ЕС решил сделать шаг вперед, опубликовав свое первое нормативное предложение с более строгими правилами, регулирующими использование ИИ.
В проекте правил описывается, как компании и правительства во всех странах-членах ЕС смогут использовать эту технологию, устанавливая ограничения на использование ИИ в различных сферах деятельности, от автономных автомобилей до решений о найме, банковского кредитования, выбора школы или выставления оценок на экзаменах. и даже его использование правоохранительными и судебными системами, а также в других областях, которые угрожают безопасности людей или основным правам.
ЕС демонстрирует свой подход к ИИ с новыми предложениями правил
Комиссия ЕС фокусируется на приложениях ИИ с высоким уровнем риска и предоставляет гарантии безопасности людей, их прав и интересов, не создавая серьезных препятствий для компаний, которые хотят вывести на рынок продукты и услуги на основе ИИ.
Предложение представлено в рамках подхода, основанного на оценке риска, в отношении определенных видов использования ИИ в соответствии с потенциальным воздействием на людей, с разделением на четыре различных уровня, из которых исключены только военные применения.
Начиная с минимального риска, мы находим банальные применения, такие как досуг и искусственный интеллект, включенные, например, в некоторые игрушки или видеоигры, или приложения для создания музыки или редактирования изображений, среди прочего, для которых регулирование не определяет применение любая ограничительная мера.
Меры, которые начнутся с «ограниченного риска», включая закрытые системы искусственного интеллекта, с которыми пользователи могут связываться, такие как чат-боты, которые теперь должны соответствовать минимальному уровню прозрачности, в дополнение к постоянному предупреждению о контакте, не связанном с человеком. .
Вторая точка «высокого риска» включает системы, которые оказывают неблагоприятное воздействие на безопасность людей или их основные права, использование в критических инфраструктурах, которые могут повлиять на здоровье, образование, системы найма персонала, общественные услуги, законодательство или правосудие.
Есть категория “неприемлемо”
Кроме того, системы удаленной биометрической идентификации также будут считаться высокорисковыми, и к ним будут применяться новые, более строгие требования. Хотя Комиссия ЕС не решила запретить их напрямую, она устанавливает, что распознавание лиц будет запрещено для использования в общественных и жилых помещениях. Хотя будут и некоторые исключения, такие как поиск иждивенцев или пропавших без вести, предотвращение конкретной и неминуемой террористической угрозы или выявление преступника или подозреваемого в серьезном преступлении.
На самом высоком уровне мы найдем раздел «неприемлемый риск», который будет охватывать те виды использования, которые рассматриваются как угроза для «социальной оценки правительствами, эксплуатация уязвимостей детей, использование подсознательных методов и – за небольшими исключениями – живые удаленные системы биометрической идентификации в общедоступных местах, используемых в правоохранительных целях ».
Наконец, еще раз была подчеркнута необходимость человеческого взаимодействия и контроля, учитывая, что искусственный интеллект никогда не должен заменять или освобождать людей от их ответственности.
Однако Комиссия ЕС еще не утвердила это новое постановление, и этот процесс может продлить реализацию этих мер более чем на год. Хотя уже было разъяснено, что, хотя на данный момент будут регулироваться только определенные виды использования искусственного интеллекта, эти правила будут иметь «запас для инноваций», уже входя в регулирование других новых горячих тем, таких как робототехника или 3D-принтеры.