Хотя определение справедливости как слова можно согласовать, в конкретных терминах его конкретное применение может быть предметом дальнейшего анализа.
Подобно тому, как определение того, что справедливо, а что нет, может быть настоящей дилеммой для людей, это также проблема для искусственного интеллекта, и новая инициатива в Университете штата Мичиган стремится облегчить эту задачу.
Классы справедливости для алгоритмов ИИ
Учитывая, что системы искусственного интеллекта все чаще используются в повседневной деятельности и услугах, необходимо обеспечить достаточную беспристрастность платформам, участвующим в принятии решений о том, кто получает правильную медицинскую помощь, кто имеет право на получение банковского кредита или кому назначается работа.
При финансовой поддержке Amazon и Национального научного фонда Пан-Нин Тан, исследователь и профессор факультета компьютерных наук и инженерии вышеупомянутого американского университета, провел последний год, обучая алгоритмы искусственного интеллекта, чтобы помочь им различать справедливость и справедливость. несправедливость своих действий.
«Мы пытаемся разрабатывать системы искусственного интеллекта, которые предназначены не только для информатики, но также приносят пользу обществу. Поэтому я начал думать о том, какие области вызывают у общества проблемы прямо сейчас », – сказал исследователь о причинах своей инициативы.
В связи с этим проектом возникает необходимость в разработке инициатив, непосредственно влияющих на его пользователей. Развивая ту же точку зрения, Тан также прокомментировал, что «справедливость – это очень большая проблема, особенно когда мы все больше полагаемся на ИИ для повседневных нужд, таких как медицинское обслуживание, но также и для таких повседневных вещей, как фильтрация спама или размещение историй в разделе новостей. . »
Даже в качестве автоматизированных систем алгоритмы ИИ могут нести определенные унаследованные предубеждения от данных, используемых при их обучении, или даже передаваться непосредственно их создателями. Например, согласно опросу, проведенному исследовательской группой Тана, есть случаи, когда системы ИИ дискриминируют по расовому признаку при оказании медицинской помощи и сексуальной сегрегации женщин в системах приема на работу.
По поводу этой реальности Абдол-Хоссейн Исфаханян, член исследовательской группы Тана, прокомментировал, что «алгоритмы создаются людьми, и у людей обычно есть предубеждения, поэтому эти предубеждения фильтруются … мы хотим, чтобы везде была справедливость, и мы хотим иметь лучшее понимание того, как это оценивать.
Опираясь на теории социальных наук, Тан и его команда стремятся приблизить к наиболее универсальному из возможных представлений о справедливости. Для достижения этой цели принципы справедливости, передаваемые алгоритму, не будут исходить из единой точки зрения, что заставит его выбирать между конкурирующими или противоречащими позициями.
«Мы пытаемся сделать так, чтобы ИИ был осведомлен о справедливости, и для этого вы должны сказать ему, что справедливо. Но как разработать меру справедливости, приемлемую для всех? » отметил Тан, добавив, что «мы смотрим, как решение влияет не только на отдельных людей, но и на их сообщества и социальные круги».
Работа амбициозная и, несмотря на прогресс, она только начинается. «Это очень продолжающееся исследование. Есть много проблем и вызовов – как вы определяете справедливость, как вы можете помочь людям доверять этим системам, которые мы используем каждый день », – размышлял Тан, добавив, что« наша задача как исследователей – находить решения этих проблем ».
С полным отчетом об этом исследовании можно ознакомиться на Веб-сайт Университета штата Мичиган.