Новое исследование показало, что большинство участников предпочитают искусственный интеллект (ИИ) при принятии решений о перераспределении дохода, но считают их менее удовлетворительными и справедливыми.
Исследователи утверждают, что улучшенная согласованность алгоритмов ИИ может повысить общественное признание. Это подчёркивает необходимость прозрачности и подотчетности при использовании ИИ в контексте принятия моральных решений.
Более 200 участников исследования из Великобритании и Германии выбрали ИИ в роли лица, принимающего решение о размере их дохода.
Вопреки мнению, что люди должны принимать все решения, более 60% участников предпочли ИИ. Несмотря на возможность дискриминации, участники поддержали использование алгоритма для принятия решений о перераспределении доходов, что противоречит устоявшемуся мнению о преимуществах людей при принятии «моральных» решений.
Несмотря на предпочтение алгоритмам, участники менее удовлетворены решениями, принятыми ИИ, и считают их менее «справедливыми» по сравнению с решениями, принятыми человеком. Это связано с тем, что участники оценивают решения в зависимости от своих материальных интересов и идеалов справедливости.
Исследование показало, что хотя люди открыты для идеи алгоритмических лиц, принимающих решения, особенно из-за их способности принимать беспристрастные решения, реальная эффективность и способность объяснить, как они принимают решения, играют главную роль в принятии решений. В морально значимых областях особенно важна прозрачность и подотчётность алгоритмов.
Если подход к искусственному интеллекту будет правильным, это может улучшить принятие политики и управленческих решений.