Совсем недавно, в Proceedings of the National Academy of Sciences, было представлено исследование, посвященное важным вопросам, касающимся этики в искусственном интеллекте (ИИ). Каковы ценности, руководящие поведением ИИ? И как можно справедливо выбрать эти принципы?
В исследовании, выполненном исследователями Iason Gabriel и Kevin McKee, был использован философский подход, основанный на концепции «вуали невежества», чтобы помочь людям сформулировать принципы, которые учитывают интересы всех, включая наиболее уязвимые группы. В нашем эксперименти, участники выбирали между принципами, руководствуясь тем, что они считали честным, не зная, какое положение они займут в симуляции.
Результаты продемонстрировали, что, не зная своих преимуществ, участники чаще выбирали принципы, которые помогали наименее обеспеченным. Это открывает путь к созданию более справедливых ИИ-систем, способных действовать на благо общества, а не только для выгоды отдельных лиц.
Данное исследование подчеркивает необходимость интеграции разнообразных мнений и этических стандартов в разработку и внедрение ИИ-технологий в будущем.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
