Новая структура оценки социальных и этических рисков ИИ

В эпоху быстрого развития генеративных ИИ-систем, которые уже пишут книги и помогают врачам, важно ответственно подходить к их созданию и внедрению. В недавней статье Лауры Вайдингер и Уильяма Исаака предложена трехуровневая структура для оценки социальных и этических рисков этих систем. Она включает в себя анализ возможностей ИИ, взаимодействия с людьми и системных последствий.

Авторы выделили три основные проблемы в текущих оценках безопасности: контексты использования, конкретные риски и мультимодальность. Предлагаемая структура направлена на закрытие этих пробелов, интегрируя результаты, такие как вероятность распространения дезинформации, с пониманием того, как пользователи взаимодействуют с системой. Это многоуровневое обследование поможет выявить, как вред может проявляться на различных уровнях использования ИИ.

Оценка взаимодействия с ИИ фокусируется на пользовательском опыте, в то время как системное влияние рассматривает более широкие социальные структуры, где применяется ИИ. Разработка безопасных генеративных ИИ-систем требует совместных усилий разработчиков, правительственных органов и общественных институций.

*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена