Новый подход к оценке социальных и этических рисков ИИ

Современные генеративные ИИ-системы, от автоматического создания текстов до графического дизайна, имеют огромный потенциал, но нуждаются в ответственной разработке и внедрении. В новой статье исследователи, включая Лору Вайдингер и Уильяма Иссока, предлагают трехуровневую структуру для оценки социальных и этических рисков этих технологий.

Эта структура включает в себя оценку возможностей ИИ, взаимодействия с пользователем и системных последствий. Авторы подчеркивают наличие трех ключевых пробелов в текущих оценках безопасности: контекст, специфические риски и мультимодальность. Например, важно учитывать, как пользователи взаимодействуют с ИИ-системой и как это может повлиять на общество в целом.

Для создания безопасных ИИ необходимо решить как технические, так и социальные проблемы. Рекомендуется адаптировать существующие методы оценивания для применения к генеративным ИИ-системам, что включает анализ того, как данная технология может распространять ложную информацию. С учетом этих факторов, ответственность за безопасность технологий является общей задачей для разработчиков и государственных органов.