В свете стремительного развития генеративных ИИ-систем, которые уже используют для написания книг, создания графических дизайнов и помощи в медицине, ученые представили новый трехуровневый подход к оценке социальных и этических рисков, связанных с этими технологиями. В исследовании, авторы которого Лаура Вайдингер и Уильям Айзек, рассматривается возможность оценки таких систем с учетом их возможностей, человеческого взаимодействия и системного воздействия.
Одной из основных проблем, выявленных исследователями, является отсутствие контекста в существующих методах оценки безопасности. Предлагаемый подход предполагает интеграцию данных об точности вывода ИИ и о контексте его использования для более глубокой оценки возможного вреда. Например, это особенно актуально в случае распространения дезинформации.
Во избежание рисков важно учитывать как технические, так и социальные аспекты в оценках, что требует сотрудничества между разработчиками ИИ и государственными структурами. Это позволит создать устойчивую экосистему для предотвращения потенциального вреда, связанного с использованием генеративных ИИ-систем.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
