Совсем недавно группа исследователей, включая Лору Вейдингера и Уильяма Айзека, представила новый трехуровневый подход для оценки социальных и этических рисков ИИ-систем. Это особенно актуально для генеративных ИИ, которые уже помогают в написании книг, создании графики и медицинской практике.
В своей статье авторы описывают три ключевых уровня оценки: способности ИИ-систем, взаимодействие с людьми и системные воздействия. Они выявили три основных недостатка в существующих методах безопасности: недостаток контекста, конкретных рисков и многомодальности. Для решения этих проблем необходимо адаптировать существующие методики оценки и внедрять комплексный подход, учитывающий, как ИИ используется и в каких условиях.
Эти шаги помогут лучше понять, как обеспечивать безопасность ИИ-систем, учитывая, кто их использует и с какой целью. Совместные усилия разработчиков ИИ и общественных организаций необходимы для создания эффективной системы оценки безопасности.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
