Новое поколение ИИ: безопасность и ответственность в разработке AGI

Исследователи из Google DeepMind представили новые подходы к безопасности и ответственности в разработке Искусственного Общего Интеллекта (AGI). AGI, способный решать задачи на уровне человека, может стать реальностью в ближайшие годы. Это открывает двери для решения глобальных проблем, таких как здравоохранение и изменение климата.

В своей новой работе, Подход к технической безопасности и защите AGI, команда рассматривает ключевые риски, такие как злоупотребление, несоответствие, аварии и структурные риски. Например, несоответствие может привести к тому, что ИИ будет действовать против интересов людей, тогда как злоупотребление может возникнуть, если ИИ будет использован для вредных целей.

Ключевым элементом стратегии является ограничение доступа к опасным возможностям, а также форматирование ИИ для более прозрачного принятия решений. Важной частью работы является сотрудничество с организациями и экспертами по безопасности, направленное на обучение и развитие безопасного AGI, способного приносить реальные выгоды.

С учетом всех вызовов, связанных с этой технологией, необходимо серьезно подходить к планированию и совместной работе с научным сообществом, чтобы обезопасить будущее AGI.

*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена