Новая подход к безопасности AGI от Google DeepMind

Команда Google DeepMind под руководством Шейна Лега представила новый документ, посвященный безопасности искусственного общинного интеллекта (AGI). В нем обсуждаются ключевые риски, связанные с AGI, такие как возможность злонамеренного использования, несоответствие целей и случайные ошибки. Важно, чтобы AGI не только решал задачи, но и действовал в интересах общества, предотвращая потенциальный вред.

Документ подчеркивает стратегию проактивного планирования и сотрудничества с широкой сообществом ИИ для обеспечения безопасного развития технологий. Эксперты работают над механизмами, предотвращающими доступ к опасным возможностям, что особенно актуально с развитием сложных систем.

С помощью нового учебного курса по безопасности AGI, Google DeepMind стремится обучить исследователей правильному подходу к этой важной теме, надеясь на создание более безопасного и ответственного ИИ. Несмотря на оптимистичный взгляд на будущее AGI, важно помнить о рисках и использовать технологии ответственно.

*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена