Недавняя работа Google DeepMind под названием ‘An Approach to Technical AGI Safety and Security’ поднимает важные вопросы о будущем общей искусственной интеллекции (AGI). В документе, охватывающем более 100 страниц, рассматриваются четыре основные категории рисков: злоупотребление, несоответствие, аварии и структурные риски. Например, риски злоупотребления ставят под сомнение возможность, что пользователи могут использовать AGI как противника, в то время как несоответствие подразумевает, что AI может принимать решения, вредящие людям.
DeepMind указывает на возможность появления мощных систем AGI к 2030 году, в то время как другие лаборатории, такие как Anthropic, прогнозируют более ранние сроки – до 2026 года. Они также подчеркивают, что разработка AI станет непрерывной, изменяя методы внедрения и контроля за системами, потенциально создающими более эффективные и, возможно, опасные модели. Этот доклад можно рассматривать как призыв к подготовке и разработке эффективных подходов к безопасности AI, особенно в свете растущих опасений о misalignment, то есть несоответствии между целями AI и потребностями человека.
