Google DeepMind представила обновленную Рамку Безопасности Frontier, которая устанавливает более строгие протоколы для оценки и управления рисками, связанными с мощными моделями искусственного интеллекта. После первой итерации рамки, объявленной в прошлом году, компания провела обширные исследования и сотрудничество с экспертами из разных областей, чтобы улучшить понимание потенциальных угроз и разработать меры по их смягчению.
Ключевые обновления включают внедрение многоуровневых мер безопасности для предотвращения несанкционированного доступа к важным данным модели, так как их утечка может привести к серьезным последствиям. Эта рамка подразумевает более высокие уровни безопасности для исследований в области ИИ и настоятельно призывает разработчиков к строгому контролю для предотвращения неконтролируемого расширения возможностей ИИ.
Обновленная рамка также включает новые меры по предотвращению несанкционированного использования критических возможностей моделей. Впервые поднимается вопрос о выявлении и снижении рисков, связанных с возможным подрывом человеческого контроля автономными системами. Google рассчитывает, что эти меры помогут установить общие стандарты для оценки безопасности будущих ИИ моделей.
Компания продолжает исследовать важные вопросы по обеспечению безопасности ИИ, работая совместно с правительственными структурами и научным сообществом, чтобы обеспечить ответственное развитие технологий.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
