Google DeepMind анонсировала обновленную версию своей Стратегии Безопасности на Пути к Агентному Интеллекту (AGI). Эта инициатива направлена на устранение потенциальных рисков, связанных с мощными ИИ-моделями, такими как Gemini 2.0. Сделав акцент на новых протоколах безопасности, компания усиливает защиту от несанкционированного доступа к весам моделей, которые могут обойти большинство мер предосторожности.
Ключевым аспектом обновленной стратегии является внедрение уровней критических возможностей (CCL), которые классифицируют модели по их способности представлять опасность. Например, более строгие меры безопасности будут применены в области исследований и разработки ИИ. Это необходимо, так как увеличение мощностей моделей может значительно ускорить развитие ИИ, порождая дополнительные риски.
Кроме того, новые методы предполагают жесткую проверку безопасности перед развертыванием моделей, чтобы предотвратить их неправильное использование. Соблюдение строгих норм не только защитит общество, но и поможет в достижении лучших практик и стандартов в индустрии. Команда Google сосредоточит свои усилия на реализации этой Стратегии, совместно работая с другими разработчиками для повышения общей безопасности в области ИИ.
*компания Meta Platforms Inc. признана экстремистской организацией, её деятельность на территории России запрещена.
