Google DeepMind продолжает разрабатывать передовые модели искусственного интеллекта (ИИ), которые способны решать важные мировые задачи, например, связанные с изменением климата и экономической продуктивностью. Однако с новыми возможностями могут возникать и новые риски. В ответ на это компания представила Frontier Safety Framework — набор протоколов для выявления и снижения будущих рисков, связанных с мощными ИИ-моделями.
Эта инициатива сосредоточена на оценке потенциально опасных возможностей, таких как высокая степень автономии и киберспособности. В рамках Фреймворка команда исследователей будет работать над осмыслением рисков и сотрудничеством с другими организациями, в том числе в правительственном секторе. Ожидается, что первая версия Фреймворка будет полностью внедрена к началу 2025 года.
Среди ключевых компонентов — оценка критических способностей в областях автономии, биобезопасности и кибербезопасности. Эти меры помогут обеспечить безопасное внедрение ИИ-технологий, минимизируя возможные негативные последствия и содействуя инновациям. Главной задачей является создание оптимального баланса между защищенностью от рисков и доступом к ресурсам.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
