Google DeepMind анонсировал свою новую инициативу по обеспечению безопасности ИИ, называемую Frontier Safety Framework. Эта система предназначена для выявления и управления потенциальными рисками, связанными с будущими высокими возможностями искусственного интеллекта. В то время как компании разрабатывают мощные модели, которые могут решить такие глобальные проблемы, как изменение климата и здравоохранение, важно учитывать, что новые технологии также могут создать серьезные угрозы.
Framework включает три ключевых компонента, фокусирующихся на оценке риска в четырех областях: автономия, биобезопасность, кибербезопасность и исследования ИИ. Цель состоит в том, чтобы минимизировать риски от угроз, связанных с мощными моделями, и при этом способствовать инновациям и доступности новых решений в области ИИ.
Google предполагает, что полное внедрение этой системы произойдет к началу 2025 года. В центре работы компании остаются принципы этичного ИИ, поддерживающие баланс между преимуществами технологий и их потенциальными угрозами. Таким образом, Frontier Safety Framework призван обеспечить безопасное развитие искусственного интеллекта.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
