Google DeepMind, известный своими передовыми разработками в области искусственного интеллекта, анонсировала Frontier Safety Framework — новую систему, направленную на оценку и управление потенциальными рисками, связанными с будущими AI-моделями. Эта инициатива отвечает на растущие опасения о том, что новые AI технологии могут нести серьезные угрозы, выходящие за рамки существующих моделей.
Framework включает три ключевых компонента, сосредотачиваясь на оценке рисков в областях, таких как автономия, кибербезопасность и биоусреднительность. Это поможет определить, каким образом продвинутые AI модели могут быть использованы для вредоносных действий. При этом важным моментом остается соблюдение принципов безопасности и ответственности в разработке AI, чтобы не замедлить темп инноваций.
Проект Framework находится на начальных этапах, и DeepMind планирует его значительное развитие до 2025 года. Это сотрудничество с научным сообществом и правительством должно помочь установить лучшие практики для обеспечения безопасности будущих AI моделей.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
