Искусственный интеллект (ИИ) остается мощным инструментом для борьбы с глобальными вызовами, такими как изменение климата и открытие новых лекарств. Однако, с его развитием возникают и новые риски. Для их минимизации была разработана обновленная версия Frontier Safety Framework, которая помогает предвосхитить серьезные риски, связанные с мощными моделями ИИ.
Ключевым изменением стало внедрение многоуровневых мер безопасности, снижающих вероятность несанкционированного доступа к важным компонентам моделей. Важно, чтобы все разработчики ИИ работали совместно над повышением стандартов безопасности. Обновленная рамочная программа также фокусируется на предотвращении злоупотребления моделями с критическими возможностями, требуя от компаний соблюдать строгие процедуры безопасности при их развертывании.
Основной задачей является не только защита от внешнего воздействия, но и предотвращение случаев, когда ИИ может угрожать контролю со стороны человека. Для этого исследуются методы автоматического мониторинга, призванные выявлять потенциальные злоупотребления. Это открытый процесс, требующий активного участия широких слоев общества.
Таким образом, обновленная рамочная программа безопасности Frontier ставит перед собой задачу сформировать единый подход в области оценки и минимизации рисков, связанных с ИИ, сохраняя при этом его преимущества для человечества.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
