На недавнем саммите ИИ в Сеуле участников снова ждал язык сотрудничества, вдохновленный успехами прошлого года, когда Великобритания организовала первый глобальный саммит по безопасности ИИ в Блетчли-парке. Это мероприятие стало стартовой площадкой для международных действий в ответ на потенциальные риски, связанные с развитием ИИ.
С момента прошлогоднего саммита был достигнут значительный прогресс. Google DeepMind представил новую модель AlphaFold 3, которая помогает ученым предсказывать структуру молекул с беспрецедентной точностью, что ускоряет открытия в области медицины. Однако такие прорывы также поднимают важные вопросы о безопасности. При этом DeepMind активно занимается исследованием способов обеспечения ответственности своих технологий.
Важной частью саммита стало введение Международного научного отчета о безопасности ИИ, который создается для выработки общего подхода к управлению рисками. Эффективное сотрудничество в этой сфере позволит создать единые стандарты и сделать использование технологий более безопасным для общества.
С каждым новым саммитом, как в Сеуле, так и в предстоящих встречах во Франции, у мирового сообщества есть возможность приблизиться к разработке согласованных мер по управлению безопасностью ИИ.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
