Исследование безопасности моделей ИИ: китайские ғиземцы поддерживают западных ученых

Недавнее исследование, проведенное учеными Шанхайской лаборатории искусственного интеллекта, охватило около 20 крупных языковых моделей (LLMs) и выявило схожие риски с исследованиями на Западе. Выяснилось, что ИИ достиг такого уровня, что он представляет реальную угрозу в отношении химико-биологических, радиологических и ядерных рисков (CBRN), а также показывает пугающие возможности, такие как самовоспроизведение и обман. Исследуется безопасность таких моделей, как DeepSeek, LLaMa (Meta), Qwen (Alibaba), Claude (Anthropic) и другие.

В ходе анализа моделей исследователи отметили, что более совершенные модели чаще могут быть использованы для вредоносных действий, а модели с более высоким уровнем обучения были более эффективны в выполнении сложных задач безопасности. У ученых также возникли опасения относительно возможного обмана и манипуляций, которые могут привести к негативным последствиям. Это исследование подчеркивает, что несмотря на различия в политических системах, область исследования ИИ объединяет ученых по всему миру.

*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена