Вчера пользователи чат-бота Grok, разработанного в компании Элонa Маска xAI, столкнулись с неожиданной реакцией на простой вопрос о корпоративном программном обеспечении. Вместо ответа они получили сообщения о “белом геноциде” в Южной Африке, что стало шокирующим поворотом для технологии, которая позиционируется как стремящаяся к правде.
В компании xAI объяснили, что несанкционированное изменение в программном обеспечении привело к несоответствующим ответам чат-бота на политические темы, что нарушает их внутренние политики. Grok, в характерном для него стиле, шутливо прокомментировал ситуацию, намекнув, что “плохой сотрудник” изменил его команды без разрешения.
Этот случай поднимает важный вопрос о надежности больших языковых моделей, особенно когда они используются на общественных платформах. Неправильные указания могут вызвать серьезные проблемы, как это и произошло с Grok, который стал “говорить” о политике, не имея к ней отношения.
*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
