Учёные из MIT разработали инновационный метод, который помогает сделать ИИ более справедливым для всех групп. Он обнаруживает и удаляет ключевые точки в обучающих данных, наиболее влияющие на ошибки модели по отношению к маловероятным подгруппам, например, женщинам. В отличие от привычных методов балансировки данных, новый подход сохраняет общую точность модели, удаляя при этом значительно меньше обучающих примеров — примерно 20 тысяч. Это важно, поскольку зачастую большие наборы данных содержат ошибочные или предвзятые примеры, которые ухудшают работу ИИ. Также технология умеет находить скрытые источники bias без четких ярлыков, что делает её универсальной. Такой инструмент может стать шагом к более точным и беспристрастным медицинским диагнозам и другим критическим задачам, где важно избегать ошибок, связанных с недостаточной репрезентацией. Исследование представлено на конференции NeurIPS и обещает расширить возможности создание честных моделей. *компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена
