Последние исследования, проведенные командой, состоящей из экспертов, таких как Анка Драган и Шейн Легг, подчеркивают необходимость проактивного подхода к безопасности искусственного общего интеллекта (AGI). AGI, потенциал которого может сравниться с когнитивными возможностями человека, вероятно, появится в ближайшие годы и обещает стать ценным инструментом для решения глобальных проблем, таких как изменение климата, развитие экономики и медицинская диагностика.
Однако с этой мощью приходит ответственность. Команда выделяет четыре основных риска: злоупотребление, несоответствие целей, несчастные случаи и структурные риски. Основное внимание уделяется предотвращению злоупотребления и несоответствия. Эксперты призывают к четким протоколам безопасности и международному сотрудничству для достижения согласия о том, как управлять потенциальными угрозами со стороны AGI.
Так, они рассматривают стратегии, направленные на ограничение доступа к опасным возможностям, которые могут быть использованы в злонамеренных целях. Например, необходимо предотвращать возможность создания опасного контента с помощью генеративного ИИ. В новом исследовательском документе по безопасности AGI подробно описываются меры для минимизации рисков и обеспечения этичного использования технологий AGI.
В итоге, безопасное развитие AGI должно включать в себя прозрачность в принятии решений, что сделает эти системы более надежными и понятными для людей, что особенно важно в свете будущих вызовов и возможностей.
*Компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена.
