Будущее искусственного общего интеллекта: безопасность и ответственность

Группа исследователей, включая Анку Драган и Шейна Лега, делится взглядами на искусственный общий интеллект (AGI), который, как ожидается, будет способен решать задачи не хуже человека. Они подчеркивают важность проактивной оценки рисков и сотрудничества с сообществом ИИ для безопасной разработки этой технологии.

AGI может стать мощным инструментом в таких областях, как медицина и образование, при этом необходимые меры безопасности должны предшествовать его внедрению. В своей новой работе, “Подход к технической безопасности и защите AGI”, ученые выделяют четыре основных области рисков: злоупотребление, несоответствие, несчастные случаи и структурные риски.

Основное внимание уделено предотвращению злоупотреблений, например, использование ИИ для создания вредоносного контента. Также эксперты обсуждают, как гарантировать, чтобы AGI действовал в интересах человечества, избегая ситуации, когда ИИ может взять неправильный курс. Важно, чтобы AGI соответствовал человеческим ценностям, а для этого необходимы тщательные меры мониторинга и повышения прозрачности в принятии решений.

Для обеспечения безопасного будущего AGI требуется совместная работа исследователей и специалистов, направленная на создание консенсуса о политике и необходимых мерах по безопасности.

*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена