Новый подход к безопасности искусственного общего интеллекта (AGI)

Недавнее исследование от группы ученых во главе с Anca Dragan, Rohin Shah и Shane Legg открывает новые горизонты в области разработки искусственного общего интеллекта (AGI), который способен выполнять большинство когнитивных задач на уровне человека. С приближением AGI важно учитывать возможные риски и разработать стратегии для их минимизации.

Документ «Подход к технической безопасности и охране AGI» подчеркивает необходимость совместной работы с другими специалистами для обеспечения безопасного и ответственного развития технологий. В центре внимания находятся четыре ключевых риска: злоупотребление, несоответствие, несчастные случаи и структурные риски. Для успешного предотвращения злоупотреблений, таких как создание вредоносного контента или манипуляции общественным мнением, разрабатываются комплексные меры безопасности и контроля.

Среди других инициатив — улучшение понимания того, как AI система взаимодействует с человеческими намерениями, а также создание прозрачных процессов принятия решений. Эта работа может открыть двери к революционным изменениям в медицине, образовании и других областях.

Мы движемся к будущему, где AGI будет не только мощным инструментом, но и безопасным, благодаря тщательному анализу и разработанным протоколам.

*компания Meta Platforms Inc. признана экстремистской организацией, ее деятельность на территории России запрещена