В России разгорается активная дискуссия вокруг нового законопроекта о регулировании искусственного интеллекта. Инициатива, разработанная рабочей группой с участием юристов, представителей ИТ-компаний и экспертов, направлена на установление четких правил для стремительно развивающейся сферы ИИ. В статье разберем, какие ограничения хотят ввести, и как это отразится на технологических компаниях и сфере в целом.
Запрет на системы с «неприемлемым уровнем риска»
Законопроект предусматривает запрет на разработку и использование систем ИИ, которые классифицируются как имеющие «неприемлемый уровень риска». К таким системам относятся те, что могут угрожать безопасности личности, общества или государства, а также нарушать основные права и свободы граждан.
Для систем с высоким уровнем риска, применяемых в здравоохранении, транспорте, финансах и правоохранительной деятельности, предлагается ввести обязательную государственную регистрацию и сертификацию. Системы с ограниченным риском подлежат добровольной сертификации и внутреннему контролю качества.
Обязательная маркировка ИИ-контента
Одним из ключевых положений законопроекта является введение обязательной маркировки контента, созданного с использованием ИИ. Пользователи должны быть четко информированы о том, что они взаимодействуют с сгенерированным контентом. Для этого хотят использовать графические или водяные знаки для обозначения такого контента, чтобы обеспечить его прозрачность и предотвратить возможные манипуляции.
Вопрос авторских прав на контент, созданный с помощью ИИ, тоже находит отражение в законопроекте. Предлагается, чтобы права на такие произведения принадлежали человеку, если он внес существенный творческий вклад в процесс создания контента. Это положение направлено на защиту интеллектуальной собственности.
Ответственность разработчиков
Законопроект также устанавливает ответственность разработчиков и операторов ИИ-систем за ущерб, причиненный их использование. Если система ИИ нанесет вред жизни, здоровью или имуществу, разработчики обязаны компенсировать ущерб, особенно если не были предприняты все необходимые меры для предотвращения такого вреда.
На данный момент законопроект находится на стадии обсуждения. Он уже рассматривался на заседаниях рабочих групп в Госдуме, в «Деловой России» и на других отраслевых площадок. Однако в правительстве и Минцифры пока не подтвердили получение документа на рассмотрение. О том, как к регулированию ИИ относятся в мире, и почему лидеры стран выступают против жесткого контроля, мы писали в этой статье.
Мнения экспертов
По словам основателя компании «Нейросети», Сергея Курьяна, разработка законопроекта — шаг в правильном направлении. Но крайне важно, чтобы регулирование было гибким, адаптивным и открытым для диалога с ИТ-сообществом. Без этого возможно торможение одной из самых перспективных отраслей.
«Искусственный интеллект уже сейчас оказывает существенное влияние на общество, экономику, образование, медиа и даже политику. Регуляция ИИ — не про контроль ради контроля, а про установление доверия между обществом, бизнесом и технологиями. ИИ-контент, на мой взгляд, нуждается в маркировке и регулировании с определенными оговорками, при условии разработки прозрачных механизмов контроля», — уверен Сергей Курьян.
Он приводит следующие риски, которые могут возникать при отсутствии четких правил:
– Дезинформация и дипфейки. Контент, созданный ИИ, может быть неотличим от реального. Это создает угрозу распространения фальсификаций.
– Нарушения авторских прав. Модели ИИ обучаются на огромных массивах данных, зачастую без согласия правообладателей.
– Этические вопросы. Как определить ответственность за действия ИИ? Кто виноват, если автономный алгоритм нанес вред?
Что важно учесть при регулировании ИИ
По мнению экспертов отрасли, при регулировании ИИ нужно четко обозначить термины и определения, потому что моделей искусственного интеллекта достаточно много. В том числе, учитывать международный опыт в области регулирования ИИ, так как речь идет про глобальные технологии.
«Еще недавно власти России не планировали вводить строгие правила для использования ИИ. Кроме того, новый нацпроект «Экономика данных» направлен на то, чтобы сделать технологии доступными для всех жителей. Акцент на развитие без жестких правил дает возможность быстрее адаптироваться и внедрять инновации», — добавляет эксперт по ИИ и руководитель IT медиахолдинга «Регионы России» Ольга Чернокоз.
Как не ограничить развитие технологий? По мнению Сергея Курьяна, нужно создать безопасные “песочницы” для тестирования ИИ-продуктов без риска блокировок или штрафов, стартапы (до достижения определенного масштаба) временно освободить от регулирования. Также следует инвестировать в открытые модели и повышение компетенций не только самих IT-разработчиков, но и регуляторов — они должны разбираться в технологиях, иначе закон быстро устареет.
Регулирование ИИ — это не только вызов, но и возможность для России занять лидирующие позиции в этой области. Важно разработать сбалансированный подход, который обеспечит безопасность и защиту прав граждан, не тормозя при этом инновации и развитие технологий. Как говорится, «лучше регулировать сегодня, чем сожалеть завра».
