В России могут запретить искусственный интеллект с «неприемлемым уровнем риска»
Профильная рабочая группа, куда входят юристы, представители консалтинговых компаний и участников рынка, развивающих искусственный интеллект, а также депутаты, разработала законопроект «О регулировании систем искусственного интеллекта (ИИ) в России», предусматривающий запрет систем с «неприемлемым уровнем риска». Об этом 11 апреля сообщает РБК со ссылкой на пять источников, знакомых с инициативой.
Документ подготовлен для реализации Национальной стратегии развития ИИ до 2030 года, которую утвердили в феврале прошлого года, и обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках.
Законопроектом предлагается ввести понятия искусственного интеллекта, технологий ИИ, а также систем ИИ.
Кроме того, инициатива предусматривает классификацию систем ИИ по уровню потенциального риска: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска. Так, разработку и эксплуатацию систем ИИ, которые относятся к первой категории, то есть создают угрозу безопасности личности, общества и государства, а также нарушают основополагающие права и свободы человека и гражданина, предлагается запретить. Для второй категории систем ИИ (применяются в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах, где это может создать существенные риски для жизни, здоровья, основных прав и свобод граждан) хотят установить обязательную госрегистрацию и сертификацию, а для третьей категории (системы внутреннего контроля качества) — добровольную сертификацию.
Новость дополняется.