Человеческую жизнь предложили защитить от искусственного интеллекта
Маркировать или нет контент, произведенный искусственным интеллектом, считать ли использование нейросетей отягчающим обстоятельством при совершении преступлений, кого назначить ответственным за последствия применения ИИ — эти и другие вопросы обсуждают законодатели и эксперты для будущего регулирования бурно развивающихся технологий компьютерного разума. Одни специалисты считают, что думать об этом нужно лишь после того, как в России примут базовый закон, гарантирующий защиту жизни человека от ИИ. Когда может появиться такой документ, узнала «Парламентская газета».
По какому пути идтиВсе страны сталкиваются с общей дилеммой: стимулировать развитие ИИ или обеспечивать безопасность, защиту прав и этические стандарты. Подходы различаются кардинально. В Евросоюзе сделали ставку на жесткие правила, особенно в рисковых областях, с фокусом на прозрачность и ответственность. США предпочли рыночный подход с саморегулированием и корпоративными стандартами. Китай реализует централизованный курс, быстро устанавливая правила для платформ, баз данных и контроля сервисов ИИ. Об этом первый зампред Комитета Совфеда по конституционному законодательству и госстроительству Артем Шейкин сказал 1 июля на заседании секции «Искусственный интеллект» Совета по цифровой экономике при палате регионов.
Перед Россией стоит сложный выбор, считает сенатор:
«Наш вектор должен, с одной стороны, соответствовать мировым стандартам и вызовам глобальной конкуренции, а с другой — быть максимально адаптирован к национальным приоритетам: технологическому суверенитету, безопасности, развитию науки и защите прав людей».
Больше двух лет секция «Искусственный интеллект» обсуждает подходы к регулированию ИИ, напомнил ее руководитель и глава направления ИИ Сбера Андрей Незнамов. Голос России, по его словам, слышат на международной арене. В 2021 году ЮНЕСКО утвердила рекомендации по этике ИИ, созвучные действующим в нашей стране, в 2024-м приняты две резолюции ООН по теме нейросетей, при организации создается глобальный совет по ИИ, а в СНГ создали рамочные законы о таких технологиях.
Искусственный интеллект подключат к борьбе за традиционные ценности Самая быстрая технология
© Авилов Александр/Агентство «Москва»
Несмотря на большую экспертную работу, закона об ИИ в России до сих пор нет. Не существует даже официального определения, что это вообще такое, сетовала руководитель исследовательской программы Института международных исследований МГИМО Элина Сидоренко. По ее информации, власти готовят поправки в Уголовный кодекс, по которым использование ИИ при совершении преступления станет новым квалифицирующим признаком. При этом нет ни одного параметра, по которому можно будет дать оценку такому деянию.
Действовать нужно быстро, согласился ведущий научный сотрудник Института государства и права РАН Юрий Пилипенко. России, считает он, необходим как минимум рамочный закон о технологиях ИИ, который в первую очередь защитит человеческую жизнь. С этим уже есть проблемы.
«ИИ в нынешнем виде готов убивать человека, — предупредил он. — Стресс-тесты показали, что при определенных обстоятельствах, например, если человек угрожает отключить нейросеть от питания, она начинает его шантажировать, что знает неприглядные стороны его личности, а в ряде случаев были зафиксированы прямые угрозы жизни».
Проблема в том, что ИИ развивается быстрее, чем любая другая технология на планете, и есть риск за этим не успеть, объяснил Пилипенко. По его мнению, России не нужно смотреть ни в сторону Китая, ни в какую-либо еще, а принимать национальный режим регулирования.
«Цифровая евгеника» как новый этап селекции «совершенного» человека, соответствующего эпохе доминирования ИИ В основе — контроль и безопасность
© Авилов Александр/Агентство «Москва»
Наблюдательную позицию заняли пока в российском МИД. Там обобщают мировой опыт, рассказал замдиректора департамента международной информационной безопасности МИД Эрнест Чернухин. Из полноформатных международных документов по этой теме сегодня действует лишь один — Конвенция ООН против киберпреступности, сообщил дипломат. По остальным вопросам мировому сообществу договориться пока не удается.
Нет единства и в рядах наших ученых. Завкафедрой информационного права Московского юридического университета имени О.Е. Кутафина Алексей Минбалеев считает, что первичный уровень регулирования ИИ в России уже действует, взять хотя бы кодекс этики, многочисленные законы в сфере информационных технологий и систему охраны интеллектуальной собственности.
«Пока нужно лишь точечно подойти к регулированию специальных систем ИИ», — заключил Минбалеев.
Не сбрасывать со счетов экономический фактор призвал IT-эксперт Никита Лебедев-Зиновьев. В ИИ у нас вкладывают много, но пока кратно меньше, чем в тех же США. А значит, их модель регулирования нам не подойдет. Наиболее близка России пока регулятивная китайская модель, полагает эксперт.
Участники дискуссии лишь сошлись во мнении, что одним из главных подходов к регулированию ИИ у нас должен стать принцип полного человеческого контроля над ним. А кроме того — прозрачность и объяснимость, безопасность использования, конфиденциальность. Исходя из этого будут разрабатывать и принимать законы, подвел итог дискуссии Артем Шейкин.
Илья Резник и Ольга Ковитиди победили в конкурсе на лучший проект гимна Крыма