18 марта Минцифры разметило для общественного обсуждения проект закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Впервые на законодательном уровне предлагается закрепить понятие ИИ, определить права, обязанности и ответственность субъектов в данной сфере, а также особенности использования нейросетей. Обсуждение проекта продлится до 15 апреля.
Искусственный интеллект и его модели
Под искусственным интеллектом понимается комплекс технологических решений, имитирующий когнитивные функции человека и позволяющий получать результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Закон предусматривает классификацию моделей ИИ в зависимости от происхождения и уровня доверия.
-
Суверенные и национальные модели ИИ. Данные модели проходят все этапы разработки и обучения в России, причем в роли их разработчиков и эксплуатантов могут выступать только граждане РФ и отечественные компании. Наборы данных, используемых для обучения ИИ, формируются только в России. Государство поддерживает деятельность, связанную с разработкой, внедрением и применением суверенных и национальных моделей.
-
Доверенные модели ИИ. Устанавливаются требования к указанной разновидности модели:
-
успешно пройденная проверка ФСБ и ФСТЭК;
-
обработка данных только на территории России;
-
соответствие модели требованиям качества, установленным органами власти, госкорпорациями, Банком России в тех или иных областях.
Соответствующая всем параметрам модель включается в спецреестр, после чего ее можно внедрять в государственные информационные системы и на значимых объектах критической информационной инфраструктуры.
Обязанности разработчиков, операторов, владельцев, пользователей ИИ-сервисов
У участников рынка появится множество обязанностей.
Разработчики должны:
-
исключить функционал, приводящий к дискриминации на основе поведения и личностных характеристик пользователей;
-
информировать о невозможности использования модели в противоправных целях;
-
моделировать возможные риски.
Операторы обязаны:
-
тестировать систему на предмет ее возможного использования в противоправных целях;
-
информировать пользователей о назначении и ограничениях системы;
-
немедленно приостанавливать эксплуатацию ИИ при обнаружении угрозы причинения вреда жизни, здоровью граждан, безопасности государства, имуществу физлиц или компаний, окружающей среде;
-
вести учет инцидентов, связанных с функционированием объектов с использованием ИИ.
В число обязанностей владельцев сервисов ИИ входят:
-
принятие мер по недопущению использования сервисов ИИ в противоправных целях;
-
информирование пользователей о том, что они взаимодействуют с ИИ;
-
хранение данных и сообщений пользователей, а также предоставление соответствующей информации правоохранительным органам по их запросу (если к сервису ежедневно обращается свыше 500 тысяч российских пользователей);
-
внедрение механизмов, не позволяющих создавать противоправный контент.
Пользователи сервисов должны:
-
соблюдать правила доступа к сервису ИИ;
-
использовать нейросети в целях, не противоречащих законодательству РФ;
-
не обходить встроенные механизмы контроля и безопасности.
Разработчик, оператор, владелец несут ответственность за результат, полученный с использованием ИИ, нарушающий российское законодательство, если они знали (должны были знать) о возможности генерации такого результата. Если же указанные субъекты предприняли все возможные действия для предотвращения противоправного результата, ответственность с них снимается.
Пользователю грозит ответственность, если противоправный результат получен вследствие его умышленных действий или из-за несоблюдения правил использования нейросетей.
Эксперты Forbes обнаружили в проекте множество изъянов, в числе которых, например, отсутствие понимания того, где заканчивается ответственность разработчика и начинается ответственность интегратора (или самого предприятия-владельца). Также они опасаются, что используемые в документе формулировки позволяют привлечь субъектов из сферы ИИ к ответственности в любом случае, вне зависимости от того, принимали ли они меры по защите от получения запрещенного результата или нет.
Нюансы использования ИИ-технологий в бизнесе
В законе уделено достаточно много внимания нюансам использования ИИ-технологий в бизнес-среде. Отметим наиболее интересные моменты.
-
Компании и физлица, использующие нейросети при продаже товаров или оказании услуг, обязаны предупреждать об этом своих клиентов. Предусматривается уведомление граждан об использовании ИИ в принятии автономных решений, затрагивающих их права, свободы и интересы. Правительство определит ситуации, когда компании обязаны предоставить услуги без обращения к ИИ, если потребитель отказался от применения в отношении него таких технологий.
-
Владельцы ИИ-сервисов будут маркировать сгенерированный нейросетями контент. Требования к маркировке установит Правительство РФ.
-
Владельцы соцсетей с суточной аудиторией свыше 100 тысяч человек будут обязаны проверять наличие на сгенерированном контенте маркировки. При ее отсутствии им придется либо размещать соответствующее предупреждение, либо удалять материал.
-
В соглашении с пользователем может быть прописано отсутствие информационного предупреждения об искусственном происхождении материала. Отказ пользователя от получения такого предупреждения должен быть предметным, информированным, сознательным и однозначным.
-
За удаление маркировки со сгенерированного нейросетями продукта грозит административная ответственность.
Специалисты Forbes подчеркивают: маркировке подлежит любой контент, в том числе текстовый. Избыточное регулирование может замедлить скорость проникновения нейросетей в отечественные сервисы и сформировать недоверие в отношении ИИ-материалов.
Запретят ли иностранные нейросети?
В ст. 17 проекта говорится о трансграничных технологиях ИИ, под которыми подразумеваются решения, создание, использование, трансфер, консервация, уничтожение которых связаны с субъектами/ территориями нескольких государств. Законодатель вправе запретить или ограничить функционирование таких технологий в России. Однако не сказано, в каких именно ситуациях иностранные ИИ-модели могут быть заблокированы.
Следовательно, документ не «отменяет» ChatGPT, Claude, Gemini и прочие зарубежные модели, однако их работа может зависеть от соблюдения дополнительных требований (например, по хранению данных в России).
Итак, очевидно, рассматриваемый закон может стать базой правового регулирования вопросов, связанных с разработкой и применением ИИ-технологий. В случае его принятия многие нюансы будут уточняться в других актах, в частности, в правительственных постановлениях.