Подготовлен проект закона об искусственном интеллекте (ИИ)

18 марта Минцифры разметило для общественного обсуждения проект закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». Впервые на законодательном уровне предлагается закрепить понятие ИИ, определить права, обязанности и ответственность субъектов в данной сфере, а также особенности использования нейросетей. Обсуждение проекта продлится до 15 апреля.

Искусственный интеллект и его модели

Под искусственным интеллектом понимается комплекс технологических решений, имитирующий когнитивные функции человека и позволяющий получать результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Закон предусматривает классификацию моделей ИИ в зависимости от происхождения и уровня доверия.

  1. Суверенные и национальные модели ИИ. Данные модели проходят все этапы разработки и обучения в России, причем в роли их разработчиков и эксплуатантов могут выступать только граждане РФ и отечественные компании. Наборы данных, используемых для обучения ИИ, формируются только в России. Государство поддерживает деятельность, связанную с разработкой, внедрением и применением суверенных и национальных моделей.

  2. Доверенные модели ИИ. Устанавливаются требования к указанной разновидности модели:

  • успешно пройденная проверка ФСБ и ФСТЭК;

  • обработка данных только на территории России;

  • соответствие модели требованиям качества, установленным органами власти, госкорпорациями, Банком России в тех или иных областях.

Соответствующая всем параметрам модель включается в спецреестр, после чего ее можно внедрять в государственные информационные системы и на значимых объектах критической информационной инфраструктуры.

Обязанности разработчиков, операторов, владельцев, пользователей ИИ-сервисов

У участников рынка появится множество обязанностей.

Разработчики должны:

  • исключить функционал, приводящий к дискриминации на основе поведения и личностных характеристик пользователей;

  • информировать о невозможности использования модели в противоправных целях;

  • моделировать возможные риски.

Операторы обязаны:

  • тестировать систему на предмет ее возможного использования в противоправных целях;

  • информировать пользователей о назначении и ограничениях системы;

  • немедленно приостанавливать эксплуатацию ИИ при обнаружении угрозы причинения вреда жизни, здоровью граждан, безопасности государства, имуществу физлиц или компаний, окружающей среде;

  • вести учет инцидентов, связанных с функционированием объектов с использованием ИИ.

В число обязанностей владельцев сервисов ИИ входят:

  • принятие мер по недопущению использования сервисов ИИ в противоправных целях;

  • информирование пользователей о том, что они взаимодействуют с ИИ;

  • хранение данных и сообщений пользователей, а также предоставление соответствующей информации правоохранительным органам по их запросу (если к сервису ежедневно обращается свыше 500 тысяч российских пользователей);

  • внедрение механизмов, не позволяющих создавать противоправный контент.

Пользователи сервисов должны:

  • соблюдать правила доступа к сервису ИИ;

  • использовать нейросети в целях, не противоречащих законодательству РФ;

  • не обходить встроенные механизмы контроля и безопасности.

Разработчик, оператор, владелец несут ответственность за результат, полученный с использованием ИИ, нарушающий российское законодательство, если они знали (должны были знать) о возможности генерации такого результата. Если же указанные субъекты предприняли все возможные действия для предотвращения противоправного результата, ответственность с них снимается.

Пользователю грозит ответственность, если противоправный результат получен вследствие его умышленных действий или из-за несоблюдения правил использования нейросетей.

Эксперты Forbes обнаружили в проекте множество изъянов, в числе которых, например, отсутствие понимания того, где заканчивается ответственность разработчика и начинается ответственность интегратора (или самого предприятия-владельца). Также они опасаются, что используемые в документе формулировки позволяют привлечь субъектов из сферы ИИ к ответственности в любом случае, вне зависимости от того, принимали ли они меры по защите от получения запрещенного результата или нет.

Нюансы использования ИИ-технологий в бизнесе

В законе уделено достаточно много внимания нюансам использования ИИ-технологий в бизнес-среде. Отметим наиболее интересные моменты.

  1. Компании и физлица, использующие нейросети при продаже товаров или оказании услуг, обязаны предупреждать об этом своих клиентов. Предусматривается уведомление граждан об использовании ИИ в принятии автономных решений, затрагивающих их права, свободы и интересы. Правительство определит ситуации, когда компании обязаны предоставить услуги без обращения к ИИ, если потребитель отказался от применения в отношении него таких технологий.

  2. Владельцы ИИ-сервисов будут маркировать сгенерированный нейросетями контент. Требования к маркировке установит Правительство РФ.

  3. Владельцы соцсетей с суточной аудиторией свыше 100 тысяч человек будут обязаны проверять наличие на сгенерированном контенте маркировки. При ее отсутствии им придется либо размещать соответствующее предупреждение, либо удалять материал.

  4. В соглашении с пользователем может быть прописано отсутствие информационного предупреждения об искусственном происхождении материала. Отказ пользователя от получения такого предупреждения должен быть предметным, информированным, сознательным и однозначным.

  5. За удаление маркировки со сгенерированного нейросетями продукта грозит административная ответственность.

Специалисты Forbes подчеркивают: маркировке подлежит любой контент, в том числе текстовый. Избыточное регулирование может замедлить скорость проникновения нейросетей в отечественные сервисы и сформировать недоверие в отношении ИИ-материалов.

Запретят ли иностранные нейросети?

В ст. 17 проекта говорится о трансграничных технологиях ИИ, под которыми подразумеваются решения, создание, использование, трансфер, консервация, уничтожение которых связаны с субъектами/ территориями нескольких государств. Законодатель вправе запретить или ограничить функционирование таких технологий в России. Однако не сказано, в каких именно ситуациях иностранные ИИ-модели могут быть заблокированы.

Следовательно, документ не «отменяет» ChatGPT, Claude, Gemini и прочие зарубежные модели, однако их работа может зависеть от соблюдения дополнительных требований (например, по хранению данных в России).

Итак, очевидно, рассматриваемый закон может стать базой правового регулирования вопросов, связанных с разработкой и применением ИИ-технологий. В случае его принятия многие нюансы будут уточняться в других актах, в частности, в правительственных постановлениях.