Приложение Т—Ж
В нем читать удобнее

Минцифры разрабо­тало законопроект о регулировании ИИ​ в России и «суверен­ных моделях». Главное

Обсудить
Минцифры разрабо­тало законопроект о регулировании ИИ​ в России и «суверен­ных моделях». Главное
Аватар автора

Даша Лейзаренко

разобралась в проекте

Страница автора

Минцифры опубликовало законопроект, который закрепляет правила разработки и использования ИИ в России.

Документ определяет, кто несет ответственность за результаты генерации, какие модели допускаются в госсистемы, как маркировать сгенерированный контент и на каких условиях можно обучать нейросети на чужих данных. Нормы проекта распространяются на всех граждан, юрлиц и ИП, находящихся на территории РФ. При этом он не касается применения ИИ для обороны и безопасности государства, охраны правопорядка, предотвращения ЧС.

Это рамочный документ — многие детали должны уточнить подзаконные акты правительства, которых пока нет. До 15 апреля включительно будет идти общественное обсуждение проекта, затем его должны внести в Госдуму. Если законопроект примут, он вступит в силу с 1 сентября 2027 года, при этом некоторые его положения могут измениться.

Расскажу главное о законопроекте в его первой версии.

УЧЕБНИК Т—Ж
Как нейросети могут изменить жизнь

От рецепта ужина до изучения языков — собрали десятки рабочих и бытовых сценариев в бесплатном курсе

Баннер

Какие требования предъявят к ИИ

Введут понятие суверенных и национальных ИИ-моделей. Это модели, которые разработаны и обучены на территории России гражданами РФ и российскими организациями на датасетах, собранных в России.

Правительство может определить, в каких случаях можно пользоваться только суверенным и национальными ИИ. А для их развития обещают «благоприятные условия».

Создадут реестр доверенных ИИ-моделей. Нейросети из этого перечня можно будет использовать в государственных информационных системах и на объектах критической информационной инфраструктуры. Чтобы получить такой статус, модель должна пройти проверку безопасности у ФСБ и ФСТЭК  , обрабатывать данные только на территории РФ, подтверждать качество по отраслевым стандартам. Суверенная или национальная модель может стать доверенной, если выполнит требования по безопасности.

Разработчики при создании и внедрении ИИ должны учитывать традиционные ценности: жизнь, достоинство, права и свободы человека, патриотизм, гражданственность, служение Отечеству и ответственность за его судьбу, высокие нравственные идеалы, крепкую семью и другие. Правительство определяет уполномоченный орган, который будет формировать критерии соответствия ИИ этим ценностям.

Кто будет нести ответственность за результаты генерации ИИ

Законопроект выделяет четыре роли с разными обязанностями:

  1. Разработчик модели — тот, кто создает, обучает и тестирует ИИ. Обязан документировать архитектуру и ограничения модели, моделировать потенциальные риски, исключать дискриминацию, предупреждать о невозможности использования в запрещенных целях.
  2. Оператор системы — тот, кто эксплуатирует ИИ. Он обязан тестировать систему на возможность противоправного использования и предупреждать пользователей об ограничениях. Если выявлена угроза жизни и здоровью человека или безопасности государства, оператор должен остановить работу сервиса с ИИ.
  3. Владелец сервиса — тот, кто предоставляет доступ к ИИ пользователям. Обязан прописать в правилах запрет на противоправное использование, информировать пользователя о том, что он общается с ИИ, внедрить механизмы, ограничивающие генерацию противозаконного контента. Если суточная аудитория сервиса в России больше 500 000 пользователей, владелец должен выполнять требования «закона Яровой» — хранить переписку пользователей и предоставлять ее по требованию правоохранительных органов.
  4. Пользователь обязан соблюдать правила сервиса, не использовать ИИ в противоправных целях и не обходить встроенные механизмы безопасности.

Разработчик, оператор и владелец несут ответственность за результат работы ИИ, если «заведомо знали или должны были знать» о возможности вредоносного результата. Пользователь отвечает за умышленное нарушение закона при использовании ИИ. Виновные несут административную и уголовную ответственность. Какую именно — скорее всего, пропишут в отдельном законопроекте.

Разработчик, оператор и владелец освобождаются от ответственности, если приняли «исчерпывающие меры» для предотвращения противоправного использования. Пользователь и оператор не отвечают при непреодолимой силе, умысле пострадавшего, скрытых дефектах системы или действиях третьих лиц. Если оператор возместил вред, а проблема была в модели, он может предъявить требование к разработчику.

Какие права будут у граждан

Если бизнес оказывает услуги с помощью ИИ, без участия человека в принятии решений, он должен уведомить клиента об этом. Граждане могут отказаться от обслуживания с помощью ИИ и получить услугу в обычной форме. Но только в некоторых случаях — их определит правительство.

Если госорган, орган региональной власти, должностное лицо или организация с госучастием приняли решение с помощью ИИ, гражданин может обжаловать его в досудебном порядке. Он также имеет право на компенсацию вреда, причиненного неправомерным использованием ИИ.

Как будут регулировать ИИ-контент

ИИ-контент признают объектом авторского права. Из проекта следует, что результаты генерации ИИ охраняются по ГК РФ, но только если это оригинальные творения, которые соответствуют критериям охраноспособности. Причем «независимо от того, были ли они созданы человеком или автоматизированной системой».

Владелец сервиса прописывает в пользовательском соглашении, кому принадлежат права на сгенерированный контент. Он также обязан предупредить пользователя о правилах и ограничениях использования результатов генерации и о рисках воспроизведения чужой интеллектуальной собственности.

Пользователю запрещено использовать результаты генерации ИИ способами, которые нарушают авторские права или условия договора с сервисом.

Сбор данных для обучения моделей легализуют. Проект разрешает разработчикам собирать датасеты из открытых источников для обучения нейросетей, даже если эти данные защищены авторским правом. Это могут быть статьи, книги, фильмы, изображения и другие объекты.

Но есть обязательное условие: либо разработчик получил данные законно, либо они находятся в открытом доступе.

Введут обязательную маркировку ИИ-контента. Владелец ИИ-сервиса обязан будет добавлять предупреждение о том, что контент создан с помощью нейросетей. Маркировка должна быть человеко- и машиночитаемой.

Из генерированного контента нельзя удалять маркировку, за это предусмотрена административная ответственность.

Владельцы социальных сетей с суточной аудиторией более 100 000 пользователей обязаны проверять наличие маркировки. Если ее нет, они должны либо добавить ее, либо удалить контент.

Мы постим кружочки, красивые карточки и новости о технологиях и поп-культуре в нашем телеграм-канале. Подписывайтесь, там классно: @t_technocult

Даша ЛейзаренкоКак считаете, нужно ли​ законодательное регулирование ИИ? Поделитесь мнением:
    Вот что еще мы писали по этой теме
    Сообщество