Разработчиков отечественного ИИ могут обязать раскрывать данные для обучения нейросетей

3 мин
Разработчиков отечественного ИИ могут обязать раскрывать данные для обучения нейросетей

В России обсуждают инициативу, которая может обязать разработчиков отечественных моделей искусственного интеллекта раскрывать сведения о наборах данных, использованных для обучения и тестирования нейросетей. Предложение рассматривают отраслевые ассоциации, ИИ‑компании и профильный регулятор в рамках подготовки законопроекта об ИИ, пишут «Ведомости» со ссылкой на источники, знакомые с обсуждением.

Согласно одной из рабочих версий документа, разрабатываемого Минцифры России, разработчики должны будут указывать название датасета, дату его создания, назначение, формат, объём и происхождение. Пока не решено, где будет агрегироваться эта данные: обсуждается создание отдельного реестра отечественного ИИ или реестра наборов данных.

Ранее ведомство уже заявляло о планах создать реестр доверенного ИИ для объектов критической инфраструктуры. ОТем не менее на сегодняшний день специализированных реестров ИИ‑технологий в России нет. В текущей версии законопроекта требования о раскрытии данных отсутствуют — документ носит рамочный характер.

Правительство разрабатывает законопроект, который определит критерии «российской» нейросети, правила маркировки ИИ-контента, вопросы авторского права и ответственности за использование технологии. Предполагается гибкий решение: в частности, использование ИИ при совершении преступлений могут признать отягчающим обстоятельством.

Одновременно участники обсуждения отмечают сложности с формулировками — пока не определено, что считать «национальным» и «доверенным» ИИ и какие критерии должны применяться.

В Альянсе в сфере искусственного интеллекта, куда входят крупнейшие технологические компании, отмечают, что полное описание массивов данных в реестровом формате может потребовать несоразмерных ресурсов или свестись к формальному перечислению без практической ценности. Одновременно отрасль готова к обсуждению ответственного использования данных.

Эксперты видят в инициативе как преимущества, так и риски. Руководитель направления ИИ Cloud.ru Дмитрий Юдин считает, что раскрытие данных повысит доверие к моделям и сформирует единые стандарты отчётности. В то же время это создаст дополнительную нагрузку на разработчиков, особенно при частых обновлениях моделей, и может замедлить внедрение сервисов.

По мнению заместителя исполнительного директора Центра компетенций НТИ по большим данным МГУ имени М. В. Ломоносова Гарника Арутюняна, требования могут затронуть не только российских игроков, но и зарубежные компании, такие как OpenAI и Microsoft, которые вряд ли станут их соблюдать.

Эксперты считают, что раскрытие источников данных может способствовать формированию коммерческого рынка данных. Сейчас авторы часто используют открытые источники бесплатно и без разрешения владельцев, что остаётся «серой зоной» регулирования и создаёт риски утечек персональных данных и нарушений авторских прав.

В качестве примера зарубежной практики приводится европейский AI Act, обязывающий раскрывать источники данных. Крупные поставщики контента, включая Wikimedia Foundation и Reddit, уже заключают платные соглашения с разработчиками ИИ.

Случаи конфликтов вокруг использования данных уже происходили: в 2023 году The New York Times подала иск против Microsoft и OpenAI, обвинив их в незаконном использовании материалов для обучения моделей. Эксперты не исключают, что при принятии новых требований подобные судебные прецеденты могут появиться и в России.

С точки зрения участников рынка, ключевой вопрос — готовность компаний раскрывать информацию о данных без ущерба для конкурентных преимуществ. Для крупных моделей с миллионами источников это может оказаться технически сложным и замедлить вывод решений на рынок.

В отрасли сходятся во мнении, что обсуждаемая проект своевременна, однако её реализация потребует баланса между прозрачностью, защитой интеллектуальной собственности и темпами развития технологий.

Читают сейчас

После редизайна SharePoint работает на основе ИИ от Anthropic

5 марта 2026 г.

После редизайна SharePoint работает на основе ИИ от Anthropic

SharePoint используется в корпоративных средах для управления контентом и файлами, размещёнными в частных сетях организаций, поэтому каждое апдейт влияет на миллионы клиентов по всему миру. Корпорация

ИИ не может контролировать свои мысли — и это хорошая новость: OpenAI протестировали 13 моделей

5 марта 2026 г.

ИИ не может контролировать свои мысли — и это хорошая новость: OpenAI протестировали 13 моделей

OpenAI опубликовали исследование контролируемости цепочки рассуждений (chain of thought, CoT) у reasoning-моделей — и пришли к парадоксальному выводу: все 13 протестированных моделей плохо справляются

OpenAI представила новую схема GPT-5.4

5 марта 2026 г.

OpenAI представила новую схема GPT-5.4

Компания продолжает развивать линейку языковых моделей, делая упор на более сложные задачи, программирование и работу с инструментами. Новая версия ориентирована не только на диалог, но и на выполнени

OpenAI выпустила GPT-5.4 — свою новую флагманскую схема

5 марта 2026 г.

OpenAI выпустила GPT-5.4 — свою новую флагманскую схема

Главное модификация: схема объединила возможности кодинга из GPT-5.3-Codex с улучшенным рассуждением из GPT-5.2. Раньше это были отдельные модели под разные задачи, теперь одна. На бенчмарке GDPval, г

Вышла GPT-5.4 — первая схема OpenAI, которая управляет компьютером

5 марта 2026 г.

Вышла GPT-5.4 — первая схема OpenAI, которая управляет компьютером

OpenAI выпустила GPT-5.4 — новую flagship-модель, которая заменяет сразу две предшественницы: GPT-5.2 (универсальную) и GPT-5.3-Codex (кодерскую). Контекстное окно выросло до 1,05 млн токенов — в 2,5