Российских разработчиков могут обязать раскрывать данные, на которых учился ИИ
В России обсуждается инициатива обязать разработчиков отечественных моделей искусственного интеллекта раскрывать сведения о наборах данных, на которых обучались и тестировались нейронные сети. Предполагается, что ИТ-компании должны будут указывать название набора данных, дату его создания, назначение, формат, объем и происхождение.
Обязательное раскрытие данных
Разработчиков нейронных сетей в России могут обязать раскрывать исходные данные, пишут «Ведомости». Это может вызвать массовую дискуссию о правомерности использования таких материалов без разрешения их владельцев, в том числе издателей.
ИТ-разработчиков отечественных моделей искусственного интеллекта (ИИ) могут обязать раскрывать сведения о наборах данных, на которых обучалась или тестировалась их нейронные сеть. Такая инициатива в феврале 2026 г. обсуждается отраслевыми ассоциациями, компаниями в области ИИ-технологий и профильным регулятором в рамках проработки законопроекта по ИИ, рассказали «Ведомостям» два участника обсуждения из различных компаний.
Предполагается, что ИТ-компании должны будут указывать название набора данных, дату его создания, назначение, формат, объем и происхождение. Рассматриваются варианты создания отдельного реестра отечественного ИИ либо реестра наборов данных. Где именно будет аккумулироваться такая информация, пока не определено.
В июне 2025 г. заместитель министра цифрового развития Александр Шойтов сообщил о том, что Министерстве цифрового развития, связи и массовых коммуникаций (Минцифры) России займется разработкой реестра доверенного ИИ для использования в объектах критической инфраструктуры, писал CNews. Судьба проекта в феврале 2026 г. не известна. Постановлением Правительства России от декабря 2025 г. Минцифры внесло требования к программно-аппаратным комплексам для ИИ для попадания в реестр отечественного программного обеспечения (ПО). Иных реестров для ИИ-технологий в России пока нет.
В Минцифры России подтвердили, что в текущей версии рамочного законопроекта требований о раскрытии обучающих данных нет. Документ пока носит общий характер и определяет базовые подходы к регулированию отрасли.
Правительство России прорабатывает законопроект по регулированию ИИ, говорил журналистам 6 февраля 2026 г. представитель аппарата вице-премьера России Дмитрия Григоренко. Правительство России также прорабатывает критерии отечественности для нейронных сетей, вопросы авторского права, маркировки ИИ-контента, ответственности за нарушения и предотвращения использования ИИ в преступных целях. Рассматривается возможность признания применения ИИ отягчающим обстоятельством при совершении правонарушений.
Формальное перечисление информации
Представители российской ИТ-отрасли указывают, что полное описание массивов данных может потребовать значительных ресурсов и стать формальностью без реальной аналитической ценности. Кроме того, раскрытие информации может затронуть коммерческие интересы разработчиков и замедлить вывод новых ИТ-решений на рынок.
Представитель Альянса в ИИ-сфере (входят Сбербанк, «Яндекс», VK, «Т-Банк», МТС и другие компании) уточнил, что полное и точное описание подобного массива данных в реестровом формате либо потребует ресурсов, несоразмерных результату, либо сведется к формальному перечислению без аналитической ценности.
В то же время сторонники инициативы считают, что прозрачность повысит доверие к ИИ-моделям, позволит независимую оценку качества и дисциплинирует работу с данными. Это также может способствовать формированию легального рынка данных и снижению рисков использования материалов без разрешения правообладателей.
Раскрытие информации о наборах данных, на которых обучались нейронные сети, будет способствовать формированию коммерческого рынка данных. Сейчас ИТ-разработчики используют открытые и все доступные им данные для обучения своих ИИ-моделей, как правило, бесплатно и без разрешения их владельцев, сетует заведующий ИИ-кафедрой Финансового университета Михаил Коротеев. Такая ситуация стимулирует развитие ИИ, но, по сути, остается серой зоной в регуляции ИИ, что порождает конфликты интересов и создает риски утечек чувствительных и персональных данных, использования личного образа и копирования авторского почерка, перечисляет он.
Не все данные для обучения ИИ имеют одинаковую стоимость, делает оговорку руководитель ИИ-института ИТМО Александр Бухановский. В интернете достаточно много данных со свободным доступом — например, новостные ленты или данные, которые уже стали народным достоянием, такие как литературные или художественные произведения, перечисляет он. Поэтому логично, что для ИИ-систем все эти данные могут использоваться бесплатно, так как это будет способствовать их большему распространению, говорит эксперт.
С точки зрения расценок можно опираться на существующие рынки, сказал сооснователь Promobot Олег Кивокурцев. Например, аналитические исследования могут стоить десятки тысяч долларов, банки диссертаций — сотни тысяч рублей, а литературные произведения — сотни рублей, говорит он.
Решение еще не принято
Эксперты отмечают, что при введении обязательного раскрытия потребуется разработка гибких лицензионных механизмов. В международной практике подобные требования уже применяются, однако их реализация связана с юридическими и техническими сложностями.
Если регулирование будет распространяться на модели, вводимые в оборот или используемые в публичных ИТ-сервисах на территории России, формально требования могут затронуть не только российских игроков вроде «Яндекса» и Сбербанка, но и иностранных разработчиков, включая OpenAI, Microsoft, DeepSeek и Perplexity AI, которые вряд ли станут их соблюдать, рассуждает заместитель исполнительного директора Центра компетенций Национальной технологической инициативы по большим данным Московского государственного университета им. М.В.Ломоносова (ЦК НТИ МГУ) Гарник Арутюнян.
25 февраля 2026 г. окончательного решения по инициативе не принято. Обсуждение продолжается на площадках профильных ассоциаций и ведомств.
Существующие регулирование
В феврале 2026 г. в большинстве нормативных правовых актов в России относительно ИИ носит лишь стимулирующий характер, при этом есть точечные ограничения и механизмы саморегулирования. Например, в 2020 г. был принят закон «Об экспериментальных правовых режимах в сфере цифровых инноваций» (ЭПР), который позволяет делать правовые исключения для апробирования новых технологий. Уже к концу 2024 г. запущено 16 экспериментальных правовых режимов. В рамках ЭПР были определены случаи обязательного страхования за вред, причиненный применением ИИ-технологий, перечисляют авторы документа. Помимо ограничений, утвержденных законом об ЭПР, правила внедрения и использования ИИ существующим российским законодательством не закреплены.
С 2025 г. действует национальный проект «Экономика данных», частью которого является федеральный проект «ИИ», о чем информировал CNews. В рамках него государство направляет гранты на поддержку проектов в ИИ-сфере и реализует работу научно-исследовательских центров. В том же году Центральный Банк (Центробанк) России представил кодекс этики в сфере разработки и применения ИИ-технологий на финансовом рынке. В нем заложены пять принципов: человекоцентричность, справедливость, прозрачность, безопасность и ответственное управление рисками. Сам по себе кодекс носит рекомендательный характер для ИТ-разработчиков.





