Власти думают о введении в России уголовной статьи за отсутствие маркировки в контенте, созданном нейросетью
Российские власти допускают возможность введения обязательной маркировки контента, созданного с использованием технологий искусственного интеллекта, а также введения уголовной ответственности за распространение дипфейков, созданных без согласия человека. В ведомстве считают, что сначала необходимо закрепить правовые определения и механизмы контроля, прежде чем вводить новые нормы.
Маркировка ИИ-контента
Сотрудники Министерства цифрового развития, связи и массовых коммуникаций (Минцифры) России рассматривают возможность введения обязательной маркировки контента, созданного с помощью искусственного интеллекта (ИИ). пишут «Известия». Это позволит бороться с дипфейками и защищать пользователей от недостоверной информации.
Представители Института социально-экономического анализа и программ развития (ИСАПР) направили премьер-министру Михаилу Мишустину предложение ввести обязательную маркировку ИИ-контента для физических и юридических лиц. За нарушение предлагается вводить штрафы, сопоставимые с наказаниями за незаконную обработку персональных данных.
В Минцифры также рассматривают возможность уголовной ответственности за создание и распространение дипфейков без согласия людей, чьи изображения или голоса используются. Заместитель главы Минцифры Александр Шойтов сообщил «Известиям», что в России отсутствуют единые юридические определения понятий «дипфейк», «искусственный интеллект» и «синтетический контент». Поэтому первоочередной задачей считается закрепление правового режима создания и использования ИИ‑контента.
Главный архитектор ИИ-систем Национального исследовательского ядерного университета «МИФИ» Роман Душкин призвал к осторожному подходу при введении уголовной ответственности за дипфейки, считая современные законы по цифровому мошенничеству достаточными, но требующими комплексных мер.
В ведомстве отметили необходимость разработки технических средств для выявления и маркировки дипфейков. Предполагается использовать «Единую систему» АНО «Диалог Регионы» и национальный проект «Экономика данных и цифровая трансформация государства».
Будут ли злоумышленники маркировать
Эксперты сомневаются, что обязательная маркировка сможет полностью остановить злоупотребления. «Большинству пользователей непринципиально, что маршрут в навигаторе построен ИИ-алгоритмами. Но в том, что касается борьбы со злонамеренным использованием ИИ-технологий, маркировка вряд ли будет эффективной. Те, кто создает подобный вредоносный ИИ-контент, не будут соблюдать правила», — сказал директор департамента IT DCLogic Михаил Копнин.
Руководитель продуктового направления «Рейтинга Рунета» Александр Туник отметил, что нарушители правил маркировки вряд ли будут их соблюдать.
Системы различия и методы
Директор ИСАПР Андрей Шуриков отметил, что полностью отличить промаркированный ИИ‑контент от немаркированного пока невозможно, но значительную часть такого контента можно выявлять. Он подчеркнул, что в первую очередь нужно наказывать распространителей дипфейков, так как технически сложно выявить первоисточник, но распространителей — нет. Важно также обязать ИТ-платформы оперативно удалять непромаркированный вредоносный контент.
Технический архитектор «1С ПРО Консалтинг» Алексей Ваганов заявил, что для СМИ и блогеров маркировка может стать конкурентным преимуществом, особенно для тех, кто меньше использует ИИ-контент.
Директор проектов Minerva Result Денис Кучеров считает, что маркировку нужно применять в медиапространстве. По его мнению, это должна быть часть системного фактчекинга. Он добавил, что некоторые ИИ‑системы оставляют скрытую разметку в тексте, которую можно выявить при анализе кода. Кучеров добавил, что определить первоисточник дипфейка часто невозможно, поэтому ответственность должна быть на тех, кто распространяет такой контент.
Исследование по объемам
Согласно исследованию Ahrefs, около 74% новых веб‑страниц в интернете содержат материалы, созданные с помощью искусственного интеллекта.

В рамках исследования аналитики изучили 900 тыс. англоязычных веб‑страниц, созданных в апреле 2025 г. Для обнаружения сгенерированного ИИ-контента также использовала разработанный компанией Ahrefs ИТ-инструмент на основе ИИ-технологий — он получил кодовое название bot or not.
Результаты оказались следующими: 2,5% страниц были отнесены к категории «чистый ИИ-контент» т.е. весь контент на них был создан нейронными сетями; 25,8% — «человеческий» т.е. без признаков генерации; 74,2% попали в «смешанную», где присутствует как текст, написанный человеком, так и ИИ‑контент.
Как отмечают авторы исследования, такие результаты выглядят вполне ожидаемо в нынешней ситуации. Так, в материале Ahrefs говорится, что специалисты компании опросили 879 контент‑маркетологов, и 87% из них признались, что используют ИИ-контент в своей работе — чаще всего при подготовке материалов для корпоративных блогов.