Заклеймить для надзора: в России могут ввести маркировку ИИ-контента

Минцифры допустило, что в России придут к обязательной маркировке контента, созданного с помощью искусственного интеллекта, как и к введению уголовной ответственности за распространение дипфейков, созданных без согласия человека. Однако это следующие шаги, пока Минцифры сосредоточено на создании понятийного аппарата в этой сфере. Возможно ли введение маркировки ИИ-контента и насколько эффективной окажется эта мера, разбирались «Известия».

Как Минцифры собирается регулировать ИИ-контент

В конце мая Институт социально-экономического анализа и программ развития (ИСАПР) направил премьер-министру Михаилу Мишустину предложение ввести для физических и юридических лиц обязательную маркировку контента, созданного с помощью искусственного интеллекта. Таким образом, по расчетам специалистов института, можно будет бороться с дипфейками и защищать пользователей от недостоверной информации. За нарушение этих требований предлагалось ввести штрафы, аналогичные наказаниям за незаконную обработку персональных данных. Напомним, в конце мая вступил в силу закон, по которому штрафы за утечку и незаконную обработку личной информации граждан значительно выросли — в частности, для компаний, допустивших нарушение повторно, они стали оборотными, до 3% выручки.

На днях Институт социально-экономического анализа и программ развития получил ответ от Минцифры, с которым ознакомились «Известия». 

В ответе за подписью замглавы министерства Александра Шойтова говорится, что сейчас первоочередной задачей видится закрепление в законодательстве «правового режима легитимного создания, распространения и использования» ИИ-контента. Проблемой остается отсутствие единого понятийного аппарата: юридических терминов «дипфейк», «искусственный интеллект» и «синтетический контент» пока не существует.

Но наряду с этим, подчеркивается в письме, возникнет необходимость проработки целесообразности внедрения маркировки цифрового контента, а также механизма контроля за ним для противодействия мошенничеству. Для этого в том числе необходимо будет определить уполномоченные органы и круг лиц, которых обяжут маркировать цифровой контент. Кроме того, нужно выработать технические меры для выявления и маркирования дипфейков, в том числе в рамках «Единой системы» АНО «Диалог Регионы» и национального проекта «Экономика данных и цифровая трансформация государства», подчеркнули в Минцифры.

«В настоящее время Минцифры России совместно с Роскомнадзором и заинтересованными федеральными органами исполнительной власти ведется разработка предложений об установлении требований по маркированию контента, легально производимого и распространяемого посредством информационных технологий, в том числе созданного с использованием технологий искусственного интеллекта и цифровой подмены фото- и видеоизображений человека», — говорится в ответе Александра Шойтова.

Он указывает, что дополнительно может быть рассмотрен и вопрос введения уголовно-правовой нормы, которая предусматривает ответственность за создание, распространение либо использование «синтетического контента» с применением технологий ИИ, но без согласия человека, изображение или голос которого использовали. Предусматривается, что уголовное наказание может наступить в случае, если дипфейки причинили вред правам и законным интересам человека.

«Известия» направили запрос в Минцифры и Роскомнадзор. В Роскомнадзоре перенаправили вопросы в Минцифры, а в министерстве изданию ответили, что сейчас совместно с профильными ведомствами активно обсуждается маркировка легально производимого материала, созданного с применением ИИ, а также уголовная ответственность за ИИ-контент без согласия изображенных или озвученных лиц.

Реально ли уследить за ИИ-мошенниками

Директор Института социально-экономического анализа и программ развития Андрей Шуриков рассказал «Известиям», что гарантированного способа отличить промаркированный ИИ-контент от немаркированного пока нет, но механизмы уже существуют: можно выявлять значительную часть такого контента. Директор департамента IT DCLogic Михаил Копнин также добавляет, что есть сервисы, которые умеют проверять видео и изображения на предмет использования ИИ.

Однако он подчеркивает, что нет смысла маркировать весь контент, созданный с помощью нейросетей.

— Например, большинству пользователей непринципиально, что маршрут в навигаторе построен алгоритмами ИИ, — заметил собеседник «Известий». — Но в том, что касается борьбы со злонамеренным использованием ИИ, маркировка вряд ли будет эффективной. Те, кто создает подобный вредоносный контент, не будут соблюдать правила.

Об этом же говорит и руководитель продуктового направления «Рейтинга Рунета» Александр Туник: если кто-то и будет соблюдать закон, то точно не мошенники.

Директор проектов Minerva Result в компании Minervasoft Денис Кучеров считает, что механизмы маркировки точно нужно применять в медиапространстве. Однако важно, чтобы это была не просто маркировка ИИ-материалов, а системный фактчекинг. 

Он добавил, что технически реализуема и маркировка использования нейросетевых технологий и в текстовом контенте.

— Некоторые ИИ-системы оставляют скрытую разметку, например неразрывные пробелы, — сказал он «Известиям». — Визуально их не видно, но при анализе кода становится понятно, что текст сгенерирован искусственным интеллектом.

Андрей Шуриков считает, что маркировка ИИ-текстов должна стать следующим шагом — особенно в СМИ.

Технический архитектор «1С ПРО Консалтинг» Алексей Ваганов считает, что для СМИ и блогеров маркировка может даже стать «конкурентным преимуществом», особенно для тех, кто меньше использует искусственный интеллект.

Кого накажут за дипфейки

Андрей Шуриков уверен, что внедрение законодательных норм по обязательной маркировке повысит не только уровень отслеживаемости вредоносного контента, но и ответственность людей, которые используют ИИ. Все-таки технически отследить первоисточник дипфейка сложно, но распространителей выявлять можно без труда, в том числе через анализ цифровых следов.

— Поэтому в первую очередь нужно фокусироваться на наказании именно распространителей, включая тех, кто репостит фейковый контент, особенно если это делается умышленно, — сказал он. — Помимо этого важно также развивать технологии верификации контента и обязывать платформы оперативно удалять непромаркированные дипфейки.

Денис Кучеров замечает, что даже первоисточник распространения дипфейка очень часто оперативно определить невозможно. Поэтому, подчеркивает он, акцент должен быть на «объективном распространении». А это уже ответственность каждого пользователя.

— Важно не слепо пересылать кликбейтные заголовки и новости, а анализировать контент: насколько он правдоподобен, откуда взят, — сказал он.

Главный архитектор систем искусственного интеллекта исследовательского центра ИИ по направлению «Транспорт и логистика» НИЯУ МИФИ Роман Душкин предупреждает, что к введению уголовной ответственности за распространение непромаркированных дипфейков нужно подходить очень аккуратно, тщательно изучив, как используется контент.

— Да и с маркировкой есть опасность, что добропорядочным гражданам, которые ничего не нарушают, мы можем сделать жизнь хуже, а злоумышленники продолжат делать то, что делали, — сказал он. — Мошенники, которые уже вошли в эту область деятельности и принимают на себя все эти риски, скорее всего, из-за закона об уголовной ответственности не остановятся.

Роман Душкин полагает, что современная правовая система уже имеет все необходимые нормы для работы в области цифрового мошенничества и новые законодательные новеллы его не остановят. Нужны комплексные меры, подчеркивает эксперт.

Сергей Гурьянов

Тематики: Регулирование

Ключевые слова: регулирование, Минцифры, Искусственный интеллект