Федеральное агентство по печати и массовым коммуникациям (Роспечать) предлагает создать дата-сервис на основе искусственного интеллекта для проверки достоверности новостей. Об этом говориться в письме замруководителя Роспечати Ильи Лазарева, направленном в курирующее ведомство Минкомсвязь 31 июля (копия есть у РБК).
Представитель Минкомсвязи подтвердил получение письма. РБК направил запрос в Роспечать.
Дата-сервис, или агрегатор, с помощью искусственного интеллекта сможет сопоставлять «максимальное количество фактов, относящихся к сообщению» и выявлять неверные, следует из письма Лазарева. Сервис должен учитывать авторитетность источника (например, сайты ведомств или государственных новостных агентств), время публикации, ссылки, изображения и видео. Такой механизм должен автоматизировать поиск источников или распространителей недостоверных новостей. Воспользоваться сервисом смогут как частные пользователи и организации, так и надзорные ведомства, предполагают в Роспечати.
Реализовать проект предполагается в рамках федерального проекта «Искусственный интеллект». Как следует из письма, создать такой дата-сервис нужно к 2023 году, а затраты на него оценены в 94,3 млн руб.
Минкомсвязь, по словам ее представителя, совместно с заместителями по цифровой трансформации федеральных министерств и ведомств сейчас работает над формированием паспорта федерального проекта «Искусственный интеллект». Предложение Роспечати — лишь одно из многих, которые сейчас поступают в Минкомсвязь в ответ на запрос замминистра Максима Паршина, добавил представитель министерства.
Желание создать инструмент по мониторингу «дипфейков» понятно, но его реализация потребует огромных временных и технологических ресурсов, считает Владимир Свешников, сооснователь робота Веры (это программа-рекрутер на основе искусственного интеллекта, которая занимается поиском резюме, обзванивает потенциальных сотрудников и проводит первичное видеоинтервью). По мнению собеседника РБК, самым правильным способом для создания инструмента такого мониторинга будет запуск собственной платформы по синтезу такого контента, особенно если речь заходит об аудио. Необходимый для обучения системы мониторинга дата-сет (упрощенно говоря, набор данных) должен состоять из огромного числа фейков очень высокого качества — чем больше, тем точнее будет работать классификатор этой системы, отмечает эксперт. Найти такие дата-сеты в свободном доступе очень сложно, предупреждает Свешников. Так, в 2019 году несколько ученых из разных зарубежных университетов разработали похожие нейросети для создания фейковых новостей, писал «Коммерсантъ». Осенью программа на основе анализа текстов газеты The Wall Street Journal «создала» новость, что в США якобы была создана компания по добыче полезных ископаемых на Луне. При этом отличить такие новости от настоящих практически невозможно.
Теоретически, создать платформу по распознаванию фейков в СМИ возможно, однако практически это вряд ли коренным образом изменит информационное поле, полагает руководитель направления Big Data компании «Крок» Егор Осипов. По его мнению, реализация сервиса, скорее всего, вызовет необходимость создания нового реестра «доверенных» организаторов распространения информации, с которым искусственный интеллект должен будет сопоставлять публикации в различных источниках. Однако остается вопрос целесообразности подобного реестра, его оператора, а также санкций, применяемых к обнаруженным недостоверным новостям, продолжает Осипов. Он напоминает, что даже крупнейшая в мире соцсеть Facebook не сумела создать эффективный машинный алгоритм для борьбы с недостоверными новостями.
Ярослав Шмулев, руководитель группы машинного обучения компании «Инфосистемы Джет», также подчеркивает, что сервис по распознаванию фейковых новостей «сделать возможно, технологии для этого есть, проблемой может стать только природа данных». «Например, если фейковые новости пишет человек, скорее всего, нейронная сеть не сможет отличить эти новости от всех остальных, — объясняет он. — Но если фейковые новости генерирует алгоритм, то возможно сделать сервис, который изучит свойства сгенерированных новостей и будет их распознавать с точностью выше 95%. Я видел статьи, где описывали подобные алгоритмы, классифицирующие американские новости с такой точностью».
Facebook ищет способы борьбы с фейковыми новостями с 2016 года, рассказывал вице-президент компании Адам Моссери. Тогда в меню соцсети появилась возможность пожаловаться на предположительно недостоверную новость. В этом случае сообщение передается на проверку сторонним организациям. Если проверка показывает, что информация в сообщении некорректна, оно помечается как спорное и не может распространяться как реклама.
В январе руководство Facebook объявило об ужесточении мер борьбы с размещением в социальной сети фейковых видео, целью создания которых является манипуляция общественными взглядами и введение в заблуждение.
Анастасия Скрынникова, Владислав Скобелев