За кражи и клевету с использованием дипфейк-технологии предложили сажать в тюрьму. С такой инициативой выступили в Госдуме. Законопроект, предлагающий внести поправки в Уголовный кодекс РФ, имеется в распоряжении ТАСС.
Дополнить новым признаком преступления хотят статьи «Клевета», «Мошенничество», «Кража», «Вымогательство», «Мошенничество в сфере компьютерной информации» и «Причинение имущественного ущерба путем обмана или злоупотребления доверием». Из документа следует, что за клевету, совершенную с использованием фальсифицированных фото-, видео- и аудиофайлов, имитирующих потерпевшего, будут грозить штраф в размере до 1,5 млн рублей либо лишение свободы на срок до двух лет.
За мошенничество с использованием дипфейков наказание будет жестче: штраф до 400 тыс. рублей либо шесть лет тюрьмы.
В пояснительной записке к законопроекту указывается, что развитие компьютерных технологий привело к появлению новых возможностей по созданию данных, «искусственно воссоздающих несуществующие события». Подделывали фотографии мошенники и раньше, однако сегодня набор инструментов существенно расширился, дополнившись нейросетями и искусственным интеллектом. С помощью дипфейков и цифровых масок можно создать подделки, которые неспециалисту практически невозможно отличить от реальности, подчеркивается в документе.
При этом в ряде ситуаций изображение гражданина или его голос могут выступать в качестве биометрических персональных данных и использоваться для идентификации.
Между тем в правительстве РФ отметили, что в современном отраслевом законодательстве вопросы использования технологий подмены личности не урегулированы. Из-за этого может сформироваться некорректная правоприменительная практика, в связи с чем в кабмине рекомендовали доработать документ. После учета необходимых корректировок его внесут в Госдуму.
Технология искусственного интеллекта дипфейк (от англ. deepfake) — это синтезированное аудиосообщение или видеоизображение, которое создается для введения в заблуждение, шутки или обмана одного или нескольких человек, объясняет бизнес-консультант по информационной безопасности Positive Technologies Алексей Лукацкий. Как правило, оно генерируется на базе собранного набора видео или голосовых сообщений потенциальной жертвы.
Для создания дипфейка используются алгоритмы машинного обучения — генеративно-состязательные сети (generative adversarial network), указывает руководитель R&D-лаборатории Центра технологий кибербезопасности группы компаний «Солар» Максим Бузинов.
— Фактически, это алгоритм на базе двух нейронных сетей. Генеративная формирует изображение, состязательная выявляет правильные или неправильные изображения, которые отличаются от образа человека. Соответственно, генеративная нейросеть должна сформировать дипфейк таким образом, чтобы состязательная не отличила изображение от оригинала, — отмечает он.
Доступ к нейросетям, как правило, возможен через веб-сервисы или приложения, утверждает ведущий исследователь данных «Лаборатории Касперского» Дмитрий Аникин.
— По мере развития алгоритмов результат становится всё убедительнее, и теперь его достаточно сложно отличить от подлинных материалов, — подчеркивает он.
В России дипфейки начинают набирать популярность, предупреждает Алексей Лукацкий. Их активно используют не только ради розыгрышей, но и в различных мошеннических атаках.
— Это звонки от якобы служб безопасности банков, правоохранительных органов, от различных государственных учреждений, в том числе видеозвонки с подменой настоящего и достаточно известного чиновника, — перечисляет эксперт.
Также злоумышленники могут притворятся известными личностями и звездами шоу-бизнеса. Например, для того чтобы продвигать сомнительные криптовалютные проекты.
Набирают популярность и голосовые дипфейки, отмечает Дмитрий Аникин. Их используют для мошенничества в мессенджерах.
— Аккаунт пользователя крадется, а затем его данные используются для создания голосовых, а иногда и визуальных подделок с целью обмана и кражи средств у контактов жертвы, — указывает эксперт.
Дипфейк в данном случае, по его словам, выступает расширением существующих схем социального инжиниринга, что позволяет сильнее усыпить бдительность жертвы.
— Кроме того, в последние дни стала распространяться схема с подмененными сообщениями официальных лиц, связанных с происходящим вдоль российско-украинской границы. Такого рода дипфейки, распространяемые в Telegram-каналах и соцсетях, создают большую проблему для жителей приграничных регионов и сеют панику среди населения, — рассказывает Лукацкий.
Эффективный способ для борьбы со злоумышленниками — использование защитных решений, которые не дадут пользователю перейти на фишинговый или скам-ресурс, полагает собеседник «Известий». Полезными также окажутся повышение цифровой грамотности и информированности о схемах злоумышленников.
В современных реалиях инициатива по введению уголовной ответственности за использование дипфейков представляется весьма актуальной и необходимой, убежден управляющий партнер компании «Русяев и партнеры», юрист Илья Русяев.
— Стремительное развитие технологий искусственного интеллекта и нейросетей привело к тому, что создание убедительных подделок видео- и аудиоматериалов стало доступно практически любому пользователю. Это открывает широкие возможности для злоупотреблений и совершения различных противоправных действий с использованием чужого образа или голоса, — признает эксперт.
С этим согласен и практикующий адвокат Московской палаты адвокатов, член Ассоциации юристов России Шон Бетрозов.
— Использование поддельных изображений и голосов для распространения клеветы или мошенничества не только наносит серьезный ущерб репутации жертвы, но и может привести к финансовым потерям или даже к угрозе жизни, — допускает он.
Мошенники в Telegram-каналах, используя рассылки и Chat GPT, не только с легкостью вводят в заблуждение, но и производят хищения, вымогательства, кражу имущества, согласна основатель юридической компании «Деломант Групп» Таисия Вепренцева.
— Поэтому, правовое поле, соответственно, должно идти в ногу со временем и пресекать и наказывать за деяния подобного рода, — уверена она.
Предложенные меры пресечения, по мнению Русяева, можно считать адекватными тяжести потенциального ущерба.
— Штрафы в размере до 1,5 млн рублей и лишение свободы на срок до шести лет (в зависимости от конкретной статьи УК) соответствуют серьезности таких деяний, как мошенничество, клевета или кража с использованием поддельных изображений и голоса, — считает собеседник «Известий».
Однако при избрании меры пресечения важно учитывать сумму, на которую были совершены противоправные действия, предостерегает Вепренцева. Начисляемый штраф должен быть соразмерен причиненному ущербу.
Важно понимать, что при реализации данной инициативы могут возникнуть определенные сложности, предупреждает Илья Русяев. Первая из них, как отметили в правительстве, заключается в том, что в российском законодательстве пока не определено понятие «дипфейк».
— Это может затруднить правоприменительную практику. Потребуются тщательная юридическая проработка терминологии и внесение соответствующих изменений в смежные законы, — полагает юрист.
Могут возникнуть и трудности с доказательством использования дипфейк-технологий при совершении преступления, считает Русяев.
Будет необходимо проведение сложных технических экспертиз, что увеличит нагрузку на следственные органы и суды.
Кроме того, нередко преступники, использующие дипфейки, действуют из-за рубежа, что значительно затрудняет их привлечение к ответственности, указывает Шон Бетрозов.
— Для эффективной борьбы с такими преступлениями необходимо будет укрепить международное сотрудничество и разработать новые методы расследования, — убежден адвокат.
Для преступников, находящихся за пределами РФ, уголовное наказание вряд ли будет серьезным стоп-фактором для сдерживания мошеннических операций, согласен Максим Бузинов.
— Больше внимания стоит уделять киберграмотности сотрудников компаний, которые могут стать «точкой входа» для злоумышленников, и обычных пользователей соцсетей и мессенджеров.
Особого внимания также требует старшее поколение, которое наиболее склонно доверять дипфейкам политических деятелей, — призывает он.
Это важно во многом еще и потому, что уголовное наказание может повлиять на распространение дипфейков лишь в случае, если их создатели будут обнаружены, обращает внимание Алексей Лукацкий. При этом в целом под ударом в первую очередь окажутся социально незащищенные слои населения. Например, пользователи, не умеющие распознавать дипфейки и сделавшие репост.
А чрезмерно широкое толкование новых норм, по словам Русяева, может привести к необоснованному преследованию создателей безобидного развлекательного контента или пародий.
Несмотря на возможные сложности, введение уголовной ответственности за злоупотребление дипфейк-технологиями представляется важным и своевременным шагом, уверен Илья Русяев.
— Это позволит создать правовые механизмы для борьбы с новыми видами киберпреступлений, защитить граждан от мошенничества и клеветы с использованием их образов, а также будет способствовать формированию культуры ответственного применения технологий искусственного интеллекта, — считает он.
Однако для эффективной реализации данной инициативы потребуется комплексный подход, подчеркивает юрист.
Необходимы не только введение новых статей в УК, но и разработка методик выявления дипфейков, подготовка квалифицированных специалистов в области цифровой криминалистики, а также широкое информирование общества об опасностях, связанных с технологиями подмены личности.
Для успешной реализации инициативы потребуется также значительное усиление правоприменительной практики, что позволит защитить граждан от угроз, связанных с применением дипфейков, подтверждает Шон Бетрозов.
— Только в этом случае новые правовые нормы смогут эффективно противодействовать злоупотреблениям в сфере высоких технологий и защитить права граждан в цифровую эпоху, — резюмирует Русяев.
Валентина Аверьянова