Первый законопроект внесла группа депутатов от партии ЛДПР утром 16 сентября 2024 г. Авторы инициативы предлагают внести изменения в Уголовный кодекс. За клевету, совершенную с использованием изображения, голоса (в том числе фальсифицированных или искусственно созданных) или с использованием биометрических персональных данных предлагается ввести штраф в размере до 1,5 млн руб., или в размере заработной платы, или другого дохода за период до 18 месяцев, или назначить лишение свободы до двух лет и другие меры.
За мошенничество предлагают наказывать штрафом в размере до 400 тыс. руб. или в размере зарплаты или другого дохода за период до двух лет, либо лишением свободы на срок до шести лет с возможным ограничением свободы на срок до полутора лет и другие меры.
В отзыве на законопроект заместитель председателя Правительства РФ - руководитель аппарата правительства Дмитрий Григоренко указал, что законопроект требует существенной доработки.
Второй законопроект депутаты внесли вечером того же дня. Среди авторов - сенатор Андрей Клишас, зампред Совета по развитию цифровой экономики при Совете Федерации Артем Шейкин и другие. Они предлагают внести изменения в Гражданский кодекс и дополнить его статьей 152.3 ("Охрана голоса гражданина"). Законопроект предполагает, что запись голоса человека можно использовать только с его согласия. То же касается и записей, в которой содержится воссозданный с помощью специальных технологий голос гражданина - речь идет о технологиях синтеза речи, дипфейках. В пояснительной записке сказано, что законопроект разработан при участии Альянса в сфере искусственного интеллекта (ИИ) и Национальной федерации музыкальной индустрии.
"При недобросовестном использовании технологий синтеза речи возникают неблагоприятные правовые последствия для граждан. В частности, искусственный интеллект, обучившись на аудиозаписях реального голоса, может в дальнейшем его имитировать, и "производные" записи могут быть использованы способом, неприемлемым для человека - обладателя голоса, поскольку получение его согласия прямо не предусмотрено законодательством", - сказано в пояснительной записке.
В случае смерти голос человека можно использовать только с согласия детей и супруга или родителей. Однако под регулирование попадает не любая запись: если она была записана на публичных мероприятиях, за плату или публикуется в государственных и иных интересах, согласие не нужно.
При нарушении материальные носители, содержащие запись голоса, на основании судебного решения должны быть изъяты из оборота и уничтожены. Если голос распространяется в интернете, можно потребовать удалить запись и запретить ее использование в будущем.
"Количество дипфейков растет во всем мире, а технологии ИИ достигли такого уровня, что уже практически невозможно отличить поддельные голос и внешность людей от настоящих", - считает коммерческий директор группы компаний X-Com Сергей Косецкий. "Наибольшую проблему представляют голосовые дипфейки, потому что на голос человека не действует право собственности ни в одной стране мира, если его имя не зарегистрировано как коммерческий бренд. К сожалению, этим не преминул воспользоваться криминал: статистика МВД неумолимо свидетельствует о росте количества противоправных инцидентов", - сказал Сергей Косецкий.
Опрошенные ComNews эксперты считают, что в законодательстве необходимо закрепить определение дипфейка, так как в настоящий момент не ясно, что к нему относится, а что - нет. Специалист по информационной безопасности AKTIV.CONSULTING Анастасия Калиничева добавляет, что необходимо также законодательно определить взаимосвязь сущностей дипфейков и биометрических персональных данных.
На Петербургском международном юридическом форуме 2024 зампред комитета Госдумы по информационной политике Антон Горелкин сообщил, что в работе над законодательством наиболее эффективным будет сосредоточиться на ответственности за недобросовестное использование технологии - например, сделать дипфейки отягчающем обстоятельством. Также он считает важным не ограничиваться только регулированием, но и сосредоточиться на создании технологий по распознаванию дипфейков. Эксперты в сфере информационной безопасности добавляют, что эффективным будет информирование людей о новых видах мошенничества.
По словам Сергея Косецкого, все еще нет действенных технологий для обнаружения дипфейков. При этом к моделям ИИ, позволяющим легко создавать дипфейки, доступ имеет большое количество людей, объяснила специалист AKTIV.CONSULTING Анастасия Калиничева. "Раньше к подобным сервисам необходимо было приобретать платный доступ, теперь существует множество бесплатных вариантов", - сказала она.
Также во время обсуждения регулирования технологии поднимается вопрос о маркировке контента, созданного с помощью ИИ. Сергей Косецкий отметил, что мошенники вряд ли будут использовать маркировку, а ужесточение наказания могут возыметь эффект. Однако маркировка имеет смысл для добросовестных создателей контента.
Ведущий юрисконсульт практики интеллектуальной собственности юридической компании "ЭБР" и эксперт Moscow Digital School Спартак Хулхачиев отметил, что создавать регулирование сложно, так как юридическая сфера не всегда готова ответить актуальным и продуманным до мелочей регулированием на развитие новых технологий.
Анна Швецова