Горелкин призвал регулировать использование дипфейков в России
Необходимо разработать правила, запрещающие подмену голоса и внешности в видеороликах, считает зампредседателя Комитета Госдумы по информационной политике, информационным технологиям и связи, депутат фракции «Единая Россия» Антон Горелкин.
Парламентарий рассказал, что в Китае разработали правила регулирования так называемых дипфейков – контента, созданного при помощи искусственного интеллекта, который используется для наложения изображений и звука и видео на исходные ролики. По китайским правилам теперь подмена в видеороликах голоса и внешности будет почти полностью запрещена.
Так, по его словам, предусматривается запрет на дипфейки, которые могут навредить общественному порядку, ущемить права личности, распространить ложные новости или проиллюстрировать сексуальную активность, при этом легальное использование дипфейков возможно только при наличии специальной маркировки.
Я считаю, нам тоже следует задуматься о подобном регулировании. Дипфейки уже активно используются мошенниками – прошлой осенью по соцсетям гулял ролик с фальшивым видеообращением Олега Тинькова, которое вело на фишинговый сайт. Известны случаи, когда дипфейки использовались для шантажа и когда злоумышленники использовали эту технологию для обмана собеседника во время видеозвонка,
Он не исключил, что в будущем дипфейки могут быть нацелены и на массовую аудиторию: для распространения фейковой информации или манипуляций во время предвыборных кампаний.
Планирую поднять этот вопрос на площадке Экспертного совета по законотворческой деятельности "Единой России", где возглавляю группу по анализу проектов в области связи и цифрового развития,