IT-эксперт Зыков: мошенникам достаточно одного фото для дипфейк-видео

- Сгенерировано с помощью ИИ
«Один ИИ может поместить изображение на любой фон и корректно смоделировать освещение, чтобы человек выглядел естественно в новом пространстве. Затем используется другой ИИ для анимации лица», — поделился он.
По его словам, существуют сервисы, где достаточно записать короткое видео-донор: человек в кадре двигает головой, руками, открывает рот, меняет мимику.
«После этого система накладывает эти движения на фотографию жертвы и та буквально оживает. Весь процесс занимает считаные минуты. Для большинства мошеннических сценариев этого уже достаточно», — пояснил он.
Например, если в мессенджере пишет «директор» или «руководитель», подписанный своим именем, люди часто верят сообщению, даже не задумываясь о проверке, продолжил эксперт.
«Многие просто даже не помнят точный тембр и манеру речи начальника. Если же нужен и голос — это тоже давно не проблема. Достаточно 20—30 секунд записи. Их можно взять из публичных выступлений, интервью или даже позвонить этому человеку и получить запись в ходе короткого телефонного разговора», — предупредил он.
Современные сервисы клонирования голоса делают результат не идеальным, но вполне убедительным для обмана, разъяснил Зыков.
Единственный надёжный способ проверки в такой ситуации — перезвонить человеку или его помощникам по заранее известному номеру телефона. Мы живём в мире постправды. Голос и видео больше не являются доказательствами», — подытожил он.
Ранее россиян предупредили, что делать в случае взлома аккаунта в соцсетях.