Защитим себя сами!

Не верьте тому, что видите

Грядут еще более «веселые» времена в плане пропаганды. Телесюжетам с прямой речью больше нельзя доверять. На данный момент на Западе финансируется сразу несколько исследовательских групп, которые работают над захватом и синтезом различных визуальных и аудио элементов человеческого поведения. Программное обеспечение, разработанное в Стэнфордском университете, так называемая технология Face2Face способнf манипулировать видеозаписями таким образом, что общественный деятель на экране в режиме реального времени повторяет то, что говорит другой человек за кадром. Face2Face захватывает выражения лица этого человека, а затем переносит эти движения непосредственно на лицо персонажа в оригинальном видео. Исследовательская группа продемонстрировала свою технологию путём видеороликов с «участием» Джорджа Буша, Владимира Путина и Дональда Трампа. Под катом можно посмотреть.

Не верьте тому, что видите

Face2Face — пока что забавная игрушка для создания мемов и развлекательных ток-шоу. Однако, с добавлением синтезированного голоса, технология становится более убедительной — цифровая марионетка не только выглядит как политик, но она также может говорить как политик. И это уже инструмент пропаганды. Для чего, собственно и создавался.

Исследовательская группа в Университете штата Алабама в Бирмингеме работает над симуляцией голоса. Имея всего 3-5 минут записи голоса жертвы — записанном в прямом эфире или вырезанном из видео на YouTube — злоумышленник может создать синтезированный голос, который может обмануть людей и биометрические системы безопасности, используемые некоторыми банками и смартфонами. Затем злоумышленник может говорить в микрофон, и программное обеспечение преобразует его слова в голос жертвы.

Канадский стартап Lyrebird разработал аналогичные возможности, которые, по его словам, могут быть использованы для превращения текста в аудиокниги, которые «прочтут» известные люди или персонажи видеоигр. Хотя данная технология может приносить пользу, голосовой морфинг может сочетаться с технологией визуального морфинга для создания убедительных поддельных выступлений общественных деятелей.

Технологии пока не идеальны. Мимика в видео может показаться немного искажённой или неестественной, а голоса могут звучать немного роботизированно. Но со временем они совершенно точно смогут точно копировать речь или внешний вид человека — до такой степени, что людям может быть очень сложно обнаружить подделку.

Учитывая уменьшение доверия к средствам массовой информации и необузданное распространение фальсификаций через социальные сети, для новостных организаций станет ещё более важным изучать контент, который выглядит и звучит как реальная запись. Теперь «реальные» видео будут снабжаться особыми знаками, позволяющими установить время и место её создания, присутствовавших людей и даже соответствие погодных условий. Люди также должны обращать внимание на освещение и тени в видео, независимо от того, являются ли все элементы, присутствующие в кадре, правильными, и отлично ли синхронизируется звук.

 

Поддельный контент может быть отсеян новостными агентствами, но в качестве любительской записи в социальных сетях он может разойтись очень широко и вызвать общественный, политический или дипломатический скандал. Представьте, что на такой записи Трамп объявляет войну Северной Корее, например. А Северная Корея в ответ запускает ядерные ракеты по базам США в Японии в Южной Корее…

#Метки: , ,