Posted 5 июля 2021, 21:01
Published 5 июля 2021, 21:01
Modified 30 ноября, 06:57
Updated 30 ноября, 06:57
Каких только пересудов не было после недавно прошедшей «прямой линии» с Владимиром Путиным. Но, пожалуй, о главном злые языки так ничего и не сказали. Между тем отныне и впредь в этой масштабной телепостановке будет важно не смысловое наполнение, а форма подачи пропагандистского материала, или, что точнее, визуализация образа российского лидера. В общем, контент начнет преобладать над содержанием, коего, впрочем, в этом ритуальном действе уже давно нет.
И хотя Владимир Путин может править государством до 2036 года, нельзя забывать, что за такой долгий срок всякое может случиться. Причем, не исключено, даже раньше, чем многие предполагают. А в России ведь, как давно известно, «коней на переправе не меняют».
И дело тут вовсе не в банальной конспирологии, а в практически безграничных возможностях некоторых современных технологий. В данном случае речь пойдет о так называемых дипфейках (deepfake) — аудио- или видеозаписях, заменяющих лицо или голос человека таким образом, что он воспринимается другими людьми в качестве реального индивида. Кстати, это английское сложносоставное слово образовано от словосочетания deep learning — «глубокое обучение» и простого слова fake — «фальшивый».
Огромный потенциал этой чудодейственной технологии был продемонстрирован еще в 2019 году. Тогда в Музей Сальвадора Дали во Флориде, где отмечалось 115-летие со дня рождения художника, великий сюрреалист заявился собственной персоной. И то объективное обстоятельство, что прославленный каталонец умер за 30 лет до начала этого торжества, нисколько не помешало великому мистификатору встречать гостей и даже сделать селфи с ошарашенной публикой.
Впрочем, надо признать, что российское общество до сих пор воспринимает политику и инновации как непересекающиеся прямые. Тогда как провластные политтехнологи уже успешно внедряют подобные новшества в политический обиход. Так что можно предположить, что эта, в сущности, «технология бессмертия» найдет себе применение прежде всего в авторитарных государствах, в которых высшая власть не сменяется десятилетиями. А знаменитые строчки Владимира Маяковского — «Ленин и теперь живее всех живых» — получат новый смысл.
Чтобы не быть голословным, нужно привести конкретный пример. И как раз такая курьезная история случилась в апреле этого года, когда известные российские пранкеры Вован и Лексус с помощью дипфейка обманули нескольких европейских политиков, выдав себя за навальниста Леонида Волкова. Выбор цели для этой атаки, естественно, говорит лучше любых слов.
При этом обращает на себя внимание и тот факт, что эти «сетевые фокусники» обычно разыгрывают политиков из тех стран, с которыми у официальной России, мягко говоря, сложные отношения. Так, в разное время их жертвами становились Реджеп Эрдоган, Петр Порошенко, Михаил Саакашвили, Джон Маккейн. Видимо, надо думать, что это всего лишь простое совпадение, не более того.
Многое хорошее, равно как и многое плохое, пришло в Россию, разумеется, из Америки. И дипфейки в этом смысле не исключение. Просто раньше, в 90-х годах прошлого века, подобные технологии применялись Голливудом и были известны под названием спецэффектов. Достаточно вспомнить хотя бы блокбастеры «Терминатор 2: Судный день» (1991 год) с Арнольдом Шварцнеггером, будущим губернатором Калифорнии, и «Без лица» (1997 год) с Джоном Траволтой и Николасом Кейджем.
Сегодня при изготовлении дипфейков широко используется потенциал искусственного интеллекта (ИИ), который синтезирует изображение определенного человека. Проще говоря, ИИ соединяет энное количество снимков, преобразуя их в видеопоток. Специальный алгоритм анализирует фотографии и попутно обучается тому, как выглядит и двигается та или иная женщина или тот или иной мужчина. Примечательно, что при этом действуют две нейросети: одна создает изображения, а другая ищет различия между подлинником и подделкой. И если вдруг обнаруживает недочеты, то отправляет образы на доработку.
Дальнейшее распространение дипфейков, которые, надо заметить, постоянно совершенствуются, несет в себе целый ряд угроз. В первую очередь это относится к таким областям человеческой жизнедеятельности, как политика, финансы, СМИ. Однако, к примеру, эксперты ФБР считают, что через год-полтора «глубокие подделки» будут применяться в ходе спецопераций в киберпространстве. В качестве потенциального противника американские контрразведчики, само собой разумеется, рассматривают прежде всего Россию и Китай.
И действительно, поступающая информация вызывает обоснованную настороженность. В частности, по мнению специалистов, количество дипфейков во Всемирной сети удваивается каждые полгода. Эксперты предупреждают, что всевозможные злоумышленники все чаще будут использовать эту технологию, чтобы скрыть свои преступления.
«Допустим, из провинции Синьцзян поступили некоторые очень проблемные кадры, изображающие уйгуров в лагерях для интернированных. Теперь центральная власть в Китае имеет право заявить, что это незаконный дипфейк», — пояснили специалисты. Здесь нужно сказать, что КНР — это единственная страна, в которой сегодня «глубокие подделки» запрещены законом. Однако этот запрет, похоже, останавливает далеко не всех китайцев. Например, несколько месяцев назад тамошняя семейная пара смогла обмануть государственную систему биометрической идентификации.
Естественно, борьбе с дипфейками сейчас уделяется особое внимание. Google намерен помечать ненадежную и недостоверную информацию непосредственно в поисковой выдаче. Twitter тестирует специальную программу, которая поможет выявлять дезинформацию, содержащуюся в твитах. А в TikTok уже есть функция, помечающая сомнительный контент как недостоверный. И даже российское МВД собирается запустить в следующем году проект «Зеркало (Верблюд)», который должен будет распознавать фейковые видео.
Правда, пока что неясно, кто будет контролировать на предмет дипфейков российское телевидение. Тем более нельзя исключить, что эта технология не будет взята на вооружение нынешней властью, которая будущее готова защищать не менее активно, чем прошлое.
Роман Трунов