MediaSapiens ранее рассказывал о технологии глубинных фейков в статье [2] и в объяснительном видеоролике [3]. Технология и дальше развивается, появляются новые дипфейки. С ней пытаются бороться транснациональные корпорации Facebook, Twitter, Google и отдельные государства – ведь глубинные фейки подрывают правду и угрожают демократии.
При этом новшество несет не только угрозы, но и новые возможности. Какие именно – рассказывает издание Детектор медіа [4].
В 2014 году студент Стэнфордского университета Ян Гудфеллоу разработал технологию, которая стала совершенно беспрецедентным явлением, — deepfake. Дословно deepfake переводится как «глубинная подделка» или «глубинный фейк». Суть в том, что нейросеть — то есть, искуственный интеллект — создает фейковые видео с настоящими людьми.
На эту тему: Китай стремится искоренить поддельные новости и видео с помощью новых правил [5]
Алгоритм синтезирует данные: фотографии, видео с изображением конкретного человека, анализирует, как этот человек мог бы двигаться, жестикулировать, как он говорит. А затем генерирует новый контент с этим персонажем. Поэтому еще одно название этой технологии — face swapping, то есть, «замена лица». На выходе мы получаем, на первый взгляд, совершенно реальную видеозапись, на которой человек что-то делает и говорит. Вот только при детальном анализе выясняется, что это видео — подделка.
Так, получается, что дипфейк можно использовать для создания поддельных заявлений якобы от лица реальных людей. Эта технология может использоваться и для дискредитации конкретной личности: видео, на котором политик ругается матом, появляется пьяный или делает непристойные вещи, невозможно будет сразу отличить от оригинала.
Дипфейк позволяет «перенести» лицо одного человека на голову другого — по сути, «пересадить» его, таким образом, создавая поддельный контент, который пугает своей реалистичностью.
Так, к примеру, сидя на карантине из-за эпидемии коронавируса, российский программист Али Алиев создал дипфейк с лицом Илона Маска и подключился к рабочей встрече в Zoom. Его коллеги на секунду даже поверили, что к ним в онлайн-встречу по ошибке заглянул настоящий Маск.
До появления дипфейка единственным возможным способом виртуально «воскресить» мертвых была голограмма. На сцене уже появлялись и голограммы американского рэппера Тупака Шакура [6], Майкла Джексона [7] и Уитни Хьюстон [8]. В 2012 году в Санкт-Петербурге выступала голограмма Виктора Цоя, в 2018 году голограмма лидера группы «Король и Шут» Алексея Горшенева спела песню [9] на концерте группы. Всех этих артистов уже нет в живых.
Сегодня оживить людей можно с помощью дипфейка. В мае 2019 года в музее американского города Сант-Питерсберг, Флорида, создали выставку к 115-летию со дня рождения художника Сальвадора Дали. С помощью технологии дипфейка виртуальная копия Дали приветствовала посетителей музея, общалась с ними, разговаривая с акцентом, характерным для настоящего Дали, и даже делала селфи на собственный смартфон.
Алгоритмы используют и для того, чтобы человек на видео смог легко и убедительно «заговорить» на любом языке мира. Этим уже воспользовался, к примеру, футболист Дэвид Бэкхем, который снялся в социальной рекламе кампании по борьбе с малярией и обратился к аудитории на девяти разных языках.
Ради эксперимента с помощью нейросетей создают «гибридов». В фильм «Терминатор-2», например, вместо Арнольда Шварцнеггера «подселили» Сильвестра Сталлоне [10].
А в этом эпизоде [11] из «Кавказской пленницы» вместо знаменитой троицы — Вицына, Никулина и Моргунова — «играют» Аль Пачино [12], Арнольд Шварцнеггер и Шон Пэн. А в этом [13] — в «Иронии судьбы» появляется Одри Хепберн.
Технологию вполне можно использовать для омоложения или состаривания актеров в кино. Этот прием могли бы использовать создатели сериала «Ирландец» от Netflix, однако они омолодили своих актеров с помощью компьютерных технологий, потратив на это большие деньги.
Одной из основных сфер применения технологии является порноиндустрия. Дипфейк позволяет создать порно с участием любого человека — начиная вашим соседом или вами самими и заканчивая президентом любой из стран. Спрос рождает предложение, и вот в сети уже появились отдельные сайты с порнографическим контентом, который создал дипфейк.
В такой неловкий конфликт уже попали политики Малайзии [14]: в сети обнаружилось видео, на котором местный министр экономики занимается сексом с другим малазийским политиком. В этой мусульманской стране гей-секс — под запретом.
Жертвами дипфейка уже стали известные топ-политики, например, действующий президент США Дональд Трамп и его предшественник, Барак Обама. Правда, Обаму в этом видео «подделали» с научной целью [2] исследователи технологии:
В сети также появилось видео с фейковыми заявлениями основателя Facebook Марка Цукерберга, который рассуждает: тот, кто контролирует данные, контролирует и будущее. Намекая, конечно же, на себя самого.
В Туркменистане настоящий фурор вызвало дипфейк-видео с президентом страны [15] Гурбангулы Бердымухамедовым, на котором он рассказал, как якобы развлекается в выходные дни: моет свое авто и планирует поехать с друзьями в сауну. На данный момент видео уже не доступно для просмотра из-за жалоб.
Дипфейк может воспроизводить не только изображение, но и голос — отдельно. Последней жертвой искуственного интеллекта стал рэппер Jay-Z [16]: в интернете появилось видео, на котором он зачитывает строки из Шекспира. На самом деле, артист такого ролика не записывал. Рэппер обратился в YouTube с жалобами и попросил удалить этот контент. Его и правда удалили, но после — восстановили.
Казалось бы, это всего лишь стихи — безобидная шутка. Однако вместо Шекспира можно было использовать что угодно: опорочить артиста скандальным заявлением, шокирующим признанием или клеветой.
На эту тему: Фейковая красотка - "специалист по России" занималась шпионажем в пользу РФ в LinkedIn [17]
Способа, который позволил бы защититься от дипфейка, нет. Фактически, любой, кто разбирается в работе нейросетей, может взять изображения и видео кого угодно, «собрать» из них собственное видео и использовать в любых целях. Зрителю, который мало знаком с техническими нюансами, распознать дипфейк может быть довольно нелегко. Хотя некоторые ролики, конечно, могут быть сделаны топорно: если присмотреться, видно, что рот человека двигается не совсем правильно, как бы не попадая в речь, в некоторых местах может быть видна «склейка»: место, куда «пришили» чужое лицо.
На данный момент сложно предугадать, каким будет будущее дипфейка. Когда-нибудь такая технология вполне сможет заменить реальных людей: телеведущих, музыкантов и, конечно же, порноактеров. Вероятно, что дипфейк и дальше будут использовать для создания политического, агитационного контента, а также для дискредитации отдельно взятых личностей.
Возможно, когда-нибудь эта технология даже превратится в инструмент массового использования и станет такой же доступной, как маски в Instagram: просто наводишь камеру на свое лицо, выбираешь «маску», начинаешь говорить, и вот, на готовом видео вместо тебя уже «толкает речь» принцесса Диана [18], Элвис Пресли [19] или Иосиф Сталин [20].
—
Олександра Горчинська, опубликовано в издании Детектор медіа [4]
На эту тему:
Ссылки:
[1] https://argumentua.com/stati/obshchestvo/bezopasnost
[2] https://ms.detector.media/mediaanalitika/post/22309/2019-01-11-tekhnologiya-glibinnikh-feikiv-yak-gliboko-brekhnya-mozhe-inkorporuvatisya-v-nashe-zhittya/
[3] https://ms.detector.media/manipulyatsii/post/24048/2019-11-07-deepfake-shcho-vono-take-i-chomu-iogo-ne-varto-vzhivati-video/
[4] https://ms.detector.media/kiberbezpeka/post/24753/2020-05-27-deepfake-nastupaet-kakie-ugrozy-i-vozmozhnosti-neset-tekhnologiya-sozdannaya-neirosetyu/
[5] http://argumentua.com/novosti/kitai-stremitsya-iskorenit-poddelnye-novosti-i-video-s-pomoshchyu-novykh-pravil
[6] https://www.youtube.com/watch?v=TGbrFmPBV0Y
[7] https://www.youtube.com/watch?v=jDRTghGZ7XU
[8] https://www.youtube.com/watch?v=y5N2BQusyDc
[9] https://www.youtube.com/watch?v=cGDjs5j8bBs
[10] https://www.youtube.com/watch?v=AQvCmQFScMA
[11] https://www.youtube.com/watch?v=uNexH4H4n4k
[12] http://argumentua.com/stati/kinopremery-nedeli-15-21-dekabrya
[13] https://www.youtube.com/watch?v=vlPJn4Fky44
[14] https://vctr.media/deepfake-eto-bolshe-pro-porno-29521/
[15] https://www.hronikatm.com/2020/05/deepfake/
[16] https://ms.detector.media/it-kompanii/post/24611/2020-05-04-youtube-vidmovilasya-vidalyati-dipfeik-z-golosom-repera-jay-z/
[17] http://argumentua.com/novosti/feikovaya-krasotka-spetsialist-po-rossii-zanimalas-shpionazhem-v-polzu-rf-v-linkedin
[18] http://argumentua.com/reportazh/segodnya-20-let-so-dnya-gibeli-people-s-princess-printsessy-diany
[19] http://argumentua.com/novosti/priurochennyi-k-khellouinu-reiting-forbes-pokazal-skolko-zarabatyvayut-umershie-predstavitel
[20] http://argumentua.com/stati/plenum-millionov-ubiistv-kak-stalin-shel-k-velikomu-perelomu
[21] http://argumentua.com/stati/kmo-komp-yuterno-modif-kovan-organ-zmi-yak-nashe-zhittya-viznachayut-mashinn-algoritmi
[22] http://argumentua.com/stati/roboty-poka-ne-idut-na-ubiistva
[23] http://argumentua.com/stati/onlain-znakomstva-budushchego-neseksualno-i-zverski-effektivno
[24] http://argumentua.com/novosti/lyudi-i-mashinnye-algoritmy-predskazyvayut-retsipistov-s-odinakovoi-tochnostyu
[25] http://argumentua.com/stati/otkuda-poshli-feikovye-novosti
[26] http://argumentua.com/stati/poddelnyi-mir
[27] http://argumentua.com/stati/bitva-za-iskustvennyi-intellekt
[28] http://argumentua.com/stati/scs-sistema-sotsialnogo-reitinga-kitaya-budet-opredelyat-tsennost-lyudei
[29] http://argumentua.com/stati/sotsseti-znayut-o-vas-bolshe-chem-druzya-rodnye-i-chem-vy-dumaete-pochemu
[30] http://argumentua.com/stati/revolyutsiya-smartfona