Важные новости

Дипфейк: Зачем искусственный интеллект научили подделывать видео и аудио

03.01.2020  /  Категория: Общество

На популярной видеоплатформе Netflix вышел фильм Мартина Скорсезе "Ирландец". Главные роли в нем сыграли звезды – Роберт Де Ниро и Аль Пачино. Критики называют картину фильмом года и главным претендентом на премию "Оскар". В "Ирландце" использовали технологию цифрового омоложения, которая основана на искусственном интеллекте. Благодаря ей зрители увидят Роберта Де Ниро в возрасте 20, 40, 60 и 80 лет. Чаще всего подобную технику в англоязычных странах называют deepfake. Как устроен этот феномен, где еще используется и возможно ли от него пострадать – смотрите в сюжете "Настоящего времени".

фейк, фейковая новость, стопфейк, стоп-фейк

В грубом переводе с английского deepfake означает "глубокая подделка". А создается она так: искусственный интеллект обучили менять лица и голоса людей на видео. Таким образом можно заставить любого человека сказать то, чего он не говорил. Ну или сделать. Вот, к примеру, автор ютуб-канала "Мосфейк" заставил российского актера Михаила Ефремова побывать в роли всех актрис в фильме "Ангелы Чарли".

Таких примеров в сети много. Голландская компания Deep Trace, которая занимается кибербезопасностью, выпустила в сентябре исследование. В нем говорится, что число фейковых видео в интернете стремительно растет. И сейчас в сети более 14 тысяч таких подделок. Это в два раза больше, чем в прошлом году. По их словам, 96% из всех фейков – порноролики. В них лица секс-актеров заменяют лицами известных людей. Вот что об этом сказала одна из пострадавших, актриса Скарлетт Йоханссон.

"Ничто не может помешать кому-то вырезать и вставить мой образ на другое тело и сделать его настолько реалистичным, насколько это необходимо. Интернет – это огромная червоточина тьмы, которая пожирает себя", –​ сказала она.

По информации аналитиков Deep Trace, в интернете есть четыре крупных порносайта с поддельными видео, и все они зарабатывают деньги на рекламе. С февраля прошлого года видео на этих ресурсах посмотрели 134 миллиона человек.

"Важно сказать, что прямо сейчас в первую очередь от этой технологии страдают сотни женщин. Как известные, так и неизвестные женщины. В настоящее время дипфейки практически эксклюзивно нацелены против женщин", – рассказал Генри Айдер, исследователь в Deep Trace.

Исследователи считают, что в будущем злоумышленники смогут использовать дипфейки в политических целях. Как это может работать, показало издание BuzzFeed. Оно опубликовало видео с экс-президентом США Бараком Обамой, который называет действующего главу Белого дома Дональда Трампа засранцем. Это, конечно, была подделка.

"Очевидно, что здесь нужно предусмотреть меры по борьбе с этими дипфейками. Например, то видео, где есть Обама. Или видео должно быть подписано какими-нибудь цифровыми следами устройств, которые их записали. Чтобы всегда можно было верифицировать источник. На мой взгляд, решение этой проблемы состоит в том, чтобы выработать у людей правильное отношение к источникам информации", – говорит завлабораторией нейронных систем МФТИ Михаил Бурцев.

Власти США начали борьбу с дипфейками еще два года назад. Так, один из крупнейших университетов страны, Колорадский университет в Денвере, по заказу Минобороны работает над созданием фальшивых видео. Разработки аналитиков используют сотрудники другого центра, SRI International, которые учатся отличать подлинные видео от фальшивок. На эти цели США уже потратили 68 миллионов долларов. Войну дипфейкам объявили и крупные мировые компании – Facebook и Microsoft запустили конкурс по обнаружению подделок.

"Проблема заключается в нескольких вещах. Во-первых, если говорить о соцсетях, вопрос в том, как научить механизмы находить эти видео. А когда их находят, что именно делать с ними на этих платформах. Разные платформы по-разному подходят к этой проблеме", – рассказывает аналитик Deep Trace.

В 2019 году было совершено первое deepfake-преступление. По данным Wall Street Journal, в марте этого года директор британской энергетической компании отправил поставщику из Венгрии около 240 миллионов долларов. Перевести деньги британцу якобы поручил по телефону глава компании из Германии. Позже выяснилось, что звонивший был мошенником. Он сымитировал голос немецкого руководителя с помощью дипфейка. И сделал это так профессионально, что у британца не возникло никаких подозрений.

"С помощью такой же базы можно будет сделать дипфейк любого голоса. Все, что нужно будет, это два исходника. Исходник того, чей голос меняем, и ваши исходники. И вот здесь как раз будет проще, чем работа с лицом. Потому что заменить ваш голос на голос Ксении Собчак или Познера гораздо легче", – рассказывает московский художник визуальных эффектов Филипп Богдановский.

Если не считать использование дипфейков в порно, то больше всего такие видео создают для кино. Но даже при легальном применении технология все равно вызывает вопросы. Так, в интернете возмутились съемками фильма о вьетнамской войне, в котором режиссеры решили с помощью графики оживить погибшего 64 года назад актера Джеймса Дина.

"Если "единственный человек", который может сыграть роль в вашем фильме, мертв уже 70 лет, я бы посоветовал вам нанять нового кастинг-директора, прежде чем оживлять труп Джеймса Дина", –​ возмущался голливудский режиссер монтажа Эйден О'Брайен.

По теме:

«Дипфейки» против правды: как выглядит дезинформация будущего

Российский режиссер и кинопродюсер Илья Шерстобитов не видит ничего плохого в том, чтобы оживлять людей в фильмах. Говорит, что кино – это прежде всего индустрия развлечений.

"Кино - не только об идее. Это прежде всего аттракцион. Когда человек приходит после тяжелого дня, встречается с подружкой, идет в кино. Он должен расслабиться. Получить удовольствие. Это нормально. Никакой проблемы в этом я не вижу. Я думаю, что потомки актера должны получать какие-то деньги. Это абсолютно нормально. Я думаю, что в Голливуде юристы эти вопросы решат быстро", – говорит он.

Шерстобитов рассказал, что в ближайшие годы не планирует использовать дипфейки в своих фильмах. Он считает, что на российском рынке эта технология не будет быстро развиваться. В первую очередь из-за отсутствия технических возможностей.

"Грубо говоря, из тех, кого я знаю, это могла бы сделать только одна компания. Тогда как в Голливуде, их десятка два – компаний, которые могли бы это делать", – сказал режиссер.

Мнения опрошенных нами экспертов о будущем дипфейков разные: одни говорят, что искусственный интеллект может быть опасен, другие считают, что государства научатся их выявлять и удалять из сети. Но ясно одно: в будущем фраза "я это видел своими глазами" будет звучать совсем не так убедительно, как сейчас.

Сайхан Цинцаев

Настоящее Время

Предыдущая новость:

Внешняя политика как спецоперация. История дипломатии Путина, часть 1


Похожие новости


Темы

Cтатьи

09:54 - 27.10.2023
Военный призыв в Крыму. Можно ли крымчанам избежать службы в российской армии?
09:06 - 13.10.2023
Недвижимость под ударом: в Крыму снижается стоимость жилья и его аренды
18:30 - 10.10.2023
«Такого не было даже при Сталине». В Крыму преследуют за украинские песни
10:09 - 16.09.2023
«Страшилки» и реальность. Кого в Крыму ждет наказание за коллаборационизм?
18:42 - 21.08.2023
Усилить флот. Какие корабли Россия может перебросить в Черное море
19:31 - 11.08.2023
Сельское хозяйство Крыма при России: без свиноводства, без молокозаводов и без будущего
19:45 - 10.08.2023
Авторитет Черноморского флота под вопросом – политики о роли оперативного объединения в войне
10:08 - 10.08.2023
Чудеса экономики по-российски: виноделие в Севастополе стало убыточным
09:42 - 28.07.2023
Камуфляж кораблей Черноморского флота России: попытка спасти их от украинских дронов?
09:34 - 27.07.2023
Вертолетная угроза исходит из Крыма, свидетельствуют спутниковые снимки
19:20 - 13.07.2023
Крымская «буханка» с электрическим мотором
12:45 - 04.07.2023
Избирательное правосудие в Крыму: чиновникам – условные сроки, проукраинским гражданам – реальные
17:27 - 28.05.2023
Деколонизация топонимии. Эксперты рассказали, каким названиям не место на карте Крыма
14:51 - 19.05.2023
Окопы на пляжах и «замки из песка» курортных проектов в Крыму
10:32 - 11.05.2023
Война и спорт – понятия несовместимые: в Севастополе остановилось строительство спорткомплекса и ледового дворца
20:15 - 03.05.2023
Цель №1: чем Украина может ударить по Керченскому мосту
21:45 - 02.05.2023
Мусорная канитель: за девять лет в Севастополе так и не начали строить мусороперерабатывающий завод
11:07 - 22.04.2023
Не суждено построить: обещанные Севастополю мегапроекты практически заморожены
16:59 - 01.04.2023
«Z-безумие и ура-патриотизм» – активисты о ситуации в крымских школах
10:10 - 30.03.2023
«Как будто мы люди второго сорта». Почему крымчан не всегда пускают в Грузию
09:53 - 22.03.2023
Военные заводы – на продажу. Какие предприятия в Феодосии пускают с молотка
19:47 - 14.03.2023
Миллиарды на долгоиграющие проекты: что российские власти хотят построить в Севастополе
10:19 - 11.03.2023
Пять стадий неправды. Как Путин рассказывал о российском захвате Крыма
10:27 - 03.03.2023
«При очередном сильном землетрясении Ялта сложится как карточный домик» – эксперты о сейсмоустойчивости крымских новостроек
18:02 - 22.02.2023
Как Севастополь остался без новых пассажирских катеров из-за «геополитической ситуации»
11:48 - 22.02.2023
Письма крымчан: Чего добился Путин в Крыму?
11:04 - 17.02.2023
Крым, война и «культурно-историческая» экспансия Кремля на Украину
10:39 - 12.02.2023
Топ-5 изобретений украинских военных в войне против РФ
19:13 - 08.02.2023
Почему не работают футбольные санкции в отношении игроков из Крыма?
18:37 - 02.02.2023
«Скрепные» квесты: как древний Херсонес стал местом культа Александра Невского

Другие статьи