Жизнь после смерти: нейросети воскрешают мертвых артистов

Жизнь после смерти: нейросети воскрешают мертвых артистов

C развитием нейросетей голос и мимика перестали быть неповторимыми человеческими чертами. Разработчики научились создавать говорящие, поющие и движущиеся виртуальные копии людей. Технология получила название deepfake. С ее помощью на экран вернули Кэрри Фишер и Одри Хепберн. Мертвые заговорили наравне с живыми. Вместе с этим остро встал вопрос этичности и оправданности этого метода.

Технология дипфейк работает по принципу глубокого обучения. Нейросеть анализирует тысячи изображений требуемого лица. В ход идут всевозможные ракурсы и мимика. После анализа сеть генерирует подвижную цифровую маску. Так воссоздается реалистичное лицо с учетом всех индивидуальных особенностей.

Несколько лет назад благодаря дипфейку Одри Хепберн прорекламировала шоколад. А Кэрри Фишер появилась в новой части «Звездных войн» уже после смерти. Тогда на разработку цифровой маски требовалось много времени. Обучение сети занимало практически год. Теперь для оживления персонажа достаточно пары щелчков.

Генеративно-состязательная нейросеть работает по принципу перебора. Она обрабатывает огромное количество материала и выбирает наиболее уместный. Голос воссоздается аналогичным способом. Машина изучает информацию двух типов: текст, подлежащий озвучке, и аудиоданные для синтеза. Воспроизведение голоса остается самой проблематичной частью в создании дипфейка. Для убедительных результатов необходимо повторять уникальную интонацию и дефекты речи.

В случае успеха воспроизведенная модель почти неотличима от оригинала. Слабые дипфейки распознаются по искажениям фона. Они также создают эффект «зловещей долины». Недостаточно обученная машина воспроизводит застывшее, неэмоциональное лицо. Более старательные проекты производят совсем иное впечатление.

Кэрри Фишер
Кэрри Фишер

Впросак может попасть кто угодно. Недавно певец Джастин Бибер два часа учил Тома Круза игре на гитаре. Урок проходил в прямом эфире. Многотысячная аудитория стала свидетелем того, как артиста обвели вокруг пальца. Круза не было в сети в тот день, и он тем более не осваивал инструмент. А певец обучал музыкальным азам фейка deeptomcruise. Аккаунт известен тем, что создает гиперреалистичные копии актера.

К юбилею Сальвадора Дали флоридский музей художника решил оживить сюрреалиста. Посетители смогли пообщаться с самим Дали. Он рассказывал истории создания картин и делал с гостями селфи. Для анимирования художника потребовалось шесть тысяч фотографий Дали и сто сорок пять видео-макетов. Машина обучалась тысячу часов.

Применяется дипфейк не только в развлекательных и культурных целях. В США супружеская пара «воскресила» сына. Молодой человек погиб во время стрельбы в школе Марджори Стоунман Дуглас. Видео использовалось как агитация за ужесточение контроля оружия. В Мексике по тому же принципу восстановили облик погибших журналистов. Целью ролика было привлечение внимания к преступлению.

Но есть у дипфейка и темная сторона. Анализ контента показал, что в большинстве случаев технология используется в порнографии. Почти девяносто шесть процентов дипфейк-видео оказывается на сайтах для взрослых. Страдают от этого не только публичные персоны. В Британии фальшивое видео использовали в качестве мести. Пострадавшую девушку уволили с рабочего места после появления ролика в сети. Она не смогла доказать свою непричастность.

Злоумышленники орудуют не только за рубежом. Осенью этого года в сети появилось объявление с ненастоящим Олегом Тиньковым. Бизнесмен якобы предлагал заманчивые бонусы за инвестиции.

Вместе с риском обмана остро стоит вопрос этики. Насколько правильно «воскрешать» артистов из мертвых? В случае с Одри Хепберн наследники актрисы дали согласие на рекламу. Но не всегда все проходит так гладко. Внешний облик вполне может считаться индивидуальной собственностью. Но его воспроизведение никак не оформлено юридически. Проблема авторского права нейросетей тоже до сих пор не решена.

Только в Китае за создание дипфейков введена уголовная ответственность. В большинстве стран пользователи не защищены от создания цифровых масок их лиц. Пока неясно, будет ли проблема решена в ближайшее время.

deeptomcruise
deeptomcruise

Тем временем технология дипфейков может войти в область психотерапии. В Южной Корее ученые создали модель девочки, скончавшейся от онкологии. Технология была задействована по просьбе матери ребенка. Скорбящая женщина хотела еще раз поговорить с чадом.

На создание дипфейка ушло восемь месяцев. Специалисты обработали все фото и видео с ребенком, которые имели в арсенале. Они воссоздали поведение, жесты, мимику и голос девочки. Мать пообщалась с дочерью с помощью очков виртуальной реальности.

Но аудитория не разделила радости исследователей. Под роликом, документирующим эксперимент, большинство комментаторов высказали испуг. Зрителям эксперимент показался жестоким.

Психотерапевты также выражают опасения по поводу общения с мертвыми в VR. Дипфейки могут замедлить принятие смерти близкого. Родственники рискуют уйти в отрицание трагедии и даже впасть в зависимость от виртуального мира.

Пойдет разработка во благо или во вред, пока не известно. Как и все технологии, дипфейк имеет светлые и темные стороны. Ясно одно: вопрос этики и авторских прав должен быть решен как можно скорее. Распространение нейросетей в повседневной жизни вносит заметные изменения. Касаются они и закона.

Комментарии
Нет комментариев. Будьте первым!