Deep Video Portraits — новый уровень манипуляции на основе искусственного интеллекта.

90

(Чтобы не читать статью — можете посмотреть видео)

Ученые научили искусственный интеллект создавать поддельные, чрезвычайно реалистичные записи знаменитых людей. Благодаря развитой системе выражения лица и движения головы замещенного человека были наложены на ранее существующие записи источника, например, знаменитостей или политиков. Эффект был ошеломляющим и вызвал многочисленные противоречия.

Ученые, которые сами разработали эту технологию, были в ужасе от их подвига. Ранее с помощью соответствующего программного обеспечения можно было манипулировать только выражениями лица. Результаты были интересными, хотя и не совсем убедительными. Легко отличить поддельную запись от оригинала. Новая техника позволяет передавать трехмерное изображение движения головы, мимики и глаз и моргания от снятого лица другому человеку, чьи записи находятся в Интернете.

Программа под названием Deep Video Portraits была создана на основе более ранних алгоритмов обучения. В результате было получено удивительно реалистичное, детальное и тонкое изображение. Программа даже фиксирует легкий кивок или пожимание плечами.

Более того, новая техника оставляет намного меньше искажений. Это затрудняет обнаружение подделок. Фильмы настолько гладкие, что опрошенные люди не могли видеть никаких манипуляций с записью и утверждали, что это реально.

Сможете ли вы поймать подделку? Смотрите видео ниже:

Новое исследование исследователей Стэнфордского университета должно быть представлено этим летом на конференции SIGGRAPH по VR-съемкам. Исследователи считают, что технологии могут быть использованы на практике. Например, создатели фильма могли использовать его для изменения выражения лица актеров после съемок. Программа также может быть использована для дублирования.

Несмотря на это, технология вызывает много споров. Политики и исследователи опасаются, что программа создаст новые, чрезвычайно опасные и реалистичные поддельные новости.

«К сожалению, несмотря на свои положительные стороны, этой технологией можно злоупотреблять. В настоящее время измененные записи оставляют множество следов, которые можно использовать для ориентации в подделке. Трудно предсказать, когда поддельное видео будет неотличимо от реальных записей», — писали исследователи.

И вот как выглядят записи с использованием лица Николаса Кейджа:

Источник и фото: Стэнфордский университет