САН Техник

Российский разработчик создал новое поколение алгоритма Deepfake. Что он умеет

Российский разработчик создал новое поколение алгоритма Deepfake. Что он умеет

За последние несколько лет глубинное обучение (Deep Learning) шагнуло далеко вперед. Некоторые системы машинного зрения, голосового восприятия и некоторые другие работают настолько эффективно, что даже порой превосходят возможности человека. Но там, где есть новая перспективная технология, обязательно найдутся те, кто попробуют использовать ее в других целях. Так появились Deepfake — нейросети, которые способны заменить лицо человека на фотографии или видео. То есть любой человек сможет сесть перед камерой, сказать что-то, а его лицо будет заменено на другого человека. А что если я скажу вам, что уже сейчас Deepfake может заменить не только лицо, но и даже волосы, цвет кожи и фигуру?

Кадр из видео, сделанного с помощью Deepfake 2.0

Что умеет новый Deepfake

Как заявил русскоязычный разработчик Алексей Чаплыгин, он потратил почти два года работы, чтобы создать Deepfake нового поколения. Его версия алгоритма может менять почти все: от кожи и цвета волос до лица и фигуры. Кроме того, нейросеть способна менять человека на любом фото, даже если оно изначально не было загружено для обработки алгоритмом. Вот примеры того, как это выглядит.

Российский разработчик создал новое поколение алгоритма Deepfake. Что он умеет

Хорошо, что разработчик не стал выкладывать исходный код алгоритма в Сеть, в противном случае это могло бы вызвать волну «дипфейков», где людям на фото и видео подрисовывали бы лица и черты других людей. Сам Алексей заявил, что планирует использовать свой алгоритм для создания виртуальных примерочных, и это было бы действительно круто. Только представьте — загрузили вы свое фото, алгоритм распознал его, и прямо на экране своего телефона вы видите себя и примеряете новые кроссовки, пальто или джинсы.

Практическая же цель моего проекта: создание виртуальной примерочной для интернет-магазинов одежды, где каждый видит себя, а не моделей с однотипными фигурами и похожими лицами. Технология затачивалась именно для этого применения, однако у нее много «побочных эффектов», которые позволяют создавать подобный контент, — пишет разработчик.

О каких «побочных эффектах» идет речь?

Система глубинного обучения может производить убедительную подделку (отсюда и название «fake»), изучая фотографии и видео человека с разных сторон, а затем имитируя его поведение и образцы речи. После создания подделки алгоритм делает ее более правдоподобной. Нейросеть «натренирована» на выявление недостатков в подделке, что приводит к улучшениям, устраняющим расхождения с реальным видео.

Давно ли Николас Кейдж снимался в Супермене?

Согласно недавнему отчету Массачусетского технологического института, устройство, позволяющее использовать дипфейки, может быть «идеальным оружием для создателей фейковых новостей, которые хотят влиять на все, от цен на акции до выборов».

Если вам интересны новости нейросетей, подпишитесь на нас в Яндекс.Дзен, чтобы не пропускать новые материалы!

Чем опасен Deepfake

Можно сколько угодно говорить о том, что такая технология нужна, это очень круто и не надо наговаривать. Можно даже дойти до крайности и начать говорить о том, что это позиция лютого олдфага, который просто боится всего нового, но тут действительно опасностей больше, чем пользы. Только представьте, если кто-то воспользуется такой нейросетью и «запишет» ролик с участием Дональда Трампа, в котором он объявляет торговую войну Китаю? Пока администрация президента опровергнет это, рынок акций США просто рухнет. А за ним и доллар и резервы многих стран.

Как же распознать дипфейк? Если вы посмотрите видео в начале статьи, то поймете, что пока подделку можно буквально невооруженным глазом. Картинка похожа, но она достаточно грубая. Кроме этого, она иногда имеет некоторые проблемы с совмещением, особенно по границам лица. Но учитывая, что работа над алгоритмом ведется постоянно, есть риск того, что скоро отличить фейковое видео, созданное нейросетью, от настоящего будет гораздо сложнее.

Пока дипфейки легко отличить от оригинала, но скоро это будет сложнее

Можно представить и обратную ситуацию, когда реальный человек что-то скажет, а потом будет всех уверять, что его подставили.

Как быть в этой ситуации тоже не очень понятно. Это внесет такую смуту в новостные ленты, что перепроверить это в другом источнике просто не получится. В итоге станет вообще непонятно, что в этом мире правда, а что ложь.

Источник

Читайте также
Редакция: | Карта сайта: XML | HTML