Черный квадрат на лице предложили заменить «дипфейками»

Норвежские разработчики предложили использовать технологию замены лиц, известную также как «дипфейки», для сохранения приватности пользователей при обработке изображений. Они создали нейросеть, качественно заменяющую настоящие лица на другие, что позволяет сохранить распределение данных на изображении — обычно для этих целей лицо размывают или закрывают черным прямоугольником.

Кроме того, генеративная нейросеть, отвечающая за синтез области с лицом, не получает исходного лица, что позволяет обходить европейский Общий регламент по защите данных (GDPR), отмечают авторы статьи, опубликованной на arXiv.org и представленной на конференции ISVC 2019. Исходный код и документация опубликованы на GitHub.

Уже несколько лет назад существовали алгоритмы, способные проводить реалистичные манипуляции с видеозаписями лиц. Например, в 2016 году немецкие и американские исследователи создали алгоритм, способный качественно переводить мимику одного человека на видео с другим. Однако наибольшую популярность они обрели сравнительно недавно, когда в декабре 2017 года пользователь Reddit под ником deepfakes опубликовал порнографические ролики, в которых лица оригинальных актрис были заменены на лица Галь Гадот, Скарлетт Йохансен и других знаменитостей.

Вскоре проблема таких роликов со знаменитостями и политиками стала набирать обороты и многие технологические компании стали бороться с технологией подмены лиц. Например, Reddit, Twitter и другие популярные сервисы запретили размещать «дипфейки» на своих сайтах, а Facebook и Microsoft объявили конкурс по разработке алгоритмов для распознавания таких роликов.

Разработчики под руководством Франка Линдсета (Frank Lindseth) из Норвежского университета естественных наук и технологий показали, что подмену лиц можно использовать и во благо, создавая анонимизированные видео и фотографии для последующего анализа.

Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

N+1