Deepfakes и deep media: Новое поле битвы за безопасность

Количество дипфейков – медиа, которые берут существующее фото, аудио или видео и заменяют личность человека на нем на чужую с помощью ИИ – очень быстро растет. Это вызывает беспокойство не только потому, что такие подделки могут быть использованы, чтобы влиять на мнения людей во время выборов или впутывать кого-то в преступления, но и потому, что ими уже злоупотребляли для создания фейкового порно и обмана директора британской энергетической компании.

Предвосхищая такого рода новую реальность, объединение академических учреждений, технологических фирм и некоммерческих организаций разрабатывает способы выявления вводящих в заблуждение медиа, генерируемых ИИ. Их работа показывает, что инструменты обнаружения являются лишь краткосрочным жизнеспособным решением, в то время как дипфейковая гонка вооружений только начинается.

Дипфейковый текст

Раньше лучшая проза, созданная ИИ, была скорее похожа на тексты из игры Mad Libs, чем на роман «Гроздья гнева», но современные языковые модели теперь могут писать тексты, близкие по подаче и убедительности к написанным человеком. Например, модель GPT-2, выпущенная исследовательской фирмой OpenAI из Сан-Франциско, за считанные секунды создает отрывки в стиле статей New Yorker’a или сценариев для игры «Мозговой штурм».

Исследователи Центра по терроризму, экстремизму и борьбе с терроризмом Института международных исследований г. Миддлбери предположили, что GPT-2 и другие подобные ей модели могут быть настроены на пропаганду превосходства белой расы, джихадистского исламизма и других угрожающих идеологий – и это вызывает еще больше опасений.

В поисках системы, способной обнаруживать синтетическое содержимое, исследователи Школы компьютерных наук и инженерии имени Пола Г. Аллена Университета Вашингтона и Института искусственного интеллекта имени Аллена разработали Grover – алгоритм, который, как они утверждают, смог отобрать 92% дипфейков в тестовом наборе, составленном из открытых данных Common Crawl Corpus. Команда объясняет свой успех копирайтинговым подходом, который, по их словам, помог разобраться с особенностями языка, созданного ИИ.

Команда ученых из Гарварда и MIT-IBM Watson AI Lab отдельно выпустила The Giant Language Model Test Room, веб-среду, которая пытается определить, был ли текст написан с помощью модели ИИ. Учитывая семантический контекст, она предсказывает, какие слова наиболее вероятно появятся в предложении, по сути, написав свой собственный текст. Если слова в проверяемом образце соответствуют 10, 100 или 1000 наиболее вероятных слов, индикатор становится зеленым, желтым или красным соответственно. Фактически она использует свой собственный прогнозируемый текст в качестве ориентира для выявления искусственно сгенерированного контента.

Дипфейковые видео

Современный ИИ, генерирующий видео, так же опасен и обладает такими же, если не большими, возможностями, как и его естественный аналог.

Подробнее
Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр