然而,一些麻煩制造者也可以利用這些技術來制造宣傳虛假事件,欺騙大眾。出于這個原因,美國國防部一直非常有興趣開發能夠檢測甚至打擊這種虛假鏡頭的工具。,《麻省理工科技評論》(MIT Technology Review)報道稱,這些工具中的第一個已通過名為Media Forensics 的美國國防高級研究計劃局(DARPA)計劃推出。該計劃最初是為了自動化現有的取證工具而創建的。然而,該計劃已將重點轉移到開發打擊“AI制造偽造內容”的方法上。
創建DeepFakes的最有說服力的方法是使用深度學習模型生成式對抗網絡(GAN)。為了使它工作,GAN必須使用被偽造者的幾張圖像。然后,它使用這些圖像來嘗試匹配疊加在其上的面部的角度和傾斜。“我們在當前GAN操縱的圖像和視頻中發現了微妙的線索,使我們能夠檢測到變化的存在,”Media Forensics項目負責人Matthew Turek表示。
紐約州立大學的Siwei Lyu教授講述了他和一些學生如何創造了一堆虛假視頻,試圖了解傳統的取證工具將如何工作。
“我們制作了大約50個假視頻并嘗試了一系列傳統的取證方法。”然而,在他們的實驗過程中,他們很少注意到deepfakes。此外,在極少數情況下,這種運動看起來“不自然”。原因很簡單; GAN被輸入靜止圖像,幾乎所有對象的眼睛都是打開的。
因此,Lyu和他的紐約州立大學學生正專注于創建一個尋找這個告示標志的AI。他說表示們目前的努力是有效的,但可以通過提供測試圖像眨眼的GAN圖像來欺騙他們。然而,他補充說,他們在作品中有一種秘密技術,甚至更有效。
參與DARPA計劃的其他團體的目標是采用類似的技術。達特茅斯學院的數字取證專家Hany Farid認為,奇怪的頭部動作、奇怪的眼睛顏色和其他面部因素等其他線索可以幫助確定視頻是否被偽造。
Farid表示:“我們正在努力開發這些類型的生理信號,至少目前,這些信號很難被模仿。”
Turek稱,DARPA打算繼續舉辦Media Forensics競賽,以確保該領域在進一步發展時能夠跟上偽造技術。