根據《福布斯》獲得的一份法庭文件披露的信息,一個欺詐團伙利用音頻深度偽造技術克隆了一家企業董事的聲音,將3500萬美元的資金轉移到幾個海外賬戶。這是迄今為止最成功的“deep voice” 欺詐案,盡管這可能只是這樣的案例日益增長趨勢的一部分。
深度偽造(Deepfake)技術可以訓練人工智能系統來模仿某人的面孔,通常是演員或其他知名人士的面孔。然后,人工智能技術可以制作動畫并將其面孔粘貼到視頻中,從而將克隆的對象插入到場景中。
但是不能只是他們的影像放在視頻中,還要偽造他們的聲音。這就是音頻深度偽造發揮作用的地方,可以訓練人工智能技術來模仿某人的聲音,然后以其聲音說出內容。
專家認為,一旦深度造假技術達到一定的水平,將推動一個充滿錯誤信息、騷擾和蹩腳電影的新時代。
在2020年,阿聯酋的一名銀行經理接到了一家大公司董事的電話。該董事聲稱其所在的公司正在進行一項大型收購,所以要求這家銀行授權向美國的幾個賬戶轉賬3500萬美元。他表示已經發送一封來自律師的電子郵件來確認這筆轉賬,由于一切看起來都是合法的,銀行經理確認了這筆轉賬。
但這家公司的“董事”實際上是一個經過訓練的“deep voice”算法,聽起來就像他的聲音。阿聯酋有關部門目前正在尋求美國警方的幫助,以追回丟失的這些資金。據悉,這些資金被17名或更多的欺詐者轉移到他們在全球各地的賬戶上。
這并不是Deepfake實施的第一次欺詐和搶劫,但卻是迄今為止最成功的一次。類似的事件顯然將來還會發生,而且規模可能會大得多。那么企業和政府能做些什么來減輕威脅呢?很難說。
因為Deepfakes技術仍在不斷改進,最終會變得更強大,以至于人類無法正確識別。但經過訓練的人工智能可能識別出深度偽造的行為,因為克隆受害者的面孔和聲音往往包含一些錯誤,例如數字噪音或人類不可能發出的一些聲音。
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。