近日,央視報道了香港2億港元的“AI換臉”視頻會議詐騙案。這起詐騙案的特點是利用了人工智能的深度偽造技術,詐騙分子事先搜集了目標公司高層管理人員的面部和聲音數據,通過AI技術將這些數據“換臉”到騙子的身上,制作出看似真實的視頻會議,導致參加視頻會議的公司職員將2億港元轉入騙子的賬戶。
2月5日,香港警方公司披露了該案件,提醒廣大市民注意安全。2月7日,頂象防御云業務安全情報中心率先分析了該起,“AI換臉”視頻會議詐騙案的詳細結果,并列舉了幾類有效的安全檢測和防御方法。
其實,這起騙局始于2024年1月份,受騙員工收到一封自稱是公司總部CFO(首席財務官)發來的電子郵件。隨后,冒充公司CFO的詐騙分子組織了一次視頻通話,邀請該受騙員工,以及其他幾個異地辦公的“同事”一起參加一個視頻會議。視頻中,受騙員工發現公司CFO及幾個同事,外表和聲音、談話的語氣等與此前相仿,于是打消了早期的疑慮。
會議結束后,該受騙員工在欺詐分子冒充的CFO指示下,一周內進行了15筆交易,金額達2億港元(超過2500萬美元)。在此過程中,詐騙分子還使用WhatsApp、電子郵件和一對一視頻通話與該員工保持聯系。事后,受騙員工向公司負責人匯報整個交易過程,才意識到自己被騙了。
香港警方分析發現,這是一起精心策劃的騙局。詐騙分子通過社交媒體和視頻平臺上,尋找并下載了該公司CFO以及其他幾個人的照片、視頻,然后使用深度偽造技術偽造出不同人員聲音,再合成到偽造的欺詐視頻片段中。受騙員工參與的視頻會議中,除了他自己是真人外,其他全部為偽造的虛假視頻。而被詐騙的資金被發送到五個當地銀行賬戶,然后迅速被人分散轉走。
如何發現視頻中“換臉”的壞人
這起詐騙案對企業和個人都敲響了警鐘。深度偽造已經達到了無法用肉眼檢測到的復雜程度,除非接受過專門培訓,否則AI生成的虛假身份可能很難被人識別出來。深度偽造質量的提高,檢測是一大難題。不僅肉眼無法有效識別,一些常規的檢測工具也不能及時發現,企業和個人在遇到類似“視頻”場景時,應保持警惕,需要采用多重策略來識別與防御深度偽造欺詐。
在視頻對話的時候,可以要求對方摁鼻子、摁臉觀察其面部變化,如果是真人的鼻子,按下去是會變形的。也可以要求對方吃食物、喝水,觀察臉部變化?;蛘?,要求做一些奇怪的動作或表情,比如,要求對方揮手、做某個難做的手勢等,以辨別真假。在揮手的過程中,會造成面部的數據的干擾,會產生一定的抖動或者是一些閃爍,或者是一些異常的情況。在一對一的溝通中可以問一些只有對方知道的問題,驗證對方的真實性。同時,當有人在視頻或錄音中提出匯款要求時,必須致電或從其他渠道一再核實。
此外,基于人工審查與AI技術相結合的人臉反欺詐系統,能助力企業提升反欺詐能力。頂象全鏈路全景式人臉安全威脅感知方案,能夠有效檢測發現虛假視頻。它通過人臉環境監測信息、活體識別、圖像鑒偽、智能核實等多維度信息對用戶人臉圖像進行智能風險評估、風險評級,迅速識別虛假認證風險。
頂象全鏈路全景式人臉安全威脅感知方案,針對人臉識別場景及關鍵操作的實時風險監測,針對性地監測如攝像頭遭劫持、設備偽造、屏幕共享等行為,并觸發主動防御機制進行處置。在發現偽造視頻或異常人臉信息后,該方案系統支持自動執行防御策略,設備執行命中防御策略之后對應的防御處置,可以有效阻斷風險操作。
另外,減少或者杜絕在社交媒體上分享賬戶服務、家庭家人、交通出行、工作崗位等敏感信息,防范欺詐分子盜用下載后,進行圖片和聲音的深度偽造,而后進行身份偽造。并持續對公眾進行深度偽造技術及其相關風險的教育,隨時了解AI和深度偽造技術的最新發展,以相應地調整保障措施。