像人類一樣,機器也能識別模糊的面部圖像——而且更快
得克薩斯大學和康奈爾科技學院的研究人員稱,打碼(像素化圖像)是模糊身份的狡猾方式,但計算機可被訓練得能識別出這些“被保護”的人。
如果攻擊者有一套清晰的照片可供練習,被像素化模糊的部分便昭然若揭。只要人工智能(AI)也能有相應的清晰照片集用以訓練,面部馬賽克作為匿名機制這種事還是讓它飄散在風中吧。
聽起來似乎沒什么大用——人類也能做到同樣的事情,但由于計算機化了,便可以自動執行,也就是說可以日夜不停,快速進行。
arXiv科學論文電子預印本庫中的一篇論文( http://arxiv.org/pdf/1609.00408v1.pdf )稱,像素化(拼接)、模糊(如YouTube上用的一樣),甚至加密JPEG系數(被稱為P3的機制:“隱私保護照片共享”),也擋不住恢復被保護的圖像。
他們認為,人工神經網絡可被訓練來成功識別人臉、物體和手寫簽名,即使這些圖像用上述模糊技術處理過。基于不同數據集合不同模糊類型,成功率在50%到95%之間。
他們的AI不需要人類來指出重要特征。不僅不需要預先指定相關特性,也不用知道部分加密或模糊化的圖像泄露出來的究竟是什么。神經網絡會自動發現相關特性,并學會利用隱藏和可見部分之間的聯系。
處理照片中唯一的難點,在于攻擊者需要巡游社交媒體,搜羅可能出現在給定照片中的可能人臉集合。但對于明星或公眾人物來說,這都不是事。
同樣的方法,適用于恢復被模糊化了的文本或手寫文字,只要攻擊者能找到訓練數據集(就像圖像識別模型的基準一樣存在于網上)。該論文還描述了用于訓練此模型的神經網絡架構,可供意圖更好地保護圖像隱私的開發者當做參考基準。