人臉識別、語音識別、無人駕駛、智慧物聯……當人工智能越來越多地滲透到我們的衣食住行,帶給人類更多未來想象的同時,安全問題就成了懸在每個人頭上的“達摩克利斯之劍”。人工智能學者和安全專家、“白帽黑客”們紛紛攜起手來,共同應對這場人類前所未有的機遇與挑戰。
人工智能挑戰來襲
如未知“攻”,焉能知“防”
“一開始,我們只是對人工智能感興趣,想試試看它到底是怎么回事兒。后來的發現讓我們驚喜,我們居然能用人工智能的方法去攻破人工智能本身。”
“砰(Pwn)——!只用了20秒,它就被我們攻破了。”李偉的聲音從電話那頭傳來。美國當地時間已經過了午夜12點,回憶起10個月前的那場比賽,他依然難掩興奮……
美國科羅拉多大學電子工程系博士畢業、現供職于美國某科技公司的李偉總這樣介紹自己:我是一名極客。所謂極客,是美國俚語“geek”的音譯,就是指那些對計算機和網絡技術有著狂熱興趣,并投入大量時間鉆研的人。李偉口中的“砰(Pwn)”,則是黑客圈的俚語,原本用來形容黑客成功實施攻擊時的聲音——“砰”的一聲,你的手機或電腦系統就被“黑”了。李偉和團隊參加的比賽“極棒(GeekPwn)”便由此得名。
2017年 11月 13日,極棒(GeekPwn)2017國際安全極客大賽在美國硅谷舉辦。作為全球首個關注智能生活安全的極客大賽,這里匯聚了來自世界各地的頂級黑客和人工智能領域的安全專家、學者。
在現場數百雙眼睛的注視下,李偉和隊友用他們花了半年時間研發的、能夠自動識別圖像驗證碼的“機器人”,成功攻破了目前世界上使用最廣泛的人機鑒別驗證碼系統Google reCAPTCHA,整個攻擊過程只用了短短20秒。這段比賽視頻通過網絡直播,在極客圈和黑客圈內廣為流傳。
“一開始,我們只是對人工智能感興趣,想試試看它到底是怎么回事兒。后來的發現讓我們驚喜,我們居然能用人工智能的方法去攻破人工智能本身。”李偉告訴記者,他們利用了開源人工智能深度學習框架,并用人工標記的方式讓模型“學習”了1000張Google reCAPTCHA驗證碼的圖片后,訓練出了一個能夠自動預測并識別驗證碼圖像的“機器人”。借助這個“機器人”,他們在場上用極短的時間就成功“騙過”了Google reCAPTCHA的安全系統。
“攻擊是一定會發生的,無可避免。”極棒大賽創辦人、碁震(KEEN)公司創始人兼CEO王琦告訴記者。
這位業內人稱“大牛蛙”的資深極客,曾是微軟中國安全應急響應中心的主要創始人和技術負責人。2011年,他離開微軟,在上海創辦了自己的安全研究團隊,并一舉在世界最著名的黑客大賽Pwn2Own中,成為歷史上第一支同時攻破電腦操作系統和移動操作系統的安全研究團隊。
正是在那時,王琦發現,以前在電腦上出現的安全問題,同樣也會在手機等移動設備中出現。他始終相信,漏洞歸根結底是人的錯誤,而網絡安全的本質,就是人和人的對抗。
在安全專家們看來,即使到了人工智能時代,這個定律也不會被打破。
2016年,人工智能機器人阿爾法狗(AlphaGO)擊敗人類圍棋世界冠軍李世石,震驚世界。人工智能迎來爆發式增長。與此同時,關于其安全風險的討論也從未間斷。
為了能了解更多人工智能漏洞,有針對性地提出安全方案,極棒組委會在2017香港年中賽結束時向全球黑客發出邀請,鼓勵他們腦洞大開,從對抗出發,向新的安全領域——人工智能安全發起挑戰。
“在PC和移動端上出現的問題,人工智能一樣會出現。如果你不了解黑客是如何攻破這些漏洞的話,你永遠不可能防住黑客。”王琦強調。
黑客有改變世界的力量
幸運的是,現在我們站在一起
面對突飛猛進的人工智能,這些“白帽黑客”又化身為AI時代的安全衛士,成為未來人工智能安全領域中不可忽視的力量。
在大多數人的認知中,黑客總感覺像是干壞事的。殊不知,其實在真正的黑客世界里,有“白”也有“黑”。他們所做的內容相似:通過代碼尋找計算機與網絡系統中的安全漏洞。“白帽黑客”發現漏洞后,會通過提示廠家或公開發布等方式,促進漏洞的修補;而真正的“駭客”則會利用漏洞進行技術攻擊,以謀取利益。
極棒想做的,就是通過比賽,讓“白帽黑客”在安全領域的價值得到最大限度的發揮和認可。自2014年第一屆極棒大賽舉辦以來,“白帽黑客”們已經發現、提交并幫助廠商修復了上百個安全漏洞。而面對突飛猛進的人工智能,這些“白帽黑客”又化身為AI時代的安全衛士,成為未來人工智能安全領域中不可忽視的力量:
2017年,來自美國加州大學伯克利分校的選手展示,在人眼仍能識別正確的情況下,只通過在圖像上添加少量噪點,就誤導了某自動駕駛設備將限速60km/h的指示牌識別成了限速75km/h;來自中國金融認證中心機器學習實驗室的選手,通過機器學習模仿了人類的筆跡;在剛剛結束的以AI手段進行的安全攻防賽CAAD CTF上,來自清華大學的TSAIL團隊,用幾張人眼難以分辨的圖片成功騙過機器視覺,讓AI誤將鐘表識別成蘑菇,而把蘑菇當成航天飛機……
“白帽黑客”的挑戰不斷刷新著人們對人工智能安全的認知,而他們的作用遠不止如此,一場自下而上的對安全觀念的改變已經開始。
最初,廠商們總認為“白帽黑客”是來找茬的,不但不接受邀請觀賽,還設置了各種障礙。2014年,第一屆極棒大賽甫一開幕就遭到打擊:比賽現場頻頻出現網絡故障,直播也被迫中斷,甚至有廠商因為怕一旦被攻破,會影響自己的聲譽,干脆直接關掉了服務器,導致挑戰項目無法進行……
變化在過去幾年發生。王琦欣喜地看到,現在,已經有越來越多的人認識到,或許我們應該從黑客的角度去理解安全——既能減少漏洞,又能增加攻擊成本,從而降低安全隱患。這樣的方式又何樂而不為呢?
在極棒官網上,有這樣一句話:“黑客有改變世界的力量。幸運的是,現在我們站在一起。”守護AI安全,需要千千萬萬“白帽黑客”,更需要黑客的對抗思維。
從被動處理到主動研究
幫谷歌、亞馬遜找出漏洞
安全團隊要做的不再僅僅是傳統的設置防火墻、加密文件、安全監控,而是需要從攻擊者的角度出發檢視自身存在的漏洞,并且及時進行修復,就像體育運動里的攻防轉換一樣。
智能時代,傳統的安全方案是否還能行得通?面對人工智能技術帶來的新挑戰,傳統的互聯網和科技巨頭們又如何應對呢?記者采訪發現,一套基于黑客攻防對抗思維的安全策略,在人工智能安全領域正悄然生長。
“安全絕不僅僅是被動的事后處理,而是要主動研究最前沿、最尖端的技術,用未雨綢繆的前瞻性研究來武裝我們的工作。”在今年6月舉行的2018全球人工智能與機器人峰會 (CCFGAIR)上,騰訊安全平臺部總監、Tencent Blade Team負責人胡珀,如是揭秘騰訊對人工智能的安全布局和最新進展。
胡珀向記者介紹,這支去年年底創立的安全團隊,主要專注于人工智能、移動互聯網、無人機、物聯網等國際范圍內的安全研究領域,自成立以來已經發現了谷歌、蘋果、Adobe、亞馬遜等多個知名廠商的70多個安全漏洞。
他們發現,目前人工智能領域的安全問題主要集中在三個層面:一是人工智能技術本身的安全風險;二是智能設備和系統運行環境的安全風險;而最根本的,還是人工智能算法和模型的風險。
谷歌的TensorFlow是目前世界上應用最廣泛的人工智能深度學習框架之一。去年年底,Tencent Blade Team高級研究員張博和同事們卻發現,TensorFlow存在“嚴重的安全風險”。由于深度學習框架是一切人工智能編程和應用開發的基石,一旦被黑客攻擊,可能導致開發者的AI模型被竊取,而這些模型一旦被篡改,后果將不堪設想:危害取決于開發者利用TensorFlow建立了什么樣的人工智能應用,如果是人臉識別,則可導致錯誤的驗證結果,如果是自動駕駛,則有可能車毀人亡……
發現漏洞后,張博和同事們第一時間向谷歌報告了這一風險。這是第一個被谷歌官方承認的TensorFlow安全風險,并由此建立了快速漏洞響應機制,及時公開安全漏洞的編號、類型和解決方案。
除了對人工智能算法的安全性研究,人工智能設備本身存在的安全問題,也是安全專家們關注的重點。
智能音箱是近兩年來最流行的人工智能設備之一,人們可以通過語音聊天的方式和它進行交互,從而控制家里電器的開關、查詢和安排日程、購物、播放歌曲等。然而,由于智能音箱具有“聽”的功能,長期以來人們對它的安全性也十分擔心。
日前,Tencent Blade Team研究員伍惠宇、錢文祥、李宇翔三人發現,面市最早、市場占有率最大、技術也最為成熟的智能音箱之一亞馬遜智能音箱Amazon Echo存在安全漏洞。黑客能夠在Amazon Echo的靜默狀態下(無喚醒,提示燈不亮),竊聽用戶的說話內容。
今年5月,團隊將一份完整的漏洞細節報告提交給了亞馬遜公司。亞馬遜安全部門立刻進行了分析和響應,并向Tencent Blade Team表示感謝。兩個月后,所有用戶的Amazon Echo漏洞得到了修復。
“現在,越來越多的廠商建立了漏洞響應和修復機制。安全團隊要做的不再僅僅是傳統的設置防火墻、加密文件、安全監控,而是需要從攻擊者的角度出發檢視自身存在的漏洞,并且及時進行修復,就像體育運動里的攻防轉換一樣。”錢文祥說,“這就對安全人員的素質和能力提出了更高的要求。”
2017年底,位于深圳南山區、被譽為可能是“全球最智慧建筑”的騰訊濱海大廈即將投入使用。Tencent Blade Team又將目標瞄準了這座騰訊全球新總部大樓。
他們將一架大疆無人機飛到大廈的某個樓層平面,利用無線安全協議漏洞控制了整個樓層的燈光、空調、插座和窗簾……這本是騰訊濱海大廈投入使用前一場必要的內部安全測試,卻被騰訊的安全團隊們視為最佳“練兵場”。在這里,他們將建立起一套針對目前世界上最先進的人工智能設備和物聯網技術的安全策略。
“顛覆”還是“進化”
悲觀派與樂觀派的博弈
一個不爭的事實是,無論人類擔憂與否,人工智能都不會停下它噴涌向前的腳步。
“人工智能可能是人類歷史上發生的最好的事,也可能是最壞的事。”在極棒2017上海站比賽開場前,這段世界著名的天體物理學家霍金的講話視頻在大屏幕上被一遍遍地播放。這位被稱作世界上最著名的、對人工智能持保守悲觀態度的科學家,曾就人工智能可能帶來的風險數度向人們發出警告。
“人類對AI的恐懼,實際上是對未知的恐懼。”王琦告訴記者,對于人工智能的未來走向,自己是“悲觀派”,對于這一點他從不諱言。“悲觀派”們堅持認為,人工智能的高速發展將對人類生存帶來極大挑戰,經過漫長的技術積累,與人類智能水平并駕齊驅的強人工智能終將到來,而這一時刻就是所謂的技術“奇點”。之后,智能機器開始擺脫人類控制,進而爆炸式進化,到那時,人類對此將無能為力。
相反,“樂觀派”們則認為這一天永遠不會到來。人工智能科學家們否認所謂的“智能爆炸”,因為他們認為,人類智慧不僅是指人類大腦的能力,更儲存在文明之中,所謂“智能”往往依賴于具體的場景和環境,通用智能并不存在。未來,人工智能遞歸式的自我完善將會成為常態,但“爆炸”和“奇點”不會發生。
中國科學院自動化研究所復雜系統管理與控制國家重點實驗室主任王飛躍在接受記者采訪時認為,人工智能會在技術層面、社會層面和道德層面給人類帶來風險。“但無論是 ‘顛覆’還是 ‘進化’,都不應該成為當下人工智能討論的焦點。真正的焦點應該是實踐和實效。”王飛躍強調。
一個不爭的事實是,無論人類擔憂與否,人工智能都不會停下它噴涌向前的腳步。然而,一個更為現實的問題卻是,提到人工智能,大多數人往往憂心“人類會被機器統治”之類的科幻片中的恐怖場景有天會變成現實,而忽視了一些更加迫在眉睫的危機……
相比于“人類會被機器統治”
或許,這些危機更值得警惕
如果我們大部分的恐懼都被證明是荒謬的,那么真正的危機恰恰是因為發生前多數人的不擔心所造成的。
如果說第一次、第二次工業革命離我們太過遙遠,那么你一定還記得幾十年前的“電腦恐懼癥”——隨著個人電腦的普及,許多人憂心忡忡,焦慮、恐懼,甚至出現攻擊行為,一如機器剛出現時給手工工人帶來的恐慌。人們被計算機和互聯網吸引,又對它的潛力充滿敬畏,因為不了解而擔心自己有一天被它取代。
但事實證明,絕大多數擔憂并沒有發生,計算機并沒有取代人類,也沒有引發大規模的失業,相反,人們已經從容地進入互聯網時代,享受它帶來的便捷。然而,當時幾乎沒人警告過的危機現在卻實實在在地發生著:電腦給人帶來心理異化,人們的耐心和專注力正被消磨;互聯網黑產對個人數據的追蹤,無處不在的“監視”;敵對勢力通過社交網絡入侵,國家安全面臨新的挑戰……
這些經驗提醒我們,如果我們大部分的恐懼都被證明是荒謬的,那么真正的危機恰恰是因為發生前多數人的不擔心所造成的。
事實上,人工智能時代,這些容易被人忽視卻又最不該被忽視的風險已經漸漸展露——
今年3月,全球最大的社交網站Facebook被爆超過5000萬用戶的信息數據泄露。一家數據分析公司“劍橋分析”通過建立模型,對這些數據進行分析,辨別這些用戶的性格和政治傾向,有針對性地推送廣告甚至是假新聞,從而影響了他們在2016年美國大選中的投票。事實上,這并不是孤例。近年來,一些互聯網消費平臺也接二連三被爆出“大數據殺熟”,引來質疑不斷……
隨著人們的生活越來越數字化,社交媒體、網購平臺甚至智能硬件廠商,越來越了解人們的生活和思想,也將越來越多地通過人工智能算法控制每個人的信息接口和消費。人工智能可以隨時感知我們的行為和想法,我們看到的新聞和廣告變成了算法的“策劃”,并且不斷調整提供給我們的信息,進而影響我們的判斷和行為。
比起現實生活中那些已經顯現的智能設備漏洞,或者“人類會被機器統治”這樣相對遙遠的末世預言,通過人工智能算法“操縱”用戶的思想和行為,來實現不透明目標,其危害性更大,也更值得警惕——在記者的此次采訪中,諸多人工智能學者和安全人士都表達了相同的關切和擔憂。
硬幣的兩面
危機四伏就只能主動出擊
它們不再是習慣性地先做產品,再增加安全防護,而是從規劃和研發階段就開始了安全策略的部署,安全成了所有“0”前面的“1”。
任何事情都會有好有壞,就像硬幣的正反兩面,相伴而生,無法割裂。正邁入智能時代的每個人都清楚,人工智能大勢已至,人類不能,更不該因噎廢食。
“對于每個普羅大眾來說,也許我們無法左右技術發展、國家政策,我們能做的只是保護好個人隱私,盡量購買大廠商的智能設備,及時更新漏洞……但這并不妨礙我們每個人去關注和擁抱AI,并且時刻對它的安全性保持警惕。”采訪中,一位普通市民如是說。
“政府、學界和企業三股力量正加速探索建立有效的合作模式,以應對人工智能發展中面臨的安全挑戰。”王飛躍告訴記者。
讓用戶從“安全”到“安心”,成為人工智能學者和安全從業人員的追求目標。越來越多的企業意識到,安全能力與應用研發、產業發展同樣重要。它們不再是習慣性地先做產品,再增加安全防護,而是從規劃和研發階段就開始了安全策略的部署,安全成了所有“0”前面的“1”。
政府層面也在持續發力。去年7月,國務院印發《新一代人工智能發展規劃》,提出要“建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力”。
本月,2018世界人工智能大會將在上海召開。屆時,諸多國內外政要、學界泰斗和行業龍頭將齊聚黃浦江畔,人工智能的安全挑戰、政策法規和標準體系將會成為會議的重要議題。未來,智能社會法律和倫理道德的邊界將更加清晰。
誠然,如果說人工智能技術的不確定性讓人類獲益的同時,又帶來一個危機四伏的未來的話,那么面對危機,除了主動出擊,我們別無選擇。