最近一段時間,AI(人工智能)被炒得神乎其神,似乎它無所不能。但事實上,據社交網站“臉譜”披露,要想欺騙AI把某個不存在的東西當作真實存在,比你想象的要容易得多。
譬如,在一張高清晰度的圖片中,隨機地降低某些地方的像素。這么一點微不足道的變化,人眼根本難以覺察,也不會影響我們的判斷;但AI卻能覺察出來其中的差異,并因此嚴重干擾了判斷,比如說把圖中的貓誤認作了狗。
再比如,據說現在谷歌的語音識別AI功能已經非常強大,能一邊聽語音,一邊筆錄成文字。但一位AI工程師略施小計,就把它給耍弄了:他在語音文件中摻入少量數碼噪聲,這點噪聲對于我們是不會有什么影響的,但讓谷歌的AI去識別,結果卻是筆錄下來的文字已跟原意大不一樣。
這些低級錯誤揭示出當前AI的一個重大缺陷:太拘泥于細節,“只見樹木,不見森林”,讓無謂的細節影響了對整體的判斷。如果這個弱點被黑客利用,后果將不堪設想。他們將能夠操縱無人駕駛汽車狂奔,無視紅綠燈;或者讓犯罪嫌疑人輕易躲過AI控制的監控攝像頭。
AI的決策規則不易被人知
為了解決這個問題,這就需要我們先去了解AI是如何自我學習,如何做決策的,但這一直是個難題。因為AI在自我學習過程中,經過海量的數據訓練之后,會自創一套決策規則,但它最后創立的規則到底是什么,這對于AI的設計者有時候都是一個謎。這一點其實跟人也是相似的。譬如,老師在課堂上向你傳授知識,但你是如何把這些知識點組織起來的,他也不見得清楚。
最近,美國布朗大學的克里斯·格林和他的同事開發了一個系統,有望突破這個困難。
這個系統能夠分析,當AI對一個圖像做判斷時,它是根據圖像的哪一部分做出判斷的;與此類似的,對于給文件自動歸檔的AI,這個系統也能夠分析,AI是根據文檔里的哪個詞對文檔進行歸類的。
為開發這個工具,研究小組用數碼噪聲依次替換圖片的一部分(相當于給這部分圖片打馬賽克,以便看看這樣替換之后,是否會對AI的判斷產生影響。如果更換部分的圖片改變AI最終的判斷,那說明圖片的這塊區域可能正是影響AI判斷的關鍵所在)。
一窺AI的決策過程
格林在給圖片分類的一個AI上測試了他的系統。這個AI被訓練把圖片分成10個類,包括飛機、鳥、鹿和馬等。格林的系統能夠暗中查看,當AI對圖片進行分類時,什么是它所倚重的,什么是被它忽略不計的。
結果表明,AI先是將圖片上的物體分解成不同的元素,然后搜索圖片中的每一個元素以確定把圖片歸到哪一類。
舉個例子。當AI觀察馬的圖片時,它首先關注的是其腿部,然后,尋找它的頭部。在觀察鹿的圖片時,它也采用類似的辦法,不過在關注了鹿的腿部之后,它接下去搜尋的不是頭,而是鹿角,因為鹿角是最能把鹿跟其他動物區別開來的,所以鹿角被置于優先的地位。至于圖片的其他地方,則被AI完全忽略了。
從這里我們看出,AI做決策的過程迥異于我們人類。我們是不會如此拘泥于局部的。面對一張鹿的圖,即使把它的角打上了馬賽克,我們也還是可以根據分叉的蹄子認出鹿來的,但對于“死板”的AI,它很可能就把它認作驢了。
格林的軟件可以幫助我們測試現有的AI,以便確保它們下判斷時,關注的是我們認為重要的東西,這對于改進AI有重要的價值。