人工智能模仿人類行為的一些案例
2016年,微軟聊天機器人變成了種族主義者和厭惡女性的Twitter咆哮帝。之后,在同一年,Facebook不得不關閉已經開始以一種陌生的新型語言相互溝通的兩個聊天機器人。然后,在2017年,觀察者緊張地觀察到Google深度學習系統的火柴人(stick figure)正在自我學習如何走路,即通過屏幕數字課程來笨拙地摸索它的行走路徑,且將其手和腳在空中伸展從而跳躍到終點線。
人工智能在模仿人類行為方面所做的一些努力,盡管可能很有趣,但卻讓我們感到有些粗糙和笨拙。
開發一款能預測人類行為和社會事件的人工智能社會模型系統
現在,來自牛津大學、波士頓大學、挪威阿格德大學的研究者組成的研究團隊正在研究怎么讓人工智能不僅僅停留在“動畫回形針”(animated paper clip)階段,而是讓其走得更遠一些。他們聲稱已經開發出一款新的人工智能模型,能夠預測人類行為,特別是社會動蕩事件。
該研究團隊計劃利用人工智能去理解出于宗教動機的暴力行為背后的社會動機。他們仿照著名的計算機游戲The Sims設計出一套的人工智能系統。在該人工智能系統中,分別有著獨特情緒和欲望的不同虛擬人物可以參與“模擬人際交互”(simulation of human interactions.)。然而,和The Sims 不同的是,該人工智能系統沒有針對虛擬社會的可視元素。 相反,該人工智能系統參與成員通過一個類似于社交媒體平臺的消息系統進行人際交互。
“每一個系統參與成員或模擬代理(simulated agents),被開發設計成擁有一個盡可能與人類相似的認知結構,”LeRon Shults說。LeRon Shults是挪威克里斯蒂安桑社會系統建模中心(the Center for Modeling Social Systems in Kristiansand, Norway)的主任,也是去年十月份發表在《人工智能社會和社交模擬雜志》(the Journal of Artificial Societies and Social Simulations)上一篇研究論文的共同作者之一。
該項研發可以對個體行為進行深度跟蹤和分析。該研發項目的研究者有可能能夠將某人(individual agent)從群體中分辨出來,例如一個少數族裔群體女性。方法是,在他們創建的一個特定的虛擬社會中問她一些特定問題。
人工智能社會模型系統運行設計機制
就像The Sims一樣,該研究團隊開發設計的方法,就是賦予每個虛擬人物不同性格特點,然后通過編程讓他們進行人際交互。每一個虛擬人物,或被劃分為宗教信仰多數,或被劃分為宗教信仰少數,以及其他一系列宗教信仰設定。
值得注意的是,該人工智能系統正在用機器學習進化。即計算機系統被喂數據,然后用這些數據與自己已有數據進行交互,Justin Lane說。 Justin Lan牛津大學認知與進化人類學研究所(Oxford’s Institute of Cognitive and Evolutionary Anthropology)研究員,也是上述Shults論文的的共同作者之一。在這個人工智能開發案例中,該研究團隊將算法設計成一種信息處理方式與人類大腦處理信息相同的算法。 其目的就是要創建像人類一樣思考的模擬代理。
人工智能社會模型系統與人類的差異
其中與人類的差異之一,可能是,人類是靠不斷進化的心理機制進行反應,不是靠學習,例如我們會天然地同情在公共場所患病的人。
“大多數機器學習算法不能反應真實的人類情緒和人類群體理性,但是所有這些算法變量是在社會科學領域卻是有著很高的研究意義,” Shults說。
創建更為真實的人造社會模型系統
Sluts還補充到,在認知上上的模擬更為真實的模型應該會開啟其在真實世界應用的無限可能性。
研究團隊正在研究其他相關的當代人類情景,例如歐洲城市間人口遷徙、政治極化和氣候變化等。
“這項研究探索就是要創建和提供一個更為真實的人造社會,其可以更為直接地預測社會事件和傳遞政策動向”, Shults說。
目前人工智能社會模型系統就有著廣泛的應用
在人工智能社會模型開發的早期,其已經有很多可能的用途。
“社會模擬(Social simulation)是一個相對新的領域,但是該領域在近期已經發展起來” Flaminio Squazzoni說。Flaminio Squazzoni是意大利米蘭大學行為研究實驗室(behavior research lab at the University of Milan in Italy)的主任。他認為:社會模擬在諸多領域有著廣泛的應用,最有趣是輿情搜集研究(the study of collective opinion)。
對人工智能社會模型系統預測社會場景和事件的爭論
然而,許多研究者正在爭論——這些虛擬的模型如何準確地預測社會場景和事件。
“預測是科學進步的關鍵,但當涉及預測人類行為時,就會非常麻煩,因為不同個體往往從理性角度去考慮進而產生各式各樣的觀點和行為動向”,Squazzoni說。
他依然認為,社交模擬很有潛力被應用于政策制定領域,因為其可以徹底允許利益相關者對某特定政策實施和適用進行實驗和測試,而不用進行可能有倫理問題的真人社會實驗。
人工智能社會模型系統應用的負面影響
Lane的研究工作已經引起決策制定者的興趣和關注,例如意在測試和了解特定政策對特定人群的影響以及該人群反應的立法者。 但是對該項人工智能技術應用也有著一些負面和消極觀點。例如,科技創業者Elon Musk在2014年發推說:“人工智能潛在的危險比核武器更大。”
“人們對人工智能系統的恐懼,大部分來源于媒體的錯誤夸大”,Cristobal Valenzuela。Cristobal Valenzuela是紐約大學互動電信研究計劃(New York University’s Interactive Telecommunications Program)的研究員,以及一家為使人工智能系統為普通大眾可用而開發和提供相應工具的公司Runway的創始人。
Valenzuela認為:自從2016年聊天機器人出現流氓事件以來,媒體就戴著有色眼鏡去審視人工智能,將其宣傳為一套“試圖學習東西,卻失敗”的計算機系統,而不是將其描述為某種“類人物”。“它僅僅是一個還不完美的數據函數,” Valenzuela補充道。
該研究團隊將人工智能社會模型代碼開源
為努力改善人工智能公共可獲得性,Shults和他的研究團隊同事已經將他們的人工智能社會模型代碼公開,即開源。 這意味著其他開發者也可以訪問和修改該模型代碼。 Shults 說:“我們真的很明確我們的理論假設和人工智能模型的目的。那就消除未來的社會沖突。”
人工智能社會模型的研發方向
該研究團隊正在研究類似于The Sims用戶界面。Shults 說:“我們將要開發和設計的模型將是‘基于經驗驗證的,更為綜合的,更具有政策指向性的’。”
因此,不完全像The Sims ,但可能更為有用!