智東西6月28日消息,堪薩斯州立大學和路易斯維爾大學的三位AI安全研究人員合作發布了的一篇新論文《A Psychopathological Approach to Safety Engineering in AI and AGI》,如果AI學會像人一樣思考,那么有朝一日它也可能會身患壓力和抑郁癥等癥狀。
機器人或許現在暫時還不需要被治療,但認知心理學已經被發現是理解人工智能決策的有效途徑。此外,一些研究人員表示,現在開始研究機器發展強迫癥或抑郁傾向的可能已經不算早了。
這篇論文的合著者、堪薩斯州立大學的一位博士候選人Vahid Behzadan表示,即使是當前相對基本的機器學習算法也可以表現出與人類相似的認知問題。
1、“獎勵黑客”
“獎勵黑客”,就是指不合適的獎勵設置可能導致AI走向“強迫性表面行為”(Compulsive-seeming behaviors),也就是說,AI可能會做一些表面服從而背后偷偷耍小聰明的事。舉個例子,一個清潔機器人被程序設定為每次完成清理時都會收到獎勵。那么,與其保持一片無瑕的區域,它可能會更樂于反復地制造混亂,這樣它就能在每次清理時獲得獎勵。
2、AI可以學習別人的不良行為
麻省理工學院的科學家故意創造了一個不正常的AI,通過給它灌輸Reddit論壇里魚龍混雜的評論,導致它的行為活像一個精神病患者。巧合的是,微軟也做了類似的工作,即讓一個名為Tay的聊天機器人學習Twitter用戶們的評論方式。
一些專家表示,更發達的AI可能更容易患上更復雜的身心失調問題。
1、機器人可能有抑郁癥表現
葡萄牙尚帕利莫中心(the Champalimaud Center)的神經科學家Zachary Mainen推測道,如果機器人的學習速率被設置的太低,它很可能無法適應周圍環境。
2、并非所有的“負面”情緒都不好
一位長期的AI研究人員Jim Crowder曾在雷神公司(Raytheon)合著了一篇人工心理學論文,他認為負面情緒在某些情況下也不都是壞事。比如,壓力感能夠在高風險情況下引起機器人的緊迫感。
這些后面所說的可能性僅僅是現在設想的AI實驗方向。與此同時,谷歌在2014年收購的英國AI公司DeepMind已經應用心理學工具來分析神經網絡如何解決基本的圖像分類任務。
1、研究人員使用發展心理學家的方法,以研究DeepMind圖像分類器正用于分類對象這一假設。他們發現,這個分類器更傾向于根據它們的形狀而不是它們的顏色或紋理來匹配對象。
2、DeepMind的兩名研究人員在他們的實驗中寫道:“案例研究的成功證明了使用認知心理學來理解深度學習系統的潛力。”
無論是人類還是專門的算法,可能總有一天需要AI心理學家用人類心理學家試圖理解我們心理的方法來探究AI大腦。Behzadan認為,這項研究可以為人類心理學和人類精神病理學提供更深入的見解。