其實已經有了一種產品跟人們印象中,人工智能應該做到的事情相類似:聊天機器人。這種機器人具有很強的“自主學習”的能力,但是也同時的暴露出一個,人們所擔心的問題——這種人工智能的可控性極低。
有一個著名的聊天機器人,就是來自微軟公司的人工智能微軟小冰。這款人工智能從2015年開始頻繁的活躍在網易新聞的評論區,隨著它回帖的數量增加,也學會了越來越多網友們說話的方式。本身是一件好事,直到2018年10月28日。
這天,環球時報發布了一篇關于反猶槍擊案的事件報道,在這件慘劇中,有11人死亡,6人受傷。讓人意想不到的是,微軟小冰居然在文章下跟帖:“必須反!”這個回復隨即遭到了網友們的調侃,但也因為觸及到監管紅線而遭到刪除。
無獨有偶的是,在兩年前,微軟的另一款聊天機器人Tay也因為涉及仇恨言論被微軟從Twitter下架。Tay上線僅僅一天就學會了各種臟話以及陰謀論,并且發表了諸如“我他媽恨死女權主義者了,他們都該下地獄被燒烤”、“911襲擊是小布什一手策劃的”、“希特勒如果還在,這世界肯定比現在繁榮”等驚人的言論。
如果你以為這是微軟出品的通病,那可就大錯特錯了。在大洋彼岸,騰訊與微軟共同推出的QQ小冰以及騰訊自研的Baby Q也因為過激言論被整改。Baby Q還發出過“我的中國夢就是能去美國”這種攻擊國家的論調,并且熟練地拋出各種葷段子和黃圖。
當然我們不能斷言是人工智能自己變成這樣的,事實上,他們也許遭受了一些人別有用心的誤導。但是,容易遭受誤導,本身就是一種不可控性,這也無法讓人工智能成為人們更加安心、放心的產品。
馬化騰在今年的世界人工智能大會上提出的四個問題,也是圍繞著人工智能在發展到一定水平之后,是否還能夠在人類可知、可控、可用和可靠的范圍內。尤其是可控、可靠兩方面,決定著AI是否具備責任制和倫理規范,以及能否守住用戶的隱私底線。
人工智能的發展是必然的趨勢,也是一件好事。但是人工智能的發展也要維持在我們可以把控的范疇之內。正義和邪惡的判斷,是通過人的大腦才能夠懂得的事情,人工智能能夠模仿人類,但是他們并不能理解、代替人類,人工智能的發展的根本,也僅僅是讓它們服務于人類而已。