當看到這么多科技大咖對我們人人稱道的人工智能如此警惕,甚至將其列為人類發展的威脅時,坐不住的小編決定仔細了解了解,這個由AlphaGo下圍棋不斷戰勝人類選手而被大眾所周知的人工智能,到底是何方神圣。
1.人工智能的學術定義
“人工智能”(Artificial Intelligence)這一術語,是在計算機科學剛剛萌芽的1956年夏天,美國達特茅斯學院召開了兩個多月的會議后,由學者經過充分的總結和討論所提出來的術語。斯坦福大學人工智能實驗室的教授尼爾森提出了一個可供參考的定義:“人工智能致力于使機器智能化,智能化是衡量實體在特定環境中翻譯和判斷能力的定量指標。”
敲黑板,學術界將反應和判斷能力作為定量指標來判定智能化與否。結合到人類本身,反應可以被理解為我們的聽說讀寫,而判斷則和我們的意識與獨立思考相關。
是不是感覺十分驚訝,我們認為的如此前沿、高大上的AI,早在六十多年前就已經被科學家們所提出并定義!
成千上萬的碼農所揮灑著青春和荷爾蒙的人工智能領域,發展到今天,涉及到機器人控制、語音識別、圖像識別、自然語言處理和專家處理等技術。
2.強弱對比
為了能夠進一步了解這些科技大佬們在說些什么,我們必須得明晰一組概念,強人工智能和弱人工智能。
其中,強人工智能的觀點認為有可能制造出真正能夠推理和解決問題的智能機器。并且這樣的機器是有知覺和自我意識的。它包括我們通常認為的類人型人工智能,即機器擁有像人類一樣的推理和思考。還包括了超越人類思考方式,運用與人類完全不同的知覺和意識去推理的非類人型人工智能。我們總是對未知的事物充滿著好奇與恐懼,試想一下,如果人類真正造出了超越自己思考方式的人工智能機器,那么他們是會與我們和平共處,還是像《三體》里面所論述的“宇宙森林”法則一樣,毫不猶豫地選擇消滅人類文明呢?
另一種,是弱人工智能。這種觀點認為不可能制造出能夠真正地推理和解決問題的智能機器。這些機器只是看起來是智能的,但是并不會真正的擁有智能,也不會有自我意識。目前,主流的科研都是集中于弱人工智能上,科學家們已經在這一領域中取得了可觀的成就。而強人工智能則停滯不前。
3.圖靈測試
目前對于人工智能應用還是相對原始。看起來很厲害的語言處理和圖像識別,其實就是通過一些算法拿語料庫或者圖像庫進行學習訓練出來的。準確的說,其實是對人類智能的模擬,也就是前面所說的弱人工智能。
那么如何判定一個機器是否是真正具有強人工智能呢?在專業領域一個公認的標準,就是“圖靈測試”:
如果一臺機器能夠通過電傳設備與人展開對話,并且會被人誤以為它也是人并且懂這種語言,那么這臺機器就擁有智能。
但是,這個測試也并不算精確,早在20世紀80年代初就有美國哲學家John Searle提出了“中文屋”來反駁“圖靈測試”。
這個實驗中,你是一位只會說英語的人。你處在一個只有一個開口小窗戶,其余全部封閉的房間里,房間里有足夠的稿紙、筆和櫥柜。你隨著帶著一本寫有中文翻譯程序的書,需要將通過小窗戶送入房間內寫有中文的紙片翻譯出來,并且用中文回復。雖然你完全不懂中文,但是也可以通過這個過程,讓任何房間外的人以為你的中文水平很好。
“中文屋”實驗可以說是對強人工智能假說的第一次打臉,Searle指出當時設想的絕大多數人工智能實現方案都不是強人工智能。畢竟,從哲學的角度,一個大力士力氣再大,也不能將自己舉起來。人類想通過已有的思考方式,制造出自己也完全沒有的思考方式,從過程本身來講,就難以實現。
好了,有了這些了解后,我們再去好好看看這些科技大咖們的言論。在小編看來,這些像神一樣存在的大佬們,在公開場合發表的言論必定是周全完整的,以偏概全可不是他們的姿勢水平。
果然,看完原視頻后,才發現,這哪里是媒體們斷章取義表達出來的意思。大佬們是對強人工智能發展的謹慎。進一步講,這些社會精英們對于人工智能的擔憂和警惕主要集中在可控性方面。就像霍金所說:“隨著好處的帶來,人工智能也會帶來危險,比如強大的自動武器,或少數人欺壓多數人的新方法。”作為能夠影響人類科技發展方向的科學家,有責任有義務提醒社會、提醒公眾防患于未然,希望能夠靠制度上的風險控制來運用好科技這把雙刃劍。同樣的,就像當年的核裂變技術,可以發展出原子彈,直接能夠導致人類的終結,也可以嚴格禁止管控核武器,將技術用于核電站發電,造福人類。
此外,人工智能技術逐漸成熟,也會反過來帶給人類更加緊促的時間觀、壓力和焦慮。也就是數年前,我們還沒有那么喜歡看短至十幾秒的視頻,沒有鋪天蓋地的信息紛擾帶給我們巨大的學習壓力,不會擔心受怕隨時會被時代的發展潮流所拋棄。未來,我們自己、我們的家庭、我們年邁的父母,又將如何更快的去適應、去習慣,由人工智能帶來的翻天覆地、晝夜不息的變化?
所以說,人工智能大發展中真正值得警惕的,不是技術本身,而是技術帶來的一系列影響,以及人的自我意識和格局等等是否還能和飛速發展的時代匹配起來。對技術的發展持樂觀積極態度,對自身和制度的發展多一份重視和準備,也許才是我們面對人工智能應有的做法。