如果我們被電腦超越會(huì)發(fā)生什么事?日本科學(xué)家發(fā)明了一種運(yùn)算速度極快的機(jī)器。這臺(tái)機(jī)器和人類猜拳時(shí),每次都能贏。
通常認(rèn)為,通用人工智能一旦達(dá)到人類智能的等級(jí),就會(huì)很快超越人類智能。而一旦超越人類,它就不需要我們幫它變得更聰明了,它自己就能這么做。比如,它自己就可以編程,進(jìn)而不斷完善自己的算法。那樣一來,電腦就會(huì)以指數(shù)級(jí)別的速度不斷進(jìn)步,把人類遠(yuǎn)遠(yuǎn)拋在后面。
科學(xué)家把這個(gè)時(shí)間點(diǎn)稱為科技奇點(diǎn)。那時(shí),人類就徹底沒辦法和電腦競(jìng)爭(zhēng)了。想象一個(gè)人擁有不止一個(gè)博士學(xué)位,而是所有領(lǐng)域的博士學(xué)位。你根本沒辦法理解他在做什么,他也能做到別人做不到的事。
跟一個(gè)比你思考速度快一百萬倍的人說話是什么感覺?你每思考一秒,他已經(jīng)思考了兩周。如果快十億倍呢?你每思考一秒,他已經(jīng)思考了32年。
但是,并不是每一個(gè)人工智能專家都認(rèn)為科技奇點(diǎn)會(huì)到來。目前,我們打造的人工智能系統(tǒng),能力還非常有限。它對(duì)電腦程序的理解還比不上剛接觸程序四、五周的學(xué)生。而科學(xué)家已經(jīng)研究人工智能超過40年了。很多方法都已經(jīng)嘗試過了,但我們還是不知道該怎么做。
現(xiàn)在很多人投資人工智能,很多科學(xué)家在研究這個(gè)課題。這背后的誘因,很大程度上是人工智能這個(gè)萬億美元級(jí)別的市場(chǎng)。毫不夸張的說,發(fā)展出通用人工智能,將會(huì)完全顛覆世界經(jīng)濟(jì)。
同時(shí),這也伴隨著很多人的憂慮。我們打造出能治療癌癥的機(jī)器,延長人類壽命。我們也可以利用人工智能讓社會(huì)變得更公正,更公平。但是,這也有可能造成人類毀滅。
我們給機(jī)器制定了一個(gè)我們認(rèn)可的目標(biāo),機(jī)器為了達(dá)成這個(gè)目標(biāo)可能會(huì)自動(dòng)制定一些次目標(biāo)。這時(shí),我們就無法預(yù)期這些次目標(biāo)是否會(huì)損害我們的利益。
《2001太空漫游》里的人工智能HAL,為了讓任務(wù)成功,選擇殺死一些宇航員。這非常精確地呈現(xiàn)出了超智能的真正威脅。如果我們給人工智能設(shè)定了一個(gè)目標(biāo)是世界和平。那么或許達(dá)成世界和平最有效率的方式就是消滅全人類。只要除掉所有人類,就不會(huì)再有爭(zhēng)端。
很多人會(huì)說“把機(jī)器關(guān)掉就好了”。但是一個(gè)高度智能的機(jī)器,它能不知道該怎么保護(hù)自己?jiǎn)?想要關(guān)掉它,或許并沒有那么簡(jiǎn)單。