回答這些問題之前,首先需要明確的是,人工智能的成就目前仍很有限。現(xiàn)在的人工智能系統(tǒng)能夠執(zhí)行20年前計算機不可能完成的任務。比如,現(xiàn)在全世界每天都有數(shù)以百萬計的人在使用文本自動翻譯工具;無人駕駛汽車即將問世,未來10年將出現(xiàn)在馬路上;計算機現(xiàn)在比人更善于識別人臉等。盡管這些成就令人印象深刻,但人們還是不知道應該如何使機器具有意識和自我感知。因此,在可預見的未來,人工智能接管世界仍將是科幻小說的情節(jié)。當然這并不意味著我們可以高枕無憂。
人工智能系統(tǒng)越來越多地被用于做出決策,這對人們產(chǎn)生了直接影響。例如,銀行發(fā)現(xiàn)人工智能系統(tǒng)善于預測潛在客戶是否會成為優(yōu)質(zhì)客戶——是否會按時還債等。他們可以通過使用大量的客戶記錄,來“培訓”一個人工智能系統(tǒng)。一段時間后,這一系統(tǒng)將能夠分析潛在客戶的詳細信息,從而預測其是否優(yōu)質(zhì)。對于銀行來說,可以迅速而低廉地決定是否需要一個特定的客戶。但對于客戶自身而言,應該會感到擔憂:如果銀行的人工智能系統(tǒng)在某種程度上存在偏見怎么辦?
這就是算法偏見。當前人工智能浪潮的一個特點是,系統(tǒng)無法像人那樣,解釋或合理化其所做的決定。所以,銀行可能會使用人工智能系統(tǒng)來決定不與你做生意,但卻不能給你解釋原因。這公平嗎?銀行這樣運作合乎道德嗎?誰來對這個決定負責?
這些問題不容忽視。一種解決辦法是,建議對人工智能技術的使用進行監(jiān)管。我認為通過一般法律來管理人工智能的使用是不現(xiàn)實的,這似乎有點像試圖通過立法來管理數(shù)學的使用。一個似乎正在被接受的辦法是,如果軟件做出了影響你的決定,那么你應該有權知道這個決定是如何做出的,使用了哪些和你有關的數(shù)據(jù),標準是什么。我認為這比較合理。使人工智能可解釋化和透明化,是當今這一領域面臨的最大挑戰(zhàn)之一。
在某些情況下,人工智能決策可能直接事關生死,比如在戰(zhàn)場上使用人工智能系統(tǒng)。盡管目前還沒有證據(jù)表明這種“致命性自主武器”已經(jīng)被使用,但確實已經(jīng)具備了可能性。過去5年來,人工智能領域的科學家們積極行動,希望政府認識到這一問題的嚴重性并做出應對。最近英國政府在一份報告中明確表示,永遠不給人工智能系統(tǒng)傷害人的權力。
人工智能只是一種技術,就像任何技術一樣,可以用來造福人類,也可能帶來危害。條件反射式的立法,對于把控人工智能不太可能奏效。我們需要以負責和道德的方式使用人工智能,正如最近全球關于自主武器的討論取得進展一樣,國際社會需要應對解決人工智能帶來的挑戰(zhàn)。