沈向洋 資料圖
盡管人工智能在近幾年取得了巨大的技術(shù)進(jìn)步, 但其實(shí)依然還處在嬰兒期。正如一個(gè)年幼的孩子會(huì)模仿周圍人的行為,人工智能也正在向人類學(xué)習(xí)。因此,作為人工智能“父母”的人類,必須確保把反映和尊重我們周圍世界的價(jià)值觀和道德觀貫穿于人工智能產(chǎn)品和服務(wù)之中。
這就是為什么我們今天必須非常深入地思考人工智能的道德問題。這些道德規(guī)范將塑造我們的未來。要負(fù)責(zé)任地建立人工智能系統(tǒng),就必須要首先教育我們自己。因此,我們出版了The Future Computed(《未來計(jì)算》)一書,來討論人工智能在社會(huì)中的角色。書中闡述了我們認(rèn)為應(yīng)該指導(dǎo)人工智能發(fā)展的六原則。我最近思考了其中涉及的三個(gè)特別重要的問題——偏見、透明度和問責(zé)制。
首先,說說偏見。人工智能系統(tǒng)中偏見的形成可能是由于人類自己甚至也沒有意識(shí)到的來自根深蒂固的文化影響。在訓(xùn)練人工智能系統(tǒng)的時(shí)候這些社會(huì)偏見就可能會(huì)導(dǎo)致對(duì)數(shù)據(jù)集在個(gè)人的性別、膚色和年齡假設(shè)。
即使對(duì)數(shù)據(jù)集使用無誤,要確保人工智能系統(tǒng)能夠滿足每個(gè)人的需求,有時(shí)挑戰(zhàn)卻可能是數(shù)據(jù)不足,有時(shí)是模型和算法不充分。
人工智能反饋給我們很多社會(huì)中存在的偏見。但在多元化的社會(huì)中,膚色、口音等各種不同的特征和差異也讓我們意識(shí)到,滿足所有人不同的需求是相當(dāng)復(fù)雜的。盡管我們?cè)诓粩喟l(fā)展、從教訓(xùn)中學(xué)習(xí),我們依然有很長(zhǎng)的路要走。
如何在編寫計(jì)算機(jī)程序時(shí)就不帶有和傳播這些偏見呢?這是一個(gè)比技術(shù)本身更大的問題。而我們不會(huì)放棄,直到找到確保對(duì)所有人都公平的方法。
除此之外,我們必須教導(dǎo)人工智能回答“為什么?”。人類的孩子會(huì)自然地問:“為什么?”機(jī)器不會(huì)。透明——確保我們能夠理解并看到人工智能所做的決定——這是一個(gè)以倫理為核心的被稱為“可解釋的人工智能”的范疇,換句話說就是能回答“為什么?”。
想象一下,醫(yī)生從人工智能算法中獲取的數(shù)據(jù)顯示你的家人得了癌癥。你會(huì)立刻想知道為什么。依據(jù)是什么?你會(huì)希望醫(yī)生解釋是如何基于腫瘤大小和顏色的數(shù)據(jù)來得出這個(gè)結(jié)論的。并且你肯定還希望醫(yī)生能用一種你能明白的方式來解釋。
我們需要了解人工智能是如何得出某個(gè)結(jié)論的,而不僅僅是一個(gè)在沒有上下文或解釋的情況下輸出數(shù)據(jù)和信息的“黑匣子”。人類需要知道這背后的原因。
最后,除了能夠自我解釋外,人工智能還必須擔(dān)負(fù)責(zé)任。問責(zé)制意味著我們不僅要理解人工智能為什么會(huì)得出這樣的結(jié)論,而且要確保人類有直接責(zé)任來監(jiān)督人工智能做出的重要決策。
維護(hù)問責(zé)制的一個(gè)簡(jiǎn)單方法是創(chuàng)建的人工智能系統(tǒng)不能完全自治。人工智能只是提供了人類用于決策所需要的信息。例如,在發(fā)射火箭之前,需要有人按下紅色按鈕。在做出治療或手術(shù)的決定之前,需要醫(yī)生征詢你的同意。復(fù)雜的洞察力由人工智能提供,但最終的決策要由人類做出。這樣的人工智能系統(tǒng)就可考慮應(yīng)用在文化敏感性高、潛在后果影響重大的場(chǎng)境中。
在微軟,我們已經(jīng)為這些挑戰(zhàn)做出了很長(zhǎng)時(shí)間的努力。我們的研究人員建立了公平、負(fù)責(zé),和透明的機(jī)器學(xué)習(xí)模型。今天,微軟研究院的科學(xué)家正在尋找各種辦法檢測(cè)和解決人工智能的偏見。我們已經(jīng)制定了一套關(guān)于人工智能的指導(dǎo)性道德原則和一個(gè)名為 Aether 的開發(fā)和研究人工智能與道德標(biāo)準(zhǔn)委員會(huì)。我們計(jì)劃未來推出的任何一款人工智能產(chǎn)品都需要先通過Aether的審查。我們共同創(chuàng)立了人工智能合作組織(Partnership on AI),以研究人工智能如何幫助我們解決最具有挑戰(zhàn)性的問題?!段磥碛?jì)算》討論了指導(dǎo)我們?nèi)斯ぶ悄芟到y(tǒng)的核心原則。
在發(fā)展人工智能的同時(shí),我們有責(zé)任研究各種問題,使我們的技術(shù)為每個(gè)人創(chuàng)造利益和機(jī)會(huì)。我們所要建立的人工智能系統(tǒng)必須能夠聽到所有人的聲音并能在這個(gè)多元的世界平等的認(rèn)識(shí)所有的面孔。我們必須確保人工智能的巨大力量伴隨著透明度和問責(zé)制,把人放在駕駛員的座位上。人工智能帶有很大的可能性,我們還有很多工作要做。