該小組成員包括智庫,未來社會的聯(lián)合創(chuàng)始人兼副總裁Simon Mueller; Cansu Canca,AI道德實驗室的創(chuàng)始人兼董事; Gabriele Fariello,哈佛大學(xué)機器學(xué)習(xí)講師,神經(jīng)信息學(xué)研究員,羅德島大學(xué)首席信息官; 和Kathy Pham,谷歌,IBM和美國數(shù)字服務(wù)的校友,目前正在哈佛伯克曼克萊因中心和麻省理工學(xué)院媒體實驗室的人工智能和軟件工程研究倫理學(xué)。
穆勒以一個棘手的問題開始討論:道德是否是人工智能進步最緊迫的問題?
“它始終是'工程優(yōu)先,首先解決技術(shù)問題'的態(tài)度[涉及到AI],”Pham說。“有很多專家一直在考慮這個問題,[但]這些聲音需要被認為與房間里的工程師一樣有價值。”
Canca同意,產(chǎn)品線索和設(shè)計師之間不會經(jīng)常討論道德規(guī)范。“[工程師]應(yīng)該從一開始就考慮人工智能,直到他們將產(chǎn)品商業(yè)化,”她說。“似乎[政策]通常與開發(fā)人員分開,并與討論分開。”
Fariello回應(yīng)了Pham的觀點,并補充說,人工智能中道德的不再強調(diào)會對全國人民的生活產(chǎn)生負面影響。“有一些重大問題,”他說。“在醫(yī)療保健,司法系統(tǒng)和其他直接影響你生活的方面,都有真正的決定。”
他最近以威斯康星州最高法院的判決為例。2017年5月,它 統(tǒng)治了威斯康星州的Eric Loomis,他被判處六年監(jiān)禁,部分原因是Northpointe的Compas軟件的建議,該軟件使用專有算法來預(yù)測被告犯下更多罪行的可能性。ProPublica 的一份報告發(fā)現(xiàn),與白人被告相比,Compas“更有可能以更高的再犯率判斷黑人被告”。
有偏見的算法不僅影響司法系統(tǒng)。Canca說,像谷歌新聞這樣的個性化,機器學(xué)習(xí)驅(qū)動的新聞提供 “分裂人”。“隨著信息的[多樣性]縮小,與世界的接觸變得與像你這樣的人或與你有共同觀點的人接觸。”
Fariello指出,像Facebook這樣的算法驅(qū)動型公司幾乎都被激勵,以通過積極的反饋循環(huán)來展示“確認[用戶]信念”的內(nèi)容。“我們變得兩極分化,我們看不到其他觀點。”
他說,政策制定者的無知正在助長這個問題。“這是我們有責任,當我們不投票,并聯(lián)系我們的代表,如果他們沒有在這個精通,他們與別人誰協(xié)商 是精通于此。”
Canca同意了。“我們需要在政策層面采取積極主動的做法,”她說。“大多數(shù)時候,[政府]正在追趕......通常,該政策遵循技術(shù)[部門]正在發(fā)生的事情。”
盡管存在與人工智能及其繆斯相關(guān)的問題,但小組成員對人工智能人工智能問題達成了一致意見:三者都表示人工智能開發(fā)工具和圖書館應(yīng)該公開提供并開源。“讓我們打開它,讓人們使用它,”Canca說。“這是方向。”
Fariello說,工具本身不是問題。相反,它是保密和缺乏透明度。“大型神經(jīng)網(wǎng)絡(luò)本身就是黑盒子,”他說。“如果我們在黑匣子周圍添加鎖,我們就會遇到大麻煩。