在致亞馬遜首席執(zhí)行官杰夫貝索斯的一封信中,19組股東表示擔(dān)心,Rekognition的面部識(shí)別能力將被濫用,“違反”有色人種,移民和民間社會(huì)組織的“公民權(quán)利和人權(quán)”。 “他們說,它為向外國(guó)政府和專制政權(quán)銷售軟件奠定了基礎(chǔ)。
據(jù)亞馬遜稱,它將“暫停......客戶的使用權(quán)......服務(wù)[如Rekognition]”,如果它確定這些服務(wù)被“濫用”的話。但到目前為止,它已經(jīng)拒絕定義明亮的服務(wù)。 - 會(huì)觸發(fā)暫停的規(guī)則。
人工智能是一個(gè)新生的領(lǐng)域。Consortia和智庫(kù)如人工智能合作伙伴關(guān)系,牛津大學(xué)的AI道德規(guī)范項(xiàng)目,哈佛大學(xué)的AI倡議和AI4All都致力于建立初步的最佳實(shí)踐和指南。但I(xiàn)BM人工智能倫理的全球領(lǐng)導(dǎo)者Francesca Rossi認(rèn)為,還有更多工作要做。
“每家公司都應(yīng)該提出自己的原則,”她在電話采訪中告訴VentureBeat。“他們應(yīng)該根據(jù)他們所處的空間來闡明他們的原則。”
與政府合同相比,其利害攸關(guān)。隨著谷歌,微軟和IBM等科技巨頭的人工智能研究人員將注意力轉(zhuǎn)向醫(yī)療保健,機(jī)器學(xué)習(xí)算法的混淆性可能會(huì)疏遠(yuǎn)那些有利于患者的人。
例如,如果系統(tǒng)沒有明確表明他們?nèi)绾蔚贸鼋Y(jié)論,那么人們可能會(huì)對(duì)預(yù)測(cè)患者生存幾率的系統(tǒng)產(chǎn)生疑慮。(谷歌大腦團(tuán)隊(duì)中的一個(gè)這樣的AI采用透明的方法,顯示哪些PDF文檔,手寫圖表和其他數(shù)據(jù)通知其結(jié)果。)
“醫(yī)生為患者設(shè)計(jì)治療[在AI的幫助下]和可以識(shí)別書籍的算法之間存在差異,”羅西解釋說。“當(dāng)我們做出決定時(shí),我們通常甚至不會(huì)認(rèn)識(shí)到我們的偏見,[并且]這些偏見可以被注入訓(xùn)練數(shù)據(jù)集或模型中。”
圍繞數(shù)據(jù)收集的不透明政策已經(jīng)讓一些人工智能研究人員陷入了困境。去年,英國(guó)最高隱私監(jiān)管機(jī)構(gòu)信息專員辦公室裁定,該國(guó)家的國(guó)家健康服務(wù)中心在Alphabet子公司DeepMind的AI現(xiàn)場(chǎng)試驗(yàn)中不正確地分享了160萬患者的記錄。
“用戶想知道......人工智能已被審查過,”羅西說。“我對(duì)人工智能的看法是一個(gè)審計(jì)過程 - 一個(gè)非常嚴(yán)格的過程,通過這個(gè)過程,有人可信地查看了系統(tǒng)并分析了模型和培訓(xùn)數(shù)據(jù)。”
羅西表示,同樣重要的是確保立法者,法律專家和政策團(tuán)體對(duì)人工智能的潛在回報(bào)及其潛在風(fēng)險(xiǎn)有深刻的理解。
她說:“政策制定者必須接受有關(guān)AI是什么,可能出現(xiàn)的問題以及可能出現(xiàn)的問題的教育。” “對(duì)于構(gòu)建人工智能的人來說,透明和明確他們所做的事情非常重要。”
對(duì)于AI報(bào)道,請(qǐng)向Khari Johnson和Kyle Wiggers發(fā)送新聞提示,并向Cosette Jarrett提交帖子。