根據(jù)我們的要求,更智能的計(jì)算機(jī)正在幫助我們建立一個(gè)更飽滿的世界。正如奧爾德斯·赫胥黎(Aldous Huxley)所欣賞的那樣,當(dāng)被放縱時(shí),飽足只會(huì)成為一種習(xí)慣。我們不再質(zhì)疑我們?nèi)绾巫龀鰶Q定,也沒有人真正知道最先進(jìn)的人工智能如何做到這一點(diǎn)。人工智能做出許多重要的決定,指導(dǎo)你的生活軌跡。一些例子包括有關(guān)投資,醫(yī)療保健和政策制定的決策。所有這些領(lǐng)域都經(jīng)常使用依賴于潛在偏向算法的過程。
已經(jīng)討論過詢問AI系統(tǒng)如何得出結(jié)論的能力應(yīng)該是一項(xiàng)基本的法律權(quán)利。并且有充分的理由。運(yùn)行AI服務(wù)的計(jì)算機(jī)基本上已經(jīng)編程了,他們以我們不完全理解的方式完成了它。即使是構(gòu)建AI的工程師也無法完全解釋他們的行為。非故意偏見的可能性是巨大的,但是沒有人真正關(guān)心存在這種偏見的可能性要大得多。
AI養(yǎng)成偏見的壞習(xí)慣
媒體機(jī)構(gòu)廣泛涵蓋了人工智能偏見的幾個(gè)關(guān)鍵例子。覆蓋范圍包括谷歌人工智能算法的失誤,將一些非洲裔美國人稱為大猩猩,“首席執(zhí)行官”的圖像搜索只返回白人的照片,谷歌廣告平臺(tái)傾向于向女性展示較少的高薪行政工作廣告。另一個(gè)例子是LinkedIn廣告計(jì)劃,在搜索中 顯示男性姓名的偏好。而另一個(gè)關(guān)鍵的例子來自英國兒科醫(yī)生,她被拒絕進(jìn)入她健身房的女性更衣室,因?yàn)樵撛O(shè)施用于管理其會(huì)員系統(tǒng)的軟件自動(dòng)將她的頭銜稱為“醫(yī)生”。
也許過去幾年中最著名的AI故事是Tay和Compas。當(dāng)微軟在 16小時(shí)后學(xué)會(huì)種族主義時(shí),不得不關(guān)閉他們的名為Tay的Twitter機(jī)器人。美國法院用于風(fēng)險(xiǎn)評(píng)估的程序,替代制裁的懲教犯罪管理概要(Compas),被發(fā)現(xiàn)更容易錯(cuò)誤地將非裔美國人的被告標(biāo)記為可能重新犯罪。
轉(zhuǎn)移消除偏見
盡管有很多挫折,人工智能仍然有可能真正幫助 減少 全球偏見。 以下是五個(gè)很酷的項(xiàng)目,它們應(yīng)用大數(shù)據(jù),人工智能和/或機(jī)器學(xué)習(xí)來實(shí)現(xiàn)AI的承諾,即讓世界變得更加美好。
1.阿勒格尼家庭篩選工具
2016年,賓夕法尼亞州阿勒格尼縣人類服務(wù)部實(shí)施了阿勒格尼家庭篩查工具,以改善兒童福利制度。這種預(yù)測(cè)算法為公職人員提供了有助于識(shí)別兒童何時(shí)處于危險(xiǎn)之中的見解。該工具的標(biāo)準(zhǔn)在學(xué)術(shù)出版物中得到解釋,這是一個(gè)基準(zhǔn)的私營公司通常不會(huì)遇到的,即使受到脅迫以解釋其結(jié)果。在匹茲堡市中心舉行的公開會(huì)議上,該工具也可供當(dāng)?shù)毓賳T,領(lǐng)養(yǎng)律師,兒童擁護(hù)者,父母甚至前寄養(yǎng)兒童審訊。
在第一次實(shí)施阿勒格尼家庭篩查工具16個(gè)月后,初步數(shù)據(jù)已經(jīng)表明它是有效的。該工具幫助確定了比以前更多的需要服務(wù)的兒童,手工工作能夠做到。
2.非洲孤兒作物聯(lián)合會(huì)
該聯(lián)盟的目標(biāo)是對(duì)101種非洲傳統(tǒng)糧食作物的基因組進(jìn)行測(cè)序,組裝和注釋。這些作物有時(shí)被稱為“孤兒作物”,因?yàn)樗鼈冮L期以來一直被忽視,有利于玉米,小麥和大米等西方作物。像非洲山藥豆,沙漠棗和貝母這樣的作物特別適應(yīng)當(dāng)?shù)氐臍夂颍梢愿纳茽I養(yǎng)。
解決世界饑餓和氣候變化問題需要大數(shù)據(jù)的力量,無疑是人工智能,以增加基因組改進(jìn)的發(fā)展。 孟山都公司,先正達(dá)公司和卡內(nèi)基梅隆大學(xué)都在開發(fā)AI AgTech應(yīng)用程序。
3.微軟的FATE
首字母縮略詞FATE代表AI中的公平性,責(zé)任性,透明度和道德。微軟創(chuàng)建了這個(gè)程序, 以找出陷入AI數(shù)據(jù)并扭曲結(jié)果的偏見。首席研究員凱特克勞福德和一個(gè)全女性AI研究人員團(tuán)隊(duì)目前正致力于合作研究項(xiàng)目,以滿足提高人工智能和機(jī)器學(xué)習(xí)的公平性的需求。
4. IBM的社會(huì)福利科學(xué)
在 社會(huì)良好的科學(xué)項(xiàng)目,由IBM公司開發(fā),利用人工智能的力量來解決一些世界上最大的不平等和威脅。“社會(huì)福利科學(xué)”系列中的每個(gè)項(xiàng)目都與 聯(lián)合國制定的17項(xiàng)可持續(xù)發(fā)展目標(biāo)中的一項(xiàng)或多項(xiàng)保持一致。
“社會(huì)良好科學(xué)”頁面稱該計(jì)劃“將人工智能,云計(jì)算和深度科學(xué)應(yīng)用于新的社會(huì)挑戰(zhàn)。”貧困,饑餓和文盲都是這些舉措的目標(biāo)。
5.數(shù)據(jù)4黑人生活
通常情況下,政策制定者沒有數(shù)據(jù)支持種族司法倡議,因?yàn)閿?shù)據(jù)根本不存在 - 沒有人收集或分析它。Data 4 Black Lives旨在將數(shù)據(jù)科學(xué)家和活動(dòng)家聯(lián)系起來,以應(yīng)用人工智能和機(jī)器學(xué)習(xí)等數(shù)據(jù)科學(xué)工具,為非裔美國人社區(qū)面臨的最緊迫挑戰(zhàn)確定解決方案并提供額外意識(shí)。
這些只是眾多人工智能項(xiàng)目中的五個(gè),旨在幫助我們的世界變得更美好。為簡潔起見,我在這里沒有包含許多令人驚嘆的組織。
隨著技術(shù)的不斷發(fā)展和閃電般的發(fā)展,我們希望看到更多的研究人員和公司開發(fā)出使用電源AI來解決世界各地緊迫問題的程序。
本文最初出現(xiàn)在Medium上。版權(quán)2018。
卡羅爾·林恩·柯奇博士是一位科學(xué)家,教師,顧問,顧問,作家,和創(chuàng)始人32ATPs,尋求生物能源生產(chǎn)與消費(fèi)電子設(shè)備集成的組織。