人工智能系統(tǒng)和人工智能項目如今變得越來越普遍,因為企業(yè)可以利用這種新興技術(shù)的力量來自動化決策和提高效率。
如果企業(yè)正在實施一個大規(guī)模的人工智能項目,那么應(yīng)該如何準備?以下是與人工智能相關(guān)的三個最重要的風(fēng)險,以及如何預(yù)防和減輕它們。
1.從隱私到安全
人們都很關(guān)注自己的隱私,而面部識別人工智能在某些方面正在迅速發(fā)展,引發(fā)了關(guān)于隱私和監(jiān)控的倫理擔憂。例如,這項技術(shù)可以讓企業(yè)在未經(jīng)用戶同意的情況下跟蹤用戶的行為,甚至是情緒。美國政府最近提出了一項“人工智能權(quán)利法案”,以防止人工智能技術(shù)造成與核心價值觀相悖的真正傷害,包括基本的隱私權(quán)。
IT領(lǐng)導(dǎo)者需要讓用戶知道正在收集什么數(shù)據(jù),并獲得用戶的同意。除此之外,關(guān)于數(shù)據(jù)集的適當培訓(xùn)和實施對于防止數(shù)據(jù)泄露和潛在的安全漏洞至關(guān)重要。
測試人工智能系統(tǒng)以確保它實現(xiàn)目標,而不會產(chǎn)生意想不到的影響,例如允許黑客使用虛假的生物識別數(shù)據(jù)訪問敏感信息。實施人工智能系統(tǒng)的監(jiān)督,可以使企業(yè)在必要時停止或撤銷它的行動。
2.從不透明到透明
許多使用機器學(xué)習(xí)的人工智能系統(tǒng)是不透明的,這意味著不清楚它們是如何做出決定的。例如,對抵押貸款數(shù)據(jù)廣泛的研究表明,用于批準或拒絕貸款的預(yù)測性人工智能工具對少數(shù)族裔申請者的準確性較低。技術(shù)的不透明性侵犯了貸款被拒絕的申請者的“解釋權(quán)”。
當企業(yè)的人工智能/機器學(xué)習(xí)工具對其用戶做出了重要的決定時,需要確保他們得到通知,并能得到關(guān)于為什么做出這個決定的完整解釋。
企業(yè)的人工智能團隊還應(yīng)該能夠追蹤導(dǎo)致每個決策的關(guān)鍵因素,并在這一過程中診斷出任何錯誤。內(nèi)部面向員工的文檔和外部面向客戶的文檔應(yīng)該解釋人工智能系統(tǒng)是如何以及為什么這樣運作的。
3.從偏見到公平
最近的一項研究表明,根據(jù)具有偏見的數(shù)據(jù)訓(xùn)練的人工智能系統(tǒng)強化了歧視模式,從醫(yī)學(xué)研究招募不足到科學(xué)家參與度降低,甚至少數(shù)族裔患者不太愿意參與研究。
人們需要問問自己:如果意想不到的結(jié)果發(fā)生了,它會影響誰或哪個群體?它是否平等地影響所有用戶,還是只影響特定群體?
仔細查看歷史數(shù)據(jù),評估是否引入了任何潛在的偏見或減輕了偏見。一個經(jīng)常被忽視的因素是企業(yè)的開發(fā)團隊的多樣性,而更加多樣化的團隊通常會引入更公平的過程和結(jié)果。
為了避免意外的傷害,企業(yè)需要確保來自人工智能/機器學(xué)習(xí)開發(fā)、產(chǎn)品、審計和治理團隊的所有涉眾完全理解指導(dǎo)企業(yè)的人工智能項目的高級原則、價值和控制計劃。獲得獨立的評估,以確認所有項目都符合這些原則和價值觀。
關(guān)于企業(yè)網(wǎng)D1net(hfnxjk.com):
國內(nèi)主流的to B IT門戶,同時在運營國內(nèi)最大的甲方CIO專家?guī)旌椭橇敵黾吧缃黄脚_-信眾智(www.cioall.com)。同時運營18個IT行業(yè)公眾號(微信搜索D1net即可關(guān)注)。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責任的權(quán)利。