最近,福布斯與SAS軟件研究所,埃森哲和英特爾合作調(diào)查了305家企業(yè)對人工智能道德,信心和商業(yè)價值的態(tài)度。僅僅是根據(jù)技術(shù)人員,51%的人表示基于人工智能的技術(shù)部署對其公司運營的影響已經(jīng)“成功”或“非常成功。
該調(diào)查報告將人工智能定義為“通過學(xué)習(xí)來自動模擬人工任務(wù)的培訓(xùn)系統(tǒng)科學(xué)”。人工智能的采用者表示,如今的道德約束相對較強,63%的人肯定他們“有一個審查人工智能使用的道德委員會”,70%表示他們“為其技術(shù)人員提供道德培訓(xùn)”。該報告表示,通過人工智能部署而取得了真正成功的公司中,92%表示他們?yōu)榧夹g(shù)專家進(jìn)行道德培訓(xùn),而在部署人工智能方面尚未取得真正成功公司的提供率則為48%。
盡管如此,正如托馬斯·達(dá)文波特(Thomas Davenport)在當(dāng)前的麻省理工學(xué)院斯隆管理評論中所說,人工智能需要更高的透明度。他建議人工智能實施者謹(jǐn)慎行事:“無論是使用內(nèi)部還是外部認(rèn)知技術(shù),都需要面面俱到。”
關(guān)鍵在于人工智能的發(fā)展需要公開化、透明化,達(dá)文波特解釋道:“在引入新功能時,將其作為測試版產(chǎn)品推出,并傳達(dá)該技術(shù)的使用目標(biāo),不要取消解決員工或客戶問題的替代方案,也就是說不能取消人類的作用。隨著時間的推移,隨著技術(shù)的成熟和人工智能解決方案的改善,有關(guān)情況會變得越來越好。”
達(dá)文波特甚至提出了第三方人工智能算法認(rèn)證法,就像“食品藥品監(jiān)督管理局(FDA)認(rèn)證藥物的功效,審核員認(rèn)證財務(wù)流程,保險商實驗室認(rèn)證產(chǎn)品的安全性”一樣。現(xiàn)在是時候獨立認(rèn)證“AI算法的可靠性,可復(fù)制性和準(zhǔn)確性”,他敦促說。
總而言之,人工智能成功與否,取決于利益相關(guān)者的信任程度。福布斯和SAS,埃森哲,英特爾的聯(lián)合調(diào)查結(jié)果表明:“企業(yè)和政府領(lǐng)導(dǎo)人會這樣做,但他們中的許多人理所當(dāng)然地?fù)?dān)心他們的員工對人工智能缺乏信任,這體現(xiàn)在人工智能對其公司影響的擔(dān)憂上。甚至有跡象表明,其中一些領(lǐng)導(dǎo)人對人工智能產(chǎn)出的程度存在疑問。信任對于人工智能的發(fā)展可能比任何技術(shù)和進(jìn)步都要有用。”
對人工智能的信任“需要教育,透明化,明確的道德準(zhǔn)則,以及耐心”。