人工智能在擁有數(shù)十年發(fā)展和應(yīng)用歷史的同時(shí)卻有著奇怪的定位,但對(duì)于許多人來(lái)說(shuō),人工智能仍然是一種未來(lái)主義的感覺(jué)。實(shí)際上人工智能并不是新事物,但它始終是一個(gè)永恒的“新”領(lǐng)域。沒(méi)有人可以確切地知道其發(fā)展到底會(huì)何去何從。
對(duì)于不了解的事物,一些人會(huì)感到害怕。而人工智能的未來(lái)發(fā)展也讓很多人徹夜難眠,這是有道理的,尤其是考慮到可能出現(xiàn)的不利后果時(shí)。人們可以合理地假設(shè)任何重大技術(shù)發(fā)展都是如此:它們將會(huì)產(chǎn)生變化,從而令人感到恐懼。但是,與人工智能相關(guān)的恐懼卻有不同的優(yōu)先級(jí)。例如,大多數(shù)人不知道什么是微服務(wù)架構(gòu),即使他們每天使用的一些應(yīng)用程序是以分離的方式構(gòu)建的。但是像微服務(wù)這樣的技術(shù)進(jìn)化并不會(huì)像人工智能那樣對(duì)潛在的社會(huì)和經(jīng)濟(jì)影響產(chǎn)生這樣的情感反應(yīng)。微服務(wù)也不會(huì)在流行文化中一直存在。
這主要說(shuō)明了人們對(duì)人工智能發(fā)展前途并不明朗的擔(dān)憂,當(dāng)人們的想象力失控時(shí),就會(huì)很難評(píng)估它們的有效性。這對(duì)于如今試圖構(gòu)建實(shí)用人工智能戰(zhàn)略的IT領(lǐng)導(dǎo)人和其他高管來(lái)說(shuō)并不是特別有用。然而,很多人會(huì)對(duì)人工智能感到恐懼,并且有著充分的理由。對(duì)于人工智能的入門(mén)者來(lái)說(shuō),他們更容易失敗,因?yàn)樗麄兺ǔ;诋?dāng)前的現(xiàn)實(shí),而不是未來(lái)的推測(cè)。
加州大學(xué)歐文分校神經(jīng)科學(xué)研究助理、ContinualAi公司聯(lián)合負(fù)責(zé)人Keiland Cooper表示,“人們對(duì)人工智能的恐懼類(lèi)型取決于人們所談?wù)摰娜斯ぶ悄茴?lèi)型。與當(dāng)今普遍使用的更現(xiàn)實(shí)的人工智能算法相比,理論性更強(qiáng)、更遙遠(yuǎn)的‘通用人工智能’(一種能夠完成人類(lèi)所能做的所有事情的計(jì)算機(jī))將引發(fā)更多的恐懼。”
以下了解一下當(dāng)今有關(guān)人工智能的五個(gè)問(wèn)題,以及專(zhuān)家為解決這些問(wèn)題而提供的建議,這樣就不會(huì)破壞企業(yè)實(shí)施人工智能的計(jì)劃。
1. 恐懼:人工智能會(huì)產(chǎn)生有偏見(jiàn)的結(jié)果
人們?cè)絹?lái)越關(guān)注人工智能系統(tǒng)中的偏見(jiàn)和其他問(wèn)題及其導(dǎo)致的決策或結(jié)果的可能性。與好萊塢電影的一些更富想象力的人工智能故事不同,人們應(yīng)該對(duì)于人工智能的偏見(jiàn)感到恐懼。
SkyMind公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官Chris Nicholson說(shuō),“人工智能的算法只和訓(xùn)練數(shù)據(jù)一樣好。因此,如果一個(gè)數(shù)據(jù)集包含了組織的歷史偏見(jiàn),那么它所做的預(yù)測(cè)將反映這一歷史行為,例如,如果一家公司通常會(huì)將擁有常春藤名校學(xué)位的白人男性提升到權(quán)威職位,那么經(jīng)過(guò)培訓(xùn)的人工智能算法可以識(shí)別出未來(lái)的領(lǐng)導(dǎo)才能,并將其重點(diǎn)放在同一類(lèi)型的應(yīng)聘者身上,并且忽略不屬于該類(lèi)別的應(yīng)聘者。”
解決方法:
人們應(yīng)該接受這種恐懼并采取行動(dòng)。無(wú)需擔(dān)心人工智能偏見(jiàn)會(huì)增加其不受控制地?cái)U(kuò)散的可能性。
人工智能算法不應(yīng)免除個(gè)人和組織對(duì)結(jié)果的責(zé)任。人工監(jiān)督和管理是絕對(duì)必要的,并且有很好的例子說(shuō)明了另一種恐懼(不再需要人類(lèi))可能有點(diǎn)言過(guò)其實(shí)。
Nicholson說(shuō),“人們不能相信人工智能能夠知道一切或做出完美的決定。人工智能算法是由人類(lèi)創(chuàng)造的,但人類(lèi)也會(huì)犯錯(cuò)。所以每個(gè)公司都要做的是建立一個(gè)系統(tǒng)來(lái)檢查人工智能,或者定期抽取人工智能的決策樣本并展示給專(zhuān)家,并詢問(wèn)他們:這看起來(lái)正確嗎?而其結(jié)果至少不會(huì)比專(zhuān)家差,這是企業(yè)最初所希望的結(jié)果。”
這在醫(yī)療、保險(xiǎn)、銀行、政府等行業(yè)可能尤為重要。但事實(shí)上,在任何地方這都是一個(gè)重要的問(wèn)題。
Tara-Ai公司聯(lián)合創(chuàng)始人兼首席執(zhí)行官I(mǎi)ba Masood表示,“人工智能從業(yè)者和機(jī)器學(xué)習(xí)工程師必須確保他們?cè)谝欢ǔ潭壬献袷厮惴ㄘ?zé)任制,IT主管應(yīng)該有專(zhuān)門(mén)的數(shù)據(jù)團(tuán)隊(duì)為他們現(xiàn)有的數(shù)據(jù)集構(gòu)建消除偏見(jiàn)的程序。這將有助于在利用系統(tǒng)進(jìn)行決策過(guò)程中,特別是在涉及最終消費(fèi)者的情況下,需要實(shí)現(xiàn)一定程度的公平和公正。”
這是一個(gè)道德和公平的問(wèn)題。Masood認(rèn)為,人工智能倫理也可能成為一種競(jìng)爭(zhēng)性的區(qū)分標(biāo)準(zhǔn)。
Masood說(shuō),“我相信,未來(lái)五年將會(huì)有更多的具有公平意識(shí)的消費(fèi)者,他們希望與那些在人工智能輔助下的決策過(guò)程中部署公平機(jī)制的公司進(jìn)行交易。通過(guò)努力減輕用于基于決策的系統(tǒng)的數(shù)據(jù)集的偏差,IT團(tuán)隊(duì)可以在這種消費(fèi)者行為轉(zhuǎn)變中產(chǎn)生重大影響。”
2.恐懼:人們不知道人工智能為什么會(huì)這么做
這是對(duì)未知事物的另一種自然恐懼:許多人工智能的結(jié)果很難解釋。
Nicholson說(shuō),“人工智能最先進(jìn)的形式能夠?qū)?shù)據(jù)做出最準(zhǔn)確的預(yù)測(cè),但也最難解釋為什么做出這種預(yù)測(cè)。”
這有時(shí)被稱(chēng)為人工智能的“黑盒”,指的是缺乏對(duì)人工智能系統(tǒng)決策的可視性,這對(duì)許多組織來(lái)說(shuō)可能是一個(gè)重要的問(wèn)題。
Nicholson說(shuō),“在許多情況下,人們都需要知道為什么要做某事。在受到嚴(yán)格監(jiān)管的行業(yè)組織中尤其如此。例如醫(yī)療保健行業(yè)不希望人工智能算法在不知道為什么做出決定的情況下就患者的診斷或治療做出決定。”
Cooper提供了另一個(gè)場(chǎng)景,指出黑盒模型在出現(xiàn)問(wèn)題時(shí)變得特別重要。
Cooper說(shuō),“假設(shè)訓(xùn)練一種算法來(lái)挑選最佳股票,并且做得很好,可能賺取9%的利潤(rùn)。如果在金融投資中獲得了足夠或更好的回報(bào)(如果Cooper的假設(shè)合理的情況下),那么可能就不太在乎其原因。畢竟已經(jīng)獲得。但是如果損失了9%的成本應(yīng)該怎么辦?如果失去了一切那么該怎么辦?人們可能會(huì)更關(guān)心的是為什么。”
他說(shuō),“問(wèn)題在于,在許多情況下,人們不知道為什么要選擇它所選擇的東西。這很可怕,因?yàn)樗粌H使人們減少了與正在使用的人工智能系統(tǒng)的聯(lián)系,而且如果它做錯(cuò)了什么,也不會(huì)帶來(lái)太多的洞察力。”
解決方法:
解決這種恐懼的最好方法之一是確保即使在人工智能技術(shù)得以改進(jìn)的情況下,人類(lèi)的智能和決策仍然是任何過(guò)程中至關(guān)重要的部分,在某些情況下還是最終的部分。換句話說(shuō),即使人工智能在這些流程和決策中的作用不斷擴(kuò)展,也可以通過(guò)確保人們保留對(duì)流程和決策的適當(dāng)控制來(lái)緩解這種恐懼。
Nicholson說(shuō):“在醫(yī)療保健案例中,最好采用人工智能作為人類(lèi)專(zhuān)家的決策支持形式。也就是說(shuō),不能讓人工智能獨(dú)自運(yùn)作并且不受監(jiān)督。可以將人工智能集成到現(xiàn)有的決策過(guò)程中,在此過(guò)程中可以向人類(lèi)專(zhuān)家提出建議,并且專(zhuān)家將是做出最終決策的人,他們將能夠解釋做出該決定的原因。”
3.恐懼:人工智能將會(huì)做出錯(cuò)誤的決定
人工智能將會(huì)做出錯(cuò)誤的決定,這是一個(gè)非常明確的問(wèn)題。如何評(píng)估人工智能結(jié)果的準(zhǔn)確性和有效性?如果它做出錯(cuò)誤的選擇會(huì)怎么樣?(可以看到這些恐懼的某些組合是如何產(chǎn)生復(fù)合效應(yīng)的:如果人工智能做出錯(cuò)誤的決定而無(wú)法解釋原因,將會(huì)發(fā)生什么情況?)假設(shè)所有人工智能產(chǎn)生的結(jié)果都是“良好”的結(jié)果,那么即使是對(duì)于人工智能應(yīng)用最樂(lè)觀的人士也會(huì)感到不舒服。
偏見(jiàn)會(huì)導(dǎo)致錯(cuò)誤的決定。不過(guò),這實(shí)際上是一種更為廣泛的恐懼,這種恐懼除了其他負(fù)面影響之外,還可能導(dǎo)致團(tuán)隊(duì)不信任任何的人工智能得出的結(jié)果。當(dāng)人工智能團(tuán)隊(duì)之外的人(或者IT部門(mén))分析結(jié)果時(shí),這種可能性就更大。它還可能導(dǎo)致組織的業(yè)務(wù)發(fā)展停滯。
Very公司工程主管Jeff McGehee說(shuō),“許多人擔(dān)心人工智能會(huì)做出錯(cuò)誤的決定。從技術(shù)角度來(lái)看,這種恐懼通常是非常廣泛的,但它總是歸結(jié)為人們認(rèn)為“這個(gè)決定是不正確的。對(duì)于從業(yè)者來(lái)說(shuō),這一點(diǎn)很難確定,尤其是在無(wú)法給出‘良好’決策的量化定義的情況下。”
解決方法:
人為因素的重要性再次占據(jù)主導(dǎo)地位。如果人們無(wú)法量化什么是積極的結(jié)果,那么需要提出一個(gè)定性的框架,同時(shí)確保依靠正確的人員和信息組合來(lái)解決諸如偏見(jiàn)之類(lèi)的實(shí)際問(wèn)題。
McGehee說(shuō):“為了確定這樣一個(gè)定義,利益相關(guān)者必須認(rèn)真考慮所有可能的關(guān)于好/壞決策的定義。正確性可能是理想的,但是某些類(lèi)型的錯(cuò)誤通常更容易接受,或者更像是人為的。此外,‘正確性’可能指的是人們是否滿足某些標(biāo)準(zhǔn)的預(yù)測(cè)列表,但如果此列表包含固有的人為因素偏見(jiàn),這可能是一個(gè)不好的目標(biāo)。當(dāng)非技術(shù)利益相關(guān)者評(píng)估人工智能決策的質(zhì)量時(shí),所有這些因素都可以發(fā)揮作用。”
4.恐懼:人工智能將導(dǎo)致匿名性的喪失
McGehee指出了一個(gè)鮮為人知的問(wèn)題,它可能成為人工智能安全中一個(gè)更引人注目的領(lǐng)域:當(dāng)匿名性假定為給定時(shí),將會(huì)喪失匿名性或隱私性。
McGehee說(shuō),“在以前,人工智能從業(yè)者普遍認(rèn)為,一旦機(jī)器學(xué)習(xí)模型得到訓(xùn)練,其權(quán)重(使其能夠進(jìn)行預(yù)測(cè)的參數(shù))就不包含任何可追蹤的訓(xùn)練數(shù)據(jù)。”然而,最近出現(xiàn)了一些技術(shù),這些技術(shù)將使惡意行為者能夠檢查經(jīng)過(guò)訓(xùn)練的機(jī)器學(xué)習(xí)模型,并對(duì)用于訓(xùn)練的各個(gè)數(shù)據(jù)點(diǎn)進(jìn)行有意義的推斷。這與個(gè)人數(shù)據(jù)點(diǎn)是否是希望保持匿名的人有關(guān)。”
解決方法:
同樣,通過(guò)認(rèn)識(shí)到恐懼背后的合法問(wèn)題,人們可以采取措施來(lái)解決它。在必要時(shí)保護(hù)數(shù)據(jù)的隱私或匿名性是一個(gè)組織可以采取主動(dòng)措施作為其總體安全策略一部分的領(lǐng)域。這也是機(jī)器學(xué)習(xí)中正在進(jìn)行的一個(gè)研究和開(kāi)發(fā)領(lǐng)域。
McGehee說(shuō),“雖然這是一種有效的恐懼,但對(duì)模型權(quán)重進(jìn)行適當(dāng)?shù)谋Wo(hù)和加密可以減少它們落入壞人手中的可能性,而創(chuàng)造不易受這種威脅影響的新的機(jī)器學(xué)習(xí)技術(shù)將是一個(gè)活躍的研究領(lǐng)域。”
5.恐懼:人工智能會(huì)讓人們失業(yè)
人們可能面臨這個(gè)最大的恐懼,它彌合了當(dāng)前現(xiàn)實(shí)和更多推測(cè)場(chǎng)景。大多數(shù)專(zhuān)家都認(rèn)為,人工智能將會(huì)取代更多的工作崗位。在某些情況下,這將意味著失業(yè)。
在可預(yù)見(jiàn)的未來(lái),越來(lái)越多的人工智能(以及更廣泛的自動(dòng)化)的應(yīng)用比電腦時(shí)代更為廣泛,當(dāng)時(shí)電腦的興起也引發(fā)了人們類(lèi)似的擔(dān)憂。研究發(fā)現(xiàn),電腦在影響工作崗位的同時(shí)創(chuàng)造了更多的工作崗位。
解決方法:
Nicholson說(shuō),“從歷史上看,新技術(shù)不僅使工作實(shí)現(xiàn)自動(dòng)化,而且可能帶來(lái)新的工作崗位。考慮一下采用電腦完成的所有工作。新技術(shù)通常需要人們對(duì)其進(jìn)行掌握、支持和維護(hù),而人工智能也不例外。”
積極應(yīng)對(duì)這種恐懼將是人工智能在商業(yè)領(lǐng)域成功的關(guān)鍵,否則人們將無(wú)法參與其中。人們將會(huì)注意到,以上這些不僅要求人類(lèi)參與其中,還要積極管理組織中的人工智能。
Nicholson說(shuō),“需要理解的關(guān)鍵是,未來(lái)的工作將是人類(lèi)與機(jī)器之間的協(xié)作。但是機(jī)器仍然需要人類(lèi)來(lái)操作和維護(hù)。人工智能就是如此。”