真實(shí)進(jìn)展到了哪一步
當(dāng)前,越來(lái)越多的行業(yè)都在發(fā)展人工智能技術(shù),新概念和新算法層出不窮,但人工智能的主要應(yīng)用領(lǐng)域是圖像識(shí)別和語(yǔ)言翻譯,圖像識(shí)別領(lǐng)域進(jìn)展要優(yōu)于語(yǔ)言翻譯,前者在某些指標(biāo)上超過(guò)了人類(lèi)水平,但語(yǔ)言翻譯能力還不及人類(lèi),這是該技術(shù)進(jìn)展的基本情況。
具體說(shuō),人工智能可以做以下四個(gè)方面的工作。
第一,數(shù)據(jù)分類(lèi)。人工智能可對(duì)圖像或聲音等數(shù)據(jù)進(jìn)行分類(lèi),安防領(lǐng)域中對(duì)攝像頭采集數(shù)據(jù)的處理及醫(yī)療影像識(shí)別和診斷,這兩個(gè)領(lǐng)域發(fā)展迅猛,產(chǎn)業(yè)前景廣闊。
第二,異常探測(cè)。人工智能可幫助發(fā)現(xiàn)欺詐性金融交易或新惡意軟件等異常行為,可用于實(shí)時(shí)監(jiān)控大規(guī)模數(shù)據(jù),央行及其他市場(chǎng)金融機(jī)構(gòu)正致力于類(lèi)似應(yīng)用。
第三,預(yù)測(cè)。從海量數(shù)據(jù)中發(fā)現(xiàn)某種規(guī)律后,人工智能可基于統(tǒng)計(jì)特征對(duì)未來(lái)行為作出預(yù)測(cè),這在搜索引擎的自動(dòng)填充、視頻和網(wǎng)購(gòu)平臺(tái)的產(chǎn)品推薦等領(lǐng)域得到廣泛應(yīng)用,還可用于天氣預(yù)報(bào)。
第四,優(yōu)化。人工智能可對(duì)復(fù)雜的系統(tǒng)和任務(wù)進(jìn)行優(yōu)化,例如美國(guó)“深度思維”公司使用機(jī)器學(xué)習(xí)優(yōu)化了谷歌數(shù)據(jù)中心的能源效率,節(jié)約了40%用于冷卻的能量,使能效整體提升了15%。
綜上,人工智能確實(shí)具有諸多優(yōu)勢(shì),其反應(yīng)時(shí)間比人類(lèi)更快,在不少領(lǐng)域和場(chǎng)景下,有優(yōu)于人類(lèi)的精確性、可靠性和敏捷性,也比人類(lèi)更有耐心和警覺(jué)性,同時(shí)還能獨(dú)立于人類(lèi)進(jìn)行工作。
應(yīng)用中不可忽視的弱點(diǎn)
不容忽視的是,當(dāng)前的人工智能技術(shù)也存在弱點(diǎn),美國(guó)智庫(kù)“新美國(guó)安全中心”最近發(fā)布《人工智能:每個(gè)決策者需要知道什么》報(bào)告,提示人工智能的一些弱點(diǎn)可能對(duì)國(guó)家安全等領(lǐng)域造成巨大影響。
第一,脆弱性。目前的人工智能系統(tǒng)還無(wú)法超出場(chǎng)景或語(yǔ)境理解行為,其在下棋或游戲等有固定規(guī)則的范圍內(nèi)不會(huì)暴露出這一弱點(diǎn),而一旦場(chǎng)景發(fā)生變化或這種變化超出一定范圍,人工智能可能就立刻無(wú)法“思考”。
第二,不可預(yù)測(cè)性。用戶(hù)無(wú)法預(yù)測(cè)人工智能會(huì)做出何種決策,這既是一種優(yōu)勢(shì),也會(huì)帶來(lái)風(fēng)險(xiǎn),因?yàn)橄到y(tǒng)可能會(huì)做出不符合設(shè)計(jì)者初衷的決策。
第三,弱可解釋性。人工智能或許可以幫助人類(lèi)做出好的決策,但決策理由目前仍然是一個(gè)“黑箱”。例如,圖像識(shí)別能力可以發(fā)現(xiàn)圖片中的校車(chē),但無(wú)法解釋哪些圖像特征讓它作出這種判斷,而在醫(yī)學(xué)診斷領(lǐng)域,診斷的理由往往是重要的。
第四,安全問(wèn)題和漏洞。機(jī)器會(huì)重結(jié)果而輕過(guò)程,通過(guò)找到系統(tǒng)漏洞,實(shí)現(xiàn)字面意義上的目標(biāo),但其采用的方法不一定是設(shè)計(jì)者的初衷。例如,網(wǎng)站會(huì)推薦一些極端主義視頻,因?yàn)榇碳ば詢(xún)?nèi)容可以增加瀏覽時(shí)間。再如,網(wǎng)絡(luò)安全系統(tǒng)會(huì)判斷人是導(dǎo)致破壞性軟件植入的主要原因,于是索性不允許人進(jìn)入系統(tǒng)。
第六,系統(tǒng)事故。在算法不能共享的對(duì)抗性環(huán)境中,系統(tǒng)性錯(cuò)誤很容易發(fā)生,導(dǎo)致做出無(wú)法估量的決策。比如,在國(guó)家安全領(lǐng)域,兩種相互對(duì)抗的算法為了獲得優(yōu)勢(shì)會(huì)采用某些導(dǎo)致毀滅性后果的行為,尤其在網(wǎng)絡(luò)安全和電子戰(zhàn)過(guò)程中,對(duì)抗性決策會(huì)非常迅速,人類(lèi)幾乎來(lái)不及叫停。
第七,人機(jī)交互失敗。盡管讓機(jī)器提供建議,由人類(lèi)做最后決策是解決人工智能某些弱點(diǎn)的常用方法,但由于決策者對(duì)系統(tǒng)局限性或系統(tǒng)反饋的認(rèn)知能力不同,這一問(wèn)題并不能得到根本解決。2016年特斯拉自動(dòng)駕駛汽車(chē)撞毀事故中,人類(lèi)操作員就沒(méi)能理解系統(tǒng)給出的提示而發(fā)生致命性事故,在軍事、邊境安全、交通安全、執(zhí)法等諸多領(lǐng)域都面臨類(lèi)似挑戰(zhàn)。
第八,機(jī)器學(xué)習(xí)漏洞可被對(duì)手利用。在對(duì)抗性過(guò)程中,對(duì)手還會(huì)釋放有毒數(shù)據(jù)或利用人工智能行為方式的某些漏洞發(fā)起攻擊,目前還沒(méi)有抵御這種攻擊的有效辦法。