在這一部分中,我們將探討人工智能是如何推動這兩個轉(zhuǎn)變:邊緣處理的復(fù)蘇,以及新處理架構(gòu)的到來。
云端將蓬勃,邊緣將綻放
1996 年底時,康柏公司的兩名高管 George Favaloro 和 Sean O'Sullivan 意識到無處不在的互聯(lián)網(wǎng)連接存在會改變信息處理的位置。計算過程可以在通過互聯(lián)網(wǎng)訪問的服務(wù)器上進(jìn)行,而不是在辦公室服務(wù)器室或桌面上。這種被他們稱為“云”的計算方式在發(fā)生著這種轉(zhuǎn)變。不過,這個詞(在那時)并沒有被堅持下去,那之后,康柏在 2002 年被惠普吞并。
但是,他們確定的關(guān)于“云”的主題卻扎根了下來。2006 年,當(dāng)時的谷歌首席執(zhí)行官埃里克施密特說:“我認(rèn)為人們并不真正了解這個機(jī)會究竟有多大,它的前提是數(shù)據(jù)服務(wù)和架構(gòu)應(yīng)該在服務(wù)器上。我們稱之為云計算,他們存在于某個‘云’上”。
從那時起,云計算已成為 IT 企業(yè)發(fā)展最快的領(lǐng)域之一。亞馬遜的 AWS 業(yè)務(wù)部門成立于 11 年前,它有著超過 120 億美元的收入。云計算為軟件帶來了全新的商業(yè)模式:軟件即服務(wù)模式。這個模式創(chuàng)建了 Salesforce、Workday 和 Zendesk 等巨頭。
今天,許多企業(yè)計算都發(fā)生在私有或虛擬私有云的遠(yuǎn)程數(shù)據(jù)中心上。當(dāng)然,企業(yè)計算是當(dāng)下很重要的。我們有著智能設(shè)備,比如智能手機(jī),平板和功能強(qiáng)大的筆記本電腦。然而,我們作為消費者體驗的大部分聰明的東西,比如在 Facebook 上的排名內(nèi)容,亞馬遜上推薦的產(chǎn)品,Siri 中響應(yīng)的口頭命令,都發(fā)生在互聯(lián)網(wǎng)這龐然大物擁有的基礎(chǔ)設(shè)施的云端。
這種向“云”的轉(zhuǎn)變并不是計算中的第一次變化。從大型機(jī)和小型計算機(jī)轉(zhuǎn)向臺式個人計算機(jī)已經(jīng)將處理器周期從受到嚴(yán)密保護(hù)的計算機(jī)房轉(zhuǎn)移到數(shù)百萬用戶的個人辦公桌上。如果你愿意,這就是計算的邊緣化。這種轉(zhuǎn)變始于 20 世紀(jì) 70 年代中期,并且隨著 DOS 和 IBM PC 標(biāo)準(zhǔn)的發(fā)展而加速到 80 年代。
互聯(lián)網(wǎng)的到來使我們能夠?qū)⒂嬎戕D(zhuǎn)回“云”,遠(yuǎn)離網(wǎng)絡(luò)邊緣和用戶的桌面。但即將發(fā)生的人工智能海嘯將使云計算能力的增長,以及計算能力的轉(zhuǎn)變,從云端又回到網(wǎng)絡(luò)邊緣。
猛烈的發(fā)展。為什么?
最終,你要在被需要的地方提供智能。隨著一切變得聰明,從燈泡到相機(jī),再到簡單的傳感器,他們需要有自己的能力來決定做什么并最終從身邊環(huán)境中學(xué)習(xí)。
為了大大簡化過程,一個智能設(shè)備需要做兩件事。首先是學(xué)習(xí)(或接受訓(xùn)練)其環(huán)境。第二個是弄清楚(或推斷)在任何階段要做什么。
但今天的 AI 系統(tǒng)在設(shè)備上很少有這些東西。在大多數(shù)情況下,AI 系統(tǒng)(如 Amazon Echo)將數(shù)據(jù)發(fā)送回云服務(wù)器進(jìn)行處理和思考。你的 Echo 就像鸚鵡一樣回應(yīng),它重復(fù)著在全球數(shù)據(jù)中心的某個服務(wù)器上為它計算出來的洞察力。
此外,這些設(shè)備不會從他們的環(huán)境或經(jīng)驗中學(xué)習(xí)任何東西。學(xué)習(xí)過程是發(fā)生在云端的。目前,他們通過基于云的人工智能的偶爾更新而變得更聰明。
智能需要本地化的原因是多方面的。一個原因是延遲。如果需要快速做出決定,那么將數(shù)據(jù)發(fā)送回云端的過程可能對整個過程是有害的,這是因為發(fā)送回云端最有可能通過移動網(wǎng)絡(luò)并需要等待響應(yīng)。
一個處在 4G 網(wǎng)絡(luò)的歐洲的設(shè)備要連接到數(shù)據(jù)中心,其延遲可能為 50 毫秒。如果要發(fā)送大量的數(shù)據(jù)(比如來自視頻流的剪輯),那么總的傳輸時間將會達(dá)到以秒為單位級別。即使機(jī)器視覺過程只需要幾毫秒,整個端到端交易也可能會持續(xù)一兩秒鐘。
對于許多應(yīng)用來說,延遲是不可接受的。現(xiàn)階段沒有哪種運輸方式可以依靠云端,無論自動駕駛汽車或無人機(jī)。因為汽車行駛速度太快,而行人太弱。機(jī)器人外科醫(yī)生也不能容忍這種延遲。患者的代謝紊亂不會等待 IP 數(shù)據(jù)包穿越大西洋到亞馬遜網(wǎng)絡(luò)服務(wù)的服務(wù)器。如果智能門鈴,智能指甲鉗或智能微波爐需要在響應(yīng)簡單的請求之前有上 1-2 秒的延遲,消費者將變得非常不滿。
第二個原因是設(shè)備很快就需要變得足夠強(qiáng)大才能在網(wǎng)絡(luò)邊緣學(xué)習(xí)。為什么?因為這些設(shè)備將在原地使用,并且他們將越來越多地進(jìn)行環(huán)境化。放置設(shè)備的環(huán)境將是其操作的一個關(guān)鍵輸入。我知道這在現(xiàn)如今聽起來很奇怪,尤其想到身邊相對愚蠢的設(shè)備時。但自治的本質(zhì)就需要去學(xué)習(xí)和適應(yīng)本地環(huán)境。我們希望自動駕駛汽車能在行駛時自動處理在巴黎,波特蘭或浦那的道路,這種處理不是基于在帕洛阿爾托廣闊的林蔭大道上學(xué)到的一些柏拉圖式的理想。對于自動駕駛汽車來說是正確的東西,也將會被運用于自動護(hù)理器,自動吸塵器和自動圖書管理器。
然而現(xiàn)如今大部分 AI 系統(tǒng)都沒有這種智能水平。即使他們可以推斷設(shè)備上的行為,他們也很少了解設(shè)備上自身的環(huán)境。大部分學(xué)習(xí)都發(fā)生在云端上面。
是的,推理預(yù)測(即讓人工智能在給定環(huán)境的當(dāng)前狀態(tài)下預(yù)測下一步該做什么)顯然是一個推動邊緣的候選者,但這也成為推動模型訓(xùn)練(學(xué)習(xí))的必要條件
邊界情況下的訓(xùn)練
人工智能的訓(xùn)練階段傳統(tǒng)上需要比推斷或預(yù)測階段更多的處理能力。任何父母都知道這一點,教孩子如何打開門(訓(xùn)練階段)要比他們知道之后再去打開(推理階段)要困難得多。
舉個例子,在 2011 年,Google Brain 通過觀看 YouTube 視頻進(jìn)行了訓(xùn)練,來識別貓和人,它在谷歌的一個數(shù)據(jù)中心運行著2000 個 CPU。許多開發(fā)人員在云中訓(xùn)練模型,在那里可以存在機(jī)架式 GPU,然后將計算成本較低的推理模型推向邊緣更便宜的設(shè)備。
但這已經(jīng)開始發(fā)生了變化。蘋果公司的 iPhone 在夜間使用空閑 GPU 周期來了解你的圖片。谷歌最近推出了“聯(lián)合網(wǎng)絡(luò)學(xué)習(xí)”,它可以實現(xiàn):
更智能的型號,更低的延遲和更低的功耗,同時還確保隱私性。此方法還有另一個直接的好處:除了提供共享模型的更新外,更新后的模型可以被立即使用,并通過你使用手機(jī)的方式為個性化體驗提供動力。
谷歌應(yīng)用這些智能的一個例子是他們應(yīng)用在 GBoard Android 鍵盤上的打字預(yù)測。所有用戶體驗到的將是根據(jù)其他用戶行為進(jìn)行改進(jìn)后的預(yù)測。
我們可能會看到的是一個多方面的基礎(chǔ)設(shè)施,其中學(xué)習(xí)過程發(fā)生在網(wǎng)絡(luò)邊緣和云端上。這種聯(lián)合網(wǎng)絡(luò)學(xué)習(xí)將是很有效的。它將允許網(wǎng)絡(luò)從數(shù)千(或數(shù)百萬甚至數(shù)十億)邊緣設(shè)備的經(jīng)驗和他們的環(huán)境經(jīng)驗中學(xué)習(xí)。但是,在聯(lián)合環(huán)境中,邊緣設(shè)備可以進(jìn)行一些學(xué)習(xí)并且有效率地將增量(或權(quán)重)發(fā)送回云端,其中的中心模型可以被更有效的更新,而不是將原始經(jīng)驗數(shù)據(jù)既費力又迂腐地發(fā)送回云進(jìn)行分析。
這種機(jī)制可以嵌入有損的方法,比如差分隱私,來確保數(shù)據(jù)庫中的聚合數(shù)據(jù)不會泄露關(guān)于特定個人或他們習(xí)慣的信息。但這仍然允許捕獲數(shù)據(jù)中的重要模式,也同時保護(hù)個人隱私。
從云轉(zhuǎn)移到云和邊緣的智能轉(zhuǎn)移軌跡也會產(chǎn)生其他影響,包括必須制造的芯片類型。
硅在新架構(gòu)上的應(yīng)用
自英特爾 4004 型處理器于 1971 年推出以來,英特爾的通用微處理器,即中央處理器(或稱 CPU ) 一直主導(dǎo)著技術(shù)行業(yè)。幾十年來,英特爾、通用 CPU 和摩爾定律一直是三巨頭。通用 CPU 為我們提供了非常好的服務(wù)。它允許標(biāo)準(zhǔn)操作系統(tǒng)(首先是 DOS,然后是 Windows ) 的出現(xiàn),這創(chuàng)建了一個公共平臺,而它反過來又降低了 IT 開發(fā)人員和用戶的成本(它還創(chuàng)造了 Wintel 壟斷,這種壟斷首先不是因為反壟斷,而是因為互聯(lián)網(wǎng)和移動電話的出現(xiàn)而被打破)。
然而,由于機(jī)器學(xué)習(xí)的差異化需求,事實證明 CPU 性能太普通了。更糟糕的是,制造業(yè)和量子物理的局限使得摩爾定律的改進(jìn)停滯不前。2016 年 8 月份的《自然》雜志的封面上以此為標(biāo)題。業(yè)內(nèi)大部分人都同意。
事實上,目前人工智能投資的繁榮是由通用 CPU 的一個轉(zhuǎn)變所推動的。這是在 2012 年由一個神經(jīng)網(wǎng)絡(luò)觸發(fā)的,這個神經(jīng)網(wǎng)絡(luò)運行在一對圖形處理單元(GPU 等)而不是一組 CPU 上。
在研究員 Alex Krizhevsky 和他的同事們贏得 2012 年 Imagenet 競賽后,深度神經(jīng)網(wǎng)絡(luò)與 GPU 配對的優(yōu)勢變得顯而易見。其余都是近期的歷史。
如果說前 30 年的計算能夠在通用 CPU 上創(chuàng)造價值,未來幾十年將在更復(fù)雜的處理體系結(jié)構(gòu)生態(tài)上創(chuàng)造價值。其中一些已經(jīng)開始出現(xiàn):Nvidia 的 GPU 及其 CUDA 生態(tài)系統(tǒng);谷歌的 TPU 芯片和 Tensorflow 控制軟件;基于人工智能的 FPGAs(可在微軟的 Azure 云中找到);新的神經(jīng)形態(tài)芯片;和快速接近的量子計算。
從電子游戲到數(shù)學(xué)矩陣