我一直是NVIDIA的粉絲。我在2015年訪問了公司總部,多年來一直是股東,賺了不少錢。
但最近幾個月NVIDIA遭到抨擊,分析師們對其增長的來源存在分歧。該公司已經(jīng)在消費者游戲領(lǐng)域占據(jù)主導(dǎo)地位,因此它現(xiàn)在將數(shù)據(jù)中心視為擴大收入的關(guān)鍵市場。看好英偉達(dá)的人士把英偉達(dá)58%的數(shù)據(jù)中心收入增長視為一個跡象,表明該公司正在穩(wěn)步前進(jìn)。
我對此仍然持懷疑態(tài)度。我不同意,數(shù)據(jù)中心真正的問題,特別是那些最大的云供應(yīng)商像 Amazon.com,其亞馬遜(1607.95, -14.70, -0.91%)網(wǎng)絡(luò)服務(wù)(AWS)的企業(yè),或 谷歌(1113.65, -8.02, -0.71%) 與 Google云端平臺。
但我越來越清楚GPU 并不適合數(shù)據(jù)中心。我相信NVIDIA的未來將與過去看起來大不相同,這對投資者來說并不是一個好消息。
“望著云端”
為了設(shè)置場景,大型云計算供應(yīng)商的龐大數(shù)據(jù)中心 確實是硬件供應(yīng)商的圣杯。世界各地有許多地方,每個地點都在管理大量的數(shù)據(jù)。NVIDIA的勝利可能會帶來巨大的未來GPU銷售。
但云端巨頭對其工作流程有著獨特的需求。而這些需求往往與GPU的優(yōu)勢并不完全一致。
例如,亞馬遜正在設(shè)計自己的芯片,以使其Echo設(shè)備 對聲音提示更具響應(yīng)性。對于此應(yīng)用程序,延遲(Alexa理解和響應(yīng)所需的速度)非常重要。谷歌也正在設(shè)計自己的芯片,以降低其數(shù)據(jù)中心的功耗。這里,每瓦功耗所執(zhí)行的操作次數(shù)非常重要。這些應(yīng)用程序都不需要圖像或視頻識別。
軟件應(yīng)用程序的底層代碼也在不斷變化,機器學(xué)習(xí)算法不斷被重新訓(xùn)練。Alexa可能最初根據(jù)牛津英語詞典教英語 ,但最終接受再培訓(xùn)以認(rèn)識到“殺死那次采訪”是一件好事而不是殺人罪。
現(xiàn)在,將每個軟件的特定需求和不斷變化的代碼相乘,成千上萬的其他客戶,每個客戶都從Amazon Web Services和Google Cloud Platform等云提供商那里租用存儲,處理和“機器學(xué)習(xí)即服務(wù)”。事情很快變得非常復(fù)雜。
值得稱道的是,NVIDIA已盡其所能為客戶的問題找到解決方案。它采用優(yōu)化器將其客戶試圖完成的邏輯與最能夠?qū)崿F(xiàn)這些目標(biāo)的GPU硬件產(chǎn)品相匹配。 TensorRT 就是一個例子,它可以配置NVIDIA的GPU來運行某些數(shù)據(jù)中心應(yīng)用程序。
但合身永遠(yuǎn)不會完美。
公司不得不接受他們的軟件在某種程度上強制適應(yīng)NVIDIA的可用硬件模型及其相關(guān)功能。最終用戶不知道NVIDIA的優(yōu)化器在幕后實際抽象了什么架構(gòu)。他們只知道GPU 在處理他們的需求方面明顯 優(yōu)于CPU。這正是我們近年來看到GPU大幅增長的原因。
這就是NVIDIA的問題所在。GPU不是可以處理所有數(shù)據(jù)中心復(fù)雜性的神奇解決方案。每次將應(yīng)用程序強制擬合到GPU時都會產(chǎn)生效率低下的問題。事情變得越來越復(fù)雜。
擁有雄厚資金的大公司已經(jīng)在設(shè)計自己的專用集成電路來優(yōu)化個別任務(wù)。但即使是那些沒有數(shù)十億美元和專門研究團隊的人,也開始出現(xiàn)解決方案。
如果有可以編程然后重新編程的芯片,總能完美匹配你想要的軟件做什么呢?
FPGA
這些芯片確實存在,它們被稱為現(xiàn)場可編程門陣列(FPGA)。現(xiàn)場可編程芯片可以不斷改變其邏輯,這意味著它們可以適應(yīng)不斷變化的軟件需求。
這使得它們與其他基于指令的芯片(如CPU或GPU)區(qū)別開來,但這種區(qū)別在歷史上并沒有真正重要。傳統(tǒng)上,計算只是使用CPU完成的,無論如何,每18個月的性能效率提高一倍。然后GPU發(fā)現(xiàn)了一種更有效的改進(jìn)CPU的方法。
但是,這一點差異化在今天非常重要。人工智能(AI)是一種變幻無常的野獸,它對AI算法的不斷訓(xùn)練使得CPU和GPU難以跟上。就像Alexa一樣,延遲對于任何需要瞬間響應(yīng)時間的應(yīng)用程序變得越來越重要 。低效率正變得越來越不容忍。
FPGA的可編程方面可以完全消除這些低效率。通過在軟件模型和硬件之間抽象層 - 技術(shù)人員的“模型優(yōu)化器庫” - 理論上,使用FPGA的生態(tài)系統(tǒng)可以完美地運行每個應(yīng)用程序 。 FPGA即服務(wù) 可能就像 類固醇上的 CUDA一樣 :經(jīng)過微調(diào)以匹配特定算法的硬件,而不是使用NVIDIA的GPU中最接近的匹配。FPGA可以進(jìn)行優(yōu)化,然后隨著時間的推移重新優(yōu)化,這在代碼和邏輯發(fā)生變化時很方便。
FPGA并不是每個人的答案。它們的前期成本高于CPU和GPU。他們需要花費大量時間進(jìn)行編程,這需要由經(jīng)驗豐富的工程師完成。
但這些因素并不像云供應(yīng)商那樣令人擔(dān)憂。他們可以使用IT人才,并可以承擔(dān)高額的前期成本。他們獲得的好處是降低了數(shù)據(jù)中心的總體電力成本,他們可以將這些成本作為更具競爭力的價格傳遞給租用處理和存儲的客戶。
對于FPGA來說,這是正確的市場,現(xiàn)在正是適當(dāng)?shù)臅r機。而這正是最大的云服務(wù)提供商,包括AWS,微軟(108.22, 1.32, 1.23%) , 阿里巴巴(166.15, -2.23, -1.32%) 和 百度(170.06, -4.02, -2.31%) ,正在全球快速部署它們的原因。我相信英偉達(dá)在數(shù)據(jù)中心的增長速度將會放緩,它最輝煌的日子可能已經(jīng)過去了。