數(shù)字經(jīng)濟(jì)時(shí)代,數(shù)據(jù)已經(jīng)成為堪比石油的戰(zhàn)略資源。而隨著當(dāng)前AI大模型產(chǎn)業(yè)呈“井噴”之勢發(fā)展,海量數(shù)據(jù)處理需求也隨之而來,這也讓AI訓(xùn)練所需的計(jì)算量呈指數(shù)級增長。作為訓(xùn)練AI大模型的基礎(chǔ),智能算力的需求也愈發(fā)旺盛,且正成為支撐行業(yè)變革、打通數(shù)字經(jīng)濟(jì)“動(dòng)脈”的重要底座。
編輯 | MissD
AI大模型“井噴”算力成“深水區(qū)”關(guān)鍵
自去年底ChatGPT一夜爆火,今年以來,國內(nèi)AI相關(guān)科技公司及巨頭發(fā)布大語言模型的節(jié)奏可謂“遍地開花”。當(dāng)前,大型模型正隨著商業(yè)化應(yīng)用場景的不斷拓展,國產(chǎn)大模型已呈現(xiàn)井噴趨勢。
今年以來,百度、阿里、華為等國內(nèi)科技巨頭均發(fā)布了自己的AI大模型產(chǎn)品,更加速推動(dòng)了AI大模型的產(chǎn)業(yè)化發(fā)展。據(jù)科技部新一代人工智能發(fā)展研究中心5月底發(fā)布的《中國人工智能大模型地圖研究報(bào)告》顯示,我國10億參數(shù)規(guī)模以上的大模型已發(fā)布79個(gè)。而3個(gè)多月后,CLSA Asia-Pacific Markets給出的一份調(diào)查,這一數(shù)據(jù)已新增至130個(gè),占全球總量的40%,僅次于美國的50%。
AI大模型的出現(xiàn),使得人工智能技術(shù)在自然語言處理、圖像識(shí)別、語音合成等領(lǐng)域不斷突破,并不斷為AI產(chǎn)業(yè)落地應(yīng)用進(jìn)入“深水區(qū)”提供關(guān)鍵驅(qū)動(dòng)力。然而,隨著AI大模型的不斷迭代,“生成式AI大模型浪潮”的關(guān)鍵在于智能涌現(xiàn)能力、多輪對話以及更強(qiáng)的生成能力。此時(shí)人們發(fā)現(xiàn),訓(xùn)練AI大模型的基礎(chǔ)——算力,才是體現(xiàn)AI大模型數(shù)據(jù)處理能力強(qiáng)弱的關(guān)鍵。
此前,業(yè)界就已經(jīng)意識(shí)到“選大模型要選大廠而非創(chuàng)業(yè)公司”,其中緣由除了技術(shù)層面之外,另一方面就是圍繞算力、芯片、數(shù)據(jù)集等持續(xù)重投入資金。
據(jù)國外相關(guān)研究數(shù)據(jù)顯示,運(yùn)行聊天GPT每月將花費(fèi)300萬美元,訓(xùn)練路徑語言模型(PaLM)將花費(fèi)2000萬美元的計(jì)算成本(谷歌最新的LLM 11大模型)。目前,只有少數(shù)擁有極其龐大資源的公司能夠構(gòu)建這些模型,這就是為什么大多數(shù)現(xiàn)有的大型人工智能模型幾乎完全由大型科技公司開發(fā),尤其是谷歌(Google Brain、Deepmind)、Meta和微軟(及其被投資的OpenAI)這些大公司。
因此,此類大模型需要的計(jì)算和數(shù)據(jù)資源規(guī)模,只有資源最充足的公司才能承受。對于AI大模型公司而言,如果沒有充足的算力保障、數(shù)據(jù)集保障,且沒有做好長期、每年數(shù)十億甚至上百億的資金投入準(zhǔn)備時(shí),就得掂量掂量是否要涉足該領(lǐng)域了。
數(shù)字化進(jìn)程中 算力行業(yè)所面臨的挑戰(zhàn)
在當(dāng)前大模型等AI應(yīng)用呈井噴式增長的背景下,算力正推動(dòng)著整個(gè)數(shù)字產(chǎn)業(yè)的發(fā)展,且已開始變革。與此同時(shí),對整個(gè)社會(huì)數(shù)字化發(fā)展進(jìn)程至關(guān)重要的算力行業(yè),也在進(jìn)一步尋求突破時(shí)面臨嚴(yán)峻挑戰(zhàn)。
當(dāng)前,盡管全球范圍內(nèi)算力需求持續(xù)增長,但算力供給卻相對滯后,因此對AI及數(shù)據(jù)處理等領(lǐng)域的發(fā)展產(chǎn)生了一定程度上的制約。同樣,目前我國算力產(chǎn)業(yè)發(fā)展也有諸多痛點(diǎn)亟待解決,比如算力供需失衡、跨數(shù)據(jù)中心算力調(diào)度難、算力基礎(chǔ)設(shè)施能耗大、企業(yè)利用算力成本高等問題。
AI算力資源分布不均且供需不平衡,既會(huì)導(dǎo)致了資源的浪費(fèi)和效率的降低,也會(huì)間接地制約整個(gè)算力產(chǎn)業(yè)高質(zhì)量發(fā)展。據(jù)IDC相關(guān)報(bào)告顯示,全球數(shù)據(jù)量每年增長約60%,但算力每年增速僅為10%,這表明算力的供給與需求之間存在巨大差距。
由于在GPU計(jì)算、云計(jì)算等方面的技術(shù)積累相對較少,這也使得我國在AI算力調(diào)度方面存在瓶頸。對算力調(diào)度而言,效率至關(guān)重要,系統(tǒng)架構(gòu)、算法優(yōu)化等方面的限制,會(huì)讓處理大規(guī)模數(shù)據(jù)時(shí)效率低下的問題更加突顯。
算力使用成本高昂也是目前我國算力行業(yè)所面臨的問題,由于AI算力調(diào)度涉及大量的硬件設(shè)備、軟件平臺(tái)和人力資源,因此算力供需失衡的話會(huì)導(dǎo)致有些地區(qū)算力成本高,也讓該區(qū)域的中小企業(yè)在面臨AI算力調(diào)度時(shí),成本壓力增大。
另外就是“老生常談”的問題——數(shù)據(jù)安全問題。AI算力調(diào)度的普及,也讓安全問題日益突顯。作為企業(yè)的核心資產(chǎn),數(shù)據(jù)可謂是關(guān)鍵所在,在算力調(diào)度過程中,數(shù)據(jù)的安全與隱私保護(hù)是個(gè)問題。比如數(shù)據(jù)泄露、黑客攻擊等現(xiàn)象的發(fā)生,也給國內(nèi)AI算力調(diào)度及數(shù)字經(jīng)濟(jì)發(fā)展帶來了安全隱患。
面對以上四大挑戰(zhàn),算力行業(yè)該如何尋求突破成為了接下來的關(guān)鍵。
打通數(shù)字經(jīng)濟(jì)“大動(dòng)脈” 算力產(chǎn)業(yè)迎來變革
作為業(yè)界都聚焦的領(lǐng)域,突破算力瓶頸似乎正處于“黎明前的黑暗”。
相比移動(dòng)互聯(lián)網(wǎng)時(shí)代的數(shù)據(jù)中心以CPU為主,如今智能算力時(shí)代數(shù)據(jù)中心已轉(zhuǎn)變?yōu)橐訥PU芯片為主的算力基座,且算力需求或是以前的10倍、100倍,甚至更多。行業(yè)幾家芯片巨頭如英偉達(dá)等GPU價(jià)格及企業(yè)股票的增長也能看得出該趨勢。隨著GPU需求水漲船高,算力行業(yè)也開始慢慢變革。
早在今年6月初,芯片供應(yīng)商臺(tái)積電就宣布正式啟用全新的3DFabric技術(shù),該技術(shù)主要由先進(jìn)封裝、三維芯片堆疊和設(shè)計(jì)三部分組成。通過先進(jìn)封裝,在單一封裝中置入更多處理器及存儲(chǔ)器,從而提升運(yùn)算效能。
此外,業(yè)界其他芯片巨頭如英偉達(dá)、AMD等也紛紛發(fā)布AI芯片新品,如英偉達(dá)此前發(fā)布的NVIDIA DGX超級計(jì)算機(jī)技術(shù),256個(gè)GH200超級芯片相連作為單個(gè)GPU運(yùn)行,“專門”助力大負(fù)載巨型AI大模型開發(fā),以解決算力問題。另外,以GPU為核心算力的商湯,也于前幾個(gè)月基于AIDC建設(shè)了智能計(jì)算平臺(tái)AI大裝置SenseCore,算力規(guī)模大幅提升。
隨著新的算力芯片到來的,還有國內(nèi)各地出臺(tái)的一系列利好政策,也積極引導(dǎo)大模型研發(fā)企業(yè)應(yīng)用國產(chǎn)人工智能芯片,加快提升AI算力供給的國產(chǎn)化率,提升算力資源統(tǒng)籌供給能力,攜手企業(yè)共同推動(dòng)算力市場發(fā)展。
目前,國內(nèi)在AI芯片領(lǐng)域已經(jīng)涌現(xiàn)出了多家優(yōu)秀廠商,AI算力性能顯著提升,為推進(jìn)國內(nèi)數(shù)字化進(jìn)程提供了極大助力。
寫在最后:
隨著數(shù)字化轉(zhuǎn)型進(jìn)入深水區(qū),處于AI大模型“風(fēng)口”下的技術(shù)迭代新動(dòng)向成為“風(fēng)向標(biāo)”,算力正是如此。只有直面挑戰(zhàn)、抓住機(jī)遇,才能不斷進(jìn)階,在新一代科技變革中屹立不倒。