今天中科院微信發布了一個“重磅消息”:中國量子計算機誕生。
這么說多少有一點夸張。
這件事實際上是中科大潘建偉、陸朝陽、朱曉波和浙大王浩華教授等,自主研發了10比特超導量子線路樣品,通過發展全局糾纏操作,成功實現了目前世界上最大數目的超導量子比特的糾纏和完整的測量。
進一步,研究團隊利用超導量子線路演示了求解線性方程組的量子算法,證明了通過量子計算的并行性加速求解線性方程組的可行性。
潘建偉說:這是歷史上第一臺超越早期經典計算機的基于單光子的量子模擬機,為最終實現超越經典計算能力的量子計算奠定了基礎。
官方公布的實驗測試聲稱,該原型機的取樣速度比國際同行快至少24000倍,同時,通過和經典算法比較,也比人類歷史上第一臺電子管計算機(ENIAC)和第一臺晶體管計算機(TRADIC)運行速度快10-100倍。
相關報道中還引用了一個例子:“如果現在傳統計算機的速度是自行車,量子計算機的速度就好比飛機”。而且進一步表示:量子計算機對特定問題的處理能力可超過目前最快的“神威·太湖之光”超級計算機。
潘建偉教授一直在光量子計算機領域進行研究,至少在2007年,潘建偉研究組的“光量子計算機的物理實現和算法應用”,就曾獲評中國高等學校十大科技進展。
而關于光量子計算機的相關研究,也一直有一些爭論。
那么,到底怎么看待量子計算機?真的能比超級計算機“神威·太湖之光”更厲害?超算和人工智能到底有什么關系?
帶著種種疑問,量子位火線對話浪潮人工智能與高性能產品部總經理劉軍。嘗試找到答案。
比超算還厲害?
對于今天發布的“中國量子計算機”,劉軍表示還沒有看過具體的產品和論文,但他指出報道中關于自行車和飛機的比喻,以及說量子計算機超越神威·太湖之光的說法,都是不對的。原因有三個:
1)相關產品還沒有正式的商業化應用
2)幾年前美國在研究,但只是樣機給Google之類的測試,距實際應用還有很遠
3)目前只應用在幾個少量領域,多數場景還不行
另外也有朋友對量子位表示,量子計算目前非常依賴算法,只有在解決特定問題時才能起效。而且量子態的長時間存儲比較困難,目前還難以支撐大規模計算,相關研究只停留在理論階段。
總而言之一句話:應用問題是目前量子計算最核心的問題。大部專業場景還用不上量子計算機,未來可能比較適用于安全性要求高、加密解密等方面的工作。因此劉軍說跟神威·太湖之光相比并不合適。
神威·太湖之光,是我國自主研發的超級計算機,也是目前全球排名第一的超級計算機,速度比第二名“天河二號”快出近兩倍。
2015年,美國宣布對中國禁售高性能處理器。一年之后,中國就自主研發出超級計算機神威·太湖之光。也是一件相當提氣的事情。
量子位問劉軍其中的緣由。
這位業內人士回答說:首先是國家布局早,國防科大和江南計算所都是軍方背景的研究隊伍,而且國家重視,列入了戰略級目標中。
其次更直接的是被逼得沒辦法,像美國對中國禁運,最尖端的部件不給你了,于是刺激了中國必須要自主開發做這個事情——美國人實際上干了一件很愚蠢的事情。
超級計算機神威-太湖之光作為國之重器,目前對于人工智能的不少問題,幾乎就像屠龍刀斬蛇一般——實在太委屈了。劉軍笑稱,現在只有超大規模的科學工程計算仿真問題,才“配”動用這把國家屠龍刀。
順著這個話題,繼續聊聊超算和人工智能。
早在AlphaGo擊敗李世石、并讓深度神經網絡、機器學習和人工智能“聞名”于千家萬戶之前,以服務器和計算力為主業的浪潮內部,就已經在早幾年里感知到了這種變化。
特別是對劉軍來說,這種AI大潮洶涌而至的感覺,沒有人比他更有話語權了。尤其是今年以來,他的頭銜從浪潮集團高性能服務器產品部總經理,新近變更為了浪潮人工智能與高性能產品部總經理。
而更重要的是這種title變化背后展現出的AI產業趨勢。
如果我們把BAT、360、搜狗、今日頭條,Face++等企業看作人工智能時代的掘金者,那從“浪潮”這個賣水者背后,也能窺見AI潮水涌動的方向。
意料之外:GPU本為超算而生
在接受量子位專訪中,劉軍被問到“人工智能”時的第一個反應是:意料之外。
他回憶稱,現在這個人工智能熱潮讓他最明顯感知到是3年前,當時還沒有AlphaGo大戰李世石的史詩級事件,但因為BAT在內的客戶,已經開始有了更大計算量和更多計算力方面的業務——“我們把它看作一種新的方法和工具,讓我們去處理原來大數據的這些問題。”
之前,劉軍未想過超算和AI會帶來這樣結合性的歷史機遇,而從3年前開始,他們感知到一些業務正在變得不同。
讓這一切變得不同的最大變量是GPU的出現。
首先,GPU可能現在已經廣為人知,是人工智能中最核心的芯片應用,但GPU的誕生,當時最主要的目的卻是希望解決超算和高性能計算中的問題。
“NVIDIA的創始人黃仁勛發明GPU,當時最主要想做超算和高性能計算。但當時他最主要的競爭對手是Intel,以及更現實的問題是所有的軟件都跑在Intel的CPU集群上,所以如何把軟件移植過來,是最頭疼的問題。”
然而意料之外的是,搞神經網絡的人發現了GPU,并發現GPU對加速訓練的性能提升幫助很大,于是開始帶動了整個用GPU來做深入神經網絡的熱潮。
互聯網公司升級:框架是關鍵一步
毫無疑問,這股浪潮也影響到了中國互聯網公司。但在2015年以前,這些公司并不知道如何利用GPU實現神經網絡的訓練。
劉軍表示,當時包括科大訊飛、搜狗和奇虎360等公司,都在尋求解決方案,即如何做應用的遷移優化,而浪潮的角色,就是幫自己的這些超算業務里的客戶,把CPU的應用轉到GPU上。
不過,這并不是一蹴而就的事情。劉軍認為當時雖然浪潮服務的客戶有了把應用遷移到GPU上的需求,但其中面臨最現實的挑戰來自“人才”——懂GPU的人實在有限,人力資源也遭遇緊缺。
于是這其間第二個關鍵的變量是Caffe之類的框架。
劉軍將Caffe的出現比喻成“輪子”,是加快整個AI這輛汽車往前的關鍵性發明。自此之后,互聯網公司和研究人工智能的公司就有了較為便利的工具,能夠快速把原來的數據通過深度學習的方法轉化成比較強的推理識別的業務應用。
“如果沒有Caffe這樣的框架,現在看到的絕大多數的人工智能可能還在探索怎么編寫程序、以及如何實現想要的東西,所以’輪子’出現,整個進度一下子就上升了很多。”
超算和AI因何交匯?
當然,除了GPU和Caffe帶來的加速,劉軍還認為超算的發展變革,正在和人工智能交織在一起,而這也是他的職務變成浪潮人工智能與高性能產品部總經理的原因。
“人工智能”并非為加而加,“高性能”保留也并非沒有緣由。
劉軍介紹稱,目前服務的客戶來看,圖像分析的樣本量級大約為百億級,而語音分析也達到了十萬小時級。隨著AI的應用范圍拓展,訓練數據的樣本量越來越大,對并行存儲容量和帶寬提出了新挑戰。
他表示,從高性能計算能力支撐來講,深度學習需要高容量、高帶寬的并行存儲,高帶寬、低延時的互聯網絡,需要更大規模的GPU集群,同時需要專用的神經網絡芯片。
劉軍指出的具體解決方案分線上和線下。
線下平臺方面,主要有X86 CPU同行并行計算和GPU/MIC異構并行計算。因為線下訓練涉及的數據量非常大,往往能夠達到PB級,計算和通信十分密集,由于深度神經網絡(DNN)、循環神經網絡(RNN)、卷積神經網絡(CNN)等算法往往可擴展性不高,需要在節點內進行高效計算。
線上平臺方面,則有X86 CPU同構并行計算、GPU/MIC異構并行計算,以及FPGA異構并行計算。
這種方案主要基于用戶請求。由于線上產品往往伴隨著億萬級別的用戶和用戶請求,需要成千上萬個節點來實時響應,這就要求線上平臺低功耗且高性能。
作為浪潮方面解決方案的直接負責人,劉軍認為FPGA正在成為潮流。
劉軍解釋稱,原來大家一直用的比較多的是CPU,因為CPU大環境比較成熟,部署起來也比較方便。
現在在訓練端大家越來越多的用GPU,所以在前端推斷端云端部署的時候,越來越多的人開始部署GPU。因為它的模型直接過來放在上面就可以用。
第三個方向也是浪潮在做的FPGA,FPGA的方式天生的就比較適合于并發的低延遲的處理簡單的小任務,現在用FPGA在云端處理推理端。
不過現在用戶除了廣泛接納CPU、GPU外,他們也正在嘗試新的趨勢,目前之所以FPGA的異構計算模式成為深度學習選擇,核心關鍵是:低功耗、高性能、易編程。
值得注意的是,超算和人工智能的實際結合也正在越來越多地發生。
就在近期結束的ASC2017世界大學生超算競賽中,全球最快、中國最知名的超級計算機神威-太湖之光就成為了總決賽的計算平臺。其中具體領域涵蓋超算系統設計、人工智能、基因測序等。
而人工智能方面,則基于百度的深度學習開源平臺PaddlePaddle,要求參賽者在3000W額定功耗下搭建超算系統競賽平臺、建模計算并對瞬息萬變的交通情況做出預測,并且幫助車輛選擇最合適的行駛路線。
競賽提供給各隊伍在上百條道路上約50個工作日的歷史交通數據,要求他們預測每條道路在某工作日早高峰的道路交通狀況,最終,北京航空航天大學、清華大學、俄羅斯烏拉爾聯邦大學等參賽隊伍取得了較高精度的交通預測結果。
不過,劉軍對量子位表示這只是“牛刀小試”。主要目的是希望借助競賽,培養更多人的興趣,“讓更多人知道它、了解它、熟悉它,為下一步生態圈內的軟件開發培養興趣和習慣。”
這也是這位站在超算和AI交叉路口的專家,對目前最大挑戰的看法——中國有了自主研發的超算,并且實現了全球最快,但現在還不到“滿血”應用和服務于各種工程的爆發期,因為整個軟件生態和開發生態還有待建設。(完)