中國科學技術大學潘建偉教授及其同事陸朝陽、劉乃樂等組成的研究團隊在國際上首次實現量子機器學習算法。日前,國際權威物理學期刊《物理評論 快報》發(fā)表了這一論文[Phys. Rev. Lett. 114, 110504 (2015)]。這是量子計算應用于大數據分析和人工智能領域的開創(chuàng) 性實驗工作。
機器學習是人工智能的核心,通過使機器模擬人類學習行為,智能化地從過去的經歷中獲得經驗,從而改善其整體性能,重組內在知識結構,并對未知事件進行準確的推斷。機器學習在科學和工程諸多領域都有著非常廣泛的應用,例如金融分析、數據挖掘、生物信息學、醫(yī)學診斷等。生活中常見的一些智能系統(tǒng)也廣泛使用機器學習算法,例如電子商務、手寫輸入、郵件過濾等。
隨著大數據時代的到來,人類產生的電子數據正在以每兩年翻一番的增幅爆炸式增長。據估計,人類在過去三年間產生的數據總量超過了之前幾千年產生的數據總量。另一方面,隨著后摩爾時代的到來,經典計算機芯片尺寸難以進一步縮小,計算速度的進一步提升受到限制,科學家預測機器學習等大數據分析任務在未來或面臨大數據爆炸式增長的巨大挑戰(zhàn)。
應對這一挑戰(zhàn),歐美主要發(fā)達國家政府和高科技公司已經在積極整合研究力量和資源,搶灘布局,力爭在量子信息技術應用方面占據先機。例如,2013年,美國國家航空航天局和Google聯合成立了量子人工智能實驗室。2014年,英國牛津大學、諾基亞公司、和全球最大軍火供應商洛克希德馬丁公司合建了量子優(yōu)化和機器學習中心。
2013年,美國麻省理工學院(MIT)塞斯·羅伊德(Seth Lloyd)教授提出理論預言,利用量子系統(tǒng)在處理高維向量上的并行計算優(yōu)勢,可以為機器學習帶來指數量級的加速,將能遠遠超越現有經典計算機的運算速度。理論估計,計算兩個億億億維向量的距離,用目前最快的、每秒鐘億億次運算速度的經典計算機大概需要十年,而用GHz時鐘頻率的量子計算機則可需要不到1秒的時間。
潘建偉小組發(fā)展了世界領先的光量子計算物理實現研究平臺,在國際上率先實驗實現了基于量子比特的機器學習算法演示。該算法的核心是通過以經典數據編碼的微觀量子態(tài)和輔助量子比特的糾纏,快速提取出不同向量間的內積、歐幾里得距離等信息。審稿人一致評價該工作“非常前沿,具有高度的興趣”、“在量子機器學習這個重要而有趣的課題邁出了第一步”。PhysOrg等國際科學新聞媒體報道了這一工作。
在中科院、教育部、科技部和基金委的長期支持下,潘建偉團隊對光學量子計算開展了系統(tǒng)性和戰(zhàn)略性的研究,取得了一系列開創(chuàng)性的成果:在世界上率先實現了五光子、六光子、八光子糾纏,制備了最高品質量子點單光子源,構建了基于多光子比特操縱的量子計算演示驗證平臺,開展了光子邏輯門、容失編碼、拓撲量子糾錯、多自由度隱形傳態(tài)等面向可擴展量子計算的研究,首次實現了肖爾大數分解算法、任意子分數統(tǒng)計的量子模擬、求解線性方程組量子算法和量子人工智能算法等,在光學量子計算領域一直保持著國際領先地位。
論文鏈接:http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.114.110504