為了解AI技術的起源,本文記錄了AI的發展歷程,通過高級駕駛員輔助系統(ADAS)和自動駕駛汽車的案例,分析了AI芯片目前的發展狀態,以及如何讓AI芯片真正改變我們的日常生活。讓我們從AI的歷史開始講起,隨著AI的發展,更專業化的技術出現了,即所謂的機器學習,它依靠經驗學習而不是編程來做決策。反過來,機器學習也為后來的深度學習奠定了基礎。深度學習涉及到分層算法,目的是為了更好地理解數據。
AI技術本源
1956年達特茅斯會議上,科學家約翰·麥卡錫,克勞德·香農和馬文·明斯基提出了“人工智能”一詞。50年代末,阿瑟·薩繆爾(Arthur Samuel)提出了“機器學習”這個術語,他開發了一個西洋跳棋程序,可以從錯誤中吸取教訓,經過學習后,甚至比編寫程序的人棋力更強。
在這個計算機技術飛速發展的時代,樂觀的環境讓研究人員相信AI技術將在短時間內“攻克”。科學家們研究了基于人腦功能的計算是否能夠解決現實生活中的問題,創造了“神經網絡”的概念。1970年,馬文·明斯基在《生活》雜志中講到,“未來3~8年內,我們將擁有相當于普通人智力水平的機器。”
到了20世紀80年代,AI走出實驗室,進入商業化,掀起了一股投資熱潮。80年代末,AI技術泡沫最終破裂,AI又回到了研究領域,科學家們繼續開發AI的潛能。行業觀察者稱AI是一種超前于時代的技術,也有人說是未來科技。經歷了相當長一段時間的所謂“AI寒冬”之后,商業開發再次啟動。
1986年,杰弗里·希爾頓(Geoffrey Hinton)和他的同事發表了一篇里程碑式的論文,描述了一種稱為“反向傳播(back-propagation)”的算法,該算法可以顯著提高多層或“深度”神經網絡的性能。 1989年,嚴恩·樂庫(Yann LeCun)和貝爾實驗室的其他研究人員創建了一個可以訓練識別手寫的郵政編碼的神經網絡,展示了這項新技術在現實世界中的重要應用。他們訓練深度學習卷積神經網絡(CNN)只花了3天時間。時光飛逝到2009年,斯坦福大學的Rajat Raina、Anand Madhavan和Andrew Ng發表了一篇論文,闡述了現代GPU在深度學習領域擁有遠遠超過多核CPU的計算能力。AI已經準備好重新起航。
探索真正的AI芯片
為什么當今我們總是聽到不可勝數的關于AI的消息?關鍵因素的融合為AI技術的巨大進步奠定了基礎,許多人認為這能夠解決越來越重要的現實問題。利用當今互聯網提供的基礎設施,全球研究人員可以獲得創建新算法和解決方案所需要的計算能力、大規模數據和高速通信。例如,汽車行業已經表示,愿意為AI技術投入研發資金,因為機器學習有能力處理自動駕駛等高度復雜的任務。
AI芯片設計的主要挑戰之一就是將一切整合到一起。我們在這里討論的是超大型的定制SoC,它使用多種類型的硬件加速器實現深度學習。設計AI芯片可能是非常困難的事情,尤其是考慮到汽車行業對安全性和可靠性的嚴格要求,但AI芯片仍然只是芯片而已,或許在加工工藝、存儲器、I/O和互連技術方面會有一些新的解決方案。
像谷歌和特斯拉這樣的IC設計新手公司,以及AIMotive和Horizon Robotics這樣的AI芯片創業公司,都對深度學習的計算復雜性有深入的了解,但在開發這些最先進的SoC時,它們可能會面臨嚴峻的挑戰。可配置的互連IP在確保業內所有這些新參與者能夠盡快獲得功能性芯片方面可以發揮關鍵作用。
例如,對于汽車前置攝像頭,可以采用具有深度學習加速器的AI芯片,它們可以對路邊的目標進行檢測和分類。每顆AI芯片都有唯一的內存訪問配置文件,以確保最大帶寬。片內互連的數據流必須進行優化,以確保在滿足性能目標時有更寬的帶寬路徑,但在可能的情況下分配窄路徑以優化面積、成本和功耗。
每個連接也必須進行優化,以適應更高級別的AI算法。為了讓它更有趣,人們每天都在開發新的AI算法。從某種程度上講,今天的深度學習芯片就像香蕉,沒有人想在自己的AI芯片中使用爛香蕉或老算法。對于這些前沿產品而言,上市時間甚至比其他很多半導體產品更為重要。
AI的未來
雖然深度學習和神經網絡正在迅速推動AI技術的發展,但仍有許多研究人員認為,如果要實現AI最不可思議的目標,仍然需要從根本上采用完全不同的新方法。大多數AI芯片的設計都是為了實現LeCun和Hinton以及其他人在十多年前發表的相同想法的不斷改進的版本,但是我們沒有理由期望,沿著這條道路取得指數級別的進展就能讓AI變得可以像人類一樣思考。正如我們今天所知道的那樣,我們無法將付出巨大努力完成了一項任務的深度學習應用到一項不同的新任務中。
此外,神經網絡沒有很好的方法來整合先前的知識,也沒有“向上vs向下”(up vs down)以及“孩子有父母”(children have parents)這樣的規則。最后,基于神經網絡的AI需要大量的例子來學習,而人類只要有一次難忘的經歷就能學會不去碰火爐。目前尚不清楚如何將現有的AI技術應用于那些沒有海量標記數據集的問題。
雖然AI芯片目前還不是特別智能,但它們絕對很聰明,而且很有可能在不久的將來變得更加智能。這些芯片將繼續利用半導體加工、計算機架構和SoC設計方面的先進技術,以提高處理能力,支持下一代AI算法。與此同時,新的AI芯片將繼續需要先進的存儲系統和片上互連架構,以便為新的專有硬件加速器提供深度學習所需的源源不斷的數據流。