精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當(dāng)前位置:芯片市場動(dòng)態(tài) → 正文

人工智能芯片和傳統(tǒng)芯片有何不同

責(zé)任編輯:zsheng |來源:企業(yè)網(wǎng)D1Net  2018-07-26 09:23:35 本文摘自:山西新聞網(wǎng)--山西日報(bào)

AI(人工智能)芯片需要具備高性能的并行計(jì)算能力,同時(shí)要能支持當(dāng)前的各種人工神經(jīng)網(wǎng)絡(luò)算法。

傳統(tǒng)CPU(中央處理器)由于計(jì)算能力弱,支撐深度學(xué)習(xí)的海量數(shù)據(jù)并行運(yùn)算,且串行的內(nèi)部結(jié)構(gòu)設(shè)計(jì)架構(gòu)為的是以軟件編程的方式實(shí)現(xiàn)設(shè)定的功能,并不適合應(yīng)用于人工神經(jīng)網(wǎng)絡(luò)算法的自主迭代運(yùn)算。傳統(tǒng)CPU架構(gòu)往往需要數(shù)百甚至上千條指令才能完成一個(gè)神經(jīng)元的處理,在AI芯片上可能只需要一條指令就能完成。

傳統(tǒng)的CPU、GPU(圖形處理器)都可以拿來執(zhí)行AI算法,但是速度慢,性能低,無法實(shí)際商用。比如,自動(dòng)駕駛需要識別道路行人紅綠燈等狀況,但是如果是當(dāng)前的CPU去算,那么估計(jì)車翻到河里了還沒發(fā)現(xiàn)前方是河。如果用GPU,的確速度要快得多,但是,功耗大,汽車的電池估計(jì)無法長時(shí)間支撐正常使用。

另外,GPU因?yàn)椴皇菍iT針對AI算法開發(fā)的ASIC(Application Specific Integrated Circuits,專用集成電路),所以,說到底,速度還沒到極限,還有提升空間。而類似智能駕駛這樣的領(lǐng)域,必須快。在手機(jī)終端,可以自行人臉識別、語音識別等AI應(yīng)用,這個(gè)必須功耗低,所以GPU的選擇是不合理的。所以,開發(fā)ASIC就成了必然。

解讀主流的人工智能芯片

人工智能的高級階段是深度學(xué)習(xí),而對于深度學(xué)習(xí)過程則可分為訓(xùn)練和推斷兩個(gè)環(huán)節(jié):訓(xùn)練環(huán)節(jié)通常需要通過大量的數(shù)據(jù)輸入或采取增強(qiáng)學(xué)習(xí)等非監(jiān)督學(xué)習(xí)方法,訓(xùn)練出一個(gè)復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)模型。

訓(xùn)練過程由于涉及海量的訓(xùn)練數(shù)據(jù)和復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),需要的計(jì)算規(guī)模非常龐大,通常需要GPU集群訓(xùn)練幾天甚至數(shù)周的時(shí)間,在訓(xùn)練環(huán)節(jié)GPU目前暫時(shí)扮演著難以替代的角色。推斷環(huán)節(jié)指利用訓(xùn)練好的模型,使用新的數(shù)據(jù)去“推斷”出各種結(jié)論,如視頻監(jiān)控設(shè)備通過后臺的深度神經(jīng)網(wǎng)絡(luò)模型,判斷一張抓拍到的人臉是否屬于黑名單。雖然推斷環(huán)節(jié)的計(jì)算量相比訓(xùn)練環(huán)節(jié)少,但仍然涉及大量的矩陣運(yùn)算。

Training(訓(xùn)練)和 Inference(推斷)在目前大多數(shù)的AI系統(tǒng)中,是相對獨(dú)立的過程,其對計(jì)算能力的要求也不盡相同。Training需要極高的計(jì)算性能,需要較高的精度,需要能處理海量的數(shù)據(jù),需要有一定的通用性,以便完成各種各樣的學(xué)習(xí)任務(wù)。

在推斷環(huán)節(jié),除了使用CPU或GPU進(jìn)行運(yùn)算外,F(xiàn)PGA以及ASIC均能發(fā)揮重大作用。目前,主流的人工智能芯片基本都是以GPU、FPGA、ASIC以及類腦芯片為主。

1.FPGA

即專用集成電路,一種集成大量基本門電路及存儲器的芯片,可通過燒入FPGA配置文件來來定義這些門電路及存儲器間的連線,從而實(shí)現(xiàn)特定的功能。而且燒入的內(nèi)容是可配置的,通過配置特定的文件可將FPGA轉(zhuǎn)變?yōu)椴煌奶幚砥鳎腿缫粔K可重復(fù)刷寫的白板一樣。FPGA有低延遲的特點(diǎn),非常適合在推斷環(huán)節(jié)支撐海量的用戶實(shí)時(shí)計(jì)算請求,如語音識別。

由于FPGA適合用于低延遲的流式計(jì)算密集型任務(wù)處理,意味著FPGA芯片做面向與海量用戶高并發(fā)的云端推斷,相比GPU具備更低計(jì)算延遲的優(yōu)勢,能夠提供更佳的消費(fèi)者體驗(yàn)。在這個(gè)領(lǐng)域,主流的廠商包括Intel、亞馬遜、百度、微軟和阿里云。

2.ASIC

即專用集成電路,不可配置的高度定制專用芯片。特點(diǎn)是需要大量的研發(fā)投入,如果不能保證出貨量其單顆成本難以下降,而且芯片的功能一旦流片后則無更改余地,若市場深度學(xué)習(xí)方向一旦改變,ASIC前期投入將無法回收,意味著ASIC具有較大的市場風(fēng)險(xiǎn)。但ASIC作為專用芯片性能高于FPGA,如能實(shí)現(xiàn)高出貨量,其單顆成本可做到遠(yuǎn)低于FPGA。

谷歌推出的TPU(Tensor Processing Unit即張量處理單元是一款為機(jī)器學(xué)習(xí)而定制的芯片)就是一款針對深度學(xué)習(xí)加速的ASIC芯片,而且TPU被安裝到AlphaGo(阿爾法圍棋)系統(tǒng)中。但谷歌推出的第一代TPU僅能用于推斷,不可用于訓(xùn)練模型,但隨著TPU2.0的發(fā)布,新一代TPU除了可以支持推斷以外,還能高效支持訓(xùn)練環(huán)節(jié)的深度網(wǎng)絡(luò)加速。根據(jù)谷歌披露的測試數(shù)據(jù),谷歌在自身的深度學(xué)習(xí)翻譯模型的實(shí)踐中,如果在32塊頂級GPU上并行訓(xùn)練,需要一整天的訓(xùn)練時(shí)間,而在TPU2.0上,八分之一個(gè)TPUPod(TPU集群,每64個(gè)TPU組成一個(gè)Pod)就能在6個(gè)小時(shí)內(nèi)完成同樣的訓(xùn)練任務(wù)。

3.GPU

即圖形處理器。最初是用在個(gè)人電腦、工作站、游戲機(jī)和一些移動(dòng)設(shè)備上運(yùn)行繪圖運(yùn)算工作的微處理器,可以快速地處理圖像上的每一個(gè)像素點(diǎn)。后來科學(xué)家發(fā)現(xiàn),其海量數(shù)據(jù)并行運(yùn)算的能力與深度學(xué)習(xí)需求不謀而合,因此,被最先引入深度學(xué)習(xí)。2011年吳恩達(dá)教授率先將其應(yīng)用于谷歌大腦中便取得驚人效果,結(jié)果表明,12顆英偉達(dá)的GPU可以提供相當(dāng)于2000顆CPU的深度學(xué)習(xí)性能,之后紐約大學(xué)、多倫多大學(xué)以及瑞士人工智能實(shí)驗(yàn)室的研究人員紛紛在GPU上加速其深度神經(jīng)網(wǎng)絡(luò)。

GPU之所以會被選為超算的硬件,是因?yàn)槟壳耙笞罡叩挠?jì)算問題正好非常適合并行執(zhí)行。一個(gè)主要的例子就是深度學(xué)習(xí),這是人工智能最先進(jìn)的領(lǐng)域。深度學(xué)習(xí)以神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)。神經(jīng)網(wǎng)絡(luò)是巨大的網(wǎng)狀結(jié)構(gòu),其中的節(jié)點(diǎn)連接非常復(fù)雜。訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),很像我們大腦在學(xué)習(xí)時(shí),建立和增強(qiáng)神經(jīng)元之間的聯(lián)系。從計(jì)算的角度說,這個(gè)學(xué)習(xí)過程可以是并行的,因此它可以用GPU硬件來加速。這種機(jī)器學(xué)習(xí)需要的例子數(shù)量很多,同樣也可以用并行計(jì)算來加速。在GPU上進(jìn)行的神經(jīng)網(wǎng)絡(luò)訓(xùn)練能比CPU系統(tǒng)快許多倍。目前,全球70%的GPU芯片市場都被NVIDIA占據(jù),包括谷歌、微軟、亞馬遜等巨頭也通過購買NVIDIA的GPU產(chǎn)品擴(kuò)大自己數(shù)據(jù)中心的AI計(jì)算能力。

4.類人腦芯片

類人腦芯片架構(gòu)是一款模擬人腦的新型芯片編程架構(gòu),這種芯片的功能類似于大腦的神經(jīng)突觸,處理器類似于神經(jīng)元,而其通訊系統(tǒng)類似于神經(jīng)纖維,可以允許開發(fā)者為類人腦芯片設(shè)計(jì)應(yīng)用程序。通過這種神經(jīng)元網(wǎng)絡(luò)系統(tǒng),計(jì)算機(jī)可以感知、記憶和處理大量不同的情況。

現(xiàn)在業(yè)界爭論的焦點(diǎn)是AI芯片的處理器架構(gòu)用哪種是最好的,有前面提及的有GPU、FPGA、DSP和ASIC,甚至還有更前沿的腦神經(jīng)形態(tài)芯片。現(xiàn)在普遍認(rèn)為GPU處于優(yōu)勢地位,但其他幾種的處理器架構(gòu)也各有優(yōu)勢。

關(guān)鍵字:芯片智能

本文摘自:山西新聞網(wǎng)--山西日報(bào)

x 人工智能芯片和傳統(tǒng)芯片有何不同 掃一掃
分享本文到朋友圈
當(dāng)前位置:芯片市場動(dòng)態(tài) → 正文

人工智能芯片和傳統(tǒng)芯片有何不同

責(zé)任編輯:zsheng |來源:企業(yè)網(wǎng)D1Net  2018-07-26 09:23:35 本文摘自:山西新聞網(wǎng)--山西日報(bào)

AI(人工智能)芯片需要具備高性能的并行計(jì)算能力,同時(shí)要能支持當(dāng)前的各種人工神經(jīng)網(wǎng)絡(luò)算法。

傳統(tǒng)CPU(中央處理器)由于計(jì)算能力弱,支撐深度學(xué)習(xí)的海量數(shù)據(jù)并行運(yùn)算,且串行的內(nèi)部結(jié)構(gòu)設(shè)計(jì)架構(gòu)為的是以軟件編程的方式實(shí)現(xiàn)設(shè)定的功能,并不適合應(yīng)用于人工神經(jīng)網(wǎng)絡(luò)算法的自主迭代運(yùn)算。傳統(tǒng)CPU架構(gòu)往往需要數(shù)百甚至上千條指令才能完成一個(gè)神經(jīng)元的處理,在AI芯片上可能只需要一條指令就能完成。

傳統(tǒng)的CPU、GPU(圖形處理器)都可以拿來執(zhí)行AI算法,但是速度慢,性能低,無法實(shí)際商用。比如,自動(dòng)駕駛需要識別道路行人紅綠燈等狀況,但是如果是當(dāng)前的CPU去算,那么估計(jì)車翻到河里了還沒發(fā)現(xiàn)前方是河。如果用GPU,的確速度要快得多,但是,功耗大,汽車的電池估計(jì)無法長時(shí)間支撐正常使用。

另外,GPU因?yàn)椴皇菍iT針對AI算法開發(fā)的ASIC(Application Specific Integrated Circuits,專用集成電路),所以,說到底,速度還沒到極限,還有提升空間。而類似智能駕駛這樣的領(lǐng)域,必須快。在手機(jī)終端,可以自行人臉識別、語音識別等AI應(yīng)用,這個(gè)必須功耗低,所以GPU的選擇是不合理的。所以,開發(fā)ASIC就成了必然。

解讀主流的人工智能芯片

人工智能的高級階段是深度學(xué)習(xí),而對于深度學(xué)習(xí)過程則可分為訓(xùn)練和推斷兩個(gè)環(huán)節(jié):訓(xùn)練環(huán)節(jié)通常需要通過大量的數(shù)據(jù)輸入或采取增強(qiáng)學(xué)習(xí)等非監(jiān)督學(xué)習(xí)方法,訓(xùn)練出一個(gè)復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)模型。

訓(xùn)練過程由于涉及海量的訓(xùn)練數(shù)據(jù)和復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),需要的計(jì)算規(guī)模非常龐大,通常需要GPU集群訓(xùn)練幾天甚至數(shù)周的時(shí)間,在訓(xùn)練環(huán)節(jié)GPU目前暫時(shí)扮演著難以替代的角色。推斷環(huán)節(jié)指利用訓(xùn)練好的模型,使用新的數(shù)據(jù)去“推斷”出各種結(jié)論,如視頻監(jiān)控設(shè)備通過后臺的深度神經(jīng)網(wǎng)絡(luò)模型,判斷一張抓拍到的人臉是否屬于黑名單。雖然推斷環(huán)節(jié)的計(jì)算量相比訓(xùn)練環(huán)節(jié)少,但仍然涉及大量的矩陣運(yùn)算。

Training(訓(xùn)練)和 Inference(推斷)在目前大多數(shù)的AI系統(tǒng)中,是相對獨(dú)立的過程,其對計(jì)算能力的要求也不盡相同。Training需要極高的計(jì)算性能,需要較高的精度,需要能處理海量的數(shù)據(jù),需要有一定的通用性,以便完成各種各樣的學(xué)習(xí)任務(wù)。

在推斷環(huán)節(jié),除了使用CPU或GPU進(jìn)行運(yùn)算外,F(xiàn)PGA以及ASIC均能發(fā)揮重大作用。目前,主流的人工智能芯片基本都是以GPU、FPGA、ASIC以及類腦芯片為主。

1.FPGA

即專用集成電路,一種集成大量基本門電路及存儲器的芯片,可通過燒入FPGA配置文件來來定義這些門電路及存儲器間的連線,從而實(shí)現(xiàn)特定的功能。而且燒入的內(nèi)容是可配置的,通過配置特定的文件可將FPGA轉(zhuǎn)變?yōu)椴煌奶幚砥鳎腿缫粔K可重復(fù)刷寫的白板一樣。FPGA有低延遲的特點(diǎn),非常適合在推斷環(huán)節(jié)支撐海量的用戶實(shí)時(shí)計(jì)算請求,如語音識別。

由于FPGA適合用于低延遲的流式計(jì)算密集型任務(wù)處理,意味著FPGA芯片做面向與海量用戶高并發(fā)的云端推斷,相比GPU具備更低計(jì)算延遲的優(yōu)勢,能夠提供更佳的消費(fèi)者體驗(yàn)。在這個(gè)領(lǐng)域,主流的廠商包括Intel、亞馬遜、百度、微軟和阿里云。

2.ASIC

即專用集成電路,不可配置的高度定制專用芯片。特點(diǎn)是需要大量的研發(fā)投入,如果不能保證出貨量其單顆成本難以下降,而且芯片的功能一旦流片后則無更改余地,若市場深度學(xué)習(xí)方向一旦改變,ASIC前期投入將無法回收,意味著ASIC具有較大的市場風(fēng)險(xiǎn)。但ASIC作為專用芯片性能高于FPGA,如能實(shí)現(xiàn)高出貨量,其單顆成本可做到遠(yuǎn)低于FPGA。

谷歌推出的TPU(Tensor Processing Unit即張量處理單元是一款為機(jī)器學(xué)習(xí)而定制的芯片)就是一款針對深度學(xué)習(xí)加速的ASIC芯片,而且TPU被安裝到AlphaGo(阿爾法圍棋)系統(tǒng)中。但谷歌推出的第一代TPU僅能用于推斷,不可用于訓(xùn)練模型,但隨著TPU2.0的發(fā)布,新一代TPU除了可以支持推斷以外,還能高效支持訓(xùn)練環(huán)節(jié)的深度網(wǎng)絡(luò)加速。根據(jù)谷歌披露的測試數(shù)據(jù),谷歌在自身的深度學(xué)習(xí)翻譯模型的實(shí)踐中,如果在32塊頂級GPU上并行訓(xùn)練,需要一整天的訓(xùn)練時(shí)間,而在TPU2.0上,八分之一個(gè)TPUPod(TPU集群,每64個(gè)TPU組成一個(gè)Pod)就能在6個(gè)小時(shí)內(nèi)完成同樣的訓(xùn)練任務(wù)。

3.GPU

即圖形處理器。最初是用在個(gè)人電腦、工作站、游戲機(jī)和一些移動(dòng)設(shè)備上運(yùn)行繪圖運(yùn)算工作的微處理器,可以快速地處理圖像上的每一個(gè)像素點(diǎn)。后來科學(xué)家發(fā)現(xiàn),其海量數(shù)據(jù)并行運(yùn)算的能力與深度學(xué)習(xí)需求不謀而合,因此,被最先引入深度學(xué)習(xí)。2011年吳恩達(dá)教授率先將其應(yīng)用于谷歌大腦中便取得驚人效果,結(jié)果表明,12顆英偉達(dá)的GPU可以提供相當(dāng)于2000顆CPU的深度學(xué)習(xí)性能,之后紐約大學(xué)、多倫多大學(xué)以及瑞士人工智能實(shí)驗(yàn)室的研究人員紛紛在GPU上加速其深度神經(jīng)網(wǎng)絡(luò)。

GPU之所以會被選為超算的硬件,是因?yàn)槟壳耙笞罡叩挠?jì)算問題正好非常適合并行執(zhí)行。一個(gè)主要的例子就是深度學(xué)習(xí),這是人工智能最先進(jìn)的領(lǐng)域。深度學(xué)習(xí)以神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)。神經(jīng)網(wǎng)絡(luò)是巨大的網(wǎng)狀結(jié)構(gòu),其中的節(jié)點(diǎn)連接非常復(fù)雜。訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),很像我們大腦在學(xué)習(xí)時(shí),建立和增強(qiáng)神經(jīng)元之間的聯(lián)系。從計(jì)算的角度說,這個(gè)學(xué)習(xí)過程可以是并行的,因此它可以用GPU硬件來加速。這種機(jī)器學(xué)習(xí)需要的例子數(shù)量很多,同樣也可以用并行計(jì)算來加速。在GPU上進(jìn)行的神經(jīng)網(wǎng)絡(luò)訓(xùn)練能比CPU系統(tǒng)快許多倍。目前,全球70%的GPU芯片市場都被NVIDIA占據(jù),包括谷歌、微軟、亞馬遜等巨頭也通過購買NVIDIA的GPU產(chǎn)品擴(kuò)大自己數(shù)據(jù)中心的AI計(jì)算能力。

4.類人腦芯片

類人腦芯片架構(gòu)是一款模擬人腦的新型芯片編程架構(gòu),這種芯片的功能類似于大腦的神經(jīng)突觸,處理器類似于神經(jīng)元,而其通訊系統(tǒng)類似于神經(jīng)纖維,可以允許開發(fā)者為類人腦芯片設(shè)計(jì)應(yīng)用程序。通過這種神經(jīng)元網(wǎng)絡(luò)系統(tǒng),計(jì)算機(jī)可以感知、記憶和處理大量不同的情況。

現(xiàn)在業(yè)界爭論的焦點(diǎn)是AI芯片的處理器架構(gòu)用哪種是最好的,有前面提及的有GPU、FPGA、DSP和ASIC,甚至還有更前沿的腦神經(jīng)形態(tài)芯片。現(xiàn)在普遍認(rèn)為GPU處于優(yōu)勢地位,但其他幾種的處理器架構(gòu)也各有優(yōu)勢。

關(guān)鍵字:芯片智能

本文摘自:山西新聞網(wǎng)--山西日報(bào)

電子周刊
回到頂部

關(guān)于我們聯(lián)系我們版權(quán)聲明隱私條款廣告服務(wù)友情鏈接投稿中心招賢納士

企業(yè)網(wǎng)版權(quán)所有 ©2010-2024 京ICP備09108050號-6 京公網(wǎng)安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 灵武市| 樟树市| 盈江县| 南汇区| 乃东县| 宝兴县| 乡城县| 张掖市| 临城县| 涟源市| 星座| 新安县| 曲水县| 满城县| 荔浦县| 漯河市| 嵊州市| 诸城市| 运城市| 东乌珠穆沁旗| 南宁市| 北票市| 阿合奇县| 西乌珠穆沁旗| 长乐市| 凤冈县| 卓资县| 汨罗市| 镇宁| 兴安盟| 嵊州市| 射洪县| 平利县| 阿拉尔市| 塘沽区| 勐海县| 玉环县| 田林县| 武穴市| 满洲里市| 庆阳市|