精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當(dāng)前位置:人工智能行業(yè)動(dòng)態(tài) → 正文

淺談人工智能當(dāng)前發(fā)展的階段以及未來(lái)的方向

責(zé)任編輯:zsheng |來(lái)源:企業(yè)網(wǎng)D1Net  2018-12-23 20:06:26 本文摘自:電子發(fā)燒友網(wǎng)

當(dāng)前,人工智能正在席卷全球科技產(chǎn)業(yè),越來(lái)越多的行業(yè)和市場(chǎng)都在人工智能領(lǐng)域進(jìn)行深耕,作為當(dāng)今輔助人類(lèi)進(jìn)行創(chuàng)新和變革的重要生產(chǎn)力工具和技術(shù)驅(qū)動(dòng)力,人工智能技術(shù)當(dāng)前已經(jīng)發(fā)展到什么階段了呢?未來(lái)人工智能產(chǎn)業(yè)又將會(huì)走向何方呢?本期我們一起來(lái)聊聊。

對(duì)于人工智能技術(shù)來(lái)說(shuō),我們?nèi)粘=?jīng)常看到的或許是機(jī)器算法的應(yīng)用、又或是對(duì)于自然語(yǔ)言的處理等內(nèi)容,對(duì)于人工智能來(lái)說(shuō),現(xiàn)在已經(jīng)收集了海量的最優(yōu)算法,其中涵蓋了計(jì)算機(jī)視覺(jué)、游戲、自然語(yǔ)言處理、網(wǎng)絡(luò)圖、知識(shí)庫(kù)等很多內(nèi)容。

計(jì)算機(jī)視覺(jué)感知

其中值得一提的是計(jì)算機(jī)視覺(jué),對(duì)于計(jì)算機(jī)視覺(jué)來(lái)說(shuō),3D技術(shù)是最受青睞的一類(lèi),2017年的CVPR,MIT、馬薩諸塞大學(xué)阿默斯特分校和谷歌DeepMind的研究人員展示了一項(xiàng)成果,使用自動(dòng)編碼器(VAE),構(gòu)建了一個(gè)名叫SingleVPNet的框架,能從多個(gè)視角的深度圖或其相應(yīng)的輪廓(silhouette)學(xué)習(xí)生成模型,并使用渲染函數(shù)從這些圖像生成細(xì)節(jié)精致的3D形狀。

對(duì)于計(jì)算機(jī)識(shí)別感知框架來(lái)說(shuō),通過(guò)一系列不同視角的2D深度圖當(dāng)中,研究人員就能夠去生成新的3D形狀和3D圖片,其中的平均誤差將會(huì)縮小到0.35左右,也就是說(shuō)計(jì)算機(jī)視覺(jué)所帶來(lái)的3D圖片將會(huì)是非常逼真的一張圖。

動(dòng)作識(shí)別

在人工智能領(lǐng)域當(dāng)中,動(dòng)作識(shí)別是整個(gè)視頻識(shí)別當(dāng)中最為關(guān)鍵的一項(xiàng)組成部分,整個(gè)動(dòng)作可能會(huì)貫穿視頻當(dāng)中,對(duì)于動(dòng)作識(shí)別來(lái)說(shuō),很有可能成為圖像識(shí)別的重要組成部分,2017年的NeurIPS,CMU機(jī)器人學(xué)院的研究人員Rohit Girdhar 和 Deva Ramanan 利用注意力機(jī)制(Attentional Pooling),在保持網(wǎng)絡(luò)復(fù)雜度和計(jì)算量基本不變的情況下,在三個(gè)靜態(tài)圖像和視頻標(biāo)準(zhǔn)動(dòng)作識(shí)別數(shù)據(jù)集上提升了動(dòng)作識(shí)別的基準(zhǔn)。其中,在MPII人體姿態(tài)數(shù)據(jù)集上取得了12.5%的相對(duì)改進(jìn)。

人臉識(shí)別技術(shù)

在今年的市場(chǎng)研究數(shù)據(jù)報(bào)告顯示,在被譽(yù)為工業(yè)界“黃金標(biāo)準(zhǔn)”的全球人臉識(shí)別算法測(cè)試(FRVT)中,依圖科技以千萬(wàn)分之一誤報(bào)下的識(shí)別準(zhǔn)確率超過(guò)99%,繼續(xù)保持全球人臉識(shí)別競(jìng)賽冠軍。

千萬(wàn)分位誤報(bào)下的識(shí)別準(zhǔn)確率超過(guò)99%,意味著更多核心關(guān)鍵的安防場(chǎng)景被解鎖。相比于去年同期,全球人臉識(shí)別性能提升了80%。在整個(gè)報(bào)告當(dāng)中對(duì)于很多國(guó)內(nèi)的人工智能企業(yè)進(jìn)行了重點(diǎn)的提及和展示,而中國(guó)的人工智能企業(yè)也的確在業(yè)務(wù)領(lǐng)域和技術(shù)創(chuàng)新方面領(lǐng)跑全球。

人體姿態(tài)數(shù)據(jù)分析

在今年的9月份,AlphaPose系統(tǒng)升級(jí),采用PyTorch框架,在姿態(tài)估計(jì)標(biāo)準(zhǔn)測(cè)試集COCO validation set上,達(dá)到 71mAP的精度比OpenPose 相對(duì)提升17%,Mask-RCNN相對(duì)提升8%,同時(shí),速度達(dá)到了20FPS比OpenPose相對(duì)提高66%,Mask-RCNN相對(duì)提高300%。

圖像分類(lèi)

計(jì)算機(jī)對(duì)于圖像處理來(lái)說(shuō)其實(shí)早就已經(jīng)超越了人類(lèi)的原有技術(shù)應(yīng)用,當(dāng)前圖像分類(lèi)精度的最好成績(jī),往往是其他研究的副產(chǎn)物。ICLR 2017,谷歌大腦 Barret Zoph 和 Quoc V. Le 發(fā)表了“Neural Architecture Search with Reinforcement Learning”,他們用強(qiáng)化學(xué)習(xí)自動(dòng)搜索神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最終AI自己設(shè)計(jì)出的模型,在 CIFAR-10數(shù)據(jù)集上做圖像分類(lèi)取得了96.35%的精度。

GAN在今年不斷發(fā)展,今年ICLR DeepMind 提出的 BigGAN,可謂當(dāng)前最強(qiáng)圖像生成模型,在128x128分辨率的ImageNet上訓(xùn)練,BigGAN的 Inception 分?jǐn)?shù)(IS)可以達(dá)到 166.3 ,F(xiàn)rechet Inception 距離(FID)9.6。

關(guān)鍵字:未來(lái)發(fā)展智能

本文摘自:電子發(fā)燒友網(wǎng)

x 淺談人工智能當(dāng)前發(fā)展的階段以及未來(lái)的方向 掃一掃
分享本文到朋友圈
當(dāng)前位置:人工智能行業(yè)動(dòng)態(tài) → 正文

淺談人工智能當(dāng)前發(fā)展的階段以及未來(lái)的方向

責(zé)任編輯:zsheng |來(lái)源:企業(yè)網(wǎng)D1Net  2018-12-23 20:06:26 本文摘自:電子發(fā)燒友網(wǎng)

當(dāng)前,人工智能正在席卷全球科技產(chǎn)業(yè),越來(lái)越多的行業(yè)和市場(chǎng)都在人工智能領(lǐng)域進(jìn)行深耕,作為當(dāng)今輔助人類(lèi)進(jìn)行創(chuàng)新和變革的重要生產(chǎn)力工具和技術(shù)驅(qū)動(dòng)力,人工智能技術(shù)當(dāng)前已經(jīng)發(fā)展到什么階段了呢?未來(lái)人工智能產(chǎn)業(yè)又將會(huì)走向何方呢?本期我們一起來(lái)聊聊。

對(duì)于人工智能技術(shù)來(lái)說(shuō),我們?nèi)粘=?jīng)常看到的或許是機(jī)器算法的應(yīng)用、又或是對(duì)于自然語(yǔ)言的處理等內(nèi)容,對(duì)于人工智能來(lái)說(shuō),現(xiàn)在已經(jīng)收集了海量的最優(yōu)算法,其中涵蓋了計(jì)算機(jī)視覺(jué)、游戲、自然語(yǔ)言處理、網(wǎng)絡(luò)圖、知識(shí)庫(kù)等很多內(nèi)容。

計(jì)算機(jī)視覺(jué)感知

其中值得一提的是計(jì)算機(jī)視覺(jué),對(duì)于計(jì)算機(jī)視覺(jué)來(lái)說(shuō),3D技術(shù)是最受青睞的一類(lèi),2017年的CVPR,MIT、馬薩諸塞大學(xué)阿默斯特分校和谷歌DeepMind的研究人員展示了一項(xiàng)成果,使用自動(dòng)編碼器(VAE),構(gòu)建了一個(gè)名叫SingleVPNet的框架,能從多個(gè)視角的深度圖或其相應(yīng)的輪廓(silhouette)學(xué)習(xí)生成模型,并使用渲染函數(shù)從這些圖像生成細(xì)節(jié)精致的3D形狀。

對(duì)于計(jì)算機(jī)識(shí)別感知框架來(lái)說(shuō),通過(guò)一系列不同視角的2D深度圖當(dāng)中,研究人員就能夠去生成新的3D形狀和3D圖片,其中的平均誤差將會(huì)縮小到0.35左右,也就是說(shuō)計(jì)算機(jī)視覺(jué)所帶來(lái)的3D圖片將會(huì)是非常逼真的一張圖。

動(dòng)作識(shí)別

在人工智能領(lǐng)域當(dāng)中,動(dòng)作識(shí)別是整個(gè)視頻識(shí)別當(dāng)中最為關(guān)鍵的一項(xiàng)組成部分,整個(gè)動(dòng)作可能會(huì)貫穿視頻當(dāng)中,對(duì)于動(dòng)作識(shí)別來(lái)說(shuō),很有可能成為圖像識(shí)別的重要組成部分,2017年的NeurIPS,CMU機(jī)器人學(xué)院的研究人員Rohit Girdhar 和 Deva Ramanan 利用注意力機(jī)制(Attentional Pooling),在保持網(wǎng)絡(luò)復(fù)雜度和計(jì)算量基本不變的情況下,在三個(gè)靜態(tài)圖像和視頻標(biāo)準(zhǔn)動(dòng)作識(shí)別數(shù)據(jù)集上提升了動(dòng)作識(shí)別的基準(zhǔn)。其中,在MPII人體姿態(tài)數(shù)據(jù)集上取得了12.5%的相對(duì)改進(jìn)。

人臉識(shí)別技術(shù)

在今年的市場(chǎng)研究數(shù)據(jù)報(bào)告顯示,在被譽(yù)為工業(yè)界“黃金標(biāo)準(zhǔn)”的全球人臉識(shí)別算法測(cè)試(FRVT)中,依圖科技以千萬(wàn)分之一誤報(bào)下的識(shí)別準(zhǔn)確率超過(guò)99%,繼續(xù)保持全球人臉識(shí)別競(jìng)賽冠軍。

千萬(wàn)分位誤報(bào)下的識(shí)別準(zhǔn)確率超過(guò)99%,意味著更多核心關(guān)鍵的安防場(chǎng)景被解鎖。相比于去年同期,全球人臉識(shí)別性能提升了80%。在整個(gè)報(bào)告當(dāng)中對(duì)于很多國(guó)內(nèi)的人工智能企業(yè)進(jìn)行了重點(diǎn)的提及和展示,而中國(guó)的人工智能企業(yè)也的確在業(yè)務(wù)領(lǐng)域和技術(shù)創(chuàng)新方面領(lǐng)跑全球。

人體姿態(tài)數(shù)據(jù)分析

在今年的9月份,AlphaPose系統(tǒng)升級(jí),采用PyTorch框架,在姿態(tài)估計(jì)標(biāo)準(zhǔn)測(cè)試集COCO validation set上,達(dá)到 71mAP的精度比OpenPose 相對(duì)提升17%,Mask-RCNN相對(duì)提升8%,同時(shí),速度達(dá)到了20FPS比OpenPose相對(duì)提高66%,Mask-RCNN相對(duì)提高300%。

圖像分類(lèi)

計(jì)算機(jī)對(duì)于圖像處理來(lái)說(shuō)其實(shí)早就已經(jīng)超越了人類(lèi)的原有技術(shù)應(yīng)用,當(dāng)前圖像分類(lèi)精度的最好成績(jī),往往是其他研究的副產(chǎn)物。ICLR 2017,谷歌大腦 Barret Zoph 和 Quoc V. Le 發(fā)表了“Neural Architecture Search with Reinforcement Learning”,他們用強(qiáng)化學(xué)習(xí)自動(dòng)搜索神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最終AI自己設(shè)計(jì)出的模型,在 CIFAR-10數(shù)據(jù)集上做圖像分類(lèi)取得了96.35%的精度。

GAN在今年不斷發(fā)展,今年ICLR DeepMind 提出的 BigGAN,可謂當(dāng)前最強(qiáng)圖像生成模型,在128x128分辨率的ImageNet上訓(xùn)練,BigGAN的 Inception 分?jǐn)?shù)(IS)可以達(dá)到 166.3 ,F(xiàn)rechet Inception 距離(FID)9.6。

關(guān)鍵字:未來(lái)發(fā)展智能

本文摘自:電子發(fā)燒友網(wǎng)

電子周刊
回到頂部

關(guān)于我們聯(lián)系我們版權(quán)聲明隱私條款廣告服務(wù)友情鏈接投稿中心招賢納士

企業(yè)網(wǎng)版權(quán)所有 ©2010-2024 京ICP備09108050號(hào)-6 京公網(wǎng)安備 11010502049343號(hào)

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 延长县| 屯昌县| 称多县| 昆山市| 伊宁县| 宾川县| 交城县| 平远县| 永平县| 毕节市| 社旗县| 和顺县| 历史| 乐山市| 南雄市| 桦川县| 旺苍县| 泗阳县| 仙桃市| 墨竹工卡县| 赞皇县| 龙海市| 玉林市| 墨竹工卡县| 仪征市| 大庆市| 鞍山市| 昌图县| 阿拉善盟| 曲沃县| 穆棱市| 金秀| 榆林市| 美姑县| 建宁县| 富民县| 黔西| 开化县| 盐亭县| 沈阳市| 依兰县|