精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當(dāng)前位置:大數(shù)據(jù)業(yè)界動(dòng)態(tài) → 正文

深度學(xué)習(xí) vs. 大數(shù)據(jù):神經(jīng)網(wǎng)絡(luò)權(quán)值的版權(quán)屬于誰(shuí)?

責(zé)任編輯:editor005 作者:Tomasz Malisiewicz |來(lái)源:企業(yè)網(wǎng)D1Net  2015-05-19 13:55:32 本文摘自:CSDN

【編者按】深度神經(jīng)網(wǎng)絡(luò)能夠煥發(fā)新春,大數(shù)據(jù)功不可沒(méi),然而大數(shù)據(jù)的版權(quán)是否應(yīng)當(dāng)延伸到深度學(xué)習(xí)產(chǎn)生的知識(shí),這是一個(gè)現(xiàn)實(shí)的問(wèn)題。本文通過(guò)ImageNet可視化大數(shù)據(jù)、Caffe共享深度學(xué)習(xí)模型和家中訓(xùn)練三個(gè)場(chǎng)景審查了深度學(xué)習(xí)的權(quán)值與大數(shù)據(jù)的關(guān)系,介紹了目前的問(wèn)題和解決方案。文章最后預(yù)測(cè)深度學(xué)習(xí)將來(lái)可能需要相關(guān)的“AI法”。

要獲得有用的學(xué)習(xí)效果,大型多層深度神經(jīng)網(wǎng)絡(luò)(又名深度學(xué)習(xí)系統(tǒng))需要大量的標(biāo)簽數(shù)據(jù)。這顯然需要大數(shù)據(jù),但可用的可視化大數(shù)據(jù)很少。今天我們來(lái)看一個(gè)非常著名的可視化大數(shù)據(jù)來(lái)源地,深入了解一下訓(xùn)練過(guò)的神經(jīng)網(wǎng)絡(luò),然后捫心自問(wèn)一些關(guān)于數(shù)據(jù)/模型所有權(quán)的問(wèn)題。接下來(lái),我們需要牢記一個(gè)基本的問(wèn)題:一個(gè)學(xué)習(xí)過(guò)的神經(jīng)網(wǎng)絡(luò)的權(quán)值是輸入圖像的衍生品嗎?換句話說(shuō),當(dāng)一個(gè)深度學(xué)習(xí)系統(tǒng)使用過(guò)你的數(shù)據(jù)之后,誰(shuí)應(yīng)該擁有什么?

  背景:深度學(xué)習(xí)“計(jì)算機(jī)視覺(jué)秘訣”

現(xiàn)今最成功的機(jī)器學(xué)習(xí)技術(shù)之一是深度學(xué)習(xí)。深度學(xué)習(xí)引起廣泛關(guān)注的原因是由于它在處理語(yǔ)音[1]、文本[2]和圖像[3]等任務(wù)中展現(xiàn)出來(lái)的顯著成果。深度學(xué)習(xí)和物體識(shí)別(object recognition)技術(shù)率先在學(xué)術(shù)界萌芽(多倫多大學(xué)、紐約大學(xué)、斯坦福大學(xué)、加州大學(xué)伯克利分校、麻省理工學(xué)院和CMU等),然后被工業(yè)界采用(谷歌、Facebook和Snapchat等),現(xiàn)在新興的創(chuàng)業(yè)團(tuán)隊(duì)們(Clarifai.com、Metamind.io和Vision.ai等)正將可視化智能(visual intelligence)帶到公眾的面前。雖然人工智能的走向仍不清晰,但是深度學(xué)習(xí)將會(huì)扮演一個(gè)關(guān)鍵角色。

相關(guān)鏈接:深度學(xué)習(xí) vs 機(jī)器學(xué)習(xí) vs 模式識(shí)別

相關(guān)鏈接:深度學(xué)習(xí) vs. 概率圖模型 vs. 邏輯學(xué)

在可視化物體識(shí)別任務(wù)中,最常用的模型是卷積神經(jīng)網(wǎng)絡(luò)(也稱為ConvNets或CNNs)。它們可以在不使用手工選取特征引擎的情況下來(lái)進(jìn)行端對(duì)端的訓(xùn)練,但是這需要大量的訓(xùn)練圖片(有時(shí)候稱為大數(shù)據(jù),或者可視化大數(shù)據(jù))。這些大型的神經(jīng)網(wǎng)絡(luò)從一個(gè)空白模型開始,使用一種高度優(yōu)化的反向傳播算法進(jìn)行端對(duì)端的訓(xùn)練。反向傳播算法不過(guò)是在微積分101課程中學(xué)到的鏈?zhǔn)椒▌t,并且現(xiàn)在的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法同二十世紀(jì)80年代的算法幾乎沒(méi)什么不一樣。但是今天高度優(yōu)化的BP的實(shí)現(xiàn)是基于GPU的,它能夠處理的數(shù)據(jù)量遠(yuǎn)多于互聯(lián)網(wǎng)、云、GPU時(shí)代之前的神經(jīng)網(wǎng)絡(luò)。深度學(xué)習(xí)的訓(xùn)練結(jié)果是一些權(quán)值的集合,這些學(xué)習(xí)過(guò)的權(quán)值代表的是模型架構(gòu)中不同層上的權(quán)值——用浮點(diǎn)數(shù)表示的這些上百萬(wàn)個(gè)的權(quán)值代表了從圖像中學(xué)到的內(nèi)容。那么,關(guān)于這些權(quán)值,其中有趣的是什么呢?有趣的是權(quán)值和大數(shù)據(jù)之間的關(guān)系,現(xiàn)在,這種關(guān)系將受到審查。

“基于ImageNet訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)權(quán)值是ImageNet的衍生品嗎?是數(shù)以百萬(wàn)計(jì)的版權(quán)聲明的‘污水坑’嗎?通過(guò)訓(xùn)練來(lái)逼近另外一個(gè)ImageNet網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)又算是什么?”(這個(gè)問(wèn)題在HackerNews上被提出,出自kastnerkyle對(duì)文章“ A Revolutionary Technique That Changed Machine Vision”的評(píng)論。)

在計(jì)算機(jī)視覺(jué)的背景下,這個(gè)問(wèn)題確實(shí)引起了我的興趣,因?yàn)槲覀冮_始看到機(jī)器人和裝備了人工智能技術(shù)的設(shè)備進(jìn)入到了我們的家園中。我希望這個(gè)問(wèn)題在未來(lái)的十年中受到更多更深的重視。現(xiàn)在先讓我們看看在2015年中正在解決的一些問(wèn)題吧。

1.ImageNet:非商業(yè)化的可視化大數(shù)據(jù)

讓我們先看一下一個(gè)在深度學(xué)習(xí)系統(tǒng)中最常用的數(shù)據(jù)源——ImageNet[4],這個(gè)數(shù)據(jù)源設(shè)計(jì)的目的是用于識(shí)別大量的不同物體。對(duì)于研究大規(guī)模物體識(shí)別和檢測(cè)的學(xué)者來(lái)講,ImageNet是最大的可視化大數(shù)據(jù)。2009年,該數(shù)據(jù)集出現(xiàn)在由Fei-Fei Li研究團(tuán)隊(duì)發(fā)表的一篇CVPR文章中,之后,該數(shù)據(jù)集取代了PASCAL數(shù)據(jù)集(這個(gè)數(shù)據(jù)集樣本的數(shù)量和多樣性不夠)和LabelMe數(shù)據(jù)集(這個(gè)數(shù)據(jù)集樣本缺乏標(biāo)準(zhǔn)化)。ImageNet數(shù)據(jù)集脫胎于Caltech101(2004年的一個(gè)數(shù)據(jù)集,側(cè)重于圖像分類,同樣由Fei-Fei Li團(tuán)隊(duì)研發(fā)),所以我個(gè)人還是認(rèn)為ImageNet是類似“Stanford10 ^ N”的。ImageNet在推動(dòng)物體識(shí)別到一個(gè)新的領(lǐng)域——深度學(xué)習(xí)階段起到了核心的作用。

  截止到2015年5月1日,ImageNet數(shù)據(jù)庫(kù)擁有超過(guò)1500萬(wàn)的圖像。

問(wèn)題:有很多非常大的數(shù)據(jù)集,其圖像是從網(wǎng)上采集的,但是這些圖像通常都帶有自己的版權(quán)。版權(quán)阻止了圖像的收集和出售,所以從商業(yè)角度來(lái)看,當(dāng)產(chǎn)生這樣的數(shù)據(jù)集的時(shí)候,必須要小心一些。為了使現(xiàn)實(shí)世界中識(shí)別問(wèn)題保持最先進(jìn)技術(shù),我們必須使用標(biāo)準(zhǔn)的大數(shù)據(jù)集(代表了能夠在現(xiàn)實(shí)網(wǎng)絡(luò)中找到的內(nèi)容),培養(yǎng)一種共享成果的社區(qū)意識(shí),并且維持?jǐn)?shù)據(jù)源的版權(quán)。

解決方案:ImageNet決定公開提供數(shù)據(jù)集中圖像的源鏈接,這樣人們就可以不必從一個(gè)大學(xué)托管的服務(wù)器上來(lái)下載這些圖像了。ImageNet僅提供圖像的縮略圖和一個(gè)版權(quán)侵犯刪除聲明。只有當(dāng)使用者簽署協(xié)議,保證不將數(shù)據(jù)商業(yè)化使用之后,數(shù)據(jù)集組織者才提供完整的數(shù)據(jù)集。ImageNet具有下述的聲明條款(獲取日期:2015年5月5日):

ImageNet不擁有圖像的版權(quán)。ImageNet會(huì)以一種圖像搜索引擎的方式,僅提供縮略圖和圖像的URL。也就是說(shuō),ImageNet針對(duì)每個(gè)同義詞集編譯了一個(gè)精確的網(wǎng)絡(luò)圖片列表。對(duì)于希望將圖片用于非商業(yè)化研究和/或教育目的的研究人員和教育工作者來(lái)說(shuō),在同意我們的一定條件和條款的情況下,我們可以提供通過(guò)我們的網(wǎng)站來(lái)進(jìn)行訪問(wèn)的方式。

2.Caffe:無(wú)使用限制的深度學(xué)習(xí)模式

現(xiàn)在,比較明確的是,我們知道哪里可以下載到可視化大數(shù)據(jù)以及它們適用的條款,我們?cè)賹⒛抗廪D(zhuǎn)向另一個(gè)方面:深度學(xué)習(xí)訓(xùn)練過(guò)程的輸出結(jié)果。我們看一下Caffe,一個(gè)非常流行的深度學(xué)習(xí)庫(kù),它可以用來(lái)處理類似于ImageNet的數(shù)據(jù)。Caffe提供了一個(gè)共享模式的生態(tài)系統(tǒng)(動(dòng)物園模型),并且已經(jīng)成為計(jì)算機(jī)視覺(jué)研究者必不可少的工具。Caffe是伯克利視覺(jué)和學(xué)習(xí)中心研發(fā)的,并貢獻(xiàn)給了開源社區(qū)——它是開源的。

  “使用Caffe自己動(dòng)手搭建深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)”中的一頁(yè)幻燈片

問(wèn)題:作為一個(gè)在大學(xué)啟動(dòng)的項(xiàng)目,Caffe旨在成為創(chuàng)建、訓(xùn)練和分享深度學(xué)習(xí)模型的事實(shí)標(biāo)準(zhǔn)。分享的模型最初是用于非商業(yè)用途,但問(wèn)題是一波新的初創(chuàng)企業(yè)都使用了這些技術(shù)。所以必須有一個(gè)許可協(xié)議,允許高校、大型企業(yè)和初創(chuàng)公司來(lái)探索同一套預(yù)訓(xùn)練模型。

解決方案:Caffe的當(dāng)前模型許可是無(wú)使用限制的。對(duì)于大量的黑客、科學(xué)家和工程師們來(lái)說(shuō)這是非常偉大的一件事。需要分享的模型需遵守一項(xiàng)非商業(yè)使用條款。下面是全部的Caffe的模型條款(獲取日期:2015年5月5日):

Caffe模型是BVLC的附屬軟件,它沒(méi)有使用的限制。

這些模型利用了ImageNet項(xiàng)目的數(shù)據(jù)進(jìn)行訓(xùn)練,這些訓(xùn)練數(shù)據(jù)包括了一些從網(wǎng)上獲取的照片,而這些照片可能受到版權(quán)保護(hù)。

作為研究者,我們目前的理解是:對(duì)于這些公開發(fā)布的訓(xùn)練過(guò)的模型權(quán)值,其使用不應(yīng)受到什么限制,因?yàn)檫@里面沒(méi)有包含任何原始圖像的全部或者部分。對(duì)于現(xiàn)在興起的一種說(shuō)法,‘權(quán)值系由原始圖像訓(xùn)練所得,其版權(quán)應(yīng)歸屬原始圖像版權(quán)所有者’,加州大學(xué)伯克利分校沒(méi)有做過(guò)任何聲明說(shuō)什么樣的使用是被允許的,而是基于大學(xué)使命來(lái)對(duì)待我們的模型,以盡可能不受限制的方式來(lái)傳播知識(shí)和工具。

3.Vision.ai:在家里生成和訓(xùn)練的數(shù)據(jù)集

深度學(xué)習(xí)能夠?qū)W習(xí)輸入數(shù)據(jù)的概要。但是如果另一個(gè)不同的模型記住了訓(xùn)練數(shù)據(jù)的詳細(xì)細(xì)節(jié)會(huì)怎樣呢?更重要的是如果模型記住的內(nèi)容中有你不想對(duì)外分享的內(nèi)容會(huì)怎樣呢?為了研究這種情況,我們來(lái)看Vision.ai,他們?cè)O(shè)計(jì)的實(shí)時(shí)計(jì)算機(jī)視覺(jué)服務(wù)器用于模擬產(chǎn)生一個(gè)數(shù)據(jù)集并且學(xué)習(xí)一個(gè)對(duì)象的外觀。Vision.ai軟件能夠從視頻和直播的網(wǎng)絡(luò)攝像頭流中實(shí)時(shí)訓(xùn)練。

不同于從互聯(lián)網(wǎng)上的圖像中收集可視化大數(shù)據(jù)(如ImageNet),vision.ai的訓(xùn)練過(guò)程基于一個(gè)人在網(wǎng)絡(luò)攝像頭面前揮舞一個(gè)感興趣的對(duì)象。用戶自力更生的學(xué)習(xí)過(guò)程一開始有一個(gè)初始邊界框,算法會(huì)在不用干預(yù)的情況下持續(xù)學(xué)習(xí)。在算法學(xué)習(xí)過(guò)程中,它會(huì)存儲(chǔ)它以前見(jiàn)到的部分歷史信息,從而有效地創(chuàng)建自己的數(shù)據(jù)集。因?yàn)閂ision.ai使用了卷積神經(jīng)網(wǎng)絡(luò)來(lái)檢測(cè)物體(圖像中目標(biāo)僅占據(jù)很少的一部分),所以收集到的數(shù)據(jù)集中還保持了大量的背景數(shù)據(jù)。當(dāng)訓(xùn)練過(guò)程結(jié)束后,你同時(shí)得到了Caffe類型的信息(學(xué)習(xí)過(guò)的權(quán)值)和ImageNet類型的信息(收集的圖像)。那么如果現(xiàn)在進(jìn)行分享模型,會(huì)發(fā)生什么呢?

  用戶使用vision.ai的實(shí)時(shí)檢測(cè)器訓(xùn)練接口來(lái)訓(xùn)練茶杯檢測(cè)器

問(wèn)題:在家里的訓(xùn)練意味著潛在的私人信息和敏感信息以背景的形式被采集到圖像中。如果你在自己家里訓(xùn)練模型,然后對(duì)公眾開放它,那你在分享的時(shí)候就需要三思而后行了。同樣的,你如果從有版權(quán)保護(hù)的視頻/圖像中訓(xùn)練了一個(gè)物體檢測(cè)器,那么當(dāng)你分享/出售這個(gè)模型的時(shí)候,也需要考慮其中存在的問(wèn)題。

解決方案:當(dāng)你把一個(gè)Vision.ai模型保存到磁盤上的時(shí)候,你能獲取到編譯模型和完整模型。編譯模型是不包含圖像的完整模型(因此小的多)。這就允許你在自己的電腦上保留完整的可編輯模型,而只需要分享編譯模型即可(特別是只發(fā)布訓(xùn)練過(guò)的權(quán)值),這就避免了別人來(lái)偷窺你的生活空間。Vision.ai的計(jì)算機(jī)視覺(jué)服務(wù)器稱為VMX,它既能夠運(yùn)行完整模型,也能夠運(yùn)行編譯模型;然而,只有非編譯模型能夠編輯和擴(kuò)展。另外,Vision.ai提供的是視覺(jué)服務(wù)器的獨(dú)立安裝模式,因此訓(xùn)練圖像和計(jì)算結(jié)果可以保留在本地計(jì)算機(jī)上。簡(jiǎn)而言之,Vision.ai的解決方案允許你選擇在本機(jī)運(yùn)行還是在云上運(yùn)行,并且允許你選擇是發(fā)布完整模型(具有背景圖像)還是編譯模型(僅有需要檢測(cè)的對(duì)象)。當(dāng)需要分享訓(xùn)練模型和/或產(chǎn)生數(shù)據(jù)集的時(shí)候,你就能夠自由的選擇自己的許可協(xié)議。

4.授權(quán)基于內(nèi)存的機(jī)器學(xué)習(xí)模型的開放問(wèn)題

深度學(xué)習(xí)方法并不是物體識(shí)別的唯一可用技術(shù)。如果我們的模型是使用原始RGB像素的最近鄰分類器(Nearest Neighbor Classifier )會(huì)怎樣?最近鄰分類器是基于內(nèi)存的分類,它記憶所有的訓(xùn)練數(shù)據(jù)——模型就是訓(xùn)練數(shù)據(jù)。如果對(duì)同一數(shù)據(jù)集使用不同的許可,將會(huì)產(chǎn)生矛盾,因?yàn)槟程焖赡茏鳛橛?xùn)練數(shù)據(jù),而其他的時(shí)候又可能是做為學(xué)習(xí)算法的輸出數(shù)據(jù)了。我不知道是否有一種方法可以調(diào)和那種來(lái)自ImageNet的非商業(yè)使用限制許可和來(lái)自Caffe深度學(xué)習(xí)模型的完全不受限制許可。是否有可能有一個(gè)黑客友好的數(shù)據(jù)模型/許可協(xié)議來(lái)統(tǒng)一所有的情況?

結(jié)論

如果將來(lái)神經(jīng)網(wǎng)絡(luò)升級(jí)成為你的操作系統(tǒng)的一部分,不要感到驚訝。當(dāng)我們從數(shù)據(jù)經(jīng)濟(jì)(共享圖片)向知識(shí)經(jīng)濟(jì)(共享神經(jīng)網(wǎng)絡(luò))過(guò)渡的時(shí)候,法律/所有權(quán)問(wèn)題就成為了一個(gè)需要考慮的問(wèn)題了。我希望今天描述的三種場(chǎng)景(可視化大數(shù)據(jù)、共享深度學(xué)習(xí)模型、家中訓(xùn)練)可以在你想要分享知識(shí)的時(shí)候,幫助你思考這里面的法律問(wèn)題。當(dāng)AI開始生成自己的藝術(shù)(可能通過(guò)重新合成老照片),法律問(wèn)題會(huì)出現(xiàn)。當(dāng)你的競(jìng)爭(zhēng)對(duì)手出售你的模型和/或數(shù)據(jù)的時(shí)候,法律問(wèn)題再次出現(xiàn)。如果MIT協(xié)議、GPL協(xié)議和Apache協(xié)議針對(duì)預(yù)訓(xùn)練深度學(xué)習(xí)模型開始展開爭(zhēng)論的時(shí)候,也不要感到吃驚。誰(shuí)知道呢,或許AI法將是接下來(lái)的大事件呢。

關(guān)鍵字:學(xué)習(xí)算法訓(xùn)練模型圖像分類

本文摘自:CSDN

x 深度學(xué)習(xí) vs. 大數(shù)據(jù):神經(jīng)網(wǎng)絡(luò)權(quán)值的版權(quán)屬于誰(shuí)? 掃一掃
分享本文到朋友圈
當(dāng)前位置:大數(shù)據(jù)業(yè)界動(dòng)態(tài) → 正文

深度學(xué)習(xí) vs. 大數(shù)據(jù):神經(jīng)網(wǎng)絡(luò)權(quán)值的版權(quán)屬于誰(shuí)?

責(zé)任編輯:editor005 作者:Tomasz Malisiewicz |來(lái)源:企業(yè)網(wǎng)D1Net  2015-05-19 13:55:32 本文摘自:CSDN

【編者按】深度神經(jīng)網(wǎng)絡(luò)能夠煥發(fā)新春,大數(shù)據(jù)功不可沒(méi),然而大數(shù)據(jù)的版權(quán)是否應(yīng)當(dāng)延伸到深度學(xué)習(xí)產(chǎn)生的知識(shí),這是一個(gè)現(xiàn)實(shí)的問(wèn)題。本文通過(guò)ImageNet可視化大數(shù)據(jù)、Caffe共享深度學(xué)習(xí)模型和家中訓(xùn)練三個(gè)場(chǎng)景審查了深度學(xué)習(xí)的權(quán)值與大數(shù)據(jù)的關(guān)系,介紹了目前的問(wèn)題和解決方案。文章最后預(yù)測(cè)深度學(xué)習(xí)將來(lái)可能需要相關(guān)的“AI法”。

要獲得有用的學(xué)習(xí)效果,大型多層深度神經(jīng)網(wǎng)絡(luò)(又名深度學(xué)習(xí)系統(tǒng))需要大量的標(biāo)簽數(shù)據(jù)。這顯然需要大數(shù)據(jù),但可用的可視化大數(shù)據(jù)很少。今天我們來(lái)看一個(gè)非常著名的可視化大數(shù)據(jù)來(lái)源地,深入了解一下訓(xùn)練過(guò)的神經(jīng)網(wǎng)絡(luò),然后捫心自問(wèn)一些關(guān)于數(shù)據(jù)/模型所有權(quán)的問(wèn)題。接下來(lái),我們需要牢記一個(gè)基本的問(wèn)題:一個(gè)學(xué)習(xí)過(guò)的神經(jīng)網(wǎng)絡(luò)的權(quán)值是輸入圖像的衍生品嗎?換句話說(shuō),當(dāng)一個(gè)深度學(xué)習(xí)系統(tǒng)使用過(guò)你的數(shù)據(jù)之后,誰(shuí)應(yīng)該擁有什么?

  背景:深度學(xué)習(xí)“計(jì)算機(jī)視覺(jué)秘訣”

現(xiàn)今最成功的機(jī)器學(xué)習(xí)技術(shù)之一是深度學(xué)習(xí)。深度學(xué)習(xí)引起廣泛關(guān)注的原因是由于它在處理語(yǔ)音[1]、文本[2]和圖像[3]等任務(wù)中展現(xiàn)出來(lái)的顯著成果。深度學(xué)習(xí)和物體識(shí)別(object recognition)技術(shù)率先在學(xué)術(shù)界萌芽(多倫多大學(xué)、紐約大學(xué)、斯坦福大學(xué)、加州大學(xué)伯克利分校、麻省理工學(xué)院和CMU等),然后被工業(yè)界采用(谷歌、Facebook和Snapchat等),現(xiàn)在新興的創(chuàng)業(yè)團(tuán)隊(duì)們(Clarifai.com、Metamind.io和Vision.ai等)正將可視化智能(visual intelligence)帶到公眾的面前。雖然人工智能的走向仍不清晰,但是深度學(xué)習(xí)將會(huì)扮演一個(gè)關(guān)鍵角色。

相關(guān)鏈接:深度學(xué)習(xí) vs 機(jī)器學(xué)習(xí) vs 模式識(shí)別

相關(guān)鏈接:深度學(xué)習(xí) vs. 概率圖模型 vs. 邏輯學(xué)

在可視化物體識(shí)別任務(wù)中,最常用的模型是卷積神經(jīng)網(wǎng)絡(luò)(也稱為ConvNets或CNNs)。它們可以在不使用手工選取特征引擎的情況下來(lái)進(jìn)行端對(duì)端的訓(xùn)練,但是這需要大量的訓(xùn)練圖片(有時(shí)候稱為大數(shù)據(jù),或者可視化大數(shù)據(jù))。這些大型的神經(jīng)網(wǎng)絡(luò)從一個(gè)空白模型開始,使用一種高度優(yōu)化的反向傳播算法進(jìn)行端對(duì)端的訓(xùn)練。反向傳播算法不過(guò)是在微積分101課程中學(xué)到的鏈?zhǔn)椒▌t,并且現(xiàn)在的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法同二十世紀(jì)80年代的算法幾乎沒(méi)什么不一樣。但是今天高度優(yōu)化的BP的實(shí)現(xiàn)是基于GPU的,它能夠處理的數(shù)據(jù)量遠(yuǎn)多于互聯(lián)網(wǎng)、云、GPU時(shí)代之前的神經(jīng)網(wǎng)絡(luò)。深度學(xué)習(xí)的訓(xùn)練結(jié)果是一些權(quán)值的集合,這些學(xué)習(xí)過(guò)的權(quán)值代表的是模型架構(gòu)中不同層上的權(quán)值——用浮點(diǎn)數(shù)表示的這些上百萬(wàn)個(gè)的權(quán)值代表了從圖像中學(xué)到的內(nèi)容。那么,關(guān)于這些權(quán)值,其中有趣的是什么呢?有趣的是權(quán)值和大數(shù)據(jù)之間的關(guān)系,現(xiàn)在,這種關(guān)系將受到審查。

“基于ImageNet訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)權(quán)值是ImageNet的衍生品嗎?是數(shù)以百萬(wàn)計(jì)的版權(quán)聲明的‘污水坑’嗎?通過(guò)訓(xùn)練來(lái)逼近另外一個(gè)ImageNet網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)又算是什么?”(這個(gè)問(wèn)題在HackerNews上被提出,出自kastnerkyle對(duì)文章“ A Revolutionary Technique That Changed Machine Vision”的評(píng)論。)

在計(jì)算機(jī)視覺(jué)的背景下,這個(gè)問(wèn)題確實(shí)引起了我的興趣,因?yàn)槲覀冮_始看到機(jī)器人和裝備了人工智能技術(shù)的設(shè)備進(jìn)入到了我們的家園中。我希望這個(gè)問(wèn)題在未來(lái)的十年中受到更多更深的重視。現(xiàn)在先讓我們看看在2015年中正在解決的一些問(wèn)題吧。

1.ImageNet:非商業(yè)化的可視化大數(shù)據(jù)

讓我們先看一下一個(gè)在深度學(xué)習(xí)系統(tǒng)中最常用的數(shù)據(jù)源——ImageNet[4],這個(gè)數(shù)據(jù)源設(shè)計(jì)的目的是用于識(shí)別大量的不同物體。對(duì)于研究大規(guī)模物體識(shí)別和檢測(cè)的學(xué)者來(lái)講,ImageNet是最大的可視化大數(shù)據(jù)。2009年,該數(shù)據(jù)集出現(xiàn)在由Fei-Fei Li研究團(tuán)隊(duì)發(fā)表的一篇CVPR文章中,之后,該數(shù)據(jù)集取代了PASCAL數(shù)據(jù)集(這個(gè)數(shù)據(jù)集樣本的數(shù)量和多樣性不夠)和LabelMe數(shù)據(jù)集(這個(gè)數(shù)據(jù)集樣本缺乏標(biāo)準(zhǔn)化)。ImageNet數(shù)據(jù)集脫胎于Caltech101(2004年的一個(gè)數(shù)據(jù)集,側(cè)重于圖像分類,同樣由Fei-Fei Li團(tuán)隊(duì)研發(fā)),所以我個(gè)人還是認(rèn)為ImageNet是類似“Stanford10 ^ N”的。ImageNet在推動(dòng)物體識(shí)別到一個(gè)新的領(lǐng)域——深度學(xué)習(xí)階段起到了核心的作用。

  截止到2015年5月1日,ImageNet數(shù)據(jù)庫(kù)擁有超過(guò)1500萬(wàn)的圖像。

問(wèn)題:有很多非常大的數(shù)據(jù)集,其圖像是從網(wǎng)上采集的,但是這些圖像通常都帶有自己的版權(quán)。版權(quán)阻止了圖像的收集和出售,所以從商業(yè)角度來(lái)看,當(dāng)產(chǎn)生這樣的數(shù)據(jù)集的時(shí)候,必須要小心一些。為了使現(xiàn)實(shí)世界中識(shí)別問(wèn)題保持最先進(jìn)技術(shù),我們必須使用標(biāo)準(zhǔn)的大數(shù)據(jù)集(代表了能夠在現(xiàn)實(shí)網(wǎng)絡(luò)中找到的內(nèi)容),培養(yǎng)一種共享成果的社區(qū)意識(shí),并且維持?jǐn)?shù)據(jù)源的版權(quán)。

解決方案:ImageNet決定公開提供數(shù)據(jù)集中圖像的源鏈接,這樣人們就可以不必從一個(gè)大學(xué)托管的服務(wù)器上來(lái)下載這些圖像了。ImageNet僅提供圖像的縮略圖和一個(gè)版權(quán)侵犯刪除聲明。只有當(dāng)使用者簽署協(xié)議,保證不將數(shù)據(jù)商業(yè)化使用之后,數(shù)據(jù)集組織者才提供完整的數(shù)據(jù)集。ImageNet具有下述的聲明條款(獲取日期:2015年5月5日):

ImageNet不擁有圖像的版權(quán)。ImageNet會(huì)以一種圖像搜索引擎的方式,僅提供縮略圖和圖像的URL。也就是說(shuō),ImageNet針對(duì)每個(gè)同義詞集編譯了一個(gè)精確的網(wǎng)絡(luò)圖片列表。對(duì)于希望將圖片用于非商業(yè)化研究和/或教育目的的研究人員和教育工作者來(lái)說(shuō),在同意我們的一定條件和條款的情況下,我們可以提供通過(guò)我們的網(wǎng)站來(lái)進(jìn)行訪問(wèn)的方式。

2.Caffe:無(wú)使用限制的深度學(xué)習(xí)模式

現(xiàn)在,比較明確的是,我們知道哪里可以下載到可視化大數(shù)據(jù)以及它們適用的條款,我們?cè)賹⒛抗廪D(zhuǎn)向另一個(gè)方面:深度學(xué)習(xí)訓(xùn)練過(guò)程的輸出結(jié)果。我們看一下Caffe,一個(gè)非常流行的深度學(xué)習(xí)庫(kù),它可以用來(lái)處理類似于ImageNet的數(shù)據(jù)。Caffe提供了一個(gè)共享模式的生態(tài)系統(tǒng)(動(dòng)物園模型),并且已經(jīng)成為計(jì)算機(jī)視覺(jué)研究者必不可少的工具。Caffe是伯克利視覺(jué)和學(xué)習(xí)中心研發(fā)的,并貢獻(xiàn)給了開源社區(qū)——它是開源的。

  “使用Caffe自己動(dòng)手搭建深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)”中的一頁(yè)幻燈片

問(wèn)題:作為一個(gè)在大學(xué)啟動(dòng)的項(xiàng)目,Caffe旨在成為創(chuàng)建、訓(xùn)練和分享深度學(xué)習(xí)模型的事實(shí)標(biāo)準(zhǔn)。分享的模型最初是用于非商業(yè)用途,但問(wèn)題是一波新的初創(chuàng)企業(yè)都使用了這些技術(shù)。所以必須有一個(gè)許可協(xié)議,允許高校、大型企業(yè)和初創(chuàng)公司來(lái)探索同一套預(yù)訓(xùn)練模型。

解決方案:Caffe的當(dāng)前模型許可是無(wú)使用限制的。對(duì)于大量的黑客、科學(xué)家和工程師們來(lái)說(shuō)這是非常偉大的一件事。需要分享的模型需遵守一項(xiàng)非商業(yè)使用條款。下面是全部的Caffe的模型條款(獲取日期:2015年5月5日):

Caffe模型是BVLC的附屬軟件,它沒(méi)有使用的限制。

這些模型利用了ImageNet項(xiàng)目的數(shù)據(jù)進(jìn)行訓(xùn)練,這些訓(xùn)練數(shù)據(jù)包括了一些從網(wǎng)上獲取的照片,而這些照片可能受到版權(quán)保護(hù)。

作為研究者,我們目前的理解是:對(duì)于這些公開發(fā)布的訓(xùn)練過(guò)的模型權(quán)值,其使用不應(yīng)受到什么限制,因?yàn)檫@里面沒(méi)有包含任何原始圖像的全部或者部分。對(duì)于現(xiàn)在興起的一種說(shuō)法,‘權(quán)值系由原始圖像訓(xùn)練所得,其版權(quán)應(yīng)歸屬原始圖像版權(quán)所有者’,加州大學(xué)伯克利分校沒(méi)有做過(guò)任何聲明說(shuō)什么樣的使用是被允許的,而是基于大學(xué)使命來(lái)對(duì)待我們的模型,以盡可能不受限制的方式來(lái)傳播知識(shí)和工具。

3.Vision.ai:在家里生成和訓(xùn)練的數(shù)據(jù)集

深度學(xué)習(xí)能夠?qū)W習(xí)輸入數(shù)據(jù)的概要。但是如果另一個(gè)不同的模型記住了訓(xùn)練數(shù)據(jù)的詳細(xì)細(xì)節(jié)會(huì)怎樣呢?更重要的是如果模型記住的內(nèi)容中有你不想對(duì)外分享的內(nèi)容會(huì)怎樣呢?為了研究這種情況,我們來(lái)看Vision.ai,他們?cè)O(shè)計(jì)的實(shí)時(shí)計(jì)算機(jī)視覺(jué)服務(wù)器用于模擬產(chǎn)生一個(gè)數(shù)據(jù)集并且學(xué)習(xí)一個(gè)對(duì)象的外觀。Vision.ai軟件能夠從視頻和直播的網(wǎng)絡(luò)攝像頭流中實(shí)時(shí)訓(xùn)練。

不同于從互聯(lián)網(wǎng)上的圖像中收集可視化大數(shù)據(jù)(如ImageNet),vision.ai的訓(xùn)練過(guò)程基于一個(gè)人在網(wǎng)絡(luò)攝像頭面前揮舞一個(gè)感興趣的對(duì)象。用戶自力更生的學(xué)習(xí)過(guò)程一開始有一個(gè)初始邊界框,算法會(huì)在不用干預(yù)的情況下持續(xù)學(xué)習(xí)。在算法學(xué)習(xí)過(guò)程中,它會(huì)存儲(chǔ)它以前見(jiàn)到的部分歷史信息,從而有效地創(chuàng)建自己的數(shù)據(jù)集。因?yàn)閂ision.ai使用了卷積神經(jīng)網(wǎng)絡(luò)來(lái)檢測(cè)物體(圖像中目標(biāo)僅占據(jù)很少的一部分),所以收集到的數(shù)據(jù)集中還保持了大量的背景數(shù)據(jù)。當(dāng)訓(xùn)練過(guò)程結(jié)束后,你同時(shí)得到了Caffe類型的信息(學(xué)習(xí)過(guò)的權(quán)值)和ImageNet類型的信息(收集的圖像)。那么如果現(xiàn)在進(jìn)行分享模型,會(huì)發(fā)生什么呢?

  用戶使用vision.ai的實(shí)時(shí)檢測(cè)器訓(xùn)練接口來(lái)訓(xùn)練茶杯檢測(cè)器

問(wèn)題:在家里的訓(xùn)練意味著潛在的私人信息和敏感信息以背景的形式被采集到圖像中。如果你在自己家里訓(xùn)練模型,然后對(duì)公眾開放它,那你在分享的時(shí)候就需要三思而后行了。同樣的,你如果從有版權(quán)保護(hù)的視頻/圖像中訓(xùn)練了一個(gè)物體檢測(cè)器,那么當(dāng)你分享/出售這個(gè)模型的時(shí)候,也需要考慮其中存在的問(wèn)題。

解決方案:當(dāng)你把一個(gè)Vision.ai模型保存到磁盤上的時(shí)候,你能獲取到編譯模型和完整模型。編譯模型是不包含圖像的完整模型(因此小的多)。這就允許你在自己的電腦上保留完整的可編輯模型,而只需要分享編譯模型即可(特別是只發(fā)布訓(xùn)練過(guò)的權(quán)值),這就避免了別人來(lái)偷窺你的生活空間。Vision.ai的計(jì)算機(jī)視覺(jué)服務(wù)器稱為VMX,它既能夠運(yùn)行完整模型,也能夠運(yùn)行編譯模型;然而,只有非編譯模型能夠編輯和擴(kuò)展。另外,Vision.ai提供的是視覺(jué)服務(wù)器的獨(dú)立安裝模式,因此訓(xùn)練圖像和計(jì)算結(jié)果可以保留在本地計(jì)算機(jī)上。簡(jiǎn)而言之,Vision.ai的解決方案允許你選擇在本機(jī)運(yùn)行還是在云上運(yùn)行,并且允許你選擇是發(fā)布完整模型(具有背景圖像)還是編譯模型(僅有需要檢測(cè)的對(duì)象)。當(dāng)需要分享訓(xùn)練模型和/或產(chǎn)生數(shù)據(jù)集的時(shí)候,你就能夠自由的選擇自己的許可協(xié)議。

4.授權(quán)基于內(nèi)存的機(jī)器學(xué)習(xí)模型的開放問(wèn)題

深度學(xué)習(xí)方法并不是物體識(shí)別的唯一可用技術(shù)。如果我們的模型是使用原始RGB像素的最近鄰分類器(Nearest Neighbor Classifier )會(huì)怎樣?最近鄰分類器是基于內(nèi)存的分類,它記憶所有的訓(xùn)練數(shù)據(jù)——模型就是訓(xùn)練數(shù)據(jù)。如果對(duì)同一數(shù)據(jù)集使用不同的許可,將會(huì)產(chǎn)生矛盾,因?yàn)槟程焖赡茏鳛橛?xùn)練數(shù)據(jù),而其他的時(shí)候又可能是做為學(xué)習(xí)算法的輸出數(shù)據(jù)了。我不知道是否有一種方法可以調(diào)和那種來(lái)自ImageNet的非商業(yè)使用限制許可和來(lái)自Caffe深度學(xué)習(xí)模型的完全不受限制許可。是否有可能有一個(gè)黑客友好的數(shù)據(jù)模型/許可協(xié)議來(lái)統(tǒng)一所有的情況?

結(jié)論

如果將來(lái)神經(jīng)網(wǎng)絡(luò)升級(jí)成為你的操作系統(tǒng)的一部分,不要感到驚訝。當(dāng)我們從數(shù)據(jù)經(jīng)濟(jì)(共享圖片)向知識(shí)經(jīng)濟(jì)(共享神經(jīng)網(wǎng)絡(luò))過(guò)渡的時(shí)候,法律/所有權(quán)問(wèn)題就成為了一個(gè)需要考慮的問(wèn)題了。我希望今天描述的三種場(chǎng)景(可視化大數(shù)據(jù)、共享深度學(xué)習(xí)模型、家中訓(xùn)練)可以在你想要分享知識(shí)的時(shí)候,幫助你思考這里面的法律問(wèn)題。當(dāng)AI開始生成自己的藝術(shù)(可能通過(guò)重新合成老照片),法律問(wèn)題會(huì)出現(xiàn)。當(dāng)你的競(jìng)爭(zhēng)對(duì)手出售你的模型和/或數(shù)據(jù)的時(shí)候,法律問(wèn)題再次出現(xiàn)。如果MIT協(xié)議、GPL協(xié)議和Apache協(xié)議針對(duì)預(yù)訓(xùn)練深度學(xué)習(xí)模型開始展開爭(zhēng)論的時(shí)候,也不要感到吃驚。誰(shuí)知道呢,或許AI法將是接下來(lái)的大事件呢。

關(guān)鍵字:學(xué)習(xí)算法訓(xùn)練模型圖像分類

本文摘自:CSDN

電子周刊
回到頂部

關(guān)于我們聯(lián)系我們版權(quán)聲明隱私條款廣告服務(wù)友情鏈接投稿中心招賢納士

企業(yè)網(wǎng)版權(quán)所有 ©2010-2024 京ICP備09108050號(hào)-6 京公網(wǎng)安備 11010502049343號(hào)

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 旌德县| 登封市| 临泉县| 昌宁县| 改则县| 宿迁市| 读书| 新丰县| 壤塘县| 安龙县| 桐梓县| 永济市| 天津市| 三穗县| 广宁县| 阿坝| 莱阳市| 蓝田县| 慈溪市| 柞水县| 金华市| 马山县| 舟曲县| 灵璧县| 邵东县| 黎平县| 安图县| 阜宁县| 安义县| 永定县| 五大连池市| 永登县| 资中县| 团风县| 漳州市| 绥德县| 绥芬河市| 三江| 宜丰县| 凤翔县| 仙居县|