精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當(dāng)前位置:大數(shù)據(jù)數(shù)據(jù)分析 → 正文

大數(shù)據(jù)分析到底需要多少種工具?

責(zé)任編輯:editor04 |來源:企業(yè)網(wǎng)D1Net  2015-07-08 22:28:54 本文摘自:51CTO

JMLR雜志上最近有一篇論文,作者比較了179種不同的分類學(xué)習(xí)方法(分類學(xué)習(xí)算法)在121個(gè)數(shù)據(jù)集上的性能,發(fā)現(xiàn)Random Forest(隨機(jī)森林)和SVM(支持向量機(jī))分類準(zhǔn)確率最高,在大多數(shù)情況下超過其他方法。本文針對(duì)“大數(shù)據(jù)分析到底需要多少種工具?”這一問題展開討論,總結(jié)機(jī)器學(xué)習(xí)領(lǐng)域多年來積累的經(jīng)驗(yàn)規(guī)律,繼而導(dǎo)出大數(shù)據(jù)分析應(yīng)該采取的策略。

1.分類方法大比武

大數(shù)據(jù)分析主要依靠機(jī)器學(xué)習(xí)和大規(guī)模計(jì)算。機(jī)器學(xué)習(xí)包括監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等,而監(jiān)督學(xué)習(xí)又包括分類學(xué)習(xí)、回歸學(xué)習(xí)、排序?qū)W習(xí)、匹配學(xué)習(xí)等(見圖1)。分類是最常見的機(jī)器學(xué)習(xí)應(yīng)用問題,比如垃圾郵件過濾、人臉檢測(cè)、用戶畫像、文本情感分析、網(wǎng)頁歸類等,本質(zhì)上都是分類問題。分類學(xué)習(xí)也是機(jī)器學(xué)習(xí)領(lǐng)域,研究最徹底、使用最廣泛的一個(gè)分支。

 

圖1 機(jī)器學(xué)習(xí)分類體系

最近、Fernández-Delgado等人在JMLR(Journal of Machine Learning Research,機(jī)器學(xué)習(xí)頂級(jí)期刊)雜志發(fā)表了一篇有趣的論文。他們讓179種不同的分類學(xué)習(xí)方法(分類學(xué)習(xí)算法)在UCI 121個(gè)數(shù)據(jù)集上進(jìn)行了“大比武”(UCI是機(jī)器學(xué)習(xí)公用數(shù)據(jù)集,每個(gè)數(shù)據(jù)集的規(guī)模都不大)。結(jié)果發(fā)現(xiàn)Random Forest(隨機(jī)森林)和SVM(支持向量機(jī))名列第一、第二名,但兩者差異不大。在84.3%的數(shù)據(jù)上、Random Forest壓倒了其它90%的方法。也就是說,在大多數(shù)情況下,只用Random Forest 或 SVM事情就搞定了。

2.幾點(diǎn)經(jīng)驗(yàn)總結(jié)

大數(shù)據(jù)分析到底需要多少種機(jī)器學(xué)習(xí)的方法呢?圍繞著這個(gè)問題,我們看一下機(jī)器學(xué)習(xí)領(lǐng)域多年得出的一些經(jīng)驗(yàn)規(guī)律。

l 大數(shù)據(jù)分析性能的好壞,也就是說機(jī)器學(xué)習(xí)預(yù)測(cè)的準(zhǔn)確率,與使用的學(xué)習(xí)算法、問題的性質(zhì)、數(shù)據(jù)集的特性包括數(shù)據(jù)規(guī)模、數(shù)據(jù)特征等都有關(guān)系。

l 一般地,Ensemble方法包括Random Forest和AdaBoost、SVM、Logistic Regression 分類準(zhǔn)確率最高。

l 沒有一種方法可以“包打天下”。Random Forest、SVM等方法一般性能最好,但不是在什么條件下性能都最好。

l 不同的方法,當(dāng)數(shù)據(jù)規(guī)模小的時(shí)候,性能往往有較大差異,但當(dāng)數(shù)據(jù)規(guī)模增大時(shí),性能都會(huì)逐漸提升且差異逐漸減小。也就是說,在大數(shù)據(jù)條件下,什么方法都能work的不錯(cuò)。參見圖2中Blaco & Brill的實(shí)驗(yàn)結(jié)果。

l 對(duì)于簡單問題,Random Forest、SVM等方法基本可行,但是對(duì)于復(fù)雜問題,比如語音識(shí)別、圖像識(shí)別,最近流行的深度學(xué)習(xí)方法往往效果更好。深度學(xué)習(xí)本質(zhì)是復(fù)雜模型學(xué)習(xí),是今后研究的重點(diǎn)。

l 在實(shí)際應(yīng)用中,要提高分類的準(zhǔn)確率,選擇特征比選擇算法更重要。好的特征會(huì)帶來更好的分類結(jié)果,而好的特征的提取需要對(duì)問題的深入理解。

3.應(yīng)采取的大數(shù)據(jù)分析策略

建立大數(shù)據(jù)分析平臺(tái)時(shí),選擇實(shí)現(xiàn)若干種有代表性的方法即可。當(dāng)然,不僅要考慮預(yù)測(cè)的準(zhǔn)確率,還有考慮學(xué)習(xí)效率、開發(fā)成本、模型可讀性等其他因素。大數(shù)據(jù)分析平臺(tái)固然重要,同時(shí)需要有一批能夠深入理解應(yīng)用問題,自如使用分析工具的工程師和分析人員。

只有善工利器,大數(shù)據(jù)分析才能真正發(fā)揮威力。

x 大數(shù)據(jù)分析到底需要多少種工具? 掃一掃
分享本文到朋友圈
當(dāng)前位置:大數(shù)據(jù)數(shù)據(jù)分析 → 正文

大數(shù)據(jù)分析到底需要多少種工具?

責(zé)任編輯:editor04 |來源:企業(yè)網(wǎng)D1Net  2015-07-08 22:28:54 本文摘自:51CTO

JMLR雜志上最近有一篇論文,作者比較了179種不同的分類學(xué)習(xí)方法(分類學(xué)習(xí)算法)在121個(gè)數(shù)據(jù)集上的性能,發(fā)現(xiàn)Random Forest(隨機(jī)森林)和SVM(支持向量機(jī))分類準(zhǔn)確率最高,在大多數(shù)情況下超過其他方法。本文針對(duì)“大數(shù)據(jù)分析到底需要多少種工具?”這一問題展開討論,總結(jié)機(jī)器學(xué)習(xí)領(lǐng)域多年來積累的經(jīng)驗(yàn)規(guī)律,繼而導(dǎo)出大數(shù)據(jù)分析應(yīng)該采取的策略。

1.分類方法大比武

大數(shù)據(jù)分析主要依靠機(jī)器學(xué)習(xí)和大規(guī)模計(jì)算。機(jī)器學(xué)習(xí)包括監(jiān)督學(xué)習(xí)、非監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等,而監(jiān)督學(xué)習(xí)又包括分類學(xué)習(xí)、回歸學(xué)習(xí)、排序?qū)W習(xí)、匹配學(xué)習(xí)等(見圖1)。分類是最常見的機(jī)器學(xué)習(xí)應(yīng)用問題,比如垃圾郵件過濾、人臉檢測(cè)、用戶畫像、文本情感分析、網(wǎng)頁歸類等,本質(zhì)上都是分類問題。分類學(xué)習(xí)也是機(jī)器學(xué)習(xí)領(lǐng)域,研究最徹底、使用最廣泛的一個(gè)分支。

 

圖1 機(jī)器學(xué)習(xí)分類體系

最近、Fernández-Delgado等人在JMLR(Journal of Machine Learning Research,機(jī)器學(xué)習(xí)頂級(jí)期刊)雜志發(fā)表了一篇有趣的論文。他們讓179種不同的分類學(xué)習(xí)方法(分類學(xué)習(xí)算法)在UCI 121個(gè)數(shù)據(jù)集上進(jìn)行了“大比武”(UCI是機(jī)器學(xué)習(xí)公用數(shù)據(jù)集,每個(gè)數(shù)據(jù)集的規(guī)模都不大)。結(jié)果發(fā)現(xiàn)Random Forest(隨機(jī)森林)和SVM(支持向量機(jī))名列第一、第二名,但兩者差異不大。在84.3%的數(shù)據(jù)上、Random Forest壓倒了其它90%的方法。也就是說,在大多數(shù)情況下,只用Random Forest 或 SVM事情就搞定了。

2.幾點(diǎn)經(jīng)驗(yàn)總結(jié)

大數(shù)據(jù)分析到底需要多少種機(jī)器學(xué)習(xí)的方法呢?圍繞著這個(gè)問題,我們看一下機(jī)器學(xué)習(xí)領(lǐng)域多年得出的一些經(jīng)驗(yàn)規(guī)律。

l 大數(shù)據(jù)分析性能的好壞,也就是說機(jī)器學(xué)習(xí)預(yù)測(cè)的準(zhǔn)確率,與使用的學(xué)習(xí)算法、問題的性質(zhì)、數(shù)據(jù)集的特性包括數(shù)據(jù)規(guī)模、數(shù)據(jù)特征等都有關(guān)系。

l 一般地,Ensemble方法包括Random Forest和AdaBoost、SVM、Logistic Regression 分類準(zhǔn)確率最高。

l 沒有一種方法可以“包打天下”。Random Forest、SVM等方法一般性能最好,但不是在什么條件下性能都最好。

l 不同的方法,當(dāng)數(shù)據(jù)規(guī)模小的時(shí)候,性能往往有較大差異,但當(dāng)數(shù)據(jù)規(guī)模增大時(shí),性能都會(huì)逐漸提升且差異逐漸減小。也就是說,在大數(shù)據(jù)條件下,什么方法都能work的不錯(cuò)。參見圖2中Blaco & Brill的實(shí)驗(yàn)結(jié)果。

l 對(duì)于簡單問題,Random Forest、SVM等方法基本可行,但是對(duì)于復(fù)雜問題,比如語音識(shí)別、圖像識(shí)別,最近流行的深度學(xué)習(xí)方法往往效果更好。深度學(xué)習(xí)本質(zhì)是復(fù)雜模型學(xué)習(xí),是今后研究的重點(diǎn)。

l 在實(shí)際應(yīng)用中,要提高分類的準(zhǔn)確率,選擇特征比選擇算法更重要。好的特征會(huì)帶來更好的分類結(jié)果,而好的特征的提取需要對(duì)問題的深入理解。

3.應(yīng)采取的大數(shù)據(jù)分析策略

建立大數(shù)據(jù)分析平臺(tái)時(shí),選擇實(shí)現(xiàn)若干種有代表性的方法即可。當(dāng)然,不僅要考慮預(yù)測(cè)的準(zhǔn)確率,還有考慮學(xué)習(xí)效率、開發(fā)成本、模型可讀性等其他因素。大數(shù)據(jù)分析平臺(tái)固然重要,同時(shí)需要有一批能夠深入理解應(yīng)用問題,自如使用分析工具的工程師和分析人員。

只有善工利器,大數(shù)據(jù)分析才能真正發(fā)揮威力。

電子周刊
回到頂部

關(guān)于我們聯(lián)系我們版權(quán)聲明隱私條款廣告服務(wù)友情鏈接投稿中心招賢納士

企業(yè)網(wǎng)版權(quán)所有 ©2010-2024 京ICP備09108050號(hào)-6 京公網(wǎng)安備 11010502049343號(hào)

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 梅河口市| 大方县| 临泉县| 桓台县| 清徐县| 遂昌县| 修武县| 鹿邑县| 五华县| 德州市| 韶山市| 防城港市| 肥东县| 丹棱县| 太谷县| 荥阳市| 吉水县| 广南县| 马公市| 沧州市| 霸州市| 根河市| 太仓市| 山阴县| 裕民县| 忻城县| 江阴市| 聂拉木县| 龙陵县| 洪泽县| 茂名市| 南投市| 玉环县| 江津市| 苍南县| 吉林市| 绍兴市| 阿拉善左旗| 武隆县| 沙洋县| 静乐县|