精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:大數據業界動態 → 正文

大數據分析的流程淺析:大數據整理過程分析

責任編輯:editor004 |來源:企業網D1Net  2015-07-11 20:23:16 本文摘自:人大論壇

大數據分析

數據整理是數據分析過程中最重要的環節,在大數據分析過程中也是如此。在小數據時代,數據整理包括數據的清洗、數據轉換、歸類編碼和數字編碼等過程,其中數據清洗占據最重要的位置,就是檢查數據一致性,處理無效值和缺失值等操作。在大數據時代,這些工作被弱化了,在有些大數據的算法和應用中,基本不再進行數據清洗了,因為大數據的多樣化使得其數據。有一定的不精確性。但數據轉換和編碼過程還是需要的。下面以大數據分析中文本分類的例子,來分析大數據整理的過程。

在本例中,以mahout為大數據分析軟件,文本分類算法選用樸素貝葉斯算法(new bayes),分類對象是來自不同類別的新聞數據。

當我們使用網頁爬蟲,每小時源源不斷的從多個不同類別的新聞網站上取得數據時,取得的這些數據都是文本數據,也就是非結構化數據,這些數據是不需要進行數據清洗過程,但它們在進入到mahout實現的樸素貝葉斯算法時,需要進行必要的數據轉換。該轉換主要分兩個步驟:

1.數據系列化

由于取得的大量的文本數據集中,每個新聞占一個文檔,共有無數個小的文件,由于Mahout運行在Hadoop的HDFS上,HDFS是為大文件設計的。如果我們把這些無窮多個小文件都拷貝上去,這樣是非常不合適。試想:假設對1000萬篇新聞進行分類,難道要拷貝1000w個文件么?這樣會使HDFS中運行name node節點的終端崩潰掉。

因此,Mahout采用SequenceFile作為其基本的數據交換格式。其思路是:通過調用mahout內置的解析器,掃描所有目錄和文件,并把每個文件都轉成單行文本,以目錄名開頭,跟著是文檔出現的所有單詞,這樣就把無窮多個小文件,轉換成一個系列化的大文件。然后把這個大文件,再上傳到HDFS上,就可以充分發揮HDFS分布式文件系統的優勢。當然,這個轉換過程由mahout的內置工具完成,而大數據分析師這個時候只需要把所有的新聞按文件夾分好類放置好,同時運行mahout內置的解析器命令就可以了。

2.文本內容向量化

簡單地說就是把文本內容中的每個單詞(去除一些連接詞后)轉換成數據,復雜地說就是進行向量空間模型化(VSM)。該過程使每個單詞都有一個編號,這個編號是就它在文檔向量所擁有的維度。這個工作在mahout中實現時,大數據分析師也只需要執行其中的一個命令,就可以輕松地實現文本內容的向量化。

有了這些被向量化的數據,再通過mahout的樸素貝葉斯算法,我們就可以對計算機訓練出一套規則,根據這個規則,機器就可以對后續收集的新聞數據進行自動的分類了。

從上述文本分類的大數據整理過程可以看出,大數據時代的數據整理過程不再強調數據的精確性,而強調的是對非結構化數據的數量化。當然,不同的大數據分析應用使用的算法也不一樣,其數據整理過程也不太一樣,但從總體上看,大數據分析的數據整理區別于小數據時代的精確性,而變得更粗放一些。

關鍵字:數據清洗貝葉斯算法文本分類

本文摘自:人大論壇

x 大數據分析的流程淺析:大數據整理過程分析 掃一掃
分享本文到朋友圈
當前位置:大數據業界動態 → 正文

大數據分析的流程淺析:大數據整理過程分析

責任編輯:editor004 |來源:企業網D1Net  2015-07-11 20:23:16 本文摘自:人大論壇

大數據分析

數據整理是數據分析過程中最重要的環節,在大數據分析過程中也是如此。在小數據時代,數據整理包括數據的清洗、數據轉換、歸類編碼和數字編碼等過程,其中數據清洗占據最重要的位置,就是檢查數據一致性,處理無效值和缺失值等操作。在大數據時代,這些工作被弱化了,在有些大數據的算法和應用中,基本不再進行數據清洗了,因為大數據的多樣化使得其數據。有一定的不精確性。但數據轉換和編碼過程還是需要的。下面以大數據分析中文本分類的例子,來分析大數據整理的過程。

在本例中,以mahout為大數據分析軟件,文本分類算法選用樸素貝葉斯算法(new bayes),分類對象是來自不同類別的新聞數據。

當我們使用網頁爬蟲,每小時源源不斷的從多個不同類別的新聞網站上取得數據時,取得的這些數據都是文本數據,也就是非結構化數據,這些數據是不需要進行數據清洗過程,但它們在進入到mahout實現的樸素貝葉斯算法時,需要進行必要的數據轉換。該轉換主要分兩個步驟:

1.數據系列化

由于取得的大量的文本數據集中,每個新聞占一個文檔,共有無數個小的文件,由于Mahout運行在Hadoop的HDFS上,HDFS是為大文件設計的。如果我們把這些無窮多個小文件都拷貝上去,這樣是非常不合適。試想:假設對1000萬篇新聞進行分類,難道要拷貝1000w個文件么?這樣會使HDFS中運行name node節點的終端崩潰掉。

因此,Mahout采用SequenceFile作為其基本的數據交換格式。其思路是:通過調用mahout內置的解析器,掃描所有目錄和文件,并把每個文件都轉成單行文本,以目錄名開頭,跟著是文檔出現的所有單詞,這樣就把無窮多個小文件,轉換成一個系列化的大文件。然后把這個大文件,再上傳到HDFS上,就可以充分發揮HDFS分布式文件系統的優勢。當然,這個轉換過程由mahout的內置工具完成,而大數據分析師這個時候只需要把所有的新聞按文件夾分好類放置好,同時運行mahout內置的解析器命令就可以了。

2.文本內容向量化

簡單地說就是把文本內容中的每個單詞(去除一些連接詞后)轉換成數據,復雜地說就是進行向量空間模型化(VSM)。該過程使每個單詞都有一個編號,這個編號是就它在文檔向量所擁有的維度。這個工作在mahout中實現時,大數據分析師也只需要執行其中的一個命令,就可以輕松地實現文本內容的向量化。

有了這些被向量化的數據,再通過mahout的樸素貝葉斯算法,我們就可以對計算機訓練出一套規則,根據這個規則,機器就可以對后續收集的新聞數據進行自動的分類了。

從上述文本分類的大數據整理過程可以看出,大數據時代的數據整理過程不再強調數據的精確性,而強調的是對非結構化數據的數量化。當然,不同的大數據分析應用使用的算法也不一樣,其數據整理過程也不太一樣,但從總體上看,大數據分析的數據整理區別于小數據時代的精確性,而變得更粗放一些。

關鍵字:數據清洗貝葉斯算法文本分類

本文摘自:人大論壇

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 象山县| 泾川县| 丹江口市| 永靖县| 河池市| 葵青区| 乌拉特前旗| 洛宁县| 广安市| 南安市| 陇西县| 休宁县| 平凉市| 克山县| 郸城县| 洛川县| 江源县| 鄄城县| 云梦县| 韩城市| 东辽县| 平和县| 驻马店市| 察雅县| 麟游县| 黄陵县| 聂荣县| 彝良县| 阿勒泰市| 阳原县| 昭觉县| 兖州市| 沈丘县| 晋城| 剑河县| 巨鹿县| 绥中县| 衢州市| 项城市| 西安市| 小金县|