精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:大數據數據分析 → 正文

數據分析領域中最為人稱道的七種降維方法

責任編輯:editor005 |來源:企業網D1Net  2015-10-27 14:12:52 本文摘自:愛數據

大數據

近來由于數據記錄和屬性規模的急劇增長,大數據處理平臺和并行數據分析算法也隨之出現。于此同時,這也推動了數據降維處理的應用。實際上,數據量有時過猶不及。有時在數據分析應用中大量的數據反而會產生更壞的性能。

最新的一個例子是采用 2009 KDD Challenge 大數據集來預測客戶流失量。 該數據集維度達到 15000 維。 大多數數據挖掘算法都直接對數據逐列處理,在數據數目一大時,導致算法越來越慢。該項目的最重要的就是在減少數據列數的同時保證丟失的數據信息盡可能少。

以該項目為例,我們開始來探討在當前數據分析領域中最為數據分析人員稱道和接受的數據降維方法。

缺失值比率 (Missing Values Ratio)

該方法的是基于包含太多缺失值的數據列包含有用信息的可能性較少。因此,可以將數據列缺失值大于某個閾值的列去掉。閾值越高,降維方法更為積極,即降維越少。該方法示意圖如下:

103103010

  低方差濾波 (Low Variance Filter)

與上個方法相似,該方法假設數據列變化非常小的列包含的信息量少。因此,所有的數據列方差小的列被移除。需要注意的一點是:方差與數據范圍相關的,因此在采用該方法前需要對數據做歸一化處理。算法示意圖如下:

105105010

  高相關濾波 (High Correlation Filter)

高相關濾波認為當兩列數據變化趨勢相似時,它們包含的信息也顯示。這樣,使用相似列中的一列就可以滿足機器學習模型。對于數值列之間的相似性通過計算相關系數來表示,對于名詞類列的相關系數可以通過計算皮爾遜卡方值來表示。相關系數大于某個閾值的兩列只保留一列。同樣要注意的是:相關系數對范圍敏感,所以在計算之前也需要對數據進行歸一化處理。算法示意圖如下:

102102010

  隨機森林/組合樹 (Random Forests)

組合決策樹通常又被成為隨機森林,它在進行特征選擇與構建有效的分類器時非常有用。一種常用的降維方法是對目標屬性產生許多巨大的樹,然后根據對每個屬性的統計結果找到信息量最大的特征子集。例如,我們能夠對一個非常巨大的數據集生成非常層次非常淺的樹,每顆樹只訓練一小部分屬性。如果一個屬性經常成為最佳分裂屬性,那么它很有可能是需要保留的信息特征。對隨機森林數據屬性的統計評分會向我們揭示與其它屬性相比,哪個屬性才是預測能力最好的屬性。算法示意圖如下:

104104010

  主成分分析 (PCA)

主成分分析是一個統計過程,該過程通過正交變換將原始的 n 維數據集變換到一個新的被稱做主成分的數據集中。變換后的結果中,第一個主成分具有最大的方差值,每個后續的成分在與前述主成分正交條件限制下與具有最大方差。降維時僅保存前 m(m < n) 個主成分即可保持最大的數據信息量。需要注意的是主成分變換對正交向量的尺度敏感。數據在變換前需要進行歸一化處理。同樣也需要注意的是,新的主成分并不是由實際系統產生的,因此在進行 PCA 變換后會喪失數據的解釋性。如果說,數據的解釋能力對你的分析來說很重要,那么 PCA 對你來說可能就不適用了。算法示意圖如下:

106106010

  反向特征消除 (Backward Feature Elimination)

在該方法中,所有分類算法先用 n 個特征進行訓練。每次降維操作,采用 n-1 個特征對分類器訓練 n 次,得到新的 n 個分類器。將新分類器中錯分率變化最小的分類器所用的 n-1 維特征作為降維后的特征集。不斷的對該過程進行迭代,即可得到降維后的結果。第k 次迭代過程中得到的是 n-k 維特征分類器。通過選擇最大的錯誤容忍率,我們可以得到在選擇分類器上達到指定分類性能最小需要多少個特征。算法示意圖如下:

108108010

  前向特征構造 (Forward Feature Construction)

前向特征構建是反向特征消除的反過程。在前向特征過程中,我們從 1 個特征開始,每次訓練添加一個讓分類器性能提升最大的特征。前向特征構造和反向特征消除都十分耗時。它們通常用于輸入維數已經相對較低的數據集。算法示意圖如下:

109109010

我們選擇 2009 KDD chanllenge 的削數據集來對這些降維技術在降維率、準確度損失率以及計算速度方面進行比較。當然,最后的準確度與損失率也與選擇的數據分析模型有關。因此,最后的降維率與準確度的比較是在三種模型中進行,這三種模型分別是:決策樹,神經網絡與樸素貝葉斯。

通過運行優化循環,最佳循環終止意味著低緯度與高準確率取決于七大降維方法與最佳分類模型。最后的最佳模型的性能通過采用所有特征進行訓練模型的基準準確度與 ROC 曲線下的面積來進行比較。下面是對所有比較結果的對比。

111111011

從上表中的對比可知,數據降維算法不僅僅是能夠提高算法執行的速度,同時也能過提高分析模型的性能。 在對數據集采用:缺失值降維、低方差濾波,高相關濾波或者隨機森林降維時,表中的 AoC 在測試數據集上有小幅度的增長。

110110011

確實在大數據時代,數據越多越好似乎已經成為公理。我們再次解釋了當數據數據集寶航過多的數據噪聲時,算法的性能會導致算法的性能達不到預期。移除信息量較少甚至無效信息唯獨可能會幫助我們構建更具擴展性、通用性的數據模型。該數據模型在新數據集上的表現可能會更好。

最近,我們咨詢了 LinkedIn 的一個數據分析小組在數據分析中最為常用的數據降維方法,除了本博客中提到的其中,還包括:隨機投影(Random Projections)、非負矩陣分解(N0n-negative Matrix Factorization),自動編碼(Auto-encoders),卡方檢測與信息增益(Chi-square and information gain), 多維標定(Multidimensional Scaling), 相關性分析(Coorespondence Analysis), 因子分析(Factor Analysis)、聚類(Clustering)以及貝葉斯模型(Bayesian Models)。感謝 Asterios Stergioudis, Raoul Savos 以及 Michael Will 在 LinkedIN 小組中提供意見。

關鍵字:降維主成分分析目標屬性

本文摘自:愛數據

x 數據分析領域中最為人稱道的七種降維方法 掃一掃
分享本文到朋友圈
當前位置:大數據數據分析 → 正文

數據分析領域中最為人稱道的七種降維方法

責任編輯:editor005 |來源:企業網D1Net  2015-10-27 14:12:52 本文摘自:愛數據

大數據

近來由于數據記錄和屬性規模的急劇增長,大數據處理平臺和并行數據分析算法也隨之出現。于此同時,這也推動了數據降維處理的應用。實際上,數據量有時過猶不及。有時在數據分析應用中大量的數據反而會產生更壞的性能。

最新的一個例子是采用 2009 KDD Challenge 大數據集來預測客戶流失量。 該數據集維度達到 15000 維。 大多數數據挖掘算法都直接對數據逐列處理,在數據數目一大時,導致算法越來越慢。該項目的最重要的就是在減少數據列數的同時保證丟失的數據信息盡可能少。

以該項目為例,我們開始來探討在當前數據分析領域中最為數據分析人員稱道和接受的數據降維方法。

缺失值比率 (Missing Values Ratio)

該方法的是基于包含太多缺失值的數據列包含有用信息的可能性較少。因此,可以將數據列缺失值大于某個閾值的列去掉。閾值越高,降維方法更為積極,即降維越少。該方法示意圖如下:

103103010

  低方差濾波 (Low Variance Filter)

與上個方法相似,該方法假設數據列變化非常小的列包含的信息量少。因此,所有的數據列方差小的列被移除。需要注意的一點是:方差與數據范圍相關的,因此在采用該方法前需要對數據做歸一化處理。算法示意圖如下:

105105010

  高相關濾波 (High Correlation Filter)

高相關濾波認為當兩列數據變化趨勢相似時,它們包含的信息也顯示。這樣,使用相似列中的一列就可以滿足機器學習模型。對于數值列之間的相似性通過計算相關系數來表示,對于名詞類列的相關系數可以通過計算皮爾遜卡方值來表示。相關系數大于某個閾值的兩列只保留一列。同樣要注意的是:相關系數對范圍敏感,所以在計算之前也需要對數據進行歸一化處理。算法示意圖如下:

102102010

  隨機森林/組合樹 (Random Forests)

組合決策樹通常又被成為隨機森林,它在進行特征選擇與構建有效的分類器時非常有用。一種常用的降維方法是對目標屬性產生許多巨大的樹,然后根據對每個屬性的統計結果找到信息量最大的特征子集。例如,我們能夠對一個非常巨大的數據集生成非常層次非常淺的樹,每顆樹只訓練一小部分屬性。如果一個屬性經常成為最佳分裂屬性,那么它很有可能是需要保留的信息特征。對隨機森林數據屬性的統計評分會向我們揭示與其它屬性相比,哪個屬性才是預測能力最好的屬性。算法示意圖如下:

104104010

  主成分分析 (PCA)

主成分分析是一個統計過程,該過程通過正交變換將原始的 n 維數據集變換到一個新的被稱做主成分的數據集中。變換后的結果中,第一個主成分具有最大的方差值,每個后續的成分在與前述主成分正交條件限制下與具有最大方差。降維時僅保存前 m(m < n) 個主成分即可保持最大的數據信息量。需要注意的是主成分變換對正交向量的尺度敏感。數據在變換前需要進行歸一化處理。同樣也需要注意的是,新的主成分并不是由實際系統產生的,因此在進行 PCA 變換后會喪失數據的解釋性。如果說,數據的解釋能力對你的分析來說很重要,那么 PCA 對你來說可能就不適用了。算法示意圖如下:

106106010

  反向特征消除 (Backward Feature Elimination)

在該方法中,所有分類算法先用 n 個特征進行訓練。每次降維操作,采用 n-1 個特征對分類器訓練 n 次,得到新的 n 個分類器。將新分類器中錯分率變化最小的分類器所用的 n-1 維特征作為降維后的特征集。不斷的對該過程進行迭代,即可得到降維后的結果。第k 次迭代過程中得到的是 n-k 維特征分類器。通過選擇最大的錯誤容忍率,我們可以得到在選擇分類器上達到指定分類性能最小需要多少個特征。算法示意圖如下:

108108010

  前向特征構造 (Forward Feature Construction)

前向特征構建是反向特征消除的反過程。在前向特征過程中,我們從 1 個特征開始,每次訓練添加一個讓分類器性能提升最大的特征。前向特征構造和反向特征消除都十分耗時。它們通常用于輸入維數已經相對較低的數據集。算法示意圖如下:

109109010

我們選擇 2009 KDD chanllenge 的削數據集來對這些降維技術在降維率、準確度損失率以及計算速度方面進行比較。當然,最后的準確度與損失率也與選擇的數據分析模型有關。因此,最后的降維率與準確度的比較是在三種模型中進行,這三種模型分別是:決策樹,神經網絡與樸素貝葉斯。

通過運行優化循環,最佳循環終止意味著低緯度與高準確率取決于七大降維方法與最佳分類模型。最后的最佳模型的性能通過采用所有特征進行訓練模型的基準準確度與 ROC 曲線下的面積來進行比較。下面是對所有比較結果的對比。

111111011

從上表中的對比可知,數據降維算法不僅僅是能夠提高算法執行的速度,同時也能過提高分析模型的性能。 在對數據集采用:缺失值降維、低方差濾波,高相關濾波或者隨機森林降維時,表中的 AoC 在測試數據集上有小幅度的增長。

110110011

確實在大數據時代,數據越多越好似乎已經成為公理。我們再次解釋了當數據數據集寶航過多的數據噪聲時,算法的性能會導致算法的性能達不到預期。移除信息量較少甚至無效信息唯獨可能會幫助我們構建更具擴展性、通用性的數據模型。該數據模型在新數據集上的表現可能會更好。

最近,我們咨詢了 LinkedIn 的一個數據分析小組在數據分析中最為常用的數據降維方法,除了本博客中提到的其中,還包括:隨機投影(Random Projections)、非負矩陣分解(N0n-negative Matrix Factorization),自動編碼(Auto-encoders),卡方檢測與信息增益(Chi-square and information gain), 多維標定(Multidimensional Scaling), 相關性分析(Coorespondence Analysis), 因子分析(Factor Analysis)、聚類(Clustering)以及貝葉斯模型(Bayesian Models)。感謝 Asterios Stergioudis, Raoul Savos 以及 Michael Will 在 LinkedIN 小組中提供意見。

關鍵字:降維主成分分析目標屬性

本文摘自:愛數據

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 山丹县| 安宁市| 衡山县| 天台县| 湘阴县| 如东县| 华阴市| 天镇县| 泰和县| 抚宁县| 景谷| 岫岩| 平凉市| 辰溪县| 梅河口市| 无为县| 安龙县| 布尔津县| 原阳县| 灵川县| 略阳县| 舒城县| 分宜县| 阳高县| 乌兰浩特市| 遵化市| 临夏县| 正安县| 冕宁县| 英山县| 铜陵市| 元江| 太康县| 诸暨市| 托克逊县| 永福县| 昭通市| 浪卡子县| 闸北区| 珲春市| 涟源市|