半導體制程邁入20奈米以下技術節點后,良率、生產周期及成本管控的挑戰更加艱鉅;新式Hadoop資料儲存架構可讓半導體廠以更低成本達成巨量資料儲存,進而利用深入的統計分析實現更精準有效的設備管理,提高產線運作效率。
近年來,為收集更多感測器資料,長時間保留資料,并加以有效運用,制造商面對不斷加重的挑戰。例如最先進晶圓廠的工具感測器和故障偵測生產資料庫,保留資料1至3個月需要20?30兆位元組的儲存容量。隨著產業轉移至20奈米以下技術制造和新世代工具,情況將加劇。
收集和儲存資料,對于達到必要的良率、生產周期時間和成本至關重要,但這只是資料問題的一部分。另外更重要的是,如何經由快速及具成本效益來分析這些資料,改善機臺的效能和工廠產出的良率即時的資料分析,對于找出最佳化機會、大幅加快目前的速度,具絕對關鍵性影響。
所幸資料管理、資料分析技巧和預測技術的演進,為半導體產業提供滿足這些需求、具有前景的全新解決方案。
傳統感測器儲存 無法處理巨量資料
感測器及統計資料所使用的分析軟體,必須使用一或多個工具、特定時間范圍、感測器、統計資料、配方表、批量、晶圓組合等構成的述詞,進行資料庫查詢。但目前的資料儲存策略,以述詞查詢巨量資料(Big Data)集,無法獲得最佳結果。因此,資料大規模成長導致嚴重問題,影響感測器資料的儲存,也無法有效執行分析查詢。
首當其沖的問題是,要將來自數百或甚至數千個工具的資料傳送到中央儲存系統,需有高效能的儲存系統。但以目前的儲存技術與價位,要儲存數百TB的資料,將大幅提高晶圓廠級設備工程解決方案(EES)的基礎設施成本。以400兆位元組的企業級中央儲存系統為例,每兆位元組所需成本,是具備類似備援功能同等級本機附加儲存的四倍之多。
第二個問題是,多數感測器資料的結構與儲存,都采用傳統關聯式的列與欄方式。但資料容量暴增后,這項方式卻無法隨著最新故障偵測、預測及產能分析應用程式擴充,達到所需效能等級。運用傳統關聯式資料處理技術處理大量資料,成本將高得驚人,嚴重影響新世代應用的投資報酬率。
Hadoop有效處理巨量資料
過去幾年里,資料管理技術方面的進展,為社交媒體、零售及財務等須管理大量資訊的產業開啟可能性,能以更有效率的方式,管理感測器及其他半導體制造資料。舉例來說,其中一個解決方案是Apache Hadoop,這是一種開放源碼軟體架構,用于儲存及處理分散于硬體商品叢集上的大量資料。其概念可兼顧大量資料儲存,同時以更低的成本,加速完成資料處理。此開放源碼軟體平臺,主要包含Hadoop分散式檔案系統(HDFS)和運算架構,可于分散式檔案系統上平行運算。Hadoop分散式檔案系統,可從數十擴充到數千臺伺服器商品,將龐大資料集大范圍散布至本機附加儲存,大幅降低儲存成本。
查詢資料時,運算架構將于大量資料節點上平行處理資料,將掃描大量資料集所需處理時間縮至最短;Hadoop平臺上還有其他輔助技術,可協助有效執行資料消化、儲存、運用結構化的查詢語言(SQL)查詢資料,提供安全性和類似企業資料處理需求。
Hadoop 資料儲存,可解決目前制造環境的多項問題。首先Hadoop分散式檔案系統,可加入低成本的儲存裝置擴充資料儲存,因此成本僅為集中系統資料儲存成本的四分之一。其次,擁有較大的資料儲存,制造作業可保留及查詢的資料集,比傳統集中儲存庫時間更長、范圍更大。目前有些自動化和設備工程系統公司提出要求,希望能查詢最長達兩年的資料,其中所牽涉的問題從變異控管,轉變為更深入的資料分析。
現今公司儲存的資料類型多元,包括事件、量測和影像資料等,并希望能將這些資料開放給一般的追蹤與摘要統計資料。最后,有些公司擁有多座采用自動化和設備工程系統解決方案的晶圓廠,因此需在晶圓廠之間分享及傳送結果,必須找一個集中儲存位置以查詢和挖掘,從多間晶圓廠診斷出結果。
半導體制造可善用巨量資料
半導體設備商目前正開發多個應用程式,以預測技術和近乎即時的資料分析為基礎,改善產能及工具效能。不過,Hadoop雖然為這些應用程式提供分散式資料儲存及處理架構,但卻不足以支援應用程式的需求。
以下的簡短說明,可概要了解Hadoop架構在半導體制造環境中的效用。為取得資料的備援及高可用性,Hadoop將資料檔案以預先定義的區塊大小,分散到數十個資料節點,如圖1所示。假如資料檔案的大小為256MB,而Hadoop區塊大小為128MB,則資料將分割為兩個區塊,每個區塊各128MB,區塊的備援副本將散布到Hadoop叢集上的多個節點。在本例中,須掃描完整檔案查詢,可在兩個平行程序中執行。在資料時間范圍拉長,以及查詢須存取的工具數量持續成長下,使平行程度不斷成長,因此大幅提升資料擷取效率。
圖1 Hadoop 叢集中分散于多個節點的感測器資料。
此架構亦能對須處理大量資料集的查詢進行分割,讓部分查詢可在多個節點上平行執行(表1)。因此即使資料容量擴大,也可大幅縮短查詢的處理時間。假設查詢述詞使用特定的時間范圍和工具集,例如用資料庫中的兩個欄,譬如時間、工具進行篩選。再假設,所需資料來自工具集所儲存的一百個感測器的其中十個。在 Hadoop架構下,查詢引擎將掃描兩個欄中經過壓縮和連續的值,以篩選資料并從十個感測器樣本擷取輸入。引擎將不會處理工具所儲存的另外90%的感測器資料,因此可大幅減少查詢引擎所須掃描的資料量。
表1 Hadoop 叢集中分散于多個節點的感測器資料,查詢處理亦在多個節點上散布平行執行。
Hadoop 是專為大規模儲存及分析所設計,晶圓廠目前多數的資料處理需求,則是獲得小型資料集的最佳效能。其常見使用個案包含傳統報告、模擬和配置功能,這些功能在自動化和設備工程系統內都可找到;添購HDFS須與其他的自動化和設備工程應用程式整合。報告及模擬環境須要從短期和長期的資料儲存位置進行查詢、合并資料,再透過標準介面回報,部分半導體公司并不希望HDFS資料使用新的使用者介面。
半導體公司可透過HDFS存取更大量資料集,并希望能執行進階的資料分析活動。運用更大型資料集的新興解決方案,將可橫跨多個維護事件、橫跨多個工具,執行反應匹配及指紋辨識,亦能將多項叢集分析技巧,套用至追蹤及摘要統計資料,譬如比對正確與錯誤,以及觀察的趨勢,一般而言,這需一年以上的資料才有效。
添購Hadoop基礎設施,加入自動化和設備工程系統,仍有其挑戰。尤其相較于關聯式資料庫系統,半導體產業對Hadoop基礎設施較不熟悉,也無同樣深入的經驗。為能普及運用,Hadoop系統執行查詢及報告的效能,必須跟上關聯式系統的水平。再加上其基礎設施有著不同于關聯式系統的要求,而在半導體公司采用這些解決方案的同時,也須提供資料安全性模式和受控制資料存取等功能。
運用Hadoop平臺執行大規模分析資料處理,有潛力可解決半導體產業資料爆炸性成長的問題,其低成本的儲存與資料處理,能收集大量的感測器資料,若要能運用這些資料,便須開發出合適的資料格式、架構和查詢引擎,半導體制造商才能善加利用。