如今的信息安全形勢十分復雜,而很多企業(yè)在將人工智能/機器學習添加到安全軟件組合的過程中可能會遇到一些麻煩。或者企業(yè)在選擇合適的供應商時希望得到更好的服務。
大多數(shù)首席信息安全官相信采用人工智能和機器學習技術,在未來3到5年內(nèi)可能改變信息安全領域。事實上,安全軟件供應商都希望采用或正在采用人工智能,就好像其具有神奇的屬性一樣。但糟糕的是,許多供應商并沒有自己的人工智能的產(chǎn)品。
調(diào)研機構(gòu)Gartner公司副總裁兼杰出分析師Anton Chuvakin博士表示,一些安全軟件供應商過度承諾,并且未能實現(xiàn)其人工智能/機器學習實施的好處。
Morphisec公司安全策略副總裁Tom Bain表示,網(wǎng)絡安全廠商的首席信息安全官和首席信息官十分關注人工智能這一術語。他說,“我所知道的一家供應商在其網(wǎng)站主頁上22次提到了人工智能。”
應用人工智能和前沿技術的領導人JT Kostman博士表示,“大多數(shù)聲稱擁有我評估過的人工智能/機器學習能力的公司最終不得不承認,他們的說法只不過是營銷和炒作而已。”
一些供應商夸大或編造人工智能故事的意愿只是問題的一部分。為針對Webroot進行的一項新研究中,近60%的IT受訪者承認,雖然他們知道他們的某些軟件使用了人工智能或機器學習,但他們不確定這意味著什么。此外,只有36%的人確切知道他們的網(wǎng)絡安全供應商如何獲取和更新他們的威脅數(shù)據(jù)。該調(diào)查于2018年11月底到12月初進行,調(diào)查了400名公司董事和IT專業(yè)人員,其中200名在美國,另外200名在日本。
許多專家和人工智能經(jīng)驗豐富的首席安全官強烈要求信息安全領導人加入,這樣在采用人工智能技術時,可以適應更復雜的技術。例如,許多人嚴重低估了正確培訓機器學習模型所需的數(shù)據(jù)量。構(gòu)建數(shù)據(jù)可能需要一段時間。德爾福集團董事長兼創(chuàng)始人Thomas Koulopoulos說,“許多人犯的錯誤是人工智能與算法的復雜性有關。事實并非如此。關鍵是人工智能/機器學習需要大量的數(shù)據(jù)進行訓練。”
Domo公司高級副總裁信任與安全和首席信息官Noml Browne建議,企業(yè)需要為此做好準備,而不必立即投資購買。Browne說,明智的首席安全官正處于人工智能/機器學習的學習階段,他們現(xiàn)在正在盡可能多地研究人工智能技術。他們正在與供應商溝通,以了解產(chǎn)品的功能和局限性。當人工智能展現(xiàn)出更多承諾時,他們將準備好制定出一個基于風險的明智決策。”
為了幫助人們完成此過程,對行業(yè)專家進行采訪和調(diào)查,并列出了與安全供應商探討時提出的10個問題的列表。他們幫助人們區(qū)分良莠不齊的安全軟件產(chǎn)品(也就是說,潛在的有用性與宣傳和炒作無關)。值得一提的是:杰出的技術專家John Omernik接受了此次調(diào)查,這是與供應商討論人工智能/機器學習主題清單的關鍵人物之一。此列表基于這些專家的想法和見解,而Omernik是最重要的貢獻者。
以下是有關基于人工智能/機器學習的安全軟件的11個問題:
1.如何知道訓練數(shù)據(jù)具有代表性?
Booz Allen Hamilton高級首席數(shù)據(jù)科學家Aaron Sant-Miller建議,組織希望知道采用什么數(shù)據(jù)來訓練供應商的模型,以便可以確定該數(shù)據(jù)是否代表其數(shù)據(jù)以及將在網(wǎng)絡中看到的行為。
2.訓練數(shù)據(jù)的新鮮度、清潔度和可學習性如何?
Koulopoulos說,“組織希望知道訓練數(shù)據(jù)集刷新的頻率,隨著時間的推移學習和發(fā)展其檢測能力,以及需要多少數(shù)據(jù)來充分訓練人工智能/機器學習引擎等問題。此外,組織希望了解人工智能系統(tǒng)的學習程度,以及需要多少數(shù)據(jù)來學習和重新學習。”
3.能獲得性能指標嗎?
這是調(diào)查人員最常提出的問題。Kostman說,“供應商應該能夠分享雙盲對照實驗的結(jié)果,這些實驗檢測到世界級的黑客或PEN測試人員試圖破壞系統(tǒng)。”
SignalFX公司首席信息安全官Marzena Fuller解釋說,“確定供應商是否使用機器學習而不僅僅是算法,可以通過測量供應商機器學習模型性能的指標來完成,這些指標還應該描述模型的準確性。”
對于有監(jiān)督的模型,F(xiàn)uller建議采用“混淆矩陣”。她補充說,接近1的值表示高精度。
她說,“評估無監(jiān)督模型的性能更具挑戰(zhàn)性。簇內(nèi)距離的值相對較小,簇間距離的值相對較大,表明該模型對具有離散特性的類項進行分組是有效的。”
4.能得到一個真實的演示嗎?
如果供應商沒有硬性指標,那么考慮放棄這樣的廠商。但是如果還想給他們另一個機會,Chuvakin建議組織可以提出這樣的要求:“可以讓廠商提供一個可以證明人工智能解決方案能夠比安全運營中心(SOC)分析師做出更好決策的案例。”
5.專有模型是否意味著組織不能對其進行自定義?
當供應商聲稱專有的人工智能/機器學習實現(xiàn)將“解決所有問題”時,Omernik建議組織的首席信息安全官和首席安全官詢問“客戶是否可以定制它?如果是這樣,工程師需要什么級別的培訓來進行這些定制?不同的模型可以在相同的數(shù)據(jù)上工作嗎?或者組織的數(shù)據(jù)只能采用與安全產(chǎn)品捆綁在一起的模型進行工作嗎?”這樣的問題。
6.供應商的人工智能/機器學習實施有多靈活?
Omernik建議詢問這些問題以確定實施的靈活性:供應商的人工智能/機器學習實現(xiàn)是否可以處理不同類型的數(shù)據(jù),例如日志、音頻、視頻、事務等?如果是這樣,數(shù)據(jù)集可以一起工作,還是必須分開?
7.人工智能/機器學習解決方案的更新情況如何?
組織希望知道是否需要逐步支付或購買新版本的安全應用程序以獲取更新。還要詢問供應商如何向客戶分發(fā)此類改進,以及集成它們的難度。
8.供應商的解決方案是否會成為組織安全團隊的“黑盒”?
供應商的解決方案就像是一個“黑盒”,其結(jié)果并不是直截了當?shù)摹5墙M織需要知道它是否支持應用最新的人工智能/機器學習工具包以及其團隊如何使用它。“該工具是否可以幫助從業(yè)者了解數(shù)據(jù)的工作原理,并幫助他們擴展對數(shù)據(jù)工程和數(shù)據(jù)科學的理解?還是一種迫使客戶依賴供應商進行更改的黑盒解決方案?供應商應該解答這些問題。”Omernik說。
Chuvakin說,“對于許多客戶來說,黑盒比開放式工具包要好得多。”
9.人工智能將如何整合到組織的產(chǎn)品中?
Koulopoulos說,“它是從內(nèi)部獲得的或構(gòu)建的,還是從一開始就是使用的軟件的一部分?這是對于人工智能持懷疑態(tài)度的組織的警告,如果組織只是使用谷歌的TensorFlow技術,那么并不合格。”
10.組織的系統(tǒng)如何檢測新的攻擊類型?
Kostman說,“組織如何應對所謂的冷啟動問題?機器學習算法需要數(shù)據(jù),就像魚需要水一樣。那么,供應商基于人工智能的系統(tǒng)如何識別不同于以前遇到過的任何威脅呢?”
11.誰擁有這些數(shù)據(jù)?
Browne說,“組織需要十分關注自己的數(shù)據(jù)。人工智能供應商目前的主要目標不是出售,而是要獲得盡可能多的數(shù)據(jù)來測試和改進他們的模型和算法。組織了解自己的數(shù)據(jù)和系統(tǒng)的訪問級別,以及誰擁有最終的人工智能元數(shù)據(jù)非常重要。”
Koulopoulos也同意這一觀點,并提出了類似的觀點,“最大的爭議之一涉及培訓數(shù)據(jù)的所有權(quán),這些數(shù)據(jù)會隨著時間的推移而累積。”
對首席信息安全官的建議
“衡量基于人工智能的解決方案的有效性是組織所做的最重要的事情之一。但要做到這一點,需要這方面的專業(yè)知識。”Fuller 說,”每個公司都應該有數(shù)據(jù)科學家在工作,如果首席信息安全官計劃廣泛采用機器學習解決方案,則應考慮同時聘用數(shù)據(jù)科學家和數(shù)據(jù)工程師。”
Omernik建議,“當組織評價員工時,如果其技術人員具備幫助組織評估基于人工智能的安全產(chǎn)品的知識和培訓,請相信他們。在一些組織中,高管們需要找到一種方法來信任他們的技術人員,他們會與試圖銷售產(chǎn)品的供應商進行溝通.”
他補充說,“組織需要找到或雇傭一個有經(jīng)驗的人員對于供應商在產(chǎn)品的宣傳進行判斷與分析。人工智能/機器學習的人才需求可能會造成經(jīng)驗豐富的技術人員嚴重短缺。因此組織需要考慮如何吸引人才,如何為技術人員提供支持等問題。”
Koulopoulos說,“很多組織可能沒有意識到這一點,將會面臨技術落后的風險。在接下來的3到5年內(nèi),如果組織在人工智能和機器學習用于防御和打擊網(wǎng)絡犯罪方面的知識和經(jīng)驗不足,那么將面臨業(yè)務損失的風險。”