隨著人工智能的應用越來越廣泛,人們發現很難駕馭,對于采用人工智能的承諾在很大程度上還沒有實現。雖然人工智能相關技術仍在不斷涌現,但并未成為所承諾的那樣成為一種普遍力量。以下查看一下令人信服的統計數據,以證實人工智能技術的發展:
自2000年以來,人工智能創業公司數量增加了14倍。
自2000年以來,風險投資公司對人工智能初創企業的投資增長了6倍。
自2013年以來,需要人工智能技能的工作比例增長了4.5倍。
截至2017年,Statista公司發布了以下調查結果:截至去年,全球只有5%的企業將人工智能廣泛納入其流程和產品中,32%的企業尚未采用,22%的企業沒有計劃采用。
Filip Pieniewski最近在行業媒體Venturebeat發表的文章中表示:“人工智能的冬天即將來臨”。
如今,這種情況正在發生變化。從表面上看,神經信息處理系統大會(NIPS)會議仍然座無虛席,企業的新聞稿中仍然發布很多關于人工智能的文章,特斯拉公司創始人伊隆?馬斯克仍然致力于開發和研究具有前途的自動駕駛汽車,谷歌公司不斷推動Andrew Ng的線路,認為人工智能產業規模將比電力行業更大。但這種敘述開始讓人質疑。
人們對自動駕駛汽車很感興趣。但在今年春天,一輛自主駕駛車輛撞死一名行人,這引發了人們的質疑,并對自動化系統決策背后的道德規范表示懷疑。自動駕駛車輛問題并不是拯救汽車乘客生命一種簡單的二元選擇,可能將演變成對于良心、情感和感知的爭論,這使機器做出合理決定的路徑變得復雜。
Karen的文章指出:全自動駕駛汽車的夢想可能比人們意識到的還要遙遠。人工智能專家越來越擔心,在自動駕駛系統能夠可靠地避免事故之前,可能需要數年甚至數十年的探索。
Karen解釋說,以歷史作為預測因素,云計算行業和網絡行業在開始以顯著的方式影響人們工作和生活之前花費了大約5年時間,幾乎需要10年的時間才影響市場的重大轉變。人們正在設想人工智能技術的類似時間表。
為了讓每個人都能夠采用,需要一個可擴展的產品和一個可供所有人使用的產品,而不僅僅是數據科學家。該產品需要考慮捕獲數據,準備數據,訓練模型,以及預測的數據生命周期。隨著數據存儲在云中,數據管道可以不斷提取并準備它們來訓練將進行預測的模型。模型需要不斷改進新的訓練數據,這反過來將使模型保持相關性和透明性。這就是目標和承諾。
在沒有重大用例的情況下構建人工智能概念證明
Karen在人工智能初創企業中工作,其所見證的以及與同行討論時都是廣泛的人工智能實驗,涉及多個業務問題,這些問題往往停留在實驗室中。
最近他發布的一篇文章證實了如今人工智能試點項目的普遍性。文章指出,“人工智能技術的供應商經常受到激勵,使他們的技術聽起來比實際能力更強——但暗示著比實際擁有更多的真實世界的吸引力。..。..企業中的大多數人工智能應用只不過是一種試點。”供應商推出銷售營銷解決方案、醫療保健解決方案和人工智能的財務解決方案只是為了驅動人工智能技術得到人們越來越多的關注。在任何給定的行業中,人們發現在銷售人工智能軟件和技術的數百家供應商公司中,只有大約三分之一的公司真正擁有知識和技術開展人工智能的探索和研究。
風險投資商意識到他們可能在一段時間內看不到投資回報。然而,很少有模型進行普遍的實驗只是人工智能尚未準備好迎接廣泛應用的原因之一。
算法可以為此負責嗎?
人們也許聽說過人工智能“黑盒”, 這是一種無法確定決策的方法。這種做法將面向銀行和大型機構,這些機構具有強制執行問責制的合規標準和政策。在系統作為黑盒運行,只要這些算法的創建已經通過審核,并且已經由關鍵利益相關者滿足某些標準,就可能存在對算法的固有信任。鑒于壓倒性的生產算法以及由此產生的意外和有害結果的壓倒性證據,這一概念很快就受到了質疑。由于企業保密措施不當,缺乏足夠的教育和理解,很難批判性地對投入、結果以及為什么會出現這些結果進行檢查,企業的許多簡單系統都像超出了任何有意義審查范圍的黑盒一樣運行。
如今的人工智能行業正處于企業準備就緒的早期階段。人工智能非常有用,可以用于發現并幫助解析大量數據,但是仍然需要人工干預作為評估和處理數據及其結果的指南。
Karen解釋說,如今的機器學習技術可以標記數據以識別洞察力。但是,作為此過程的一部分,如果某些數據被錯誤地標記,或者如果沒有足夠的數據表示,或者存在有問題的數據表示有偏差,則可能會發生錯誤的決策結果。
他還指出目前的流程需要不斷完善:目前,人工智能完全是一種關于決策支持以提供對業務可以得出結論的見解。在人工智能發展的下一階段,它可以實現數據中的自動化操作,還有其他需要解決的問題,如偏見、可解釋性、隱私、多樣性、道德規范和持續模型學習。
Karen以一個人工智能模型為例進行了說明,當圖像標題暴露了通過訓練學到的知識時,可以看到錯誤,這些圖像用他們所包含的對象標記。這表明,人工智能產品需要具有常識世界模型的對象和人才才能真正理解。僅暴露于有限數量的標記對象且訓練集中的有限多樣性將限制這個常識世界模型的有效性。企業需要研究確定模型如何處理其輸入,并以人類可理解的術語得出結論。亞馬遜公司發布了面部識別技術RekogniTIon,這是目前正在生產并獲得許可使用的技術的一個例子,同時其效果存在明顯差距。
算法正義聯盟的創始人Joy Buolamwini呼吁暫停這項技術,聲稱它無效,并且需要更多的監督,呼吁在公開發布這些系統之前將更多的政府標準納入這些類型的系統。
人工智能的主要障礙:心態、文化和遺產
傳統系統轉型是當今許多組織實施人工智能的最大障礙。心態和文化是這些傳統系統的組成部分,它們提供了對已建立的流程、價值觀和業務規則的系統觀點,這些規則不僅包括組織的運作方式,還包括為什么這些根深蒂固的元素會給業務帶來重大障礙的原因,尤其是在目前很好的情況下。因此,很多企業目前沒有動力去放棄基礎設施。
人工智能是業務轉型的一個組成部分,雖然這個主題與人工智能炒作一樣得到了一些人的質疑,但實現重大變革所需的投資和承諾卻猶豫不決。有一些愿意嘗試特定用例的公司,但卻沒有準備好培訓、重新設計流程和改進治理和企業政策的要求。對于被迫進行這些重大投資的大型組織而言,問題不應該是投資回報,而是可持續的競爭優勢。
數據完整性的問題
人工智能如今需要大量數據才能產生有意義的結果,但卻無法利用其他應用程序的體驗。雖然Karen認為行業廠商正在進行的工作是為了克服這些限制,但在以可擴展的方式應用模型之前,需要轉移學習。然而,有些場景可以有效地使用人工智能,例如透露圖像、語音、視頻和翻譯語言的見解。
企業正在學習的重點應放在:
(1)數據的多樣性,包括跨群體的適當表現。
(2)確保創建算法的多樣化體驗、觀點和思考。
(3)優先考慮數據的質量而不是數量
Karen c承認這些都是重要的,特別是隨著偏見的引入以及對數據的信任的降低。例如,土耳其語是一種性別中立的語言,但谷歌翻譯中的人工智能模型在轉譯成英語時錯誤地預測了性別。同樣在癌癥診療中,人們發現人工智能圖像識別只在皮膚白皙的人身上進行訓練。從其計算機視覺示例中,Joy Buolamwini測試了這些人工智能技術,并意識到它們在男性與女性之間以及在膚色較淺與較深的皮膚有效工作的差別。“男性的錯誤率低至1%,黑人女性的錯誤率高達35%。”由于未能使用不同的訓練數據,因此出現了這些問題。
人工智能的概念很簡單,但是通過攝取越來越多的真實世界數據,算法變得更加智能,然而能夠解釋決策變得極其困難。數據可能是不斷變化的,人工智能模型需要過濾器來防止錯誤的標記,例如一個黑人被標記為大猩猩或者將熊貓標記為長臂猿的圖像。依靠錯誤數據做出決策的企業會導致不明智的結果。
幸運的是,鑒于人工智能的初衷,很少有組織正在根據當今的數據做出重大的業務決策。從人們看到的情況來看,大多數解決方案主要是產品推薦和個性化營銷傳播。由此產生的任何錯誤結論都會產生較少的社會影響,至少目前如此。
使用數據做出業務決策并不新鮮,但改變的是使用的結構化和非結構化數據的數量和組合的指數級增長。人工智能使人們能夠持續使用來自其來源的數據,并更快地獲得洞察力。對于具有處理來自不同來源的數據量的能力和結構的企業來說,這是一個機會。但是,對于其他組織而言,大量數據可能代表風險,因為不同的來源和格式使得信息轉換變得更加困難:電子郵件、系統日志、網頁、客戶成績單、文檔、幻燈片、非正式聊天、社交網絡,以及爆炸性的富媒體(如圖像和視頻)。數據轉換仍然是開發清潔數據集的絆腳石,因此也是有效的模型。
偏見比人們意識到的更為普遍
許多商業模式中存在偏差,需要最大程度地降低風險評估,優化目標機會,雖然它們可能產生有利可圖的業務成果,但它們也可能會導致意外后果,從而加大經濟差異。保險公司可以使用位置信息或信用評分數據向客戶收取不同的保險費用。銀行可能會拒絕信用評分較低的潛在客戶,他們已經債務纏身,但可能無力承擔較高的貸款利率。
由于采用人工智能不僅會使現有的偏見持續下去,而且會導致經濟和社會鴻溝的加深,因此對偏見的警惕性越來越高。偏見在當前算法中呈現,以確定再犯的可能性。由一家名為Northpointe的機構創建的修正罪犯的管理分析替代性制裁(COMPAS)。COMPAS的目標是評估庭審聽證會中被告的犯罪風險和預測。在最初的COMPAS研究中使用的問題類型揭示了人類偏見,即該制度延續了對待黑人的建議,他們可能會繼續犯罪,因此對他們采用的法律比白人被告更加嚴厲,而白人繼續重新犯罪在量刑時將被寬大處理。由于沒有公共標準,Northpointe公司創建自己的公平定義,并開發一種沒有第三方評估的算法。
如果這個軟件僅僅像未受過訓練的人在線調查那樣精確,那么人們認為法院在作出判決時應該考慮是否公平。雖然人們嘗試修復現有系統以最大限度地減少這種偏差,但模型對不同數據集進行訓練以防止未來的危害至關重要。
鑒于潛在的商業和社會模型存在潛在風險,企業沒有治理機制來監督不公平或不道德的決策,這些決定將無意中影響最終消費者。這是在道德規范下進行討論的。
日益增長的隱私需求
Karen與強大的研究和數據團隊合作,這些團隊能夠在整個平臺上對用戶的行為進行情境化,不斷研究用戶行為,并了解他們在音樂、主頁、生活方式、新聞等眾多屬性中的傾向。而并沒有嚴格的數據使用標準或規定。隱私被降級為平臺條款和條件的用戶被動協議。
最近的劍橋分析公司和Facebook公司的數據泄露丑聞使個人數據隱私得到了更多人的關注。Equifax公司等主要信貸機構頻繁發生數據泄露事件。因此,數據所有權、同意和錯誤的情境化問題使得其成為一個重要的主題,因為人工智能將繼續解決其問題。歐洲通用數據保護條例(GDPR)于2018年5月25日生效,將改變組織的游戲規則,特別是那些收集、存儲和分析個人用戶信息的組織。它將改變多年來經營業務的規則。個人信息的無節制使用已經達到了頂峰,因為企業現在將認識到在數據使用上存在重大限制。更重要的是,所有權將受到嚴重限制。
人們看到這對廣告推廣的影響。規模高達750億美元的廣告行業預計將在2018~2021年以21%的復合年增長率增長,但仍然面臨Facebook公司和谷歌公司等行業寡頭壟斷的阻礙。如今實施的GDPR法規讓這些廣告科技公司面臨更重大的風險與責任:其利害關系足夠大,以至于廣告商必須非常高度自信,因為對用戶所告知的實際上是合規的。對于最終構成違規的行為似乎有足夠的普遍混淆,人們正在采取廣泛的方法,直到可以準確了解合規性是什么。
雖然法規的監管最終會削弱收入,但至少在目前,移動和廣告平臺行業也面臨著越來越嚴格的審查,因為他們多年來一直將消費者作為實現貨幣化的主題。這與對既定實踐的審查相結合,將迫使行業轉變其在收集、匯總、分析和共享用戶信息方面的做法。
實現隱私需要時間、重大投資(需要更多關注的話題),以及影響組織政策、流程和文化的思維方式的變化。
人工智能與倫理學的必然耦合
人工智能的主要因素確保了社會效益,包括簡化流程、增加便利性、改進產品和服務,以及通過自動化檢測潛在危害。放棄后者意味著可以根據更新的制造流程、服務和評估解決方案、生產以及產品質量來輕松地測量輸入/輸出。
除了個人隱私問題之外,如今人們看到了一些創新的例子,這些創新與不合情理的邊界相悖。如前所述,谷歌公司決定向美國國防部提供人工智能技術以分析無人機拍攝的內容,其目的是在一個名為“Maven計劃”的項目中創建一個復雜的系統來監視城市各個角落。一些員工離職以抗議谷歌公司的決定。
決策者和監管機構需要灌輸新的流程和政策,以正確評估人工智能技術的使用方式、用于什么目的,以及流程中是否存在意外后果。 Karen指出了在確定人工智能算法中數據使用時需要考慮的新問題:
那么人們如何檢測敏感數據字段并對其進行匿名處理,并同時保留數據集的重要功能?人們能否在短期內培訓合成數據作為替代方案?在創建算法時,人們需要問自己:需要哪些數據來提供想要的結果?此外,人們應該創建哪些參數來定義模型中的“公平性”,這意味著處理方式有何不同?如果是這樣,為什么?人們如何在系統中持續監控這一點?
人工智能的冬季可能是為人工智能做好準備的機會
人工智能技術已經走過了漫長的道路,但仍需要更多時間才能發展成熟。在日益增加的自動化和有意識地提高認知計算能力的世界中,即將到來的人工智能的冬天為企業提供了必要的時間來確定人工智能如何適應他們的組織以及想要解決的問題。人工智能即將出現的損失需要在政策、治理及其對個人和社會的影響中加以解決。
人工智能技術在下一次工業革命中的影響要大得多,因為其普遍性將在人們的生活中變得更加微妙。行業專家Geoff Hinton、Fei Fei Lee和Andrew Ng對人工智能的觀點呼吁人工智能重置,因為深度學習尚未證明可擴展。人工智能技術所做出的承諾并沒有減弱,而是對其實際到來的期望被推遲了,可能是5到10年。人們有時間在深度學習、其他人工智能方法以及有效地從數據中提取價值的過程中解決這些問題。商業準備、監管、教育和研究的高潮是實現業務和消費者加速發展的必要條件,并確保建立適當限制技術的監管體系。