精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:存儲行業動態 → 正文

AI寒冬將至?行業大咖呼吁重啟AI再出發

責任編輯:zsheng |來源:企業網D1Net  2018-10-15 14:10:13 本文摘自:網易科技

AI仍在繼續興起,盡管它并沒有成為人們所期待的那種廣泛性力量。在過去幾年中,AI領域的發展速度令人震驚。自2000年以來,活躍的AI初創企業數量增加了14倍,風投對AI初創企業的投資增加了6倍,需要AI技能的工作比例增長了4.5倍。

不過,領先的互聯網數據統計機構Statista發布的調查結果顯示,截止2017年,全球只有5%的企業在其流程和產品中廣泛采用了AI,32%的企業尚未采用AI,22%的企業甚至沒有采用AI的計劃。知名AI研究人員菲利普·皮恩尼斯基(Filip Pieniewski)最近在科技媒體Venturebeat上撰文,闡述了他的觀點,宣稱“AI寒冬即將到來。”

皮恩尼斯基說:“我們現在正處于2018年中后期,AI領域的情況已經發生了變化。盡管表面上看似乎并非如此,比如NIPS會議仍然超受歡迎,企業公關團隊在新聞發布會上仍然充斥著AI,美國連續創業家伊隆·馬斯克(Elon Musk)仍在承諾打造無人駕駛汽車,谷歌也始終在推動吳恩達(Andrew Ng)的理念,即AI比電力更強大。但這種敘述已經開始崩潰。”

我們極力宣傳無人駕駛汽車的愿景。今年春天早些時候,一名行人被無人駕駛汽車撞死,這一事件引起了人們的警覺,人們不僅質疑這項技術,還質疑無人駕駛系統決策的背后是否存在道德問題。無人駕駛汽車的問題不是在挽救1個人還是5個人之間做出簡單的二元選擇,而是在演變成一場關于良知、情感和感知的辯論,使機器做出合理決策的道路變得更加復雜。

皮恩尼斯基等人得出的結論是:全自動無人駕駛汽車的夢想可能比我們想象的遙遠得多。AI專家們越來越擔心,無人駕駛系統要想可靠地避免事故,可能還需要數年甚至數十年時間的努力。”

|AI落地只是試點

讓我們以史為鑒來看下,云計算和網絡工業都花了大約5年的時間才開始對人們的生活產生重大影響,而這些行業影響市場的重大轉變也花了近10年時間。我們正在為AI設想一個類似的時間表。正如平臺技術、開源和封閉源系統以及AI技術方面經驗豐富的工程主管凱倫·班尼特(Karen Bennet)解釋的那樣:

“為了讓每個人都能采用,一款產品需要方便可用,需要是能夠擴展至被所有人使用,而不僅僅是服務于數據科學家。該產品將需要考慮數據生命周期中數據捕獲、準備、培訓模型和預測等環節。隨著數據被存儲在云端,數據管道可以不斷地提取,并準備用它們來訓練模型,從而做出預測。模型需要借助新的訓練數據不斷改進,從而保持模型的相關性和透明性。這就是目標和希望。”

我(本文作者杰西·瓊斯(Jessie Jones))和班尼特都來自科技和AI初創企業。我們所見證的以及在AI社區中與同行討論中我們所意識到的是,我們正在眾多商業問題上進行廣泛的實驗,然而這些實驗往往停留在實驗室中。這篇最近的文章證實了當今普遍存在的AI炒作問題:

“AI技術供應商往往會受到激勵,讓他們的技術聽起來比實際中更強,但這也暗示了它們在現實世界中的吸引力比實際上更大……企業中的大多數AI應用程序不過是‘試點’。在AI領域兜售營銷解決方案、醫療保健解決方案和金融解決方案的供應商,基本上只是在測試這項技術。在任何特定的行業中,我們發現,在銷售AI軟件和技術的數百家供應商中,只有大約三分之一的公司具備開發AI所需的技能。”

風投公司意識到,他們可能在一段時間內看不到投資回報。然而,AI還沒有準備好迎接黃金時段的到來,原因之一就在于幾乎無處不在的AI實驗幾乎都沒有看到曙光。

| 算法需要負責任嗎

我們聽說過AI“黑箱”,即研究人員目前還不清楚AI如何做出決策。這種做法是在銀行和大型機構面臨要求問責制的合規標準和政策的情況下出現的。由于系統是作為“黑箱”操作的,只要這些算法的創建經過了審查,并且滿足了關鍵涉眾的一些標準,人們就可能對算法產生固有的信任。

鑒于大量證據表明開發中的算法存在缺陷,以及由此產生意想不到的有害結果,這種觀點很快就引發了爭議。我們的許多簡單系統都像“黑箱”一樣運作,超出了任何有意義的審查范圍,原因包括公司有意保密、缺乏足夠的教育以及缺乏了解如何批判性地檢查輸入、結果,最重要的是,不理解為何會出現這些結果。

班尼特表示:“如今,AI行業正處于企業準備采用的早期階段。AI是非常有用的,可以通過大量的數據進行發現和分析,但是它仍然需要人類的干預作為對數據及其結果進行評估和行動指南。”

AI寒冬將至?行業大咖呼吁重啟AI再出發

圖:截至2017年,全球商業組織中的人工智能的采用水平

班尼特還澄清說,如今的機器學習技術使數據能夠被標記出來,以幫助識別真知灼見。然而,作為這個過程的一部分,如果有些數據被錯誤地標記,或者沒有足夠的數據訓練,亦或者有問題的數據產生偏見,很可能會出現糟糕的決策結果。她還表示,目前的流程仍在不斷完善:“目前,AI都是關于決策支持的,以提供洞察,讓企業可以從中得出結論。在AI發展的下一個階段,AI可將數據中的動作自動化,還有些額外的問題需要解決,比如偏見、可解釋性、隱私性、多樣性、倫理和持續的模型學習等。”

這表明,要想真正理解AI產品,需要有個關于對象和人的常識世界模型,以幫助AI去真正了解它們。一個模型只暴露在有限數量的標記對象和有限種類的訓練中,這將限制這個常識世界模型的有效性。企業需要進行研究,以確定模型如何處理其輸入,并以人類可以理解的方式得出其結論。亞馬遜發布的面部識別技術Rekognition,是目前正在研發和許可使用的AI技術的典型例子,但其有效性存在明顯的差距。

美國公民自由聯盟發布的一項研究稱:“亞馬遜的技術將28名國會議員的照片與罪犯公開的臉部照片混淆了。鑒于亞馬遜積極向美國各地的執法機構推銷自己的Rekognition,這顯示其還遠遠不夠好。”算法正義聯盟(Algorithmic Justice League)的創始人喬伊·布拉馬維尼(Joy Buolamwini)在最近的一次采訪中,呼吁暫停這項技術,稱其無效,并需要更多監管。此外,在這些系統被公開發布之前,政府應該制定更多相關標準。

| 數據的完整性問題

如今的AI需要大量的數據才能產生有意義的結果,但無法利用其他應用程序的經驗。雖然班尼特認為克服這些局限性的工作正取得進展,但是在模型以可擴展的方式應用之前,學習的轉移是有必要的。然而,在某些情況下,AI可以在今天得到有效的應用,比如在圖像、聲音、視頻和翻譯語言方面的洞察力。

企業正在學習應該關注的問題:

1)數據的多樣性,包括適當人群的代表性。

2)在創建算法的過程中確保不同的經驗、觀點和思維。

3)數據質量優先于數量。這些都是非常重要的,特別是隨著偏見的引入,對AI的信任和信心數據都在下降。例如,在土耳其語中屬于中性的語言,谷歌翻譯中的AI模型在將其翻譯成英語時卻錯誤地預測了性別。

此外,癌癥識別AI在圖像識別訓練時只使用皮膚白皙的人照片。從上面的計算機視覺例子中,喬伊·布拉馬維尼(Joy Buolamwini)測試了這些AI技術,并意識到它們在識別男性VS女性或淺色VS深色皮膚方面更有效。識別男性的錯誤率低至1%,而識別深色皮膚女性的錯誤率則高達35%。這些問題的發生是因為沒有使用多樣化的數據進行培訓。

班尼特承認:“AI的概念很簡單,但通過獲取越來越多的真實世界數據,算法會變得越來越聰明,然而要解釋這些決策卻變得極其困難。數據可能會不斷變化,AI模型需要進行過濾,以防止錯誤的標簽,比如將非洲人貼上大猩猩的標簽,或者將熊貓誤認為長臂猿。企業依靠錯誤的數據來做出決策,將導致更加糟糕的結果。”

幸運的是,由于AI的狹義存在,很少有公司會根據今天的數據做出重大商業決策。從我們所看到的情況來看,大多數解決方案主要是產品推薦和個性化營銷溝通。由此得出的任何錯誤結論都不會對社會造成太大影響,至少目前如此。使用數據來進行業務決策并不新鮮,但發生變化的是使用結構化和非結構化數據的數量和組合正呈指數級增長。AI使我們能夠持續性地使用來自他們源頭的數據,并更快地獲得洞察力。對于具有處理來自不同數據源的數據和結構能力的企業來說,這意味著巨大的機會。

然而,對于其他企業來說,大量的數據可能代表著一種風險,因為不同的來源和格式使得轉換信息變得更加困難。這些信息來自電子郵件、系統日志、網頁、客戶記錄、文檔、幻燈片、非正式聊天、社交網絡以及圖像和視頻更豐富的媒體。數據轉換仍然是開發干凈數據集和有效模型的絆腳石。

| 偏見比我們意識到的更普遍

許多商業模型都存在偏見,以最小化風險評估和優化目標機會,雖然它們可能產生有利可圖的商業結果。但眾所周知,它們會導致意想不到的后果,導致個人傷害,加大經濟差距。保險公司可能會利用位置信息或信用評分數據向較貧窮的客戶發放更高的保費。銀行可能會批準信用評分較低的貸款申請,盡管這些人已經負債累累,可能無法負擔更高的貸款利率。

由于AI的引入不僅會使現有的偏見永久存在,而且這些學習模型的結果可能會推廣到加深經濟和社會鴻溝的程度,因此圍繞著偏見的謹慎程度也越來越高。在當前情況下,偏見出現在類似“替代性制裁的懲罰性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,簡稱COMPAS)的算法中。

COMPAS是由名為Northpointe的公司創建的,目的旨在評估審前聽證中被告犯罪行為的風險,并作出預測。COMPAS初步研究中使用的問題類型足以顯示,無意中對待黑人的偏見會在系統中延續。在沒有公共標準可用的情況下,Northpointe得以自己創建公平的定義,并在沒有第三方評估的情況下開發了一種算法。這篇文章證明:一個流行的算法在預測犯罪方面并不比隨機的人更好。

如果這款軟件和未受過訓練的人對在線調查的反應一樣準確,我認為法院在做決定時應該考慮到這一點。班尼特稱:“當我們試圖修復現有系統以最小化這種偏見時,關鍵是要對不同的數據集進行模型訓練,以防止將來產生危害。”由于錯誤模型的潛在風險遍布企業和社會,企業沒有治理機制來監督不公平或不道德的決策,而這些決策將無意中影響最終消費者。

| 對隱私日益增長的需求

我和班尼特都曾在雅虎工作過,我們與強大的研究和數據團隊合作,能夠在我們的平臺上對用戶的行為進行仔細研究。我們不斷地研究用戶行為,了解他們在音樂、主頁、生活方式、新聞等眾多屬性方面的傾向。當時,對數據使用沒有嚴格的標準或規定。隱私被降級為平臺上用戶被動遵守的協議中的條款和條件,與今天的情況類似。

最近的劍橋分析公司濫用Facebook用戶數據丑聞把個人數據隱私問題推到了風口浪尖。主要信貸機構(如Equifax)、最近的Facebook和Google+頻繁發生的數據泄露,繼續加劇了這一問題。2018年5月25日生效的歐洲《通用數據保護條例》(GDPR)將改變企業的游戲規則,特別是那些收集、存儲和分析個人用戶信息的公司。它將改變企業經營多年的商業規則。毫無節制地使用個人信息已經到了緊要關頭,因為企業現在會意識到,數據的使用將受到重大限制。更重要的是,所有權之爭更為激烈。

我們看到了定位廣告的早期效果。這個價值750億美元的行業,預計到2021年將以21%的年復合增長率增長,但仍受到Facebook和谷歌的寡頭壟斷的阻礙,它們獲得了大部分收入。現在,GDPR加大了風險,讓這些廣告技術公司擔負起更多責任。這種風險非常高,以至于(廣告商)必須非常確定,你被告知的內容實際上是符合要求的。對于什么最終會構成違規,似乎存在著足夠多的普遍困惑,人們對此采取了廣泛的方法,直到你能夠準確地了解合規。

盡管監管最終會削弱營收,但至少就目前而言,移動和廣告平臺行業也正面臨著越來越多的審查,這些行業多年來一直在從消費者身上賺錢。這一點,再加上圍繞既定實踐的審查,將迫使行業改變收集、聚合、分析和共享用戶信息的方式。對隱私進行操作需要時間、重大投資以及心態上的改變,這些將影響企業政策、流程和文化。

|AI與倫理道德不可避免的結合

AI的普遍因素確保了社會效益,包括簡化流程、增加便利性、改進產品和服務,以及通過自動化檢測潛在的危害。在最后一點上妥協可能意味著,更容易依據更新的制造過程、服務和評估解決方案、生產和產品質量結果來衡量投入/產出。隨著關于AI的討論和新聞的持續,“AI”這個術語和“倫理”的結合,揭示了越來越嚴重的擔憂,即AI技術在哪些方面會造成社會損害,從而考驗人類的良知和價值觀。

AI寒冬將至?行業大咖呼吁重啟AI再出發

圖:有關AI及其道德標準的討論正在增多

除了個人隱私問題,今天我們看到了一些近乎不合情理的創新例子。如前所述,Rekognition被用于執法和公民監視,而該技術被認為是錯誤的。谷歌決定向美國國防部提供AI技術支持,用于分析無人機拍攝的視頻,目標是幫助創建一個復雜的系統,在名為project Maven的項目中對城市進行監測,許多員工為此發起抗議,甚至不惜辭職。

決策者和監管機構將需要引入新的流程和政策,以恰當地評估AI技術的使用方式、用途和過程中是否會出現意外后果。班尼特指出了AI算法中數據使用的新問題需要考慮,包括如何檢測敏感數據字段并匿名化它們,同時保留數據集的重要特性?我們能在短期內訓練合成數據作為替代品嗎?在創建算法時,我們需要問自己一個問題:我們需要哪些字段來提供我們想要的結果?此外,我們應該創建哪些參數來定義模型中的“公平”,這意味著是否會區別對待兩個個體?如果是這樣,原因是什么?我們如何在我們的系統中持續監控這一點?

|AI寒冬?也許是AI走向更美好未來的良機

AI已經走了很長的路,但還需要更多的時間來成熟。在一個自動化程度和認知計算能力不斷提高的世界里,即將到來的AI寒冬也為企業提供了必要的時間,讓它們來決定如何將AI融入企業中,以及如何利用AI解決面臨的問題。AI面臨問題需要在政策、治理以及對個人和社會的影響方面加以解決。

在下一次工業革命中,AI的影響要大得多,因為它的無處不在將在我們的生活中變得更加微妙。杰夫·辛頓(Geoff Hinton)、李飛飛(Fei Fei Lee)和吳恩達(Andrew Ng)等AI領域的領軍人物,都在呼吁重啟AI,因為深度學習尚未被證明具有可擴展性。AI的前景并沒有減弱,相反,人們對其真正到來的期望被進一步推高,也許還需要5到10年。

我們有時間在深度學習、其他AI方法以及有效從數據中提取價值的過程中研究這些問題。這種商業準備、監管、教育和研究過程的完成對于加快商業和消費者的步伐,確保一個適當約束技術的監管體系到位,以及讓人類在更長時間內掌控科技的監管體系來說都是非常必要的。

標簽:人工智能 智能商業【版權提示】億邦動力網倡導尊重與保護知識產權。未經許可,任何人不得復制、轉載、或以其他方式使用本網站的內容。如發現本站文章存在版權問題,煩請提供版權疑問、身份證明、版權證明、聯系方式等發郵件至[email protected],我們將及時溝通與處理。

關鍵字:行業

本文摘自:網易科技

x AI寒冬將至?行業大咖呼吁重啟AI再出發 掃一掃
分享本文到朋友圈
當前位置:存儲行業動態 → 正文

AI寒冬將至?行業大咖呼吁重啟AI再出發

責任編輯:zsheng |來源:企業網D1Net  2018-10-15 14:10:13 本文摘自:網易科技

AI仍在繼續興起,盡管它并沒有成為人們所期待的那種廣泛性力量。在過去幾年中,AI領域的發展速度令人震驚。自2000年以來,活躍的AI初創企業數量增加了14倍,風投對AI初創企業的投資增加了6倍,需要AI技能的工作比例增長了4.5倍。

不過,領先的互聯網數據統計機構Statista發布的調查結果顯示,截止2017年,全球只有5%的企業在其流程和產品中廣泛采用了AI,32%的企業尚未采用AI,22%的企業甚至沒有采用AI的計劃。知名AI研究人員菲利普·皮恩尼斯基(Filip Pieniewski)最近在科技媒體Venturebeat上撰文,闡述了他的觀點,宣稱“AI寒冬即將到來。”

皮恩尼斯基說:“我們現在正處于2018年中后期,AI領域的情況已經發生了變化。盡管表面上看似乎并非如此,比如NIPS會議仍然超受歡迎,企業公關團隊在新聞發布會上仍然充斥著AI,美國連續創業家伊隆·馬斯克(Elon Musk)仍在承諾打造無人駕駛汽車,谷歌也始終在推動吳恩達(Andrew Ng)的理念,即AI比電力更強大。但這種敘述已經開始崩潰。”

我們極力宣傳無人駕駛汽車的愿景。今年春天早些時候,一名行人被無人駕駛汽車撞死,這一事件引起了人們的警覺,人們不僅質疑這項技術,還質疑無人駕駛系統決策的背后是否存在道德問題。無人駕駛汽車的問題不是在挽救1個人還是5個人之間做出簡單的二元選擇,而是在演變成一場關于良知、情感和感知的辯論,使機器做出合理決策的道路變得更加復雜。

皮恩尼斯基等人得出的結論是:全自動無人駕駛汽車的夢想可能比我們想象的遙遠得多。AI專家們越來越擔心,無人駕駛系統要想可靠地避免事故,可能還需要數年甚至數十年時間的努力。”

|AI落地只是試點

讓我們以史為鑒來看下,云計算和網絡工業都花了大約5年的時間才開始對人們的生活產生重大影響,而這些行業影響市場的重大轉變也花了近10年時間。我們正在為AI設想一個類似的時間表。正如平臺技術、開源和封閉源系統以及AI技術方面經驗豐富的工程主管凱倫·班尼特(Karen Bennet)解釋的那樣:

“為了讓每個人都能采用,一款產品需要方便可用,需要是能夠擴展至被所有人使用,而不僅僅是服務于數據科學家。該產品將需要考慮數據生命周期中數據捕獲、準備、培訓模型和預測等環節。隨著數據被存儲在云端,數據管道可以不斷地提取,并準備用它們來訓練模型,從而做出預測。模型需要借助新的訓練數據不斷改進,從而保持模型的相關性和透明性。這就是目標和希望。”

我(本文作者杰西·瓊斯(Jessie Jones))和班尼特都來自科技和AI初創企業。我們所見證的以及在AI社區中與同行討論中我們所意識到的是,我們正在眾多商業問題上進行廣泛的實驗,然而這些實驗往往停留在實驗室中。這篇最近的文章證實了當今普遍存在的AI炒作問題:

“AI技術供應商往往會受到激勵,讓他們的技術聽起來比實際中更強,但這也暗示了它們在現實世界中的吸引力比實際上更大……企業中的大多數AI應用程序不過是‘試點’。在AI領域兜售營銷解決方案、醫療保健解決方案和金融解決方案的供應商,基本上只是在測試這項技術。在任何特定的行業中,我們發現,在銷售AI軟件和技術的數百家供應商中,只有大約三分之一的公司具備開發AI所需的技能。”

風投公司意識到,他們可能在一段時間內看不到投資回報。然而,AI還沒有準備好迎接黃金時段的到來,原因之一就在于幾乎無處不在的AI實驗幾乎都沒有看到曙光。

| 算法需要負責任嗎

我們聽說過AI“黑箱”,即研究人員目前還不清楚AI如何做出決策。這種做法是在銀行和大型機構面臨要求問責制的合規標準和政策的情況下出現的。由于系統是作為“黑箱”操作的,只要這些算法的創建經過了審查,并且滿足了關鍵涉眾的一些標準,人們就可能對算法產生固有的信任。

鑒于大量證據表明開發中的算法存在缺陷,以及由此產生意想不到的有害結果,這種觀點很快就引發了爭議。我們的許多簡單系統都像“黑箱”一樣運作,超出了任何有意義的審查范圍,原因包括公司有意保密、缺乏足夠的教育以及缺乏了解如何批判性地檢查輸入、結果,最重要的是,不理解為何會出現這些結果。

班尼特表示:“如今,AI行業正處于企業準備采用的早期階段。AI是非常有用的,可以通過大量的數據進行發現和分析,但是它仍然需要人類的干預作為對數據及其結果進行評估和行動指南。”

AI寒冬將至?行業大咖呼吁重啟AI再出發

圖:截至2017年,全球商業組織中的人工智能的采用水平

班尼特還澄清說,如今的機器學習技術使數據能夠被標記出來,以幫助識別真知灼見。然而,作為這個過程的一部分,如果有些數據被錯誤地標記,或者沒有足夠的數據訓練,亦或者有問題的數據產生偏見,很可能會出現糟糕的決策結果。她還表示,目前的流程仍在不斷完善:“目前,AI都是關于決策支持的,以提供洞察,讓企業可以從中得出結論。在AI發展的下一個階段,AI可將數據中的動作自動化,還有些額外的問題需要解決,比如偏見、可解釋性、隱私性、多樣性、倫理和持續的模型學習等。”

這表明,要想真正理解AI產品,需要有個關于對象和人的常識世界模型,以幫助AI去真正了解它們。一個模型只暴露在有限數量的標記對象和有限種類的訓練中,這將限制這個常識世界模型的有效性。企業需要進行研究,以確定模型如何處理其輸入,并以人類可以理解的方式得出其結論。亞馬遜發布的面部識別技術Rekognition,是目前正在研發和許可使用的AI技術的典型例子,但其有效性存在明顯的差距。

美國公民自由聯盟發布的一項研究稱:“亞馬遜的技術將28名國會議員的照片與罪犯公開的臉部照片混淆了。鑒于亞馬遜積極向美國各地的執法機構推銷自己的Rekognition,這顯示其還遠遠不夠好。”算法正義聯盟(Algorithmic Justice League)的創始人喬伊·布拉馬維尼(Joy Buolamwini)在最近的一次采訪中,呼吁暫停這項技術,稱其無效,并需要更多監管。此外,在這些系統被公開發布之前,政府應該制定更多相關標準。

| 數據的完整性問題

如今的AI需要大量的數據才能產生有意義的結果,但無法利用其他應用程序的經驗。雖然班尼特認為克服這些局限性的工作正取得進展,但是在模型以可擴展的方式應用之前,學習的轉移是有必要的。然而,在某些情況下,AI可以在今天得到有效的應用,比如在圖像、聲音、視頻和翻譯語言方面的洞察力。

企業正在學習應該關注的問題:

1)數據的多樣性,包括適當人群的代表性。

2)在創建算法的過程中確保不同的經驗、觀點和思維。

3)數據質量優先于數量。這些都是非常重要的,特別是隨著偏見的引入,對AI的信任和信心數據都在下降。例如,在土耳其語中屬于中性的語言,谷歌翻譯中的AI模型在將其翻譯成英語時卻錯誤地預測了性別。

此外,癌癥識別AI在圖像識別訓練時只使用皮膚白皙的人照片。從上面的計算機視覺例子中,喬伊·布拉馬維尼(Joy Buolamwini)測試了這些AI技術,并意識到它們在識別男性VS女性或淺色VS深色皮膚方面更有效。識別男性的錯誤率低至1%,而識別深色皮膚女性的錯誤率則高達35%。這些問題的發生是因為沒有使用多樣化的數據進行培訓。

班尼特承認:“AI的概念很簡單,但通過獲取越來越多的真實世界數據,算法會變得越來越聰明,然而要解釋這些決策卻變得極其困難。數據可能會不斷變化,AI模型需要進行過濾,以防止錯誤的標簽,比如將非洲人貼上大猩猩的標簽,或者將熊貓誤認為長臂猿。企業依靠錯誤的數據來做出決策,將導致更加糟糕的結果。”

幸運的是,由于AI的狹義存在,很少有公司會根據今天的數據做出重大商業決策。從我們所看到的情況來看,大多數解決方案主要是產品推薦和個性化營銷溝通。由此得出的任何錯誤結論都不會對社會造成太大影響,至少目前如此。使用數據來進行業務決策并不新鮮,但發生變化的是使用結構化和非結構化數據的數量和組合正呈指數級增長。AI使我們能夠持續性地使用來自他們源頭的數據,并更快地獲得洞察力。對于具有處理來自不同數據源的數據和結構能力的企業來說,這意味著巨大的機會。

然而,對于其他企業來說,大量的數據可能代表著一種風險,因為不同的來源和格式使得轉換信息變得更加困難。這些信息來自電子郵件、系統日志、網頁、客戶記錄、文檔、幻燈片、非正式聊天、社交網絡以及圖像和視頻更豐富的媒體。數據轉換仍然是開發干凈數據集和有效模型的絆腳石。

| 偏見比我們意識到的更普遍

許多商業模型都存在偏見,以最小化風險評估和優化目標機會,雖然它們可能產生有利可圖的商業結果。但眾所周知,它們會導致意想不到的后果,導致個人傷害,加大經濟差距。保險公司可能會利用位置信息或信用評分數據向較貧窮的客戶發放更高的保費。銀行可能會批準信用評分較低的貸款申請,盡管這些人已經負債累累,可能無法負擔更高的貸款利率。

由于AI的引入不僅會使現有的偏見永久存在,而且這些學習模型的結果可能會推廣到加深經濟和社會鴻溝的程度,因此圍繞著偏見的謹慎程度也越來越高。在當前情況下,偏見出現在類似“替代性制裁的懲罰性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,簡稱COMPAS)的算法中。

COMPAS是由名為Northpointe的公司創建的,目的旨在評估審前聽證中被告犯罪行為的風險,并作出預測。COMPAS初步研究中使用的問題類型足以顯示,無意中對待黑人的偏見會在系統中延續。在沒有公共標準可用的情況下,Northpointe得以自己創建公平的定義,并在沒有第三方評估的情況下開發了一種算法。這篇文章證明:一個流行的算法在預測犯罪方面并不比隨機的人更好。

如果這款軟件和未受過訓練的人對在線調查的反應一樣準確,我認為法院在做決定時應該考慮到這一點。班尼特稱:“當我們試圖修復現有系統以最小化這種偏見時,關鍵是要對不同的數據集進行模型訓練,以防止將來產生危害。”由于錯誤模型的潛在風險遍布企業和社會,企業沒有治理機制來監督不公平或不道德的決策,而這些決策將無意中影響最終消費者。

| 對隱私日益增長的需求

我和班尼特都曾在雅虎工作過,我們與強大的研究和數據團隊合作,能夠在我們的平臺上對用戶的行為進行仔細研究。我們不斷地研究用戶行為,了解他們在音樂、主頁、生活方式、新聞等眾多屬性方面的傾向。當時,對數據使用沒有嚴格的標準或規定。隱私被降級為平臺上用戶被動遵守的協議中的條款和條件,與今天的情況類似。

最近的劍橋分析公司濫用Facebook用戶數據丑聞把個人數據隱私問題推到了風口浪尖。主要信貸機構(如Equifax)、最近的Facebook和Google+頻繁發生的數據泄露,繼續加劇了這一問題。2018年5月25日生效的歐洲《通用數據保護條例》(GDPR)將改變企業的游戲規則,特別是那些收集、存儲和分析個人用戶信息的公司。它將改變企業經營多年的商業規則。毫無節制地使用個人信息已經到了緊要關頭,因為企業現在會意識到,數據的使用將受到重大限制。更重要的是,所有權之爭更為激烈。

我們看到了定位廣告的早期效果。這個價值750億美元的行業,預計到2021年將以21%的年復合增長率增長,但仍受到Facebook和谷歌的寡頭壟斷的阻礙,它們獲得了大部分收入。現在,GDPR加大了風險,讓這些廣告技術公司擔負起更多責任。這種風險非常高,以至于(廣告商)必須非常確定,你被告知的內容實際上是符合要求的。對于什么最終會構成違規,似乎存在著足夠多的普遍困惑,人們對此采取了廣泛的方法,直到你能夠準確地了解合規。

盡管監管最終會削弱營收,但至少就目前而言,移動和廣告平臺行業也正面臨著越來越多的審查,這些行業多年來一直在從消費者身上賺錢。這一點,再加上圍繞既定實踐的審查,將迫使行業改變收集、聚合、分析和共享用戶信息的方式。對隱私進行操作需要時間、重大投資以及心態上的改變,這些將影響企業政策、流程和文化。

|AI與倫理道德不可避免的結合

AI的普遍因素確保了社會效益,包括簡化流程、增加便利性、改進產品和服務,以及通過自動化檢測潛在的危害。在最后一點上妥協可能意味著,更容易依據更新的制造過程、服務和評估解決方案、生產和產品質量結果來衡量投入/產出。隨著關于AI的討論和新聞的持續,“AI”這個術語和“倫理”的結合,揭示了越來越嚴重的擔憂,即AI技術在哪些方面會造成社會損害,從而考驗人類的良知和價值觀。

AI寒冬將至?行業大咖呼吁重啟AI再出發

圖:有關AI及其道德標準的討論正在增多

除了個人隱私問題,今天我們看到了一些近乎不合情理的創新例子。如前所述,Rekognition被用于執法和公民監視,而該技術被認為是錯誤的。谷歌決定向美國國防部提供AI技術支持,用于分析無人機拍攝的視頻,目標是幫助創建一個復雜的系統,在名為project Maven的項目中對城市進行監測,許多員工為此發起抗議,甚至不惜辭職。

決策者和監管機構將需要引入新的流程和政策,以恰當地評估AI技術的使用方式、用途和過程中是否會出現意外后果。班尼特指出了AI算法中數據使用的新問題需要考慮,包括如何檢測敏感數據字段并匿名化它們,同時保留數據集的重要特性?我們能在短期內訓練合成數據作為替代品嗎?在創建算法時,我們需要問自己一個問題:我們需要哪些字段來提供我們想要的結果?此外,我們應該創建哪些參數來定義模型中的“公平”,這意味著是否會區別對待兩個個體?如果是這樣,原因是什么?我們如何在我們的系統中持續監控這一點?

|AI寒冬?也許是AI走向更美好未來的良機

AI已經走了很長的路,但還需要更多的時間來成熟。在一個自動化程度和認知計算能力不斷提高的世界里,即將到來的AI寒冬也為企業提供了必要的時間,讓它們來決定如何將AI融入企業中,以及如何利用AI解決面臨的問題。AI面臨問題需要在政策、治理以及對個人和社會的影響方面加以解決。

在下一次工業革命中,AI的影響要大得多,因為它的無處不在將在我們的生活中變得更加微妙。杰夫·辛頓(Geoff Hinton)、李飛飛(Fei Fei Lee)和吳恩達(Andrew Ng)等AI領域的領軍人物,都在呼吁重啟AI,因為深度學習尚未被證明具有可擴展性。AI的前景并沒有減弱,相反,人們對其真正到來的期望被進一步推高,也許還需要5到10年。

我們有時間在深度學習、其他AI方法以及有效從數據中提取價值的過程中研究這些問題。這種商業準備、監管、教育和研究過程的完成對于加快商業和消費者的步伐,確保一個適當約束技術的監管體系到位,以及讓人類在更長時間內掌控科技的監管體系來說都是非常必要的。

標簽:人工智能 智能商業【版權提示】億邦動力網倡導尊重與保護知識產權。未經許可,任何人不得復制、轉載、或以其他方式使用本網站的內容。如發現本站文章存在版權問題,煩請提供版權疑問、身份證明、版權證明、聯系方式等發郵件至[email protected],我們將及時溝通與處理。

關鍵字:行業

本文摘自:網易科技

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 凤山市| 班戈县| 宜黄县| 和田县| 平利县| 霍州市| 灵宝市| 姜堰市| 泰和县| 石景山区| 桓台县| 乐都县| 墨竹工卡县| 房产| 梁山县| 肃南| 盐城市| 华宁县| 义马市| 岑巩县| 神农架林区| 阳高县| 专栏| 温州市| 乐山市| 咸阳市| 德江县| 南丹县| 平顶山市| 荥阳市| 四平市| 五指山市| 长乐市| 托里县| 武冈市| 石林| 武夷山市| 炉霍县| 垫江县| 平顺县| 淮北市|