精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

CIO如何管理人工智能中的風險

責任編輯:cres 作者:Michael Zammuto |來源:企業網D1Net  2018-03-08 11:06:00 原創文章 企業網D1Net

自動化是未來,但我們需要以開放的眼光和清晰的頭腦進入未來。
 
重大的安全或隱私泄露會給企業帶來危機。上頭條新聞,打官司,有時,首席執行官在國會作證。首席信息官們晝夜不停地工作,得到的卻是解聘書和前程未卜的事業。這樣的事情我們見過不少。
 
來自麻省理工學院和斯坦福大學的研究人員測試了來自主要科技公司的三個以商業版的形式發布的面部分析程序,并將展示這樣的發現——這些軟件帶有明顯的膚色和性別偏見。面部識別程序擅長識別白人男性,但卻無法成功地識別女性(尤其是膚色較深的女性)。即將舉行的公平、問責和透明度會議將全面公布上周的這個爆炸性新聞。
 
偏見有損企業與公眾之間的關系。它會成為批評人士的眾矢之的,他們會將這種事情看作是公司不分擔客戶價值的證據。而且,由于人工智能在投資、醫療保健、貸款和財務決策、就業等方面做出越來越多的決策,人身和財務甚至刑事責任的風險將會增加。
 
在我們開始存儲和傳輸有價值的數據(通常是個人和財務方面的數據)時,我們會造成數據泄露的風險。在人工智能和自動化技術時代,偏見是新的漏洞。人工智能和自動化技術對你的公司戰略至關重要。但隨之而來的是首席信息官和其他領導者必須應對的新風險和問題。
 
創建系統和流程非常重要,它們可以防止偏見蔓延到公司的人工智能軟件中,并在在偏見產生時檢測到它并減少損害。未來幾年的最大挑戰將會是這個,而不是失去工作或人工智能對人身安全的威脅。
 
公開例子
 
軟件程序可能存在偏見,這似乎很奇怪,但原因很簡單。開發人工智能技術的專家是那些將數據輸入到程序中的人。如果他們使用的數據已經包含標準的人為偏差,那么他們的人工智能軟件也會反映這種偏見。這并非有意為之,但不幸的是,在Alexa、Siri或Google Home等系統上開始最初的編程時,它并不是一個主要的考慮因素。
 
有些批評人士希望看到人工智能的交互既是性別上中立的,也是種族上中立的。我們可能希望采用更通用的機器發音,而不是我們已經接觸到的標準女性聲音。這可能有點過了,但觀點是有效的。在將人工智能集成到商業組織中時,我們需要時刻保持警惕,避免出現偏見。
 
避免偏斜的數據集
 
機器學習的優勢之一在于,與傳統分析方法相比,它可以從相對較小的數據集創建高度引人注目的預測模型。這往往會產生令人興奮且非常有價值的洞察。但是,這些巨大的利益中存在很大的風險。如果我們希望人工智能完全無偏見,我們必須讓它有一個盡可能好的起點。目前的數據集可能已經向基于性別或種族的自動假設偏斜。
 
當我們從頭開始建立人工智能系統,我們必須認識到這一點。數據要完全透明并且不受我們自身偏見的影響。只有這樣,人工智能系統才能夠以不偏不倚的方式為我們提供最好的支持。
 
不斷的訓練和評估
 
一旦系統創建并集成到業務網絡中,工作就無休無止。偏見仍然會隨著時間推移而引入——尤其當新數據輸入到系統中時。有助于實施新系統的員工必須得到適當的培訓。他們必須知道如何尋找我們稱之為偏見蔓延(creeping bias)的東西。隨著系統的發展,它要始終避免人為缺陷。
 
種族和性別多樣性
 
例如,如果一家公司正在引入面部識別軟件,它應對系統進行培訓,使系統能發現公司員工和客戶的多樣性。無論用戶的種族背景如何,它必須能夠識別正確的性別。確保新人工智能項目的技術人員和貢獻者本身就具有多樣性,這是一個好的開端。
 
創意多樣性
 
盡管種族和性別多樣性似乎很容易糾正,但它們并不是唯一可能最終進入人工智能系統的偏見類型。到目前為止,人工智能技術是由一小部分人創建的,他們都擁有博士學位。他們并不能代表普羅大眾。由于這個原因,首席信息官必須意識到這樣的需要——在人工智能程序中建立背景多樣性。
 
隨著這些系統的成熟和發展,在開發過程中讓更多來自廣泛背景的人員參與進來,這是很重要的。這應該包含來自所有領域的創意人士。這個想法是為人工智能軟件提供來自盡可能多的來源的盡可能多的有效信息。這最終會成為人工智能成功融入業務系統的最佳機會。
 
嚴格且持續的測試
 
無論實施團隊如何努力整合新的人工智能系統,仍然存在一些偏見會隨著時間流逝進入流程的風險。為了避免這個,首席信息官們必須引入一個持續的測試和評估軟件的過程。應該為最終用戶提供這樣的工具,這些工具可以在他們所使用的程序中檢測和糾正偏見——一旦他們發現偏見的話。人工智能可能是一種改變游戲規則的商業技術,但前提是我們始終對偏見保持警惕。
 
危機管理和應對——做好準備
 
最后,假設你并不總能把事情弄清楚。積極主動地與法務、企業風險管理、人力資源,公司通信等一起,為處理災難提供實用,久經考驗的計劃。坦誠面對你的偏見。自動化是未來,但我們需要以開放的眼光和清晰的頭腦進入未來。
 
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:人工智能CIO

原創文章 企業網D1Net

x CIO如何管理人工智能中的風險 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

CIO如何管理人工智能中的風險

責任編輯:cres 作者:Michael Zammuto |來源:企業網D1Net  2018-03-08 11:06:00 原創文章 企業網D1Net

自動化是未來,但我們需要以開放的眼光和清晰的頭腦進入未來。
 
重大的安全或隱私泄露會給企業帶來危機。上頭條新聞,打官司,有時,首席執行官在國會作證。首席信息官們晝夜不停地工作,得到的卻是解聘書和前程未卜的事業。這樣的事情我們見過不少。
 
來自麻省理工學院和斯坦福大學的研究人員測試了來自主要科技公司的三個以商業版的形式發布的面部分析程序,并將展示這樣的發現——這些軟件帶有明顯的膚色和性別偏見。面部識別程序擅長識別白人男性,但卻無法成功地識別女性(尤其是膚色較深的女性)。即將舉行的公平、問責和透明度會議將全面公布上周的這個爆炸性新聞。
 
偏見有損企業與公眾之間的關系。它會成為批評人士的眾矢之的,他們會將這種事情看作是公司不分擔客戶價值的證據。而且,由于人工智能在投資、醫療保健、貸款和財務決策、就業等方面做出越來越多的決策,人身和財務甚至刑事責任的風險將會增加。
 
在我們開始存儲和傳輸有價值的數據(通常是個人和財務方面的數據)時,我們會造成數據泄露的風險。在人工智能和自動化技術時代,偏見是新的漏洞。人工智能和自動化技術對你的公司戰略至關重要。但隨之而來的是首席信息官和其他領導者必須應對的新風險和問題。
 
創建系統和流程非常重要,它們可以防止偏見蔓延到公司的人工智能軟件中,并在在偏見產生時檢測到它并減少損害。未來幾年的最大挑戰將會是這個,而不是失去工作或人工智能對人身安全的威脅。
 
公開例子
 
軟件程序可能存在偏見,這似乎很奇怪,但原因很簡單。開發人工智能技術的專家是那些將數據輸入到程序中的人。如果他們使用的數據已經包含標準的人為偏差,那么他們的人工智能軟件也會反映這種偏見。這并非有意為之,但不幸的是,在Alexa、Siri或Google Home等系統上開始最初的編程時,它并不是一個主要的考慮因素。
 
有些批評人士希望看到人工智能的交互既是性別上中立的,也是種族上中立的。我們可能希望采用更通用的機器發音,而不是我們已經接觸到的標準女性聲音。這可能有點過了,但觀點是有效的。在將人工智能集成到商業組織中時,我們需要時刻保持警惕,避免出現偏見。
 
避免偏斜的數據集
 
機器學習的優勢之一在于,與傳統分析方法相比,它可以從相對較小的數據集創建高度引人注目的預測模型。這往往會產生令人興奮且非常有價值的洞察。但是,這些巨大的利益中存在很大的風險。如果我們希望人工智能完全無偏見,我們必須讓它有一個盡可能好的起點。目前的數據集可能已經向基于性別或種族的自動假設偏斜。
 
當我們從頭開始建立人工智能系統,我們必須認識到這一點。數據要完全透明并且不受我們自身偏見的影響。只有這樣,人工智能系統才能夠以不偏不倚的方式為我們提供最好的支持。
 
不斷的訓練和評估
 
一旦系統創建并集成到業務網絡中,工作就無休無止。偏見仍然會隨著時間推移而引入——尤其當新數據輸入到系統中時。有助于實施新系統的員工必須得到適當的培訓。他們必須知道如何尋找我們稱之為偏見蔓延(creeping bias)的東西。隨著系統的發展,它要始終避免人為缺陷。
 
種族和性別多樣性
 
例如,如果一家公司正在引入面部識別軟件,它應對系統進行培訓,使系統能發現公司員工和客戶的多樣性。無論用戶的種族背景如何,它必須能夠識別正確的性別。確保新人工智能項目的技術人員和貢獻者本身就具有多樣性,這是一個好的開端。
 
創意多樣性
 
盡管種族和性別多樣性似乎很容易糾正,但它們并不是唯一可能最終進入人工智能系統的偏見類型。到目前為止,人工智能技術是由一小部分人創建的,他們都擁有博士學位。他們并不能代表普羅大眾。由于這個原因,首席信息官必須意識到這樣的需要——在人工智能程序中建立背景多樣性。
 
隨著這些系統的成熟和發展,在開發過程中讓更多來自廣泛背景的人員參與進來,這是很重要的。這應該包含來自所有領域的創意人士。這個想法是為人工智能軟件提供來自盡可能多的來源的盡可能多的有效信息。這最終會成為人工智能成功融入業務系統的最佳機會。
 
嚴格且持續的測試
 
無論實施團隊如何努力整合新的人工智能系統,仍然存在一些偏見會隨著時間流逝進入流程的風險。為了避免這個,首席信息官們必須引入一個持續的測試和評估軟件的過程。應該為最終用戶提供這樣的工具,這些工具可以在他們所使用的程序中檢測和糾正偏見——一旦他們發現偏見的話。人工智能可能是一種改變游戲規則的商業技術,但前提是我們始終對偏見保持警惕。
 
危機管理和應對——做好準備
 
最后,假設你并不總能把事情弄清楚。積極主動地與法務、企業風險管理、人力資源,公司通信等一起,為處理災難提供實用,久經考驗的計劃。坦誠面對你的偏見。自動化是未來,但我們需要以開放的眼光和清晰的頭腦進入未來。
 
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:人工智能CIO

原創文章 企業網D1Net

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 商都县| 河间市| 都江堰市| 汪清县| 抚顺市| 会宁县| 金昌市| 右玉县| 克什克腾旗| 类乌齐县| 庆城县| 德昌县| 扶绥县| 漯河市| 无锡市| 正定县| 平塘县| 兴城市| 温泉县| 兰考县| 收藏| 全南县| 绵竹市| 宣城市| 象山县| 临朐县| 资溪县| 青冈县| 靖宇县| 大宁县| 娄烦县| 黄陵县| 湖南省| 洪洞县| 荔波县| 青岛市| 简阳市| 津南区| 徐汇区| 玉环县| 夏邑县|