人工智能創造商業價值的時代已經到來。事實上,在德勤公司(Deloitte)最近的一項調查中,82%的早期使用人工智能的組織表示,他們從人工智能投資中獲得了經濟回報。
人工智能和相關技術正在改進現有產品,并創造出新產品。這些技術正在優化內部和外部運營工作,幫助組織做出更好的決策,讓員工更具創造力,并去從事具有更高價值的工作,以及帶來多方面的好處。
毫無疑問,88%的公司計劃在未來一年增加對認知技術的支出。
然而,人工智能并不是解決所有業務問題的靈丹妙藥,而且采用人工智能技術絕非易事。以下是企業必須克服的最重大挑戰,然后才能看到部署人工智能技術的積極成果。
數據問題
啟動AI項目的最大障礙是數據。具體而言,就是缺乏那些沒有固有偏見,也沒有侵犯隱私權的可用及相關數據。
根據德勤公司的調查,16%的IT主管將數據問題列為與人工智能相關的最大挑戰,比任何其他問題都要高,39%的受訪者將數據列入前三個令人擔憂的方面。
帕洛阿爾托研究中心(PARC)人工智能研究實驗室負責人Raj Minhas說,許多公司將收集數據作為其日常運營的一部分。“但這些數據可能并非正確的數據。”
在啟動人工智能計劃之前,公司必須認真研究他們擁有的數據,尋找價值較高的領域。
“這就像在路燈附近尋找丟失的鑰匙,而不是在你丟掉鑰匙的地方去尋找,”他說。“我們建議企業回頭看,了解他們能從哪里獲得最大價值,而不是從他們擁有最多數據的地方開始查看。”
另一個問題是沒有合適數量的正確數據。
“我們與許多擁有大型資本基礎設施的客戶合作,比如擁有風力渦輪機和鐵路系統,”他說。“所有這些設備的設計都非常可靠。”因此,當企業嘗試在故障發生之前使用機器語言來預測故障時,他們發現,從這些設備所收集的99.9%的數據都來自其正常運行期間。
“你所關注的是機器的異常行為,”Minhas說。“所以,你擁有很多數據,但這些都是錯誤的數據。”
業務流程方面的挑戰
如何將人工智能技術整合到公司的職能部門中,這是另一個障礙,也被列為德勤公司調查中的第二大問題。
德勤風險與財務咨詢公司(Deloitte Risk and Financial Advisory)分析和數據風險全球主管Vivek Katyal說:“結構性和文化方面的因素仍是阻礙人工智能應用的關鍵因素之一,也是最大的挑戰之一。”“人們仍然在努力理解人工智能帶來的影響,它能做什么,不能做什么。這就像一個可怕的機器人闖入一個組織中,把事情搞得一團糟。”
他說,當人工智能被植入人們已經使用的平臺(如ERP或CRM系統)中時,這種應用就會更容易。事實上,人們可能甚至不知道人工智能技術已經被使用。
“但是,當我們談到人工智能改變業務流程時,它從根本上改變了企業的工作方式和工作內容,并且這是一個有更棘手問題需要解決的領域,”他說。
技術實施方面的挑戰以及技能的短缺
人工智能技術的實施帶來了許多技術挑戰,大多數組織都沒有足夠的人工智能技能來熟練地應對這些挑戰,在德勤公司的調查中,有39%的受訪者將技術問題列為三大挑戰之一,而31%的受訪者將缺乏技能列為三大挑戰之一。此外,69%的受訪者表示AI技能的短缺為中等、嚴重或極為嚴重。
高德納公司(Gartner)分析師Svetlana Sicular說:“目前的情況是,大多數公司無法自己解決這些問題,因為他們沒有這些技能。”一年前,當她與剛剛開始研究AI的企業用戶交談時,大多數企業認為他們將自己構建系統。到了秋末,這個數字發生了變化,現在約有三分之二的企業希望通過在智能企業應用程序中使用嵌入式工具來部署AI。“情況變化很快,”她說。
讓該技術發揮作用是一回事;讓它在實際業務中運轉則是另一回事。
“許多公司都沒有準備好接受機器學習技術的輸出具有概率性這一事實,”Sicular說。“有些結果始終是不正確的。對他們來說,這完全是一種出乎意料的事情,他們需要為例外情況進行設計,并為反饋循環提供一些方法。”
工具和開發的成本
對于那些從零開始構建AI系統的組織來說,人工和技術的成本可能很高。對于那些剛起步的組織來說尤其如此。
紐約州北部的安德森自閉癥中心(Anderson Center for Autism)擁有850名員工,其首席信息官格雷格•保爾克(Gregg Paulk)說:“我最初進入這家公司的時候,我們就走了這條路。”
他表示,建立新的人工智能系統在資金和人員方面都非常昂貴。“我們是一個小型的非營利組織。我們沒有這些開發人員。”因此,對于該中心而言,就像許多小型組織一樣,這意味著必須雇傭一家外包公司來完成這項工作。
“在過去,我們一直在努力做類似的事情,因為費用和開發時間的關系,我們失敗了,”保爾克說。
取而代之,該組織正在將AI工具應用到公司已經使用的系統中。例如,來自Ultimate Software公司的人力資源平臺現在可支持人工智能驅動的工具,讓該組織可對員工進行調查,包括詢問開放式問題,并使用自然語言處理和情感分析功能來智能地分析各種回復。該軟件還建議管理人員采取具體行動來解決員工問題,這已使員工流動率在過去兩年內下降超過三分之一。
“2013年,當他們第一次開始在會議上討論人工智能時,我想,‘這一技術永遠不會使用,’”保爾克說。現在,他對該技術的能力感到“驚訝”,并且該組織已經通過基于云的系統在使用該技術。
“我們自己肯定做不到,”他說。
安德森自閉癥中心的情況并非個案。據德勤公司稱,59%的公司通過企業軟件供應商獲得AI技術。例如,Salesforce Einstein是一個內置的AI工具,可幫助銷售代表確定哪些潛在客戶更有可能轉化為實際買家。
49%的公司使用基于云的AI。許多供應商和云提供商都提供現成的AI服務,因此企業無需構建自己的基礎架構,也無需訓練自己的算法。
這兩種方法都可以降低成本,或者將成本從IT部門轉移到各個業務部門。對于像Salesforce這樣的云應用程序,對物理基礎架構或內部支持工作或管理人員的需求都較少,因為大部分工作都由供應商處理。
領導目標的錯位
不幸的是,高管的價值往往取決于其預算規模和下屬人數。德勤公司的Katyal表示,首席信息官工作是否成功不需要按其下屬人數或預算來衡量,而需要通過其業務優勢來衡量。
首席信息官是否幫助公司降低成本或提高收入?首席信息官是否幫助公司提高了自身所持有數據的價值?他說,這些工作很難衡量,但這種轉變正在開始。 “首席信息官的獎勵機制正在發生變化,盡管速度還不夠快。”
Vic Bhagat親眼目睹了這一變化。他曾在通用電氣(GE)多家機構擔任了20年的首席信息官,之后在易安信公司(EMC)擔任首席信息官,在該公司時其下屬有26,000人。他的下一個首席信息官工作是在威瑞森公司(Verizon),在這里他管理3500人。
他說,當他在更換工作時,人們一直在問他一些錯誤的問題。
“當獵頭公司給我們打電話時,第一個問題是你的團隊有多少人,你的預算是多少,你管理的應用程序有多少?”他說。“這些都是錯誤的衡量指標。這些指標會將錯誤的行為推向錯誤的結果。”
他說,使用人工智能來將業務流程自動化,降低成本,簡化IT運營工作,這些都是對公司有利的結果。
他說,如果做得好,這實際上可以保護就業。“如果我可以將日常瑣碎工作自動化和數字化——人工智能可以做這些工作——我可以讓那些被這一工作解放出來的人員去處理客戶流程工作,將那些工作數字化,然后創造出優異的客戶體驗。”
現在,這些人是創收周期的一部分,而不是業務支出。這可以在預算談判過程中產生重大影響。
“如果我可以將這些人員部署在對業務至關重要的工作上,那么業務人員就會站起來說,你最好不要碰這些人,因為這對我們現在正在做的事情至關重要,”他說。
衡量并證明商業價值
要證明人工智能計劃的商業價值可能具有挑戰性,在德勤公司的調查中,30%的受訪者認為這個商業價值問題是人工智能應用的三大障礙之一。
一個問題是公司通常是先實施該技術,然后尋找其可以解決的問題,而不是從業務需求入手。
“許多組織認為他們需要聘請數據科學家,讓他們來處理數據方面的工作,”位于亞利桑那州坦佩(Tempe)的技術咨詢和系統集成公司Insight的數字創新副總裁馬特•杰克遜(Matt Jackson)說。“但你看不到這對組織產生任何直接影響。”
高德納公司分析師惠特•安德魯斯(Whit Andrews)表示,對于組織來說,基于項目內在性質而不是所使用的技術來衡量商業價值,這是非常重要的。
“你會想說,它改善了客戶體驗,而這就是我們所知道的,”他說。“或者它虛報了我們在維護方面所做的開支,這就是證據。”
法律及監管風險
對于那些關注人工智能的企業來說,法律和監管風險是一個重要問題,特別是那些處于受監管行業的企業。Raghav Nyapati說,一個問題是人工智能算法缺乏透明度,他最近在一家全球十大銀行負責AI項目,現在正在啟動一家金融科技創業公司。
“這個模型是一個黑盒子,”他說。“算法已經改進,但該模型的可解釋性和透明度仍然值得懷疑。”
這使得公司很難向監管機構、客戶、董事會成員和其他利益相關者解釋其決策過程。
“如果出現任何問題,銀行必須支付巨額罰款,”Nyapati說。
網絡安全
根據德勤公司的調查,網絡安全是使用人工智能技術的最大風險。并且企業為了支持其AI計劃而收集信息,而目前已出現許多與信息相關的數據泄露事件。但是,在大多數情況下,這些數據無論如何都會被收集,并且AI應用程序本身并沒有導致黑客攻擊的漏洞。
事實上,AI越來越多地被用來保護企業免受網絡威脅。但是,任何新的軟件或平臺都會帶來新的安全挑戰,而且這些問題通常最初并不明顯。然而,Katyal指出,攻擊者有更容易、更直接的方式來破壞企業安全。
“我不認為人工智能技術會帶來更多風險,”他說。“人們只是更難理解、審查、審計和評估風險是什么,以及風險是如何得到解決。”
但隨著技術變得越來越普遍,惡意的內部人員(或者能夠精確使訓練數據中毒的聰明攻擊者)有可能創建幾乎無法檢測到的且有危險缺陷的算法。
“例如,AI被用于檢測欺詐行為,”國際信息系統審計協會(ISACA) 董事會安全顧問兼主席羅伯•克萊德(Rob Clyde)說。“機器學習技術的欺詐檢測算法已被許多大型信用卡公司使用。但如果我存在惡意,并且可以訓練這一算法,讓它認為在每個月的第13日,所有能被13整除的交易金額都不是欺詐行為,那么我就可以利用這一特點來獲利。”
他說,或者考慮一下自動駕駛汽車。“如果算法被惡意訓練的話,當司機是某個特定的人,它就會撞車——但是對于其他人來說,車輛就能正常運行,那該怎么辦呢?你怎么發現這一情況呢?”
此外,許多AI應用程序都是使用開源庫構建的。
“已經有過在開源軟件中植入惡意代碼的例子,”他說。
道德標準
企業還擔心過早使用人工智能技術會帶來更大的風險。根據德勤公司的調查,32%的受訪者表示道德風險是他們最擔心的三大問題之一,33%的受訪者表示人工智能故障可能導致信任受到損害,39%的受訪者表示人工智能系統在關鍵任務甚至生死攸關的情況下出現故障的可能性。
例如,自動駕駛汽車的一個經典哲學困境,必須決定是直行并撞上一個人,或是轉向并撞上多個人。
“我并沒有解決這一困境,”國際信息系統審計協會的克萊德說。“我聽說制造商提出了這個問題。這是他們正在努力解決的問題,特別是對于在城市駕駛而言。”
這可能是董事會或道德委員會可能需要解決的問題,但首席信息官在這方面可以發揮重要作用。實施人工智能技術的技術人員通常能夠在早期就發現潛在的風險,并需要讓他們可以放心地將這些風險告知首席信息官,以引起他的注意,然后首席信息官可以將這一情況報告給董事會。
“你需要擁有一種人們可以談論道德問題的組織文化,”他說。
他說,首席信息官可能會較多參與高管層或董事會層面對這些問題的討論。“這不僅僅是首席信息官的工作內容。”