人工智能技術(shù)正在深入到工作環(huán)境中,不僅取代了平凡和重復的人工工作,而且還以其他方式改變了其他的工作。人工智能技術(shù)滲透到業(yè)務的各個方面,并在推動組織戰(zhàn)略。調(diào)研機構(gòu)Gartner公司預測,到2025年,人工智能將成為推動組織基礎設施決策的首要技術(shù)之一。
然而,即使人們對人工智能的興趣上升,關(guān)于這項技術(shù)的一些誤解仍然存在。首席信息官必須識別這些誤區(qū),以便在推動人工智能項目的實施時制定合理的策略或增強現(xiàn)有策略。通過了解人工智能的工作原理和局限性,組織的首席信息官可以更好地利用人工智能技術(shù)來實現(xiàn)業(yè)務價值。
誤區(qū)1:人工智能在冠狀病毒疫情期間是一種奢侈品
事實:即使在冠狀病毒疫情危機中,組織對人工智能的興趣和投資也將繼續(xù)增長。實際上,Gartner公司最近的一項調(diào)查發(fā)現(xiàn),自從發(fā)生疫情以來,24%的組織增加了人工智能投資,42%的組織保持不變。
在疫情持續(xù)蔓延期間,人工智能不僅幫助醫(yī)療保健和政府首席信息官承擔了諸如預測病毒傳播和優(yōu)化應急資源之類的任務,對于各種企業(yè)加快疫情之后的恢復工作也至關(guān)重要。人工智能一直是成本優(yōu)化和業(yè)務連續(xù)性的重要推動者,可以在不中斷業(yè)務的情況下支持收入增長,并改善客戶互動。
盡管人工智能并不是什么靈丹妙藥,但大多數(shù)組織都不能忽視其應對疫情的直接和長期影響的潛力。組織的首席信息官必須積極主動地推廣人工智能,而不是將其作為一種奢侈品,它是一種可用于實際場景的強大技術(shù),例如在疫情蔓延期間和結(jié)束之后更快地分析更多數(shù)據(jù)和增強決策。
誤區(qū)2:不需要采用人工智能策略
事實:人工智能可以應用于各種各樣的業(yè)務問題,但是只有在制定了人工智能戰(zhàn)略的情況下,才能實現(xiàn)變革性的商業(yè)價值。
首席信息官可以通過將業(yè)務優(yōu)先級與市場機會(尤其是那些利用人工智能的力量來增強人類工作的機會)相結(jié)合來最大限度地實現(xiàn)人工智能的價值。首先確定最有前途的人工智能用例,這些用例與戰(zhàn)略計劃和關(guān)鍵業(yè)務功能保持一致,例如使管理任務自動化以騰出更多時間進行創(chuàng)新。定期重新訪問組織采用人工智能的方法,并確保有關(guān)人工智能實施的決策得到研究和審議的支持。
誤區(qū)3:人工智能只能取代平凡而重復的工作
事實:隨著時間的推移,許多技術(shù)已經(jīng)影響了人們的工作方式以及獲得高薪機會所需的技能。因此,某些職業(yè)消失了,而新的職業(yè)卻不斷產(chǎn)生。例如,如今很少有打字員這個職位,就像十年前很少見到社交媒體營銷經(jīng)理一樣。
人工智能技術(shù)有望對人們的工作和學習方式產(chǎn)生重大影響。人工智能不僅有潛力將被認為使平凡或重復的任務實現(xiàn)自動化,而且它還可以通過完成更高價值的任務來幫助改進或改變其他的工作。例如,人工智能可以在幾分鐘內(nèi)閱讀數(shù)千份法律合同,并比律師更快、更少地從中提取所有有用的信息。
組織的首席信息官可以確定人工智能對現(xiàn)有任務的潛在影響,其方法是確定人工智能可以增強或自動化的活動,如項目管理或客戶服務。在人工智能的幫助下,員工可以接受再培訓,更好、更快地完成工作。與員工和利益相關(guān)者進行頻繁而透明的溝通非常重要,以消除對人工智能使用的擔憂,減少負面情緒,幫助團隊為即將到來的變革做好準備。
誤區(qū)4:人工智能和機器學習是相同的
事實:人工智能是計算機工程技術(shù)的總稱。在人工智能有一個主要的分支領域叫做機器學習(ML),它是指機器在沒有明確編程的情況下進行學習的能力。機器學習可以被編排成從數(shù)據(jù)中識別模式,它通常擅長于解決特定的任務。例如,機器學習可用于對電子郵件是否為垃圾郵件進行分類。
同樣,機器學習與深度學習也不相同。深度學習技術(shù)或深度神經(jīng)網(wǎng)絡(DNN)是一種能夠?qū)崿F(xiàn)驚人突破的機器學習。但這并不意味著深度學習是解決人工智能框架下所有問題的最佳技術(shù),也不意味著深度神經(jīng)網(wǎng)絡(DNN)一直是特定挑戰(zhàn)者最成功的人工智能技術(shù)。實際上,使用基于規(guī)則的系統(tǒng)或傳統(tǒng)的機器學習可以有效解決許多當前的人工智能問題。
最新的尖端人工智能技術(shù)并不總是最有效的解決業(yè)務問題的方案。數(shù)據(jù)科學家需要將人工智能技術(shù)視為一個整體,并實施那些最符合商業(yè)模式和目標的技術(shù)。對于復雜的問題,尤其是那些需要更多人類洞察力的問題,最好將深度學習與其他人工智能技術(shù)(如物理模型或圖形)結(jié)合起來。
與利益相關(guān)者交流時,首席信息官必須澄清這些通常互換的術(shù)語,這一點很重要。將對人工智能的整體討論分解為關(guān)于諸如機器學習之類的某種技術(shù)的對話,以展示每種技術(shù)如何解決現(xiàn)實世界中的問題。
誤區(qū)5:人工智能就是關(guān)于算法和模型的技術(shù)
事實:建立和應用機器學習算法來創(chuàng)建預測模型通常是人工智能項目中最簡單的部分。更具挑戰(zhàn)性的部分包括確保用人工智能解決的問題得到很好的定義,收集和管理足夠的正確數(shù)據(jù),而部署是人工智能項目中最困難的部分。事實上,到2023年,至少有50%的IT領導者將努力將他們的人工智能預測項目從概念驗證提升到成熟的生產(chǎn)水平。
組織的首席信息官應通過與主要利益相關(guān)者協(xié)商來專注于定義人工智能將解決的業(yè)務問題。并事先明確組織和管理測試、部署和其他人工智能運營活動所需的人員、流程和工具。
誤區(qū)6:并非所有黑盒人工智能都必須遵守法規(guī)
事實:黑盒人工智能是一種人工智能系統(tǒng),其中輸入和過程對用戶隱藏。根據(jù)客戶隱私、安全性、算法透明性和數(shù)字道德的法規(guī)要求,不同的人工智能的應用對可解釋性有不同的要求。
人工智能產(chǎn)生內(nèi)部使用的見解并不一定需要那么多的解釋性。然而,人工智能做出關(guān)于人員的決定(例如關(guān)于貸款或信貸的資格)需要解釋性。由于道德和法律上的原因,在具有重大后果(例如啟用自動駕駛時)的“閉環(huán)”中做出決策的人工智能對解釋性有很高的要求。
首席信息官必須確保人工智能應用程序符合現(xiàn)有的道德和法規(guī)。為測試和驗證團隊提供支持,這因為他們收集的數(shù)據(jù)將確定對所使用的人工智能應用程序的可解釋性的需求。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責任的權(quán)利。