精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:CIO技術探討 → 正文

IT領導者應該避免GenAI的六個弊端

責任編輯:cres 作者:Mary Branscombe |來源:企業網D1Net  2023-12-07 16:15:51 原創文章 企業網D1Net

OpenAI最近宣布的定制ChatGPT版本使每個企業更容易以更多的方式使用GenAI,但有時最好不要這樣做。大西洋兩岸在幾周內舉行了兩次AI安全峰會,對AI的潛在危險提出了質疑,但無論是虛構的殺手機器人的科學威脅,還是關于哪些AI模型可能受到監管的奇怪的具體指導方針,似乎都不會對努力利用現有大量GenAI工具的企業特別有幫助。
 
對GenAI最強烈的抱怨來自作家和藝術家,他們對自己的作品未經許可被用來訓練大型語言模型感到不滿。11月初,好萊塢長達數月的編劇和演員罷工達成和解,要求制片廠做出讓步,限制AI工具取代人類編劇和表演者的方式,但即使是創意產業以外的企業也需要謹慎使用GenAI,這可能會以令人尷尬的方式適得其反,并可能使它們面臨法律訴訟。
 
許多企業將版權列為一個令人擔憂的領域(聯邦貿易委員會似乎也同意這一點);提交一份看起來像是從競爭對手那里復制粘貼的商業計劃可能會有問題,但這并不是你可能遇到的唯一問題。
 
對聲譽的損害
 
微軟最近與《衛報》合作的經歷是一個教科書般的例子,說明了不應該使用具有創造力的AI。《衛報》聲稱,微軟的AI新聞系統自動生成了一份不敏感的民意調查,邀請讀者猜測一名女性的死亡,并將其插入新聞故事中間,這導致了這家科技企業造成了“嚴重的聲譽損害”。
 
但這并不是必應的AI新聞第一次在敏感新聞故事中添加可疑的民意調查,同樣的AI工具還創建了其他民意調查,詢問拒絕殺死一名后來被槍殺的女性是正確還是錯誤的決定,在國家公園發現的人類遺骸是否得到了正確的識別,在火災中失去50所房屋的地區的人們是否真的需要遵循緊急疏散建議,以及讀者是否會因為為其他兒童燒傷受害者籌集資金而對兩名兒童在火災中死亡感到“希望和支持”。
 
由AI驅動的必應聊天中的廣告還包括惡意軟件的鏈接,微軟的AI工具建議前往渥太華的游客在一家食品銀行用餐,突出顯示包括拜登總統在內的一些鮮為人知的網站上關于政客的假新聞,并嚴重混淆了一個新聞故事的細節,以至于它暗示一名女演員襲擊了一名體育教練,而實際上被指控虐待一匹馬的是這名教練。
 
與之前像ChatGPT這樣的GenAI模型犯下的高調錯誤不同的是,律師和醫療專業人員在很大程度上至少有機會在繼續進行之前檢查結果,但這些衛報的民意調查似乎是在微軟的資產上發布的,有數百萬訪問者通過自動化系統發布,無需人工批準。
 
微軟稱這項調查是一個錯誤,并承諾進行調查,但它似乎已經明顯違反了該企業自己關于負責任的AI使用的幾項原則,例如告知人們他們正在與AI系統交互,以及人與AI交互的指導方針,該企業向Azure OpenAI客戶提供的建議告誡稱,不要制作“任何主題的內容”,也不要在“最新、事實準確的信息至關重要的情況下”使用它,這可能包括新聞網站。
 
過度使用AI
 
更廣泛地說,Azure OpenAI的全面透明度說明有助于警告該服務可能會產生不適當或攻擊性的內容,以及不相關、虛假或歪曲可信數據的響應,他們列出了幾種需要避免的情況——政治競選和高度敏感的事件,在這些情況下,使用或濫用可能會對人生機會或法律地位產生影響——以及其他需要謹慎的情況,比如醫療、教育、金融和法律等高風險領域,但限制在特定領域的問題不太可能產生更長的、有問題的回答,而不是開放式的、不受限制的問題。
 
微軟拒絕指出它認為GenAI在哪些領域是不合適的,而是提供了一份客戶正在取得成功的領域的清單:創建內容、總結或改進語言、代碼生成和語義搜索,但該企業的一位發言人確實表示:“在我們的世界里,我們的AI已經變得非常強大,它可以做令人驚嘆的事情。然而,至關重要的是要明白,這項技術是一段旅程,有很大的增長和發展空間,這一區別至關重要。”
 
并不是所有GenAI客戶都明白這一點,由GenAI創造的令人困惑和糟糕的內容已經出現在商業環境中,會議傳記、博客文章和幻燈片可能聽起來令人印象深刻,但被本應更了解情況的經理簽署是沒有意義的。越來越多的專業作家和安全教育工作者提交了此類內容,并輔之以AI圖像,比如手指數量驚人的人。這種空洞的胡言亂語可能會變得令人不安地常見,企業有責任保持警惕,因為聲譽岌岌可危。
 
麻木不仁的評論在內部也同樣不合適,民意調查和測驗讓冗長的會議和團隊聊天變得活躍起來,讓富有創造力的AI根據人們一直在談論的東西來創造它們是很有誘惑力的,例如,如果有人分享了家庭疾病或丟失寵物的細節,這可能會出現嚴重的錯誤。
 
行業情報平臺GlobalData負責顛覆性技術的副項目經理Saurabh Daga指出:“GenAI通常不適合同理心、道德判斷和對人類細微差別的深入理解至關重要的環境。”他列出的敏感領域清單類似于微軟的指導方針:“高風險的決策可能會產生重大的法律、財務或健康相關后果,可能不適合AI。”
 
在多模式模型上做了更多的工作之前,重要的是要謹慎對待在任何情況下混合文本和圖像的GenAI,因為錯誤的標題可能會將完全可以接受的圖片變成令人反感的東西,而且圖像生成模型很容易假設所有護士都是女性,所有CEO都是男性。
 
戴爾技術企業高級AI戰略副總裁馬特·貝克警告說:“尤其是GenAI正在放大以前存在但沒有得到全心全意解決的問題。”戴爾技術企業提供服務,幫助客戶使用Microsoft 365 Copilot或Llama2等開放獲取模型構建AI系統。“以流程和工作流程為例,在人力資源和招聘等領域,算法偏差可能成為一個因素。企業需要誠實地審視他們的衛生狀況、優先事項和數據敏感性,以確保他們將GenAI工具插入到他們獲得最大回報和將風險降至最低的領域。”
 
假設AI總是正確的
 
盡管GenAI工具令人印象深刻,但它們本質上是概率論的,這意味著他們經常會犯錯,危險在于他們產生的東西可能是不準確的、不公平的或冒犯的——但措辭如此自信和令人信服,以至于它溜走了。
 
關鍵是不要期待一個你可以立即使用的結果,并警惕地認識到GenAI可能是有用的錯誤的方式,把它當作一場頭腦風暴式的討論,激發新的想法,而不是什么能為你帶來完美想法的東西。
 
這就是為什么微軟的大多數GenAI工具都采用了Copilot,而不是Autopilot,首席執行官薩蒂亞·納德拉在今年夏天的Inspire大會上表示:“這是為了讓人類進入循環,并以這樣一種方式設計它,即人類始終控制著一名強大的副駕駛,并幫助他們完成每項任務。”學會嘗試提示以獲得更好的結果是采用GenAI的關鍵部分,因此像Copilot Lab這樣的工具可以幫助員工獲得這些技能。
 
同樣,與其試圖自動化流程,不如為你自己的GenAI工具創建工作流,以鼓勵員工試驗和評估AI產生的結果。記住,審查AI建議的人將擁有關于情況的哪些信息 - 以及他們有什么動機來審查結果并檢查任何引用的來源,而不是通過接受第一個選項來節省時間,而不是在沒有確保其準確性和適當性的情況下接受第一個選項。
 
用戶需要足夠好地理解他們從GenAI那里接受的建議和決定,以便知道后果可能是什么,并向其他人證明這些建議和決定是合理的。英國信息專員辦公室警告說:“如果你的企業不解釋AI輔助的決定,它可能面臨監管行動、聲譽損害和公眾的脫離。”
 
每次提供多種選擇,并展示如何解釋建議,以及使用提示來指示大語言模型解釋為什么它會給出特定的回答,這都會有所幫助。除了讓富有創造力的AI引用關鍵信息的來源外,還應考慮如何突出顯示需要仔細檢查的重要元素,如日期、統計數據、政策或所依賴的先例。
 
但歸根結底,這是為了建立一種文化,在這種文化中,GenAI被視為一種有用的工具,仍然需要得到驗證,而不是取代人類的創造力或判斷力。
 
Daga指出:“GenAI或任何其他形式的AI應該被用來增強人類的決策能力,而不是在其局限性可能造成傷害的環境中取代它。人類審查員應該接受培訓,對AI的輸出進行批判性評估,而不僅僅是表面上的接受。”
 
除了一個包括人工審查、鼓勵對AI建議進行實驗和徹底評估的過程之外,還需要設置護欄,以阻止任務在不合適的時候完全自動化。“例如,AI可能會生成企業的新聞發布會,但只有人類編輯才能批準與選定的記者和出版物分享內容。“他補充道。
 
無論是探索新的代碼庫、填充樣板代碼、自動完成函數,還是生成單元測試,GenAI當然也可以使開發人員更有效率,你可以利用這種額外的生產力,但仍然可以決定在沒有人工審查的情況下不會將代碼發布到生產環境中。
 
企業對自己選擇的后果負責,包括在不合適的領域部署AI,科羅拉多州咨詢企業Sagable的全球首席技術官兼創始人安迪·曼表示。“客戶不會僅僅因為‘這是我們AI的錯’就讓你擺脫數據泄露的責任。”
 
隱藏的AI
 
確保負責任地使用該系統至關重要,無論是由員工還是客戶使用,而透明度是其中的重要組成部分。令人尷尬的是,許多出版物使用AI生成的內容,這些內容很容易被發現,因為它的質量很差,但你應該清楚,即使是高質量的內容也是由AI系統產生的,無論是內部會議摘要、營銷信息,還是聊天機器人的回應。為聊天機器人等自動化系統提供“出口”,允許用戶將問題上報給真人。
 
Daga說:“客戶應該可以選擇退出與GenAI的互動,特別是在敏感領域。”
 
假設AI可以解決所有問題
 
隨著GenAI在商業中的使用增加,人們也意識到,人們需要使用自己的判斷來判斷AI所暗示的東西。在去年的DevOps自動化狀況報告中,10名IT員工中有8人這樣認為,在2023年的DevOps自動化和AI研究中,這一比例高達90%多一點。
 
Mann說,這種謹慎是合理的,特別是在可用于生成可預測、期望和可驗證的輸出的特定領域培訓數據有限的情況下,例如在IT運營中,因為培訓數據不足,它容易產生不準確的結果。
 
他警告說:“對于任何處理新問題和未知原因的用例來說,缺少或沒有記錄的知識,GenAI的意義都會降低。如果未公開的人類部落知識是你唯一的潛在投入,那么訓練大語言模型是不可能的。”
 
不過,他確實看到了將GenAI作為助手的機會。他說:“它可以成為一名顧問或積極的專家,通過訓練引擎來了解跨已定義學科和知識存儲的‘已知良好’IT操作是什么樣子,并識別已知問題、診斷已知原因、確定已知的低效,并以已知的補救措施進行響應。”但是,盡管一些看似新的IT問題可以通過熟悉的流程和解決方案來解決,但事先還不清楚哪些是新的。
 
“我們知道AI世代幾乎從來不會說自己不知道什么,相反,當你試圖讓它解決‘未知未知’時,它會拋出誤導性的、虛假的、錯誤的、甚至惡意的結果。”曼恩說。
 
為人類創造更多的工作
 
當然,GenAI產生的內容可能會有所幫助,但因為它很容易創建,它最終也會為那些需要審查它并根據它采取行動的人做更多的工作。
 
小說雜志報告說,收到了如此多低質量的AI編寫的故事,以至于這實際上是一次拒絕服務攻擊。出版商一直在試驗使用AI來復制編輯手稿,但作家和編輯都報告說,建議的編輯往往沒有幫助、無關,或者只是純粹的錯誤——首先,會遇到技術術語、行文風格、復雜的句子結構以及正確但不尋常的用字方面的問題。當你評估GenAI實際上能夠在哪些領域做出貢獻時,要誠實。
 
采用任何AI工具的一個關鍵部分是有一個處理錯誤的過程,而不是每次單獨糾正它們。不要假設GenAI會從錯誤中學習,或者每次都會給你相同的結果。如果這很重要,你需要使用即時工程和過濾器來約束最重要領域的結果。
 
也要準備好在你沒有計劃的領域和過程中使用GenAI,在那里它可能不那么準確。再說一次,透明度是關鍵。員工需要知道企業關于他們何時可以使用GenAI以及如何披露他們正在使用它的政策。你可能還想像在企業聊天系統中一樣,在審計和eDiscovery中包含GenAI使用。
 
企業可能需要更緊迫地開始制定這些政策。在TECHnanalysis Research于2023年春季調查的1000家美國企業中,88%的企業已經在使用GenAI,但在這些早期采用者中,只有7%有正式的政策。
 
在IDC最近一項關于AI機會的研究中,超過25%的商業領袖表示,缺乏AI治理和風險管理是實施和擴展這項技術的挑戰。最初的擔憂是企業數據的保密性,但聲譽損害也應該是優先事項。此外,超過一半的人稱缺乏熟練工人是他們最大的障礙,這通常指的是開發人員和數據工程師,但技術含量較低的商業用戶也將需要技能,以仔細構建他們向AI工具提出的問題,并評估和驗證結果。
 
企業網D1net(hfnxjk.com):
 
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
 
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:IT領導者GenAI

原創文章 企業網D1Net

x IT領導者應該避免GenAI的六個弊端 掃一掃
分享本文到朋友圈
當前位置:CIO技術探討 → 正文

IT領導者應該避免GenAI的六個弊端

責任編輯:cres 作者:Mary Branscombe |來源:企業網D1Net  2023-12-07 16:15:51 原創文章 企業網D1Net

OpenAI最近宣布的定制ChatGPT版本使每個企業更容易以更多的方式使用GenAI,但有時最好不要這樣做。大西洋兩岸在幾周內舉行了兩次AI安全峰會,對AI的潛在危險提出了質疑,但無論是虛構的殺手機器人的科學威脅,還是關于哪些AI模型可能受到監管的奇怪的具體指導方針,似乎都不會對努力利用現有大量GenAI工具的企業特別有幫助。
 
對GenAI最強烈的抱怨來自作家和藝術家,他們對自己的作品未經許可被用來訓練大型語言模型感到不滿。11月初,好萊塢長達數月的編劇和演員罷工達成和解,要求制片廠做出讓步,限制AI工具取代人類編劇和表演者的方式,但即使是創意產業以外的企業也需要謹慎使用GenAI,這可能會以令人尷尬的方式適得其反,并可能使它們面臨法律訴訟。
 
許多企業將版權列為一個令人擔憂的領域(聯邦貿易委員會似乎也同意這一點);提交一份看起來像是從競爭對手那里復制粘貼的商業計劃可能會有問題,但這并不是你可能遇到的唯一問題。
 
對聲譽的損害
 
微軟最近與《衛報》合作的經歷是一個教科書般的例子,說明了不應該使用具有創造力的AI。《衛報》聲稱,微軟的AI新聞系統自動生成了一份不敏感的民意調查,邀請讀者猜測一名女性的死亡,并將其插入新聞故事中間,這導致了這家科技企業造成了“嚴重的聲譽損害”。
 
但這并不是必應的AI新聞第一次在敏感新聞故事中添加可疑的民意調查,同樣的AI工具還創建了其他民意調查,詢問拒絕殺死一名后來被槍殺的女性是正確還是錯誤的決定,在國家公園發現的人類遺骸是否得到了正確的識別,在火災中失去50所房屋的地區的人們是否真的需要遵循緊急疏散建議,以及讀者是否會因為為其他兒童燒傷受害者籌集資金而對兩名兒童在火災中死亡感到“希望和支持”。
 
由AI驅動的必應聊天中的廣告還包括惡意軟件的鏈接,微軟的AI工具建議前往渥太華的游客在一家食品銀行用餐,突出顯示包括拜登總統在內的一些鮮為人知的網站上關于政客的假新聞,并嚴重混淆了一個新聞故事的細節,以至于它暗示一名女演員襲擊了一名體育教練,而實際上被指控虐待一匹馬的是這名教練。
 
與之前像ChatGPT這樣的GenAI模型犯下的高調錯誤不同的是,律師和醫療專業人員在很大程度上至少有機會在繼續進行之前檢查結果,但這些衛報的民意調查似乎是在微軟的資產上發布的,有數百萬訪問者通過自動化系統發布,無需人工批準。
 
微軟稱這項調查是一個錯誤,并承諾進行調查,但它似乎已經明顯違反了該企業自己關于負責任的AI使用的幾項原則,例如告知人們他們正在與AI系統交互,以及人與AI交互的指導方針,該企業向Azure OpenAI客戶提供的建議告誡稱,不要制作“任何主題的內容”,也不要在“最新、事實準確的信息至關重要的情況下”使用它,這可能包括新聞網站。
 
過度使用AI
 
更廣泛地說,Azure OpenAI的全面透明度說明有助于警告該服務可能會產生不適當或攻擊性的內容,以及不相關、虛假或歪曲可信數據的響應,他們列出了幾種需要避免的情況——政治競選和高度敏感的事件,在這些情況下,使用或濫用可能會對人生機會或法律地位產生影響——以及其他需要謹慎的情況,比如醫療、教育、金融和法律等高風險領域,但限制在特定領域的問題不太可能產生更長的、有問題的回答,而不是開放式的、不受限制的問題。
 
微軟拒絕指出它認為GenAI在哪些領域是不合適的,而是提供了一份客戶正在取得成功的領域的清單:創建內容、總結或改進語言、代碼生成和語義搜索,但該企業的一位發言人確實表示:“在我們的世界里,我們的AI已經變得非常強大,它可以做令人驚嘆的事情。然而,至關重要的是要明白,這項技術是一段旅程,有很大的增長和發展空間,這一區別至關重要。”
 
并不是所有GenAI客戶都明白這一點,由GenAI創造的令人困惑和糟糕的內容已經出現在商業環境中,會議傳記、博客文章和幻燈片可能聽起來令人印象深刻,但被本應更了解情況的經理簽署是沒有意義的。越來越多的專業作家和安全教育工作者提交了此類內容,并輔之以AI圖像,比如手指數量驚人的人。這種空洞的胡言亂語可能會變得令人不安地常見,企業有責任保持警惕,因為聲譽岌岌可危。
 
麻木不仁的評論在內部也同樣不合適,民意調查和測驗讓冗長的會議和團隊聊天變得活躍起來,讓富有創造力的AI根據人們一直在談論的東西來創造它們是很有誘惑力的,例如,如果有人分享了家庭疾病或丟失寵物的細節,這可能會出現嚴重的錯誤。
 
行業情報平臺GlobalData負責顛覆性技術的副項目經理Saurabh Daga指出:“GenAI通常不適合同理心、道德判斷和對人類細微差別的深入理解至關重要的環境。”他列出的敏感領域清單類似于微軟的指導方針:“高風險的決策可能會產生重大的法律、財務或健康相關后果,可能不適合AI。”
 
在多模式模型上做了更多的工作之前,重要的是要謹慎對待在任何情況下混合文本和圖像的GenAI,因為錯誤的標題可能會將完全可以接受的圖片變成令人反感的東西,而且圖像生成模型很容易假設所有護士都是女性,所有CEO都是男性。
 
戴爾技術企業高級AI戰略副總裁馬特·貝克警告說:“尤其是GenAI正在放大以前存在但沒有得到全心全意解決的問題。”戴爾技術企業提供服務,幫助客戶使用Microsoft 365 Copilot或Llama2等開放獲取模型構建AI系統。“以流程和工作流程為例,在人力資源和招聘等領域,算法偏差可能成為一個因素。企業需要誠實地審視他們的衛生狀況、優先事項和數據敏感性,以確保他們將GenAI工具插入到他們獲得最大回報和將風險降至最低的領域。”
 
假設AI總是正確的
 
盡管GenAI工具令人印象深刻,但它們本質上是概率論的,這意味著他們經常會犯錯,危險在于他們產生的東西可能是不準確的、不公平的或冒犯的——但措辭如此自信和令人信服,以至于它溜走了。
 
關鍵是不要期待一個你可以立即使用的結果,并警惕地認識到GenAI可能是有用的錯誤的方式,把它當作一場頭腦風暴式的討論,激發新的想法,而不是什么能為你帶來完美想法的東西。
 
這就是為什么微軟的大多數GenAI工具都采用了Copilot,而不是Autopilot,首席執行官薩蒂亞·納德拉在今年夏天的Inspire大會上表示:“這是為了讓人類進入循環,并以這樣一種方式設計它,即人類始終控制著一名強大的副駕駛,并幫助他們完成每項任務。”學會嘗試提示以獲得更好的結果是采用GenAI的關鍵部分,因此像Copilot Lab這樣的工具可以幫助員工獲得這些技能。
 
同樣,與其試圖自動化流程,不如為你自己的GenAI工具創建工作流,以鼓勵員工試驗和評估AI產生的結果。記住,審查AI建議的人將擁有關于情況的哪些信息 - 以及他們有什么動機來審查結果并檢查任何引用的來源,而不是通過接受第一個選項來節省時間,而不是在沒有確保其準確性和適當性的情況下接受第一個選項。
 
用戶需要足夠好地理解他們從GenAI那里接受的建議和決定,以便知道后果可能是什么,并向其他人證明這些建議和決定是合理的。英國信息專員辦公室警告說:“如果你的企業不解釋AI輔助的決定,它可能面臨監管行動、聲譽損害和公眾的脫離。”
 
每次提供多種選擇,并展示如何解釋建議,以及使用提示來指示大語言模型解釋為什么它會給出特定的回答,這都會有所幫助。除了讓富有創造力的AI引用關鍵信息的來源外,還應考慮如何突出顯示需要仔細檢查的重要元素,如日期、統計數據、政策或所依賴的先例。
 
但歸根結底,這是為了建立一種文化,在這種文化中,GenAI被視為一種有用的工具,仍然需要得到驗證,而不是取代人類的創造力或判斷力。
 
Daga指出:“GenAI或任何其他形式的AI應該被用來增強人類的決策能力,而不是在其局限性可能造成傷害的環境中取代它。人類審查員應該接受培訓,對AI的輸出進行批判性評估,而不僅僅是表面上的接受。”
 
除了一個包括人工審查、鼓勵對AI建議進行實驗和徹底評估的過程之外,還需要設置護欄,以阻止任務在不合適的時候完全自動化。“例如,AI可能會生成企業的新聞發布會,但只有人類編輯才能批準與選定的記者和出版物分享內容。“他補充道。
 
無論是探索新的代碼庫、填充樣板代碼、自動完成函數,還是生成單元測試,GenAI當然也可以使開發人員更有效率,你可以利用這種額外的生產力,但仍然可以決定在沒有人工審查的情況下不會將代碼發布到生產環境中。
 
企業對自己選擇的后果負責,包括在不合適的領域部署AI,科羅拉多州咨詢企業Sagable的全球首席技術官兼創始人安迪·曼表示。“客戶不會僅僅因為‘這是我們AI的錯’就讓你擺脫數據泄露的責任。”
 
隱藏的AI
 
確保負責任地使用該系統至關重要,無論是由員工還是客戶使用,而透明度是其中的重要組成部分。令人尷尬的是,許多出版物使用AI生成的內容,這些內容很容易被發現,因為它的質量很差,但你應該清楚,即使是高質量的內容也是由AI系統產生的,無論是內部會議摘要、營銷信息,還是聊天機器人的回應。為聊天機器人等自動化系統提供“出口”,允許用戶將問題上報給真人。
 
Daga說:“客戶應該可以選擇退出與GenAI的互動,特別是在敏感領域。”
 
假設AI可以解決所有問題
 
隨著GenAI在商業中的使用增加,人們也意識到,人們需要使用自己的判斷來判斷AI所暗示的東西。在去年的DevOps自動化狀況報告中,10名IT員工中有8人這樣認為,在2023年的DevOps自動化和AI研究中,這一比例高達90%多一點。
 
Mann說,這種謹慎是合理的,特別是在可用于生成可預測、期望和可驗證的輸出的特定領域培訓數據有限的情況下,例如在IT運營中,因為培訓數據不足,它容易產生不準確的結果。
 
他警告說:“對于任何處理新問題和未知原因的用例來說,缺少或沒有記錄的知識,GenAI的意義都會降低。如果未公開的人類部落知識是你唯一的潛在投入,那么訓練大語言模型是不可能的。”
 
不過,他確實看到了將GenAI作為助手的機會。他說:“它可以成為一名顧問或積極的專家,通過訓練引擎來了解跨已定義學科和知識存儲的‘已知良好’IT操作是什么樣子,并識別已知問題、診斷已知原因、確定已知的低效,并以已知的補救措施進行響應。”但是,盡管一些看似新的IT問題可以通過熟悉的流程和解決方案來解決,但事先還不清楚哪些是新的。
 
“我們知道AI世代幾乎從來不會說自己不知道什么,相反,當你試圖讓它解決‘未知未知’時,它會拋出誤導性的、虛假的、錯誤的、甚至惡意的結果。”曼恩說。
 
為人類創造更多的工作
 
當然,GenAI產生的內容可能會有所幫助,但因為它很容易創建,它最終也會為那些需要審查它并根據它采取行動的人做更多的工作。
 
小說雜志報告說,收到了如此多低質量的AI編寫的故事,以至于這實際上是一次拒絕服務攻擊。出版商一直在試驗使用AI來復制編輯手稿,但作家和編輯都報告說,建議的編輯往往沒有幫助、無關,或者只是純粹的錯誤——首先,會遇到技術術語、行文風格、復雜的句子結構以及正確但不尋常的用字方面的問題。當你評估GenAI實際上能夠在哪些領域做出貢獻時,要誠實。
 
采用任何AI工具的一個關鍵部分是有一個處理錯誤的過程,而不是每次單獨糾正它們。不要假設GenAI會從錯誤中學習,或者每次都會給你相同的結果。如果這很重要,你需要使用即時工程和過濾器來約束最重要領域的結果。
 
也要準備好在你沒有計劃的領域和過程中使用GenAI,在那里它可能不那么準確。再說一次,透明度是關鍵。員工需要知道企業關于他們何時可以使用GenAI以及如何披露他們正在使用它的政策。你可能還想像在企業聊天系統中一樣,在審計和eDiscovery中包含GenAI使用。
 
企業可能需要更緊迫地開始制定這些政策。在TECHnanalysis Research于2023年春季調查的1000家美國企業中,88%的企業已經在使用GenAI,但在這些早期采用者中,只有7%有正式的政策。
 
在IDC最近一項關于AI機會的研究中,超過25%的商業領袖表示,缺乏AI治理和風險管理是實施和擴展這項技術的挑戰。最初的擔憂是企業數據的保密性,但聲譽損害也應該是優先事項。此外,超過一半的人稱缺乏熟練工人是他們最大的障礙,這通常指的是開發人員和數據工程師,但技術含量較低的商業用戶也將需要技能,以仔細構建他們向AI工具提出的問題,并評估和驗證結果。
 
企業網D1net(hfnxjk.com):
 
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
 
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:IT領導者GenAI

原創文章 企業網D1Net

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 德保县| 阜城县| 喀什市| 马鞍山市| 仪陇县| 喀喇沁旗| 常德市| 哈巴河县| 安徽省| 荆门市| 五华县| 万盛区| 湖南省| 都昌县| 井陉县| 黔江区| 郎溪县| 丰宁| 博罗县| 新河县| 舞钢市| 遵义市| 凉城县| 云安县| 福贡县| 乐亭县| 宜黄县| 邹城市| 黑水县| 大洼县| 镇宁| 曲水县| 剑阁县| 华容县| 呼和浩特市| 安西县| 长泰县| 天柱县| 舟山市| 河源市| 芒康县|