如果你是一家大型公司,最近的AI熱潮并沒有逃脫你的注意,今天,AI正在協助完成大量與開發和數字相關的任務,從內容生成到自動化和分析。
AI的發展很快,隨著它在很大程度上是一個未經探索的領域,倫理、經濟、社會和法律問題也浮出水面。在關于AI增強內容的知識產權以及AI是否能夠在短期內完全取代人類勞動力(并導致大規模裁員)的激烈討論中,企業希望利用GenAI提供的優勢,同時又是安全的。
正視風險,破除神話
AI的相對新穎性和爆炸性擴散造成了大量的誤解和信息混亂,讓我們來看看與ChatGPT相關的一些常見風險和流傳的神話,看看如何應對或減輕它們。
1.AI的發展速度快于政府對其的監管
在區塊鏈和加密貨幣方面,我們以前就看到過這種情況。AI的發展進程很快,而法律程序和監管程序卻滯后,這造成了一個很難導航的大灰色地帶:大量空白,幾乎沒有先例,這可能會導致企業采用不安全或不道德的方式使用ChatGPT,甚至在未來被認為是非法的。
要解決此問題,你可以創建與在企業中使用ChatGPT有關的明確行為準則,并強制要求員工熟悉它。
這段代碼應該盡可能多地涵蓋使用GenAI的各個方面,例如,它應該包括你的企業中允許使用ChatGPT的任務類型,以及所需的訪問類型。由于該領域有許多空白,最好與值得信賴的專家合作,或者將GenAI實踐的創建和實現外包給具有該領域專業知識的人。
2.關于知識產權、過度分享和隱私風險的辯論
有很多已知的案例,人們試圖用敏感或私人數據訓練AI,或者將其用作分析的輸入。對于這些數據是否對企業外部的人可用,仍存在很大爭議,另一場激烈的辯論是,如何為使用ChatGPT的任何產品賦予知識產權。請記住,如果員工使用他們的個人帳戶使用ChatGPT,結果將是他們的知識產權,而不是你公司的知識產權。
這就是為什么在你的AI相關政策中引入并遵守處理敏感、隱私或受版權保護的信息的規則非常重要。
3.AI發展的不可預測性
這是風險和大量投機的另一個因素。AI在很大程度上仍然是一個空白紙,盡管技術奇點不太可能在短期內成為現實,但仍然重要的是要記住,AI的未來非常不可預測。正因為如此,很難知道我們是否能夠對AI及其未來的發展施加同樣多的控制,另一件很難預測的事情是,我們的工作可能會變得對AI有多大的依賴,這也是一個很大的風險因素。
我們可以通過創建和實現靈活、敏捷的ChatGPT工作流來降低這種風險,這樣的工作流程應該容易擴展,并具有很強的適應發展和法規變化的能力。
4.AI最終將取代人類勞動
這在很大程度上仍然是陰謀論領域,但即使是現在,我們也看到有多少工作可以在AI的幫助下實現自動化,這一神話很容易被任何試圖使用AI來執行更復雜任務的人打破。如今,AI輸出的質量在很大程度上取決于輸入的質量和精度,但要編寫連貫、有用的提示,生成準確和可用的結果,操作員通常需要至少接受過一些使用AI的基本培訓,而且總是需要領域知識。
一方面,快速工程和領域知識的經驗與AI輸出質量之間的關系是直接的,這意味著,要有效地使用AI,需要高效和合格的工作人員。
繞過這個倫理敏感話題的一種方法是,通過增加精確度、覆蓋率、承擔平凡和重復性的任務以及消除由于人為因素而發生的錯誤,推動與ChatGPT相關的工作更多地走向自動化,并增強人工工作。
5.AI相關流程和文檔的復雜性
由于AI仍是未知領域,大多數企業在設法建立清晰且有效的AI工作流程、記錄面向ChatGPT的任務的協議之前,仍需走試錯之路。積累的知識匱乏,讓企業盲目導航。這可能會導致代價高昂的錯誤、效率損失以及時間和資源的浪費。
解決這一問題的最佳解決方案是將AI流程和文檔的實施委托給專家,聘請可靠的內部員工或將這些任務外包給專業人員。
為在軟件開發中使用GenAI構建安全環境的最佳實踐和步驟
實施AI工作的流程應該仔細進行,并牢記這樣的解決方案需要量身定做,并考慮許多與業務和領域相關的細節和上下文,以下是一些最佳實踐,它們將幫助你駕馭這片渾濁的水域。
1.關注用戶同意、數據隱私、安全和合規
了解你所在地區已經針對AI制定了哪些法規,并密切監控政府流程,為即將到來的立法行動做好準備。如果你的產品以基于AI的服務為特色,請確保用戶充分了解這一事實,知道收集了哪些數據,并在使用你的產品之前征得他們的同意。對于開發過程,避免使用敏感、私有或受版權保護的數據來訓練AI或生成輸出。
2. 人機回環實踐
人機回環是一套設計和操作實踐,其中人的判斷被集成到AI驅動的系統和流程中,這種方法限制了任何AI的潛在自主權,并給了你更多的控制和監督,特別是在關鍵的決策點。在AI的決定可能具有突出的倫理、法律或個人影響的情況下,這一概念是必不可少的。
3.負責任的披露和部署
如果你看到與AI相關的工作把你引向了錯誤的方向,你應該隨時準備放棄它,被確定為構成風險的潛在有害的ChatGPT結果和經過訓練的AI模型應該被丟棄并關閉,可能不會對你的其他進程造成太大破壞。
4.透明文檔
如果你希望企業中的每個人都對你使用AI的立場達成一致,那么使用AI的清晰透明的協議、統一的程序、在術語和關鍵點上沒有任何模棱兩可和雙重含義是至關重要的,它還有助于快速讓員工上崗,并大規模引入AI實踐。
5.界定和限制AI參與的范圍
AI的確切參與范圍應該從項目開始就定義,這應該記錄在有關使用ChatGPT的必要文檔中,你需要向所有員工提供這些文檔。允許使用AI的任務應明確規定,禁止使用AI的任務也應明確規定。
6.參與AI社區,提高AI意識和識字能力
如上所述,缺乏積累的知識庫是軟件開發中阻礙ChatGPT相關工作的因素之一。為AI社區做出貢獻,交換想法,分享經驗,對你的企業和社區本身都是有利可圖的。對你的員工進行AI開發方面的教育并提高對與其相關的各種問題的認識也成為必要。
7.透明度和問責制
雖然這是一種更通用的最佳實踐,對任何軟件開發過程都有好處,但它對于AI增強的任務尤其重要,因為這個領域仍然是一個灰色地帶。你應該明確誰對什么負責,每個參與ChatGPT工作的員工都應該知道自己的個人責任,誰是各種具體任務或問題的負責人。
8.持續監測
與任何快速發展的領域一樣,持續的反饋及其納入周期、對ChatGPT生成的輸出的監控、對與AI相關的工作流程、法規和外地發展的審查有助于你改進你的流程并使其盡可能高效,它還將幫助你避免與ChatGPT和其他GenAI相關的許多陷阱。
結論
對于任何數字企業來說,駕馭復雜且快速演變的生成性AI圖景既帶來了前所未有的機遇,也帶來了重大挑戰。
通過解決與ChatGPT和類似技術相關的倫理、法律和實踐問題,并實施最佳實踐框架,企業級公司可以安全有效地利用GenAI的力量,這種方法不僅可以幫助建立一個故障安全的環境,還可以確保AI驅動的創新增強而不是取代人類的專業知識,從而產生更健壯、更高效和更有道德責任感的軟件開發過程。
企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。