精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

GenAI面臨的四大風險及其緩解策略

責任編輯:cres 作者:John Bruggeman |來源:企業網D1Net  2024-07-22 15:26:18 原創文章 企業網D1Net

當有人問我,“AI 對企業構成什么風險?”時,我會反問:“你擔心哪種 AI?” 許多領導者不知道AI有多種形式,所以我需要確保我們談論的是同一件事。
 
Naveen Joshi 在一篇很好的《福布斯》文章中討論了定義或分類 AI 的七種方式,他描述了四種主要的 AI 處理類型:反應型、有限記憶型、心智理論型和自我意識型,然后,他提出了三種廣泛的 AI 類型:人工窄智能(ANI)、人工通用智能(AGI)和人工超智能(ASI)。
 
目前只有前兩種 AI 存在。IBM 的 Deep Blue 是反應型的例子(它沒有記憶,必須編程完成所有任務),而 Alexa 和 Siri 是有限記憶 AI 的例子。當人們談論 AI 時,大多數人想到的是有限記憶 AI。
 
當你想到有限記憶 AI 時,你可能不會用這些術語來考慮它。你想到的是使用機器學習(ML)、預測分析(PA)或具有生成預訓練(GPT)接口的大型語言模型(LLM)的工具,例如 ChatGPT。
 
現在我們定義了術語,你可能在思考 GPT 工具(如 ChatGPT、微軟的 Copilot 或谷歌的 Gemini)給你的企業或組織帶來的風險。盡管這個話題已經被廣泛討論過,但我會強調主要風險,然后討論我見過的威脅行為者如何利用它們,以及你可以如何保護你的組織。
 
GPT工具的四大主要風險
 
首先,以下是 GPT 工具的四大主要風險。
 
1. 社交攻擊:像 ChatGPT 這樣的工具可以從簡單的提示中寫出極具說服力的釣魚郵件,其他 GPT 工具可以創建聽起來像真人的釣魚電話或假視頻(付費墻),可以在視頻通話中欺騙人。我們不能再依賴舊的方法來識別釣魚郵件、電話詐騙或視頻深度偽造。
 
2. 準確性:GPT 工具可以給出正確、不正確或介于兩者之間的結果。問題在于 AI 會極為自信地呈現錯誤答案。生成的回答可能是 100% 錯誤的,但聽起來 100% 正確。作為工具的用戶,你必須已經知道答案是對是錯,或者大部分對或錯,而且,如果你認為重復性是準確性的標志,那就再想想吧:你不會每次都得到相同的答案。GPT 工具不是確定性的,這意味著你在問問題之前真的需要知道正確答案。
 
3. 數據隱私:有無數例子表明,員工將敏感或機密的公司數據上傳到開放的 GPT 工具中,這些數據隨后被納入該工具的訓練數據中。《福布斯》撰稿人 Gene Marks 的一篇文章詳細介紹了使用 GPT 工具幫助進行業務流程(如分析電子表格、記錄會議記錄和總結文件)的風險。你需要知道你的數據在哪里,并確保它不會最終進入 AI。
 
數據中毒:由于生成工具需要大數據集,開發者通常在數十億個網站上訓練工具,如 ChatGPT 和 Gemini。谷歌最近與 Reddit 合作,使谷歌搜索結果中更容易包含 Reddit 的內容,這既有利也有弊。好處是所有人類生成的內容現在都可以快速搜索,但壞處是 Reddit 上那些搞笑的、諷刺的和誤導性的帖子也得到了提升。一個例子是谷歌自己的 AI 搜索,當被問到如何讓奶酪更好地粘在披薩上時,返回了 Reddit 上建議在披薩上加入無毒膠水的結果。
 
緩解風險
 
現在我們已經確定了四個風險,如何緩解這些風險?幸運的是,準備充分且對 AI 了解的網絡安全團隊正在應對組織面臨的風險,以下是一些你可以使用的工具。
 
1. 社交攻擊:網絡安全公司已經整合了機器學習和預測分析技術超過十年,以防止釣魚郵件。不要僅依賴安全工具來防止社交工程攻擊,但可以從這里開始。有許多免費的 AI 檢測工具可以幫助確定郵件是否由生成 AI 編寫。事實上,你甚至可以將郵件粘貼到 ChatGPT 中,問它是否編寫了這封郵件。
 
2. 準確性:雖然正在開發監控生成內容的工具,但最好的工具是人工監督。如果在生成 AI 循環中移除人工監督,企業將面臨財務損失。你需要謹慎行事,同時評估 AI 模型的準確性。
 
3. 數據隱私:最小化員工將組織數據上傳到 GPT 系統的風險的解決方案是將政策和治理與數據丟失防護工具結合起來。員工需要知道他們可以和不能上傳到 ChatGPT 和其他生成 AI 工具的內容,因此需要向所有員工傳達 AI 政策。
 
4. 數據中毒:為了幫助防止數據中毒,實施數據清理、定期監控和安全數據處理,這些控制措施是你在任何時候將應用程序暴露在互聯網時所采取的措施。
 
如果你的企業打算采用GenAI,請從這些簡單的步驟開始,這樣,你將能夠更好地控制和受益于AI,而不是創造風險。
 
企業網D1net(hfnxjk.com):
 
國內主流的to B IT門戶,旗下運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。旗下運營19個IT行業公眾號(微信搜索D1net即可關注)。
 
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:GenAI

原創文章 企業網D1Net

x GenAI面臨的四大風險及其緩解策略 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

GenAI面臨的四大風險及其緩解策略

責任編輯:cres 作者:John Bruggeman |來源:企業網D1Net  2024-07-22 15:26:18 原創文章 企業網D1Net

當有人問我,“AI 對企業構成什么風險?”時,我會反問:“你擔心哪種 AI?” 許多領導者不知道AI有多種形式,所以我需要確保我們談論的是同一件事。
 
Naveen Joshi 在一篇很好的《福布斯》文章中討論了定義或分類 AI 的七種方式,他描述了四種主要的 AI 處理類型:反應型、有限記憶型、心智理論型和自我意識型,然后,他提出了三種廣泛的 AI 類型:人工窄智能(ANI)、人工通用智能(AGI)和人工超智能(ASI)。
 
目前只有前兩種 AI 存在。IBM 的 Deep Blue 是反應型的例子(它沒有記憶,必須編程完成所有任務),而 Alexa 和 Siri 是有限記憶 AI 的例子。當人們談論 AI 時,大多數人想到的是有限記憶 AI。
 
當你想到有限記憶 AI 時,你可能不會用這些術語來考慮它。你想到的是使用機器學習(ML)、預測分析(PA)或具有生成預訓練(GPT)接口的大型語言模型(LLM)的工具,例如 ChatGPT。
 
現在我們定義了術語,你可能在思考 GPT 工具(如 ChatGPT、微軟的 Copilot 或谷歌的 Gemini)給你的企業或組織帶來的風險。盡管這個話題已經被廣泛討論過,但我會強調主要風險,然后討論我見過的威脅行為者如何利用它們,以及你可以如何保護你的組織。
 
GPT工具的四大主要風險
 
首先,以下是 GPT 工具的四大主要風險。
 
1. 社交攻擊:像 ChatGPT 這樣的工具可以從簡單的提示中寫出極具說服力的釣魚郵件,其他 GPT 工具可以創建聽起來像真人的釣魚電話或假視頻(付費墻),可以在視頻通話中欺騙人。我們不能再依賴舊的方法來識別釣魚郵件、電話詐騙或視頻深度偽造。
 
2. 準確性:GPT 工具可以給出正確、不正確或介于兩者之間的結果。問題在于 AI 會極為自信地呈現錯誤答案。生成的回答可能是 100% 錯誤的,但聽起來 100% 正確。作為工具的用戶,你必須已經知道答案是對是錯,或者大部分對或錯,而且,如果你認為重復性是準確性的標志,那就再想想吧:你不會每次都得到相同的答案。GPT 工具不是確定性的,這意味著你在問問題之前真的需要知道正確答案。
 
3. 數據隱私:有無數例子表明,員工將敏感或機密的公司數據上傳到開放的 GPT 工具中,這些數據隨后被納入該工具的訓練數據中?!陡2妓埂纷迦?Gene Marks 的一篇文章詳細介紹了使用 GPT 工具幫助進行業務流程(如分析電子表格、記錄會議記錄和總結文件)的風險。你需要知道你的數據在哪里,并確保它不會最終進入 AI。
 
數據中毒:由于生成工具需要大數據集,開發者通常在數十億個網站上訓練工具,如 ChatGPT 和 Gemini。谷歌最近與 Reddit 合作,使谷歌搜索結果中更容易包含 Reddit 的內容,這既有利也有弊。好處是所有人類生成的內容現在都可以快速搜索,但壞處是 Reddit 上那些搞笑的、諷刺的和誤導性的帖子也得到了提升。一個例子是谷歌自己的 AI 搜索,當被問到如何讓奶酪更好地粘在披薩上時,返回了 Reddit 上建議在披薩上加入無毒膠水的結果。
 
緩解風險
 
現在我們已經確定了四個風險,如何緩解這些風險?幸運的是,準備充分且對 AI 了解的網絡安全團隊正在應對組織面臨的風險,以下是一些你可以使用的工具。
 
1. 社交攻擊:網絡安全公司已經整合了機器學習和預測分析技術超過十年,以防止釣魚郵件。不要僅依賴安全工具來防止社交工程攻擊,但可以從這里開始。有許多免費的 AI 檢測工具可以幫助確定郵件是否由生成 AI 編寫。事實上,你甚至可以將郵件粘貼到 ChatGPT 中,問它是否編寫了這封郵件。
 
2. 準確性:雖然正在開發監控生成內容的工具,但最好的工具是人工監督。如果在生成 AI 循環中移除人工監督,企業將面臨財務損失。你需要謹慎行事,同時評估 AI 模型的準確性。
 
3. 數據隱私:最小化員工將組織數據上傳到 GPT 系統的風險的解決方案是將政策和治理與數據丟失防護工具結合起來。員工需要知道他們可以和不能上傳到 ChatGPT 和其他生成 AI 工具的內容,因此需要向所有員工傳達 AI 政策。
 
4. 數據中毒:為了幫助防止數據中毒,實施數據清理、定期監控和安全數據處理,這些控制措施是你在任何時候將應用程序暴露在互聯網時所采取的措施。
 
如果你的企業打算采用GenAI,請從這些簡單的步驟開始,這樣,你將能夠更好地控制和受益于AI,而不是創造風險。
 
企業網D1net(hfnxjk.com):
 
國內主流的to B IT門戶,旗下運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。旗下運營19個IT行業公眾號(微信搜索D1net即可關注)。
 
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:GenAI

原創文章 企業網D1Net

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 竹溪县| 红原县| 高雄县| 聂荣县| 台湾省| 镇远县| 永丰县| 保靖县| 民乐县| 永修县| 丘北县| 缙云县| 玉山县| 嵊泗县| 交口县| 丹寨县| 丰台区| 革吉县| 邛崃市| 永嘉县| 靖边县| 松阳县| 玛多县| 平舆县| 湟中县| 四平市| 蕲春县| 习水县| 道真| 马山县| 乐亭县| 于都县| 龙口市| 公安县| 三门峡市| 钟山县| 呼伦贝尔市| 苍山县| 岢岚县| 青川县| 黎城县|