然而,患者和醫生對采用AI技術持謹慎態度,60%的美國患者對接受基于AI的診斷和治療感到不安,而醫生則指出,使用像ChatGPT這樣的流行AI工具可能會降低醫療服務的質量。
我所在的公司在嘗試將AI聊天機器人作為醫療機構的可靠工具時,也面臨著與準確性和安全性相關的挑戰。今天,我想分享我們的經驗,并向你保證,這些挑戰不應阻止你利用GenAI來為你的業務帶來收益。
使用現成AI聊天機器人的優缺點
如今,AI聊天機器人廣泛用于簡單的行政任務,如預約安排和提供服務的基本信息,然而,它們在醫療領域的能力遠不止于此。AI聊天機器人可以診斷患者、準備和咨詢治療計劃,并全天候提供其他個性化護理和信息支持,這些任務甚至可以達到專業水平:谷歌的Med•PaLM在回答美國醫學執照考試風格的問題時,已達到了人類專家的水平。
使用AI聊天機器人進行更復雜應用的好處很多。
• 提高醫療服務的覆蓋面。
• 為通常無法獲得醫療幫助的患者提供幫助。
• 減輕醫護人員的負擔。
• 覆蓋更廣泛的患者群體。
盡管有這些好處,許多醫療機構仍然不愿實施AI聊天機器人,原因在于使用未經充分培訓和定制的解決方案存在風險。這些風險通常包括:
• 誤診和錯誤治療。
• 偏見性治療。
• 增加安全專業人員的工作負擔。
• 訴訟、罰款和聲譽損失。
• 數據安全問題。
好消息是,你可以通過訓練AI聊天機器人來減少這些風險的可能性。我們公司經常與希望使用定制AI工具(包括聊天機器人)的客戶合作。有幾種開發實踐可以幫助我們確保所交付的解決方案能夠推動他們的業務發展。
用自有的訓練數據庫定制AI聊天機器人
任何AI解決方案在發布之前都需要經過一組數據的訓練。訓練幫助AI算法學習新信息,并為其即將執行的任務做好準備。通過使用定制的醫療數據進行廣泛訓練,可以幫助聊天機器人提供準確的答案。
幸運的是,醫療機構擁有大量有價值的數據,例如患者請求、治療歷史、醫學研究和測試結果。醫生可以與開發人員合作,創建適合特定機構需求的數據庫。具有AI工作經驗的開發人員可以幫助你:
• 建立并支持一致的數據標注和注釋格式。
• 最小化數據中的偏見風險,以防止AI聊天機器人在工作中出現歧視。
• 匿名化患者數據以確保隱私。
教你的AI聊天機器人說“我不知道”
GenAI工具(如聊天機器人)的一個關鍵問題是幻覺——即AI自信地提供錯誤答案的情況,這些情況發生的原因是算法沒有數據來正確回答用戶的提示,于是開始像一個沒有完成作業的學生一樣表現。
在醫療領域,AI聊天機器人的幻覺可能導致誤診、錯誤治療和患者誤導,所有這些都可能導致訴訟、罰款甚至醫療機構的關閉。
好消息是,你可以通過在提示中添加指令來定制聊天機器人的行為,這些指令可以明確AI在對話中的角色和意圖,促使AI提出更多問題,或在不知道答案時承認并建議用戶聯系醫生。
定制聊天機器人的行為還有助于明確AI聊天機器人與醫療專業人員之間的角色和責任。無論多么智能,聊天機器人都不能替代受過訓練的醫生。你可以指示聊天機器人在獲取到特定癥狀、慢性病或病史信息時,敦促用戶去看醫生。
加強AI聊天機器人的安全性
AI聊天機器人在訓練和使用過程中可能會訪問大量敏感數據,它們收集患者的癥狀和病史,管理測試結果,促進醫生與患者之間的溝通等。實施能夠幫助保護醫療數據及其訪問權限的功能,有助于增加患者對聊天機器人的信任,并確保符合HIPAA、PIPEDA、GDPR等數據保護法律法規的要求。
有幾種方法可以提高AI聊天機器人的安全性。
• 限制聊天機器人訪問敏感記錄的權限,使其只能與所需數據進行交互。
• 最小化聊天機器人存儲的個人健康信息數量。
• 對AI聊天機器人從患者處收集的數據實施加密算法。
• 明確聊天機器人可以與哪些員工和用戶角色共享敏感信息的列表。
此外,定期測試AI聊天機器人的保護措施及其對惡意請求的響應也是個好主意。GenAI是一種快速發展的技術,黑客不斷發明新的方式來濫用它。定期審計有助于確保你的醫療數據在長期內保持受保護狀態。
在我們公司為處理敏感數據的客戶開發任何AI聊天機器人時,我們總是將這些實踐納入開發過程。經驗豐富的AI開發人員已經找到了在高風險行業中使用AI的解決方案。借助這些經驗,醫療機構可以專注于利用AI提升服務質量和改善患者護理。
企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,旗下運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。旗下運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。