“最后一道堡壘已經消失,”谷歌云負責對外產品管理、合作和負責任AI的高級總監特蕾西·皮佐·弗雷(Tracy Pizzo Frey)在一篇BlueSky帖子中寫道,“現在毫無阻礙了。谷歌在這一層面的承諾清晰度上確實獨樹一幟。”修訂后的原則取消了四項具體禁令:可能造成整體傷害的技術;武器應用;監控系統;以及違反國際法和人權的技術。相反,谷歌現在表示將“減輕非故意或有害的結果”,并與“國際法和人權方面廣泛接受的原則”保持一致。
谷歌放寬AI道德標準:這對軍事和監控技術意味著什么
這一轉變發生在AI能力迅速提升,以及關于該技術適當護欄的辯論加劇的敏感時刻。這一時機引發了人們對谷歌動機的質疑,盡管谷歌堅稱這些變化已醞釀了很久。“我們正處于一個對大型科技公司不太信任的狀態,任何看似移除護欄的舉動都會加劇這種不信任,”皮佐·弗雷在接受記者采訪時說。她強調,在她擔任谷歌職務期間,明確的道德界限對于構建值得信賴的AI系統至關重要。
這些原則最初是在2018年員工抗議五角大樓Maven項目時出現的,該項目涉及利用AI分析無人機拍攝的視頻。雖然谷歌最終決定不續簽該合同,但這些新變化可能表明谷歌對類似的軍事合作伙伴持開放態度。此次修訂保留了谷歌先前道德框架的一些元素,但從禁止特定應用轉變為強調風險管理。這種方法與國家標準與技術研究院(NIST)的AI風險管理框架等行業標準更為一致,但批評人士認為,它對潛在有害應用的限制不那么具體。
“即使嚴謹程度不同,但倫理考慮在創造優質AI方面同樣重要,”皮佐·弗雷指出,并強調了倫理考慮如何提高AI產品的有效性和可訪問性。
從Maven項目到政策轉變:谷歌AI倫理改革之路
行業觀察人士表示,這一政策變化可能會影響其他科技公司對待AI倫理的方式。谷歌的原始原則為AI開發中的企業自我監管樹立了先例,許多企業在實施負責任的AI時都以谷歌為指導。這一修改反映了科技行業在快速創新與道德約束之間的更廣泛緊張關系。隨著AI開發的競爭日益激烈,公司在平衡負責任的開發與市場需求方面面臨著壓力。
“我擔心這些產品被快速推向世界,以及如果越來越多的護欄被拆除會怎樣,”皮佐·弗雷說,她表達了對出于競爭壓力而迅速發布AI產品,卻未充分評估潛在后果的擔憂。
大型科技公司的道德困境:谷歌的AI政策轉變是否會樹立新的行業標準?
此次修訂還引發了人們對谷歌內部決策過程的質疑,以及在沒有明確禁令的情況下,員工將如何處理倫理問題。在谷歌任職期間,皮佐·弗雷建立了審查流程,匯集了不同觀點來評估AI應用的可能影響。雖然谷歌仍致力于負責任的AI開發,但取消具體禁令標志著其在此前為AI應用建立明確道德界限的領導角色上發生了重大轉變。隨著AI的不斷發展,該行業正在密切關注這一轉變如何影響AI開發和監管的更廣泛格局。
企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,旗下運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。旗下運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。