讓我們來看看AI Now 2018報告中的主要建議。
關鍵要點
需要針對具體部門的AI治理和監管方法
今年的報告通過擴大特定部門機構(如美國聯邦航空管理局和國家公路交通安全管理局)的權力來審計和監控基于域的這些技術,從而反映出需要加強人工授精法規。
人工智能系統的發展正在興起,沒有足夠的治理,監督或問責制度來確保這些系統遵守人工智能的道德規范。該報告指出,一般的AI標準和認證模??型如何不能滿足衛生,教育,福利等不同部門的專業知識要求,這是加強監管的關鍵要求。
“我們需要一種特定于行業的方法,該方法不會優先考慮技術,而是專注于在特定領域內的應用”,報告中寫道。
需要對面部識別AI系統更嚴格的監管
人們越來越擔心面部識別技術,因為它們會導致隱私侵犯,大規模監視,種族歧視和其他問題。根據該報告,需要嚴格的監管法律,要求更強的監督,公共透明度和明確的限制。此外,僅提供公告不應成為公司應用這些技術的唯一標準。需要有一個同意的“高門檻”,牢記大規模監視技術的風險和危險。
該報告強調了“影響識別”,一種聲稱能夠檢測個性,內心感受,心理健康等的面部識別子類,取決于面部的圖像或視頻,需要特別注意,因為它是不受管制的。它闡述了這些主張如何沒有足夠的證據支持,并且以不道德和不負責任的方式被濫用。“將影響承認與雇用,獲得保險,教育和警務聯系起來,在個人和社會層面都產生了深刻的風險” ,閱讀報告。
似乎正在這方面取得進展,就像昨天微軟建議科技公司需要發布文件來解釋技術的能力,局限性和后果,以防面部識別系統在公共場合使用。
人工智能治理需要新的方法
該報告指出,技術公司的內部治理結構無法有效實施人工智能系統的問責制。
“政府監管是一個重要組成部分,但人工智能行業的領先企業也需要超越道德準則的內部問責制結構”,報告中寫道。這包括董事會,外部道德咨詢委員會的普通員工代表,以及獨立監督和透明度工作。
需要放棄商業秘密和其他法律索賠
該報告指出,在政府中使用AI和自動決策系統的供應商和開發商應同意放棄任何限制公眾對其軟件進行全面審計和理解的商業秘密或其他法律索賠。根據報告,公司保密法是一個障礙,因為它們很難分析偏見,競爭決策或糾正錯誤。希望在公共部門使用這些技術的公司應該要求供應商在達成協議之前放棄這些索賠。
公司應該保護工人免受道德問題的影響
員工組織和抵制技術以促進問責制和道德決策已經變得很普遍。這些技術公司有責任保護其員工組織,舉報和促進其項目的道德選擇的能力。
“這應該包括明確的政策,確保工人有權知道他們正在做什么,以及在沒有報復或報復的情況下放棄這種工作的能力”,報告中寫道。
在AI產品的廣告中需要更多的事實
該報告強調,圍繞人工智能的炒作導致營銷承諾與實際產品性能之間存在差距,從而給個人和商業客戶帶來風險。
根據報告,人工智能供應商在做出承諾時應該保持高標準,特別是當沒有足夠的信息來說明這些承諾背后的后果和科學證據時。
需要解決工作場所內的排斥和歧視問題
報告指出,技術公司和人工智能領域專注于“管道模型”,旨在培訓和雇用更多員工。
但是,對于技術公司而言,評估工作場所內基于性別,種族等的騷擾等更深層次的問題非常重要。 他們還應該研究排他性文化與他們建立的產品之間的關系,從而建立不會使偏見和歧視長期存在的工具。
“全棧供應鏈”的詳細說明
根據該報告,有必要更好地了解人工智能系統的各個部分以及它所依賴的完整供應鏈,以便更好地追究責任。 “這意味著在產品生命周期中考慮培訓數據,測試數據,模型,應用程序接口(API)和其他組件的來源和使用非常重要”,該文章讀到。
這個過程被稱為人工智能系統的“完整堆棧供應鏈”,這是更負責任的審計形式所必需的。完整的堆棧供應鏈考慮了AI系統的真實環境和勞動力成本。這包括能源使用,內容審核和培訓數據創建的勞動力使用,以及依賴工人維護AI系統。
更多資金和支持訴訟,以及人工智能問題的勞工組織
該報告指出,需要增加對法律補救和公民參與的支持。
這包括向代表因算法決策而獲得豁免社會服務的人的公共倡導者,民間社會組織和支持面臨失業和剝削危險的群體的勞工組織者提供支持。
大學人工智能課程需要擴展到計算機科學學科之外
報告指出,大學課程和教學大綱需要擴大其學科定位。這意味著在大學AI課程中包含社會和人文學科。為了真正發揮社會影響的人工智能,有必要培養計算機科學系的教師和學生,研究社會世界。很多人已經開始實現這一點,例如,Mizhell Baker董事長,Mozilla的聯合創始人談到了技術行業通過引入人文科技來擴展技術技能的必要性。
“擴大人工智能研究的學科定位將確保更深入地關注社會背景,并更加關注當這些系統應用于人類群體時的潛在危害”,該論文寫道。