這引發了幾個道德問題。例如,預測性警務往往依賴于社區或警察巡邏隊報告的犯罪記錄,這可能導致反饋循環并在已經得到嚴格監管的社區中加強執法。鑒于有報道稱Met的自動面部識別技術誤報率為98%,因此對準確性也存在擔憂。因此,我們必須小心警方資源被用于實際威脅,而不是被感知的威脅。
我們都知道,與人類一樣,技術也會犯錯誤,并且經常會對有色人種和女性表現出不公平的偏見。美國的風險評估算法,例如美國的替代性制裁懲教罪犯管理資料(Correctional Offender Management Profiling for Alternative Sanctions ,COMPAS)被發現間接含有強烈的種族偏見,這意味著黑人被告被錯誤分類的可能性幾乎是同等情況的白人的兩倍。對于那些因為這些系統的大規模應用而處于不利地位的人來說,這不僅僅是不道德的,也是不可接受的。
面部識別是其中一個高侵入性的方面。在使用時,目標對象在不知情或未經同意的情況下就被攝入系統。例如,過去用于預測罪犯“典型”面孔的軟件依賴于社交媒體、關系、社交活動、學校日程安排以及來自數據經紀人的商業數據。與喊停和搜查等傳統警務方法的官僚控制相比,這些工具進行預測的方式以及警察部門使用這些系統的做法并不透明。重要的是要確保將類似的操作規范納入機器中。
另一個需要審查的領域是使用評估框架或算法進行量刑。一些人工智能系統可以根據個人的歷史和他們的傷害傾向來預測未來的犯罪行為。在美國,賓夕法尼亞州可能是最早一個不僅根據人們犯下的罪行做出刑事判決的州之一,量刑還要參考他們在未來犯下其他罪行的可能性。統計衍生的風險評估——基于年齡、犯罪記錄和就業等因素——將幫助法官確定判決。這一觀點認為,這將有助于降低監獄系統的成本和負擔。
由于預算緊張和犯罪率不斷上升,更廣泛地使用人工智能程序協助預測犯罪行為可能具有優勢。然而,我們必須確保系統公平透明,而現在我們仍然可以做到這一點。也許實現這一點最好的辦法是建立一個監管人工智能的國際委員會,各個國家和消費者可以參與這些系統的發展,并確保行為守則和法律達到國際人權標準規定的門檻。
將道德責任融入機器似乎是一項艱巨的任務,但這是拯救這個勇敢的新技術世界的唯一途徑,使它不至于演變成一種反諷的夢魘。