假冒,算法偏見和其他問題如何影響我們的日常生活。
在過去的幾年中,人工智能以驚人的速度提升了我們的技術。 從完全自動化的勞動密集型工作到診斷肺癌,人工智能已經實現了以前認為不可能的壯舉。 但是,如果使用不當,算法可能是破壞性武器。 為確保惡意行為者不會對我們的社會造成破壞,我們必須解決幾個關鍵挑戰。
AI的真正危險不是像SkyNet這樣的有感覺的算法接管世界。 即使這種情況完全是科幻小說,也存在一些合理的問題。 不要懼怕技術,我們應該仔細識別它們并負責解決它們。 在這篇文章中,我將收集五個特別重要的領域,這些領域已經每天影響著我們的生活。
1. Deepfake
在我們的現代社會中,信息是無限的。 通過打開瀏覽器并瀏覽網絡半小時,您遇到的信息比中世紀一生中遇到的普通人要多。 信息就是力量。 您會立即收到有關地球另一端發生的事件的通知,但有一個陷阱:您如何知道該相信什么以及哪些來源可信?
在下面觀看此視頻。
當然,這完全是假的,但是對于一個隨意的觀察者來說,可能很難檢測到。 這些稱為"深度偽造",起源于技術術語"深度學習",是一類算法,能夠生成像這樣的逼真的偽造圖像。 盡管這一特定行為只是該技術的精心展示,但如果新聞源中出現的偽造品比例達到一定閾值,它們就會變得非常危險。 在這種情況下,將不可能檢測到哪些信息是真實的,哪些不是。
毫不奇怪,打擊深層假貨的一種非常有前途的工具是AI本身。 DARPA的MediFor計劃或Google的Deepfake檢測挑戰賽等多項引人注目的計劃旨在開發出過濾錯誤信息的方法。
盡管在我們的生活中不存在深層的假貨,但肯定是最具破壞力的假貨之一。
2.算法偏差
如果您過去幾年曾申請過工作,那么您可能受到了算法偏見的影響,無論是正面的還是負面的。 開發基于AI的算法以篩選求職申請的候選人可能是一個好主意,但是,這存在很多問題。 機器學習需要歷史數據來了解哪些候選人值得招聘。 問題在于,過去接受和拒絕的數據受到人類固有的偏見的嚴重影響,這些偏見主要針對婦女和代表性不足的少數民族。 該算法只是從呈現的內容中學習,并且如果以前的招聘做法具有區別性(通常是這種情況),則該算法的行為將類似。
最好的健身教育網絡游戲的生存就是這種現象的絕佳發人深省的例證,值得一試。
此問題影響許多其他應用程序領域,例如信用評分估算,執法等。由于這些因素在涉及人員的生活中產生了巨大影響,因此除非我們可以保證公平性,否則這些決策不應涉及算法。 為此,人們產生了一個新的,非常活躍的研究領域。 除了確保預測不受變量(如性別,種族和受負面偏見影響的相似變量)的獨立性之外,關鍵是要生成不存在這些變量的數據。 為了解決這個問題,需要付出更大的努力。 要從數據中完全消除偏見,我們還需要消除思維中的偏見,因為最終,數據是我們行動的結果。
3.群眾監督
那些放棄基本的自由以購買一點臨時安全的人,既不應該自由也不應該安全。 - 本杰明·富蘭克林
幾十年來,面部識別一直是計算機視覺中的關鍵問題。 但是,自從深度學習革命以來,我們不僅可以更準確地識別人臉,而且還可以立即做到。 如果您的智能手機隨處可見,請嘗試打開相機應用程序并進行自拍照:它將立即在您的臉部周圍放置一個邊界框,表明已成功檢測到它。 如果您擁有最新的iPhone,甚至可以用臉作為手機密碼。
如果將本技術用于錯誤的目的,則會有其自身的危險。 在中國,它被用于前所未有的大規模監視。 結合最近引入的社會信用系統,您可以對自己的行為進行評分,并且可以通過例如亂穿馬路或僅僅參加某些活動來得分,沒有什么可以隱藏在天空中。
4.推薦引擎
每次您打開YouTube,Facebook或任何其他社交媒體網站時,他們的目標都是盡可能讓您參與其中。 簡而言之,在這種情況下,您就是產品:如果偶爾觀看廣告,則可以免費使用該網站。 因此,目的不是要為用戶提供高質量的內容,而是要使他們無限地滾動和自動播放。
鑒于人腦的進化方式,不幸的是,互動是由強烈的情感反應驅動的。 事實證明,例如政治激進的內容特別適合于此。 推薦引擎不僅學會了呈現極端的內容,而且還使每個用戶慢慢變得激進,一旦用戶的喜好發生變化,它的工作就變得容易。 這被稱為激化管道。
有具體的科學依據。 例如,最近的一篇論文研究了YouTube上特定用戶的數百萬條評論,以顯示他們如何逐漸遷移到極端激進的內容。
其影響是如此嚴重,以至于可以對民主選舉產生重大影響。 在2016年美國大選期間,《華爾街日報》對此主題進行了廣泛調查。 他們的發現可以在這里找到:藍色飼料,紅色飼料。 從本質上講,用戶有意識地陷入了知識泡沫,從不質疑自己對外部世界的看法。 思考困難,內臟反應容易。
5.隱私權和有針對性的廣告
您是否曾經發現自己購買了不需要的東西,之后又后悔呢? 也許進入一家超市,進入收銀臺時,一捆糖果就引起了您的注意,毫不猶豫地將它們放到了籃子里。 您并不是真的需要它,但是您還是買了它。 這可能使您感到驚訝,但是整個方案都是經過精心設計的,因此您被操縱去執行此操作。 聽起來很奇怪,購物實際上需要您的智力資源,這些資源最終將耗盡。 用更少的資源來控制自己的欲望,您更有可能沖動地購買自己知道對自己不利的東西(例如糖果),但無論如何都想要。 但這與AI有什么關系?
超市是通過考慮上述基本心理原理而設計的。 這些設計原則適用于平均水平。 任何設計都無法為其每個用戶提供個性化且完美簡化的體驗。 但是,當市場轉移到網上時,情況發生了變化。 虛擬市場不僅可以為您提供量身定制的購物之旅,還可以收集非常具體的數據。 根據您的瀏覽習慣和社交網絡,可以高度準確地預測您的行為。
這有幾種潛在的誤用。 首先是向您展示您可能會在在線市場上購買的商品。 統計算法確定向您呈現的商品的種類,位置和方式,以最大程度地從您那里獲取利潤。 但是,這會影響個人規模。 一個更大的問題是,何時使用個人數據通過政治廣告來定位您,從而可能影響民主選舉的結果。 這正是Cambridge Analytica所做的,其效果在全球范圍內仍可感受到。
結論
近年來,基于人工智能的技術無疑改變了我們的生活。 盡管它正在慢慢滲透到我們周圍的所有事物中,但其大多數媒體表現都是有偏差的。 無論是通過粉紅色的炒作迷霧還是通過天網的可怕異象消滅人類。 他們都不是真實的。 但是,為了確保其應用程序安全,我們必須清楚地看到AI可能帶來的實際問題。 這些問題并不神秘,它們已經存在于我們的生活中。 通過適當的認識,準備和社區努力,可以解決這些問題。