人工智能(AI)和機器學習(ML)是這個時代最熱門的話題,科學家對此也有很大爭議,或許它們所帶來的好處怎么強調都不為過,我們也需要關注和理解AI和ML潛在的致命威脅。
誰敢想象,有一天機器的智能會超過人類?——未來學家稱之為奇點。著名科學家——人工智能的先驅——艾倫·圖靈(Alan Turing)在1950年提出,機器可以像孩子那樣訓練。
圖靈提出:“機器會思考嗎?”他在著名的論文《計算機器與智能》中探討了這個問題和相關問題的答案。
1955年,約翰·麥卡錫發明了一種叫做“人工智能”的編程語言LISP。幾年后,研究人員和科學家開始使用計算機編碼、識別圖像和翻譯語言等。早在1955年,人們就希望有一天能讓電腦說話和思考。
偉大的研究人員,如機器人學家漢斯·莫拉維克(Hans Moravec )、科幻作家弗諾·文奇(Vernor Vinge)和雷·庫茲韋爾(Ray Kurzweil),從更廣泛的意義上思考這個問題,機器什么時候能夠獨自設計實現目標的方法。
曾經像史蒂芬·霍金這樣的偉人警告過,當人們無法與先進的人工智能競爭時,這可能意味著人類的終結。“我想說我們不應該做的是,在不考慮潛在風險的情況下,就全力建設超級智能。”加州大學伯克利分校(University of California, Berkeley)計算機科學教授斯圖爾特·拉塞爾(Stuart J. Russell)說。
以下是ML和AI的五個可能的危險以及解決辦法:
1. 機器學習(ML)模型可能是有偏見的——本質上受人類的影響
盡管機器學習和人工智能很有前途,但它的模型也容易受到無意的偏見的影響。有些人認為ML模型在決策時是公正的,但他們卻忘記了,是人類在訓練這些機器——從本質上講——我們并不完美。
此外,在決策過程中,ML模型在處理數據時也可能存在偏差。你提供的本身不完整的數據(片面的數據),機器還會給出正確的結果嗎?
舉個例子,你經營一家批發商店,想建立一個模型來了解顧客。所以你建立了一個模型,希望評估顧客對商品的購買力;您還希望在年底使用模型的結果來獎勵客戶。
所以,你收集客戶購買記錄——那些有著長期良好信用記錄的客戶。
如果你最信任的一群買家碰巧在銀行負債,卻無法及時站穩腳跟,他們的購買力將大幅下降。但是,模型無法預測客戶的不可預見程度。從技術上講,如果您決定在年底輸出結果,那么得到的是有偏差的數據。
Note:當涉及到機器學習時,數據是一個易受影響的因素,為了克服數據偏見,請雇傭專家來處理這些數據。
還請注意,除了您之外,沒有人記錄客戶的這些數據——可以說,您掌握著一定的話語權。
數據專家應該質疑數據積累過程中存在的任何問題;他們也應該積極尋找這些偏見如何在數據中表現出來的方法。這與您創建了什么類型的數據和記錄也有關系。
2. 固定模式
在認知技術中,這是開發模型時不可忽視的風險之一。不幸的是,大多數已開發的模型,特別是為投資策略設計的模型,都存在這種風險。
想象一下,你花幾個月的時間為投資開發出一個模型。經過多次試驗,仍然得到了一個“準確的輸出”。但用“真實世界的輸入”來嘗試該模型時,它可能給你一個毫無價值的結果。
為什么會這樣?這是因為模型缺乏可變性。這個模型是使用一組特定的數據構建的。它只對設計時使用的數據有效。
因此,具有安全意識的AI和ML開發人員應該在將來開發任何算法模型時學會管理這種風險。通過輸入他們能找到的所有形式的數據可變性,例如,演示數據集(當然這并不是所有的數據)。
3.對輸出錯誤數據的解釋可能比較困難
對輸出錯誤數據的解釋是機器學習未來可能面臨的另一個風險。想象一下,在如此努力地工作以獲得良好的數據之后,你決定和另一個人分享成果——也許是你的老板。
同樣的數據結果,你老板的解釋或許與你自己的觀點都不一致。畢竟他的思維過程與你不同,因此他的見解也與你不同。
這種情況經常發生。這就是為什么數據科學家不僅應該在構建模型時注意,而且還應該在理解和正確解釋來自任何設計模型的輸出結果的“每一點”時注意。
在機器學習中,沒有錯誤和假設的空間——它必須盡可能完美。如果我們不考慮每一個角度和可能性,就有可能讓這項技術危害人類。
Note:對機器發布的任何信息的誤讀都可能給公司帶來厄運。因此,數據科學家、研究人員以及任何相關人員都不應該忽視這方面。他們開發機器學習模型的意圖應該是積極的而不是相反。
4. AI和ML還沒有被科學的解釋
從真正意義上說,許多科學家仍在努力全面理解AI和ML到底是什么。盡管它們還沒在新興市場站穩腳跟,但許多研究人員和數據科學家仍在努力了解更多信息。
許多人仍然感到害怕,因為他們相信仍然有一些未知的風險尚待了解。
即使是像谷歌、微軟這樣的大型科技公司仍然不完美。
人工智能聊天機器人Tay Ai由微軟公司于2016年3月23日發布。它是通過twitter發布的,目的是與twitter用戶互動——但不幸的是,它被認為是種族主義者。它在24小時內被關閉。
Facebook還發現,他們的聊天機器人偏離了最初的腳本,開始用自己創造的一種新語言交流。有趣的是,人類無法理解這種新創造的語言。很奇怪,對吧?
Note:為了解決“存在的威脅”,科學家和研究人員需要了解什么是AI和ML。此外,在正式向公眾發布之前,他們還必須測試、測試、再測試機器運行模式的有效性。
5. 這就像一個控制欲極強的不朽獨裁者
機器永遠在運行——這是另一個不可忽視的潛在危險。AI和ML機器人不能像人類一樣死去,他們是不朽的。一旦他們被訓練去做一些任務,他們就會夜以繼日,而且常常沒有監督。
如果人工智能和機器學習特性沒有得到充分的管理或監控,它們可能會發展成為一個獨立的殺手機器。當然,這項技術可能對軍方有利——但如果機器人不能區分敵人和無辜公民,無辜公民將會遭遇什么?
這種機器模型很容易操作。它們了解我們的恐懼、不喜歡和喜歡,并能利用這些數據來對付我們。注意:人工智能創造者必須準備好承擔全部責任,確保在設計任何算法模型時考慮到這一風險。
結論
機器學習無疑是世界上最具技術價值的能力之一,具有現實世界的商業價值——尤其是與大數據技術合并時。
正因為如此,我們不應該忽視這樣事實:它需要仔細的計劃來適當地避免上述潛在的威脅:數據偏差、固定的模型、錯誤輸出的解釋、不確定性和極強的控制欲。