近期,美國互聯網巨頭亞馬遜公司解散其人工智能招聘團隊,由于該團隊所設計出的人工智能程序極端“重男輕女”,會自動給女性求職者降低分數。
人工智能會放大算法帶來的“歧視”
隨著人工智能技術的不斷發展,越來越多的管理者開始運用這一革命性技術提升企業的運行效率。電影公司運用人工智能來預測電影劇本的潛在收益;企業運用人工智能監控員工的異常行為;保險公司運用人工智能評估保險人的保險償付幾率等。這些做法或多或少都存在一些與亞馬遜人工智能招聘程序類似的歧視性現象。
這種敏感、潛在的風險讓一些學者也開始反思人工智能的實質。例如,諾貝爾經濟學獎獲得者托馬斯•薩金特在“世界科技創新論壇”上表示,人工智能其實就是統計學,只不過用了一個很華麗的辭藻。
這種說法雖然受到不少人工智能業界人士和愛好者的批判,但深究起來并非毫無道理。人工智能建立在以統計學為基礎的算法之上,當前的“智能”部分僅體現于通過計算機自身的“學習”功能迅速完成了統計檢驗過程。
基于這種運算過程,人工智能也不能避免統計學的局限性。
第一是樣本選擇偏見。例如,亞馬遜的人工智能團隊所選擇的學習樣本,主要基于現有的互聯網業界招聘數據。由于美國軟件業的從業者及求職者的男性比重遠大于女性,人工智能程序在不斷樣本學習后得出了男性更適合此類職業的結論,沒有糾正反而擴大了樣本帶來的偏差。
第二是算法的不透明性,人工智能的多數算法處于“黑箱狀態”,缺乏解釋能力,如果算法本身存在不公正傾向極難被發現。
第三是難以兼顧效率與公正。算法的目的在于找到最優解、最直接有效的手段,并不考慮解決方案對社會其他成員所帶來的影響。人工智能缺乏共情能力,其所做出的決定并不會考慮人類文明所遵循的公共倫理和規則。
我們對人工智能的管控落后于其進步
上述局限性使得人工智能的廣泛運用將帶來與機遇相等的風險。
一方面,在一些效率優先、只追求勝負的領域,人工智能顯現出遠超常人的能力。政府、軍方和企業為了贏得競爭優勢,不得不被迫加快人工智能的應用和研發,甚至將一些試驗性、未成熟的技術投入實用。
另一方面,這種對勝率的追求也會對人類社會帶來潛在的沖擊,甚至將破壞人類社會中效率與公平的平衡。一個越來越由人工智能所主導的世界,很可能是一個貧富差距更加巨大、階層固化更為明顯的世界。這對于處于弱勢的人群、文化和國家并不友好,將加大這些弱勢群體與精英社會的差距,甚至讓其成為事實上的“無用的人類”。
這些風險蘊含著一種未來世界的危險圖景,即由人工智能所帶來的“數字進化論”。在“數字進化論”的世界,人工智能將成為新的選擇、淘汰機制,只有符合人工智能“算法偏好”的人群能夠適應這種新環境,得到生存發展的機會。而其他不符合其算法需求的人們則將面臨發展路徑終結,其所面臨的生存環境將不斷惡化。
相對于人工智能技術、產業的進步,對于人工智能的管控和約束顯然落后了。當今國際社會對人工智能的貪婪大于恐懼,對于人工智能的認知慢于人工智能的自我進化。但是,一旦人工智能突破了可以扳倒人類社會規則約束的臨界點,那么,將沒有什么來阻止人工智能決定人類的未來。在滅霸拿到極限手套的“六顆無限寶石”后,消滅宇宙的一半生命只在彈指之間。