精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

新歷史觀中的人工智能與人類未來

責任編輯:zsheng

作者:李旭

2018-05-21 17:36:27

摘自:澎湃新聞

人類是否終將因人工智能的發展而自取滅亡?這是當下有關人工智能的一個熱點問題。圖為2018年5月11日,在德國首都柏林舉行的一個技術博覽會上,英國初創公司Open Bionics開發的機器人假肢模仿一位男士手指的活動。

人類是否終將因人工智能的發展而自取滅亡?這是當下有關人工智能的一個熱點問題。圖為2018年5月11日,在德國首都柏林舉行的一個技術博覽會上,英國初創公司Open Bionics開發的機器人假肢模仿一位男士手指的活動。

一、從“怪異”的特朗普說起

在2016年的美國大選中,主流媒體一直不看好特朗普,但他最終卻贏了當時的大熱門希拉里。不少美國人至今仍無法理解這一結果。自2017年就任美國總統以來,特朗普依舊堅持“不走尋常路”,言行時常令人覺得“怪異”。但是在特朗普不按常理出牌的背后,一個很可能的真相是,并非美國人不了解特朗普,而是特朗普更了解美國人。

最近美國媒體爆出特朗普競選期間的超級秘密武器:一家名為“劍橋分析”(Cambridge Analytica)的英國數據分析公司收集了多達8700萬臉書網站(Facebook)用戶的數據,該公司利用自己發明的“心理學建模”算法給這些用戶“畫像”(涵蓋年齡、性別、工作、地點、政治立場、興趣愛好、情感偏好等上百個數據項),然后根據不同用戶的特點與傾向,在大選期間通過人工智能軟件向其中的選民精準推送誘導性信息與政治廣告。這一手段幫助特朗普拉攏了很多中間選民,在特朗普的勝選中發揮了重要作用。

以此來看,

相比傳統的民意調查和政治營銷手段,擁有人工智能支持的特朗普之前是在打一場“不對稱”選戰。

因為對手只能看到局部,而他卻能看到選民的“全景”,并且能夠精準制定和調整相應的競選策略,進而不斷強化自己的優勢。外界和主流媒體之所以很難理解特朗普的言行,主要緣自他們往往僅靠刻板印象與政治正確去做推斷,而不是像特朗普那樣,依靠大數據和人工智能技術把握了大多數美國人的意見。

無獨有偶,美國另一家社交媒體巨頭推特(Twitter)前不久也被發現卷入上述臉書的數據泄露丑聞,劍橋分析公司很可能也利用了推特數據為特朗普的競選服務。照此推理,我們也不難理解特朗普上任后為什么偏愛“推特治國”。特朗普迄今為止已在推特上發文近4萬條,擁有5100多萬追隨者,并有兩個機器人賬號幫助高頻播報他的各種推文,其粉絲數量在過去一年內增長超過200%。特朗普在大選中嘗到人工智能技術的甜頭,我們很難想象他不再使用這一工具來挖掘自己推特數據的決策參考價值。

如果在很多重大問題上,特朗普均有借助人工智能收集“民意”以資決策參考,那么他的“怪異”言行并不會拉低他在美國國內的實際支持率。

二、守門人理論視角下的人類歷史演進

其實像特朗普這樣的決策者需要決策參考,是一個非常普遍的現象。幾乎古今中外的每一個人在做決策時,都需要一定的決策參考。這個為我們提供決策參考的人,我們可以稱之為守門人(gatekeeper)。

我們身處在由無數守門人所編織成的無形大網中。每一個人都無法逃避各種守門人對我們決策的影響,與此同時,我們也在為別人的決策扮演著某種守門人角色。在人類歷史的長河中,基于大數據技術的人工智能發揮守門人作用,的確是一個值得認真研究的新現象。

如果將我們生活的世界分為四個部分,即日常生活、公共生活、組織生活以及虛擬生活,那么與此相應,可以在這些不同的生活世界中識別出四種不同的守門人類型:咨詢型守門人、制度型守門人、管理型守門人和工具型守門人

咨詢型守門人基于人際關系,為決策者的日常生活提供咨詢或建議,如父母親朋等;制度型守門人基于社會關系,為決策者的公共生活提供社會服務或公共產品,如法官和教師等;管理型守門人基于組織關系,根據其組織角色幫助組織內的決策者提供決策參考或輔助決策;工具型守門人基于用戶關系,它們在虛擬世界中幫助用戶獲取所需信息或是協助處理大量復雜信息,如各種網絡技術與工具,也包括時下流行的人工智能。(詳見拙著:《誰在誤導你的決策——無處不在的守門人》,社會科學文獻出版社,2015年)

由上述守門人的類型學可以看出,守門人已經作為一種不可或缺的機制深深地嵌入我們生活世界的各個方面。當前,四種守門人類型并存于世,他們在各自的領域發揮著不可或缺的作用。從最一般的意義上來說,守門人才是真正的歷史創造者和塑造者,由此守門人視角也可以為我們提供有關人類的新歷史觀。

從人類歷史的進程來看,咨詢型守門人最早出現。在遠古社會,人類的生存、繁衍和發展在很大程度上需要依靠代際之間的知識和經驗傳承,而那些向后輩傳授知識和經驗的長輩便是最早的咨詢型守門人。這時整個社會的信息總量不大,所涉及的人事也不太復雜。

隨著社會系統的信息量和復雜性的不斷增加,專業化與社會分工的發展減少了信息處理的成本,進而使得制度型守門人作為某些咨詢型守門人制度化的替代物而產生。制度型守門人有助于更有效地處理較為復雜的信息和事情,在此基礎上宗族、民族和國家等集體概念開始出現,進一步促進了人類社會的發展。

近代工業革命開啟了以理性精神為主導的科層制時代,組織力量的發展打破了英國經濟學家亞當•斯密(1723—1790)時代原子式的競爭格局。在這個過程中,管理型守門人在日益組織化的社會中大量涌現。19世紀晚期的美國,鐵路大型工程的建設助推現代公司制度出現,這一制度的有效性使得公司組織形式在全世界得以廣泛應用,管理型守門人在協調和配置市場資源中的角色也隨之日益凸顯。

工具型守門人則在以現代信息技術為標志的第三次工業革命中應運而生。隨著互聯網技術的發展,大量新興的工具型守門人開始出現。在過去,面對未知和復雜的事務,我們更多求助于身邊的咨詢型守門人、社會中的制度型守門人或組織內的管理型守門人,但現在我們越來越多地使用工具型守門人(谷歌、百度這樣的檢索工具或大數據技術)來獲取認知與決策的參考。

在當前的大數據和人工智能時代,工具型守門人正呈現大發展的趨勢。

比如被中國圍棋手柯潔稱為“圍棋上帝”的谷歌公司人工智能程序“阿爾法狗”(AlphaGo)以及它的超強升級版“阿爾法元”(AlphaZero),再比如時下被追捧的無人駕駛、機器翻譯以及語音識別等技術。由于工具型守門人擁有更強大的計算能力、學習能力、分析能力乃至解決問題的能力,一些傳統的守門人正在被一些新興的工具型守門人所取代。

三、人工智能對人類未來的三大挑戰

工具型守門人的最初形態只是利用信息技術幫助決策者收集和處理信息,從而輔助決策者的認知與決策,比如百度和谷歌這一類的搜索引擎。在大數據技術基礎上的人工智能則是工具型守門人的一種高級形態,因為它能發揮的作用不僅是數據處理,而且還具備深度學習和理解能力,能夠幫助決策者發現信息和數據背后的結構與規律,使得決策者的決策變得更為容易和高效,有時甚至可以幫助決策者直接解決問題。

如果說從咨詢型守門人演變至工具型守門人是人類社會分工不斷發展的結果,那么人工智能作為工具型守門人的高級形態,則可以被看成是人類分工發展的一種極端形式,因為它正使得人類之間的一些分工轉變成人類和機器之間的分工。盡管一些人認為人工智能目前的水平只是對人腦思維的一種簡單模擬,但很多人堅持認為,人工智能在超越人類心智能力方面正在取得突破性進展。從技術發展的長期趨勢來看,人工智能有可能給人類的未來帶來至少三大挑戰。

第一大挑戰是

人類的決策被工具型守門人控制

關于此種挑戰,本文開頭列舉的特朗普在大選期間所使用的人工智能技術便是一個很好的例子:選民看似是自主決策,但是人工智能技術的運用極大減弱了選民特別是中間選民投票決策中的自主性。隨著人工智能技術的發展,在到底是誰做決策這一問題上,決策者和工具型守門人之間的界限正變得日益模糊。以人工智能技術為核心的工具型守門人常常在代替人類做決策,甚至可以說這往往是人工智能技術在商業應用方面所追求的目標,即不斷增加用戶決策時對工具型守門人的依賴,直至其完全被控制。

例如,無人駕駛的人工智能技術旨在將駕駛員徹底變為乘客,使得駕駛員在車輛行駛過程中無需再根據路況和車況等數據做各種決策,在此條件下,駕駛員自主駕駛反倒變成一種安全隱患。有關“被決策”的情形,當前在互聯網大數據精準營銷中也體現得特別明顯。我們在閱讀網絡新聞或網上購物時,越來越容易發現自己“喜愛”或“感興趣”的新聞或商品,這使得不少人在網絡上花的時間越來越多。但事實上,這只是基于大數據技術對我們的網絡行為、心理偏好、生活習慣等進行“畫像”后,再由網站或軟件精準向我們推送有關新聞或商品。我們貌似在一個自由市場中自主決定注意力的分配或是購買何種商品,但在很大程度上,我們的選擇都被工具型守門人所誘導甚至是控制,而且這種誘導與控制可被不斷強化,最終結果可能是,我們的偏好與決策被工具型守門人所塑造。

第二大挑戰是

人類社會的不公平和不平等,

即以色列新銳歷史學家尤瓦爾•赫拉利(Yuval Noah Harari)在其暢銷名作《未來簡史》中提到的“前所未有的社會及政治不平等”,可能進一步加劇

數據大爆炸導致注意力成為最稀缺的資源,人工智能技術因為可以有效引導人類注意力的投放而擁有巨大的權力。由于人工智能技術的發展在不同國家有先有后,不同的組織對人工智能技術的掌握和應用程度有所不同,個體之間受人工智能技術的影響也會有所差別,由此便不可避免地會帶來新的不公平和不平等。那些最先掌握人工智能技術并且應用這些技術為自己服務的個人、組織或國家,相較于其他個體、組織或國家而言將擁有壓倒性的優勢。當這種優勢被濫用而不被有效約束時,不公平和不平等的加劇將是一個無法避免的結果。

在不公平和不平等方面,一個較為普遍的擔憂是人工智能將導致前所未有的失業問題。這與本世紀初互聯網和計算機的普遍使用所帶來的失業問題有根本的不同。前面已經談及,人工智能作為工具型守門人的高級形態,其目標實質上是取代決策者的工作,而不是像傳統的守門人那樣僅僅是輔助決策者的工作。換句話說,人工智能是在從根本上擠壓人類在社會分工中的價值空間。未來社會的分工可能更多將發生在人類和人工智能之間,而并非以往那樣,隨著技術發展而在人類之間進行分工調整,那些無法很好適應這種分工轉變的人或國家將在競爭中處于明顯劣勢,一些人的生存機會甚至會因此受到威脅。反過來說,那些在開發和利用人工智能方面領先的精英或國家,將獲得顯失公平的極高酬賞。

第三大挑戰是

人類會因人工智能帶來的倫理道德問題而變得更加脆弱,但這卻將促進人工智能的進一步發展

對傳統的守門人而言,一個最基本的價值倫理問題是,他應為決策者守門并且盡忠職守。對一般的工具型守門人而言,為用戶的決策利益服務的同時不損害其他人的利益應是最基本的道德原則。但正如我們在前面提及的政治營銷和精準市場營銷中所看到的,人工智能作為工具型守門人,其目標常常是控制決策者的決策,因此未來其行事方式很可能是在一些方面“不動聲色”地損害決策者利益(如現在已經很普遍的隱私侵犯),從而確保技術的擁有者和使用者的利益最大化。很諷刺的是,這一點也可能是人工智能技術獲得發展的刺激和源動力。未來在越來越多的領域,人工智能技術將更容易獲得壟斷地位,高度依賴這些技術以及受這些技術控制的人將更容易受到傷害。

最具威脅性的倫理道德問題可能發生在軍事領域。一些技術領先的國家已開始將人工智能應用到武器研發中,未來有可能在人工智能武器基礎上出現“新殖民主義”或“新恐怖主義”。如同近代中國的冷兵器無法對抗歐美的熱兵器一樣,未來僅擁有熱兵器的國家也無法抵抗擁有人工智能武器的國家。

這一威脅的嚴重性已經引發關注:國際機器人武器控制委員會(ICRAC)作為一個機器人技術專業人士組成的非政府組織,過去近十年一直倡導建立和支持一個與《不擴散核武器條約》類似的國際條約,專門管制致命自主武器系統的發展和使用。但是一些國家仍然熱衷通過人工智能技術來加強自身的軍事優勢,例如谷歌正在嘗試利用其圖像識別和機器學習方面的人工智能技術,幫助美國軍方識別無人機駕駛鏡頭中的特定目標對象(人和物體)。這一名為Maven的項目最近遭到近4000名谷歌員工的聯名反對,并且有員工集體提出辭職以示抗議。

四、人類會被自己創制的人工智能消滅嗎?

上述對人工智能的分析和評估可能會有些悲觀,但這并非是要否認人工智能在促進社會進步和人類發展方面的無窮潛力。如果人們深信人工智能的巨大價值,那么更應該對人工智能可能的破壞性保持高度的警醒與敬畏。這正如核能的威力,雖然可用于和平的核電利用,但也可以用于血腥的戰爭殺戮。

人類是否終將因人工智能的發展而自取滅亡?這是當下有關人工智能的一個熱點問題。如果我們接受“凡是在歷史上產生的,都要在歷史中滅亡”這樣的唯物史觀,那么人類的滅亡是確定無疑的,但人類滅亡的具體方式是不確定的,人工智能只是人類被滅亡的可能方式之一。不過,相比毀于大的自然災害、外星人攻擊、小行星撞地球以及核武戰爭等可能性,人工智能的確為人類的滅亡路徑提供了更具思辨性的討論空間。

將現有的各種看法歸納起來,人工智能滅亡人類的可能路徑至少有三種:首先是前面提到的人工智能軍事武器的不均衡發展以及發展的不受控制,這與核武器帶來的人類自我毀滅十分相似;第二是人工智能醫療技術特別是基因技術的發展,使得生命資源和時間資源向極少數人集中,人類將會出現“永生者”,從而令人類繁衍的意義和動力逐漸弱化;第三是人工智能將發展出全面超越人類的心智能力,而且其發展速度將遠超人類的進化速度,世界最終將會被人工智能機器所統治。

在前兩種滅亡路徑上,人類其實是死于人性本身的缺陷,即人性中的仇恨與貪婪會將人類引向滅亡。就第三種路徑而言,如果人工智能被發展出和人類一樣的心智和情感,那么人類的確有可能死于這種人工智能中的“人性缺陷”,但這樣的缺陷只可能源自人類本身,因而人類依舊不是真正死于人工智能,仍然是死于“自殺”。

假如人工智能技術能夠克服“人性缺陷”而發展出完美的心智,那倒反過來有可能幫助和拯救人類,或者至少可以和人類和平共存

。也就是說,

人類將不會被人工智能消滅

有關人工智能決定人類命運的觀點,其背后的前提是,相較于人類的學習能力與進化速度,人工智能技術可以在深度和廣度上無限快速發展。但一個更深刻的追問是,這一技術的發展是否可能存在某種極限。

就技術的物理支撐而言,人工智能的發展以不斷改進的算法及強大的計算能力為基礎,當前這需要依靠集成電路芯片的不斷升級。解決更復雜的問題需要不斷更新算法,也需要更強的計算能力。在過去五十多年里,的確每隔大概一到兩年,一塊集成電路芯片板上可容納的元器件數目都會增加一倍,計算性能也隨之提升一倍。但是集成電路技術的發展目前已經遇到瓶頸,芯片上多出來的元器件數目在提升算力方面的邊際效用呈現明顯的遞減趨勢。

未來芯片技術的發展可能會由于新材料或新的技術路線而有新的突破,但是任何基于物理基礎的技術都必定有其極限,人類社會本身也對計算能力的無限提升與供應構成各種現實的約束,因此邊際效用遞減在人工智能領域也很可能是一個十分普遍的規律:一方面,某一技術路線的價值總是趨向于遞減的;另一方面,隨著一項人工智能技術不斷滿足人類的某些需求,人類再耗費資源提升這項技術的意愿就會逐漸降低。但是這依舊不能回答人工智能的極限與人類心智的極限孰高孰低的問題。換句話說,人類心智是否在本質上勝過人工智能呢?或者說人工智能有沒有可能“青出于藍而勝于藍”呢?

以奧地利裔美國數學家哥德爾(Kurt Friedrich Gödel,1906—1978)的名字命名的“哥德爾不完備定理”有助于探索上述問題的答案。根據這一定理及其推論,以算法為基礎的任一有效的人工智能系統,該系統內總有一些數學命題是無法用該人工智能系統自身來判定真偽的。但人類的心智不可能完全是以算法為基礎的系統,否則,根據哥德爾的不完備定理,將會出現人類心智無法判定真偽的數學命題,這與數學的理性主義原則是相矛盾的。因此在解決數學問題的能力上,人類心智的確是勝過人工智能的。

要更充分地理解人類心智相較于人工智能的優越性,還可從分類思維入手。從認識論的角度來說,解決問題的方法在根本上都是以分類思維為基礎的。人工智能作為一種人造手段,在解決問題時肯定也需要做基礎性的類別判定,其最基本的分類模式必定源自人類的設定或給予。而且一方面人工智能系統能夠被人類的分類模式所定義,另一方面該系統在解決問題時所使用的分類模式必定是有限的,否則該系統無法輸出一個確定且有意義的結果。

但是人工智能系統使用任一分類模式所得出的結論都將是有局限性的。人類解決問題時在分類模式的可選擇性與靈活性方面要明顯超過特定的人工智能系統,這使得在從多方面或多角度去考慮和解決問題的能力上,人工智能系統要遜于人類心智。

五、守門人理論視角下的人類未來與自我救贖

相比關心人類是否會死于人工智能這樣久遠的時間問題,抑或思考人類心智與人工智能孰優孰劣這樣的哲學問題,一個更緊迫也更現實的問題是人工智能對人性的侵蝕。

前文已經提到,人工智能作為工具型守門人的一種高級形態,正在取代而非輔助決策者的一些決策,這使得人類作為決策者自主決策的意涵被侵蝕。隨著人類在一些方面的工作被人工智能所完全取代,人類對人工智能的依賴不斷增強的趨勢將很難逆轉,這種過度依賴將容易造成人類總體的認知能力和決策能力退化,人類勞動的價值空間被縮小。

另一個明顯的趨勢是,以人工智能為代表的工具型守門人正在從虛擬生活融入我們的日常生活、公共生活和組織生活,用戶關系正在侵蝕我們的人際關系、社會關系與組織關系,虛擬社會和現實社會的界限也因為人工智能的發展變得日漸模糊,未來社會將會成為人類心智與人工智能緊密聯結的復合體。隨著人工智能工具發揮的作用越來越大,人類個體的獨立性與自由性將會遭到極大削弱。這也許是德國社會學家馬克思•韋伯(1864-1920)所講的“理性化牢籠”的終極形式。

人類要如何自我救贖?

知識層面

,我們應該更加重視對哲學和倫理學的研究與教育,站在更高的高度去理解和認識人工智能發展的意義與影響,作為制度型守門人的政府、新聞媒體、學校和科研院所及其相關人員應該在這方面發揮重要作用,履行好自己的守門人職責。

道德層面

,我們需要警惕“主觀為自己、客觀為他人”的自由主義危險,更多提倡“主觀為他人、客觀為自己”的超我主義實踐,如此將有助于人類抵御人工智能對人性的侵蝕。

監管層面

,要高度重視工具型守門人的壟斷問題,構建國內和國際的人工智能技術規范,加強對人工智能技術發展的監管和倫理審查,通過合規監督與違規懲處促進人工智能朝親社會的方向發展。

法律層面

,要加強有關的立法研究工作,在軍事和醫療等重要領域,及時建立和完善人工智能的國內法規、國際條約與國際組織,發動全社會和各國的參與,加大法律在國內和國際的執行力度。

鏈接已復制,快去分享吧

企業網版權所有?2010-2024 京ICP備09108050號-6京公網安備 11010502049343號

  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 炎陵县| 四平市| 安龙县| 河北区| 东丰县| 上虞市| 大洼县| 神木县| 咸宁市| 潞城市| 石屏县| 鹤庆县| 当涂县| 文水县| 蒲城县| 南皮县| 龙岩市| 和平区| 奉贤区| 茌平县| 娱乐| 九台市| 凤城市| 宁海县| 肥西县| 都昌县| 拜泉县| 平定县| 集贤县| 平乡县| 普宁市| 中牟县| 化德县| 大英县| 苏尼特左旗| 临沧市| 和政县| 体育| 莎车县| 石柱| 托克托县|