導語:自進入文明時代以來,人類就一直擔心有朝一日會遭遇“滅頂之災”,比如說變異的病毒、小行星撞擊地球,以及核災難等。隨著機器人技術的不斷演進,人類的“噩夢清單”上恐怕又多了一項:人工智能有可能發展出自己的思想,進而引發人類的“身份危機”。
近來發出類似警告的是兩位頂尖科學家。一位是理論物理學家斯蒂芬·霍金,他甚至認為,當人工智能發展完全,就是人類的末日;另一位是電動汽車品牌特斯拉的掌門人馬斯克,他曾公開表示:“我們要十分小心人工智能,它可能比核武器更危險。”
對人工智能的研究始于上世紀50年代。近幾年,科學界和產業界對它的興趣超越了以往。最近一年半來,谷歌收購了十幾家機器人公司,并正在開發人工智能的一個圖騰——無人駕駛汽車;去年,社交媒體臉譜成立了新的人工智能實驗室……數據顯示,2009年以來,人工智能吸引了超過170億美元的投資,僅去年就有20多億美元投向擁有類人工智能技術的322家公司。
在并行計算、數字化神經網絡、云技術、大數據以及深度學習算法等技術的推動下,人工智能的形態正逐漸顯現:它既不是擁有與人類相似意識的機器人,也不是奇點論(人工智能與人腦智慧兼容的時刻)者宣稱的超智能,而是應用在狹窄的專業領域,如醫學、教育、法律、太空等高度專一的“行家”。隨著人工智能的發展,人類終有一天將被其取代的恐慌感也應運而生。美國奇點大學人工智能項目負責人尼爾·杰卡布斯坦早就說過:“要應對即將到來的人工智能革命,我們需要在數學素養、生態素養尤其是道德素養上不斷自我提升。”
科學的發展總是出乎我們的預料。在一項技術推廣前,審慎的評估和良好的風險控制是必要的,克隆技術、大數據、基因測序無不如此。杰卡布斯坦認為,假設人類成功構建了超級計算機,而它想的跟我們不一樣,我們就得加以控制,就像對待孩子一樣。走在前沿的人和公司,已經采取了一些行動阻止可能出現的混亂。谷歌在年初收購了以神經系統科學為基礎的人工智能公司迪普曼德,隨后即成立了“人工智能安全倫理委員會”,以確保技術安全發展。
我們有充分理由樂觀看待人工智能研究。為了遙遠未來可能發生的危險而遏制技術的發展是愚蠢的。但在過去60年中,隨著人工智能每一次成功地“復制”只有人類才有的行為和能力,人類便不得不對人工智能進行重新定義,也不得不重新定義“人類”的含義。
D1Net評論:
其實,人工智能——這個除了人以外最像人的東西,其實是我們心理投射中一個再好不過的客體。在人工智能高度發展的未來,人類或許將面對一場“身份危機”:人類到底是偉大還是渺小,自我存在的意義是什么……這或許將成為人類的困擾。