談及屢次拒絕科技巨頭的原因,本吉奧表示 希望像20世紀發明核武器的科學家們一樣“保持中立”。他深知人工智能和深度學習技術的巨大潛力,不支持“一兩家公司壟斷這一領域”。
近日,本吉奧接受了麻省理工技術評論網站人工智能資深編輯威爾?奈特的專訪,對于該技術的現狀及其未來發展發表了看法。
本吉奧表示并不欣賞各大國間在人工智能領域展開的激烈競賽,認為此舉并不明智。在他看來,人類“可以以整體形式參與人工智能的發展”,作為一名“以共同利益為出發點的科學家”,他建議將技術目標設定為“如何在研發更加智能的機器的同時,確保人工智能技術盡可能廣泛地為越來越多的人造福”。
本吉奧呼吁加強各國在人工智能技術領域的合作,特別是吸納來自非洲的科研人員。他認為歐美等發達國家以各種理由拒絕向非洲等發展中國家和地區的人工智能學者發放簽證是錯誤做法,這不但嚴重限制了自身的科研資源,而且使其在行業內的視野日趨狹窄,而人工智能技術恰恰在這些國家具備最大的商業市場、最好的應用前景和最多樣化的實際需求。為此,由他倡導的深度學習頂級峰會“國際學習表征會議”(ICLR)2020年年會將前往非洲舉行。
同時,他再次強調人工智能并不是某些公司的專利。這項研究本身會導致權利、資本和智力的高度集中,由此帶來數據和軟件的壟斷,從而危及整個行業的健康發展和有序運行。“最好的公司有最多的錢,因此總能吸引最優秀的學生。這在公司層面無可厚非,但對行業而言隱患巨大”。
針對人工智能技術被用于軍事領域這一問題,本吉奧持“非常堅決的反對” 態度。他希望能夠使“擁有致命性人工智能武器”被判定為違背道義,但這需要在塑造和修正文化、法規及條約方面付出極大的努力、耗費漫長的時間。他坦承無法完全阻止人工智能武器的開發,甚至“被部分流氓國家用于實戰”,解決方法是在對其進行譴責的同時加強自身的防御能力建設――“針對人類的進攻性人工智能武器和反制這些武器的防御性人工智能武器存在顯著差別”。
本吉奧認為,軍事機構始終將命令與職責置于道義之上,因此即使人工智能武器具備正確的道德觀與價值觀,也難以實現可靠、可信的人機交互合作。
人工智能領域近期所取得的成果在本吉奧看來都屬于“短期的、漸進式的進步”,其長遠發展“需要考慮更復雜、更艱巨的挑戰”,深度延伸至歸因、推理,甚至通過探索外部環境來學習和獲取信息。實現人腦級別的人工智能水平則“完全是另一回事”,需要長期、持續、穩定的投資和雄厚的學術支撐。
以因果模型為例,人類能夠將自己投射到與日常體驗截然不同的情境中。,但機器由于缺乏類似的因果模型而無法實現這一能力。人工建模的因果模型并不能滿足需要,真正匱乏的是發現因果模型的機器,而這種模型必須不斷完善。與其相類似的是,人類也從未擁有足以適應任何現實環境的因果模型,因此在犯錯與改正之間不斷反復,但人類的優勢在于吸取教訓和積累經驗,這也是人類占據生物鏈頂端的根本原因之一。