“過去這些年,我們在信息技術領域最大的一個經驗教訓,就是關鍵核心技術必須靠自己自主創新來解決,不能靠買、靠換。”計算機專家倪光南院士近日在2019世界人工智能大會上接受澎湃新聞專訪時表示。
盡管在應用、芯片等角度上發力,也會令AI產生更多價值,但他認為,國內必須在算法突破上投入更多的力氣。
這位1939年出生的中國工程院院士曾參與研制中國自行設計的第一臺電子管計算機(119機),在上世紀六、七十年代開展漢字處理和字符識別研究,首創在漢字輸入中應用聯想功能。
從1995年至今,倪光南就不遺余力地呼吁中國發展IT核心技術,特別是自主操作系統和國產CPU。如今,“技工貿”和“貿工技”之爭,歷史似乎已經給出了答案。他相信,中國如今會在人工智能領域吸取歷史教訓,下更大的決心實現突破。
人工智能安全超越軟硬件問題
在此次大會上,倪光南參與了世界人工智能安全高端對話。在他看來,自主可控是網絡安全的關鍵,必須在質量測評、安全測評的基礎上增加自主可控測評。
這一套標準,可能也同樣適用于人工智能時代的安全問題,即通過建立一些要素準則,評估人工智能相關產品、服務、技術、系統的安全可控。
“這樣有個好處,是在網絡安全的基礎上再上一個臺階,不是另起爐灶,從零開始。”他說道。
那么,在繼承網絡安全的基礎上,AI時代的安全問題表現出哪些新的特征?倪光南從演化的角度看待這個話題。
傳統安全考慮的是人和物之間的關系,網絡安全則涉及到人和人之間的攻防關系。“所以我們在網絡安全上要強調自主可控,假如你無法自主可控,對方就可以利用漏洞從后門攻擊,這是在傳統安全上更進了一步。”
進入到人工智能時代,我們還需要面對人和人工智能的關系。AI的安全可控由此也超越了單純的技術問題。例如,用交互過程訓練聊天機器人時,一些機器人會出現“學壞”、“罵人”的情況,甚至變成一個“種族主義者”。
“這些機器人在軟件和硬件上都不應該有問題,但在學習過程之中出現了更復雜的情況。”倪光南說道。這是過去從未考慮過的問題,需要各方面的深入研究。
此外,深度學習還有透明性問題。“人工智能識別圖片可能比人更準確,但我們不知道為什么這么好;人類棋手下每步棋都有解釋,但AI就做不出解釋。”無法解釋為什么好,就無法避免不好的情況。針對一些人臉識別系統,黑客畫上一條簡單的線就能迷惑AI,利用很小的干擾造成AI的失誤。
倪光南總結道,人工智能帶來了一種全新的安全類型,可能在制度設計和方法論上都需要有個說法。
關于AI安全,另一個廣為關注的話題是AI是否會造成大規模失業。倪光南認為,機器相對于人類有兩個最大的優勢。其一是在某些特定領域上打敗人類會成為常態。其二就是機器的智能很容易疊加和擴大,而100個人的智慧加起來就未必比一個人更強。
但他相信,在大量簡單勞動被人工智能取代之后,依然需要一大批工程師去使用和維護這些機器,人類從而能在新增的工作崗位上發揮更高價值的作用。
歷史教訓賦予更大的決心
那么,中國的人工智能研究與產業未來要實現安全、健康的發展,最重要的發力點在哪里?倪光南認為算法仍是一個核心問題。
眼下這一波人工智能的新熱潮,有三個公認的因素發揮了主要作用:數據、算力和算法。倪光南認為,其中最關鍵的是深度學習的出現在算法上實現了突破,將人工智能一下子提升到新的階段。
在短期內,可以預見很多公司會首先從應用著手。“應用門檻低,容易做,這也是很正常的。中國市場很大,在這方面具有優勢,傳統產業引入人工智能能夠加速升級改造,”倪光南說道,“但我們還需要投入更大的力氣,從關鍵核心技術方面進行突破,爭取更大的前途。”
“包括現在很熱的人工智能芯片,很多家都能做,當然也有好壞差別。但這個差別在都是用硬件去加速算法,沒有在根本上突破算法本身。”倪光南評價道。
“過去這些年,我們在信息技術領域最大的一個經驗教訓,就是關鍵核心技術必須靠自己自主創新來解決,不能靠買、靠換。”他總結道。
不過,比起當年薄弱的基礎和分歧的思想,倪光南相信中國現在國力更強,突破關鍵核心技術的認識也更為深刻。“大家在人工智能領域會借鑒過去的經驗,下更大決心,縮短追趕的過程。”