人工智能技術的進步,促進了相關市場應用的快速發展。目前,世界各國都對人工智能市場的增長,以及人工智能產業化前景報以巨大希冀。不過,在人工智能蓬勃姿態背后,其存在的一些問題也逐漸浮現出來,安全是最受關注的一項。
安全隱患凸顯
“安全性是部署人工智能的最大挑戰。”美國加州大學伯克利分校計算機系教授宋曉冬曾公開表示。的確,自人工智能爆發式發展以來,其安全性就成為了業內人士與普通民眾關注的焦點,為此引發的爭議也在持續發酵。
如今,全球互聯網普及進一步深入,物聯網、云計算等前沿技術的發展更是推動了“萬物互聯”時代的到來。而人工智能技術的應用十分依賴計算機與互聯網的支撐,因而面臨的網絡安全隱患不容忽視。
實際上,人工智能面臨的安全風險有兩大類,一種是外部威脅,一種是內部局限。前者主要是黑客等網絡攻擊者對于人工智能系統安全的潛在隱患,由于人工智能應用愈發廣泛,在諸多領域都形成了深度影響,一旦遭遇攻擊,將造成嚴重后果;后者主要是人工智能技術本身的缺陷,在進行深度學習或者機器識別時,很可能會出現一些“失誤”,從而引發意外情況。
就比如說自動駕駛汽車不時發生的事故,以及聊天機器人的“不當言語”。
近幾年來,自動駕駛汽車加快商業化進程,無論是路測還是量產等環節都在持續提速,行業發展形勢一片大好。但是,受人為因素、基礎設施滯后、法律不完善以及技術水平不足等影響,自動駕駛汽車始終無法避免意外事故的產生,造成了較為不利的社會影響。同時,自動駕駛汽車網聯化、智能化程度不斷提升,也面臨著日益嚴峻的網絡安全威脅。
另外,聊天機器人自應用以來,成為了人工智能領域市場化最富成果的細分領域之一。但是在這過程中,出現了多起聊天機器人發表“種族歧視”或是“性別歧視”等不當言論的事件,這不得不讓人懷疑人工智能受不利影響的可能。如果人工智能被不良傾向的人影響或是被不法分子利用,后果可想而知。
不僅如此,人工智能的發展越來越依賴于大數據資源,因而在應用中也必然將面臨隱私侵犯風險。隨著各類數據采集設備的廣泛使用,除了傳統的身份信息、聯系方式、家庭住址等,生物特征、生理特征等關鍵信息也正在被普遍收集。
業內人士表示,在人工智能時代,大數據的重要性日益提升,由此帶來了數據中心化趨勢也越發明顯。很多時候,人工智能系統或者是一些掌握數據資源的大公司都比你更了解自己,這并非危言聳聽。如果這些數據能夠合理、合法應用,當前會帶來積極影響,而一旦被非法使用,那么就會導致個人隱私被肆意侵犯。
應辯證看待安全問題
雖然人工智能是把雙刃劍,安全威脅日益凸顯,但是回顧人類社會發展史,每一次的技術革命幾乎都是利弊共存,總會引發一些類似的爭議,而在長期的爭議當中,人類都能夠很好地適應技術創新,并逐漸化解潛在風險,實現持續進步。
同理,人工智能的發展是歷史性的,其被譽為是第四次工業革命的核心。普華永道此前發布的一項研究表明:在人工智能技術的推動下,2030年全球GDP將增長14%,相當于15.7萬億美元。所以,在光明前景下,安全問題固然需要重視,但不能讓安全問題成為人工智能發展路上的絆腳石。
人工智能產業化路途中,需要秉承全新安全觀,重視法律法規、管理手段的及時完善;要摒棄優先發展、其次治理的舊有思維,重視發展與治理并行,根據人工智能技術、產業特征,加強先期治理布局,將安全隱患扼殺在萌芽狀態。
同時,為人工智能發展設定道德倫理紅線,也是業內專家和政府達成共識的方向之一。人工智能“逃脫”人類控制可能性的存在,以及被軍事化利用、被不法利用的可能,使得在法律法規之外,還需要對人工智能產品進行倫理設計,為其賦予一定的道德判斷與行為能力,從而使其符合人類安全需求。
人工智能安全問題日益凸顯,也并非完全都是負面的。“存在問題并不可怕,關鍵要認識問題、解決問題”。安全問題的產生和發現,可以讓行業和政府能夠采取及時、有效的應對措施,保障人工智能領域的健康、可持續發展。