2017年伊始的一兩個月,每天網上會發布大量關于2017年技術趨勢的文章。而這些最主要的技術趨勢之一是“智能應用”。而近年來的智能應用日益增多。預計未來10年內,幾乎所有的數字應用都將擁有某種人造智能。而優先考慮郵件和功能關鍵信息的VPA(虛擬個人助理)已經被廣泛使用。
許多智能助手已經由蘋果公司Siri,谷歌Google和微軟科爾塔納等科技巨頭開發。雖然用戶可以利用這些助手的有限選項,但隨著時間的推移,這些助手的研發進度將會越來越快。
Oracle和Salesforce也在廣泛使用人工智能的不同營銷和銷售產品。消費市場也期待著很多機會,比如營養師,私人教練,財務顧問,個人購物助理,日歷和電子郵件管理員。
Faceboo公司創始人馬克·扎克伯格為自己的住宅建立了自己的人工智能控制助手。
“Jarvis”是扎克伯格在2016年建立智能應用的一個很好的例子,扎克伯格通過Jarvis可以在他的電話和個人電腦上聊天。Jarvis可以監管他的住宅,包括電器,燈光,安全,音樂等等。
Jarvis設備還會了解扎克伯格的習慣和品味,并有潛力學習更多的未來概念。而有趣的事實上Jarvis設備的發音是演員摩根·弗里曼進行的配音。
Jarvis使用許多人工智能技術,如語音識別,自然語言處理,強化學習和面部識別,用PHP,Objective-C和Python編寫。
扎克伯格使用一個信使機器人來與Jarvis進行交互,允許Jarvis將音頻剪輯和文本轉換為需求。當有人到達他家的門口時,Jarvis發送一個圖像來顯示誰來拜訪。
物聯網相關設備的革命加速了數據網絡復雜性。煙霧報警器,智能插座,電子門鎖,照明自動化和安全攝像機只是一個開始。從Siri到自駕車,人工智能正在迅速推進。
為什么研究人工智能的安全性很重要?
在短期內,人工智能對社會的影響從經濟學到技術主題幾個方面激發了人們的研究熱情,如有效性,驗證,安全和控制。但是,如果筆記本電腦遭到黑客入侵或崩潰,可能不僅僅是一個小問題。因為用戶會期望人工智能系統做其想要的事情。
從長遠來看,這些革命技術可能有助于人類消除戰爭,疾病和貧困。這意味著人造智能的創造可能是人類歷史上最大的事件之一。
人工智能有什么危險嗎?
研究這項技術的研究人員認為,超智能的人工智能不太可能揭示像焦慮或愛情這樣的人類情感。此外,沒有理由期望人工智能有惡意或關心人類。
·人工智能被編程做一些令人痛心的事情-人工智能系統,如自主武器編程殺死。如果這些武器被人們誤認為是壞事,這些武器很容易造成大規模傷亡。這是一個嚴重的風險,研究人員,這也是存在于狹義人工智能。
人工智能所涉及的風險包括:
·人工智能被編程實施一些令人痛心的事情,人工智能系統(如自主武器)被編程為殺死人類。如果這些武器由于人為而錯誤處理,這些武器很容易造成大量傷亡。這對于研究人員來說是一個嚴重的風險,這也是狹隘的人工智能。
·人工智能被編程為做某些有益的事情,但它創造了一個苛刻的方法來實現其目標。而當人們未能完全將人工智能的目標與其目標完全一致時,可以看出這一結果。
機器人將保護人們免受災難
人工智能機器人可以解決照顧老齡化人口方面面臨的挑戰,還將盡量減少交通事故和死亡人數。還可以對福島電廠的核災難等危險情況進行災難響應。
研究人員正在讓人工智能為人類工作,而不是傷害人類
·真正的機器智能需要更多的培訓和現實生活體驗
為了教育智能機器,人類需要對大量數據進行實驗和訓練機器學習方法,其中大部分未明確標識。
這意味著更多的工作可以用于培訓計算機,并使他們了解新的領域,并提供復雜的服務,以幫助推動更好的決策,增強用戶和客戶的參與度以及更高效的工作環境。
許多大數據解決方案提供商涵蓋了Jarvis技術,人工智能的風險和收益,人工智能的使用以及如何創造更多的就業機會。馬克·扎克伯格采用Jarvis管理他的住宅,但是研究人員正在致力于人工智能,以多種方式幫助人類。