為了打破圍繞人工智能的爭論和炒作,VentureBeat與該領域杰出人士交談,由于多年來與世界上一些最大的科技和工業公司合作,讓他們對人工智能的正確做法有了自己的看法。
以下是Google Brain聯合創始人吳文達,ML和Fast Forward Labs創始人希拉里·梅森(Hilary Mason),Facebook AI Research創始人Yann LeCun和埃森哲工智全球能負責人Rumman Chowdhury博士的見解。我們可以了解他們眼中2018年的關鍵里程碑,以及他們認為2019年將會發生什么。
在對今年的回顧和對未來的預測中,一些人表示,隨著越來越多的人了解人工智能能做什么和不能做什么,他們很少聽到終結者般人工智能末日的場景。但這些專家也強調,在推進人工智能的同時,該領域的計算機和數據科學家仍需要采取負責任的道德規范。
Rumman Chowdhury博士
Rumman Chowdhury博士是埃森哲應用智能部門的常務董事,也是其負責任的人工智能計劃的全球負責人,并于2017年入選BBC的100名女性名單。去年,她在波士頓與Affectiva會議圍繞人工智能討論信任問題。她經常就這個話題向世界各地的觀眾發表講話。
為了節省時間,她通過電子郵件回答了有關2019年人工智能預測的問題。本文中其他人的所有回復都在電話采訪中分享。
Chowdhury在2018年表示,她很高興看到公眾對人工智能的能力和限制有了更多的了解,并且聽到了對人工智能帶來的威脅的更均衡的討論,除了擔心像“終結者”這樣的智能機器全球接管。 “隨之而來的是關于隱私和安全的意識和問題的增加,以及人工智能在塑造我們和后代方面可能發揮的作用。”她說。
然而,公眾對人工智能的認識仍然不是她認為需要的地方。在未來的一年里,Chowdhury希望看到更多的人利用教育資源來理解人工智能系統,并能夠機智地質疑人工智能決策。
她對AI生態系統中的技術公司和人們開始考慮其工作的倫理影響的速度感到驚喜。但她希望看到人工智能社區做得更多,“不止是發出道德信號,要轉向實際行動”。
“至于道德和人工智能領域 – 不止是電車難題 - 我希望看到我們深入研究AI將提出的難題,那些沒有明確答案的問題。支持AI和物聯網的監控的“正確”平衡是什么,既能保證安全,又能抵制懲罰性監控狀態,卻深化現有的種族歧視?我們應該如何塑造先進技術收益的再分配,以便我們不會進一步擴大富人和窮人之間的鴻溝?對兒童的接觸水平允許他們成為“AI本地人”,但不會被操縱或同質化?我們如何使用人工智能來擴展和自動化教育,但仍然能夠使創造力和獨立思想得以蓬勃發展?”她問道。
在未來一年,Chowdhury預計將在全球范圍內看到更多的政府審查和技術監管。
“人工智能和全球科技巨頭所掌握的權力,引發了很多關于如何規范行業和技術的問題,”她說,“在2019年,我們將不得不開始找到這些問題的答案,當一項技術是一種多用途工具,具有特定背景下的結果時,你如何規范技術?你如何制定既不扼殺創新、也不偏袒大公司(誰來承擔合規成本)、又不偏袒小公司的監管規定?我們在什么層面上進行監管?國際嗎?國家嗎?當地的?”
她還希望看到人工智能在地緣政治問題上的作用不斷演變。
“這不僅僅是一項技術,而是一種經濟和社會的塑造。我們在這項技術中反思、擴大和鞏固我們的價值觀,我們的行業需要對我們構建的內容以及我們如何構建它的影響少點天真。”她說。為了實現這一目標,她認為人們需要摒棄人工智能行業中常見的想法,即如果我們不構建它,中國就會超越我們,仿佛只有這種創造才是力量所在。
“我希望監管機構,技術專家和研究人員意識到,我們的AI競賽不僅僅是計算能力和技術敏銳性,就像冷戰不只是核能力一樣。”她說, “我們有責任以更公正,更公平,更公開的方式重建世界,同時我們有難得的機會。這個時刻是短暫的;我們不要浪費它。”
在消費者層面,她認為2019年將會在家中更多地使用人工智能。許多人已經習慣于使用Google Home和Amazon Echo等智能揚聲器,以及一系列智能設備。在這方面,她很想知道消費電子展是否會在1月的第二周在拉斯維加斯拉開序幕,這可能會進一步將人工智能整合到人們的日常生活中。
“我想我們都在期待一個機器人管家的到來。”她說。
吳恩達
當我們聽到吳恩達在會議或在線課程中講話時,我們總是笑得比想象中的要多,也許是因為很容易和一個充滿激情并且玩得開心的人一起大笑。
吳恩達是斯坦福大學計算機科學副教授,由于種種原因,他的名字在AI圈子中無人不知。
吳恩達是Google Brain的聯合創始人,該公司致力于將人工智能推廣到谷歌的許多產品中,,也是Landing AI的創始人,該公司幫助企業將AI整合到他們的運營中。
吳恩達還是YouTube和Coursera上一些最受歡迎的機器學習課程的講師,Coursera是他創立的一家在線學習公司,他還創立了deeplearning.ai,并撰寫了《深度學習渴望》一書。
在谷歌工作了三年多,2017年,他離開了他的職位,擔任百度的首席人工智能科學家,百度是另一家技術巨頭,他幫助其轉型為人工智能公司。
最后,他還是1.75億美元人工智能基金和無人駕駛汽車公司Fast.ai的董事會成員。
本月早些時候,吳恩達在發布《人工智能轉型指南》時與VentureBeat進行了交談,這是一本關于起亞如何釋放人工智能對其公司積極影響的簡短讀物。
他希望在2019年看到的一個主要進展或變化領域是AI被用于科技或軟件公司以外的應用程序。他說,人工智能領域最大的未開發機會超出了軟件行業的范疇,他援引麥肯錫一份報告中的用例稱,到2030年,人工智能將創造13萬億美元的GDP。
“我認為明年(2019年)要講的很多故事都將出現在軟件行業以外的人工智能應用中。作為一個行業,我們在幫助谷歌和百度以及Facebook和微軟等公司(我和它們沒有任何關系)方面做得不錯,但即使像Square和Airbnb,Pinterest這樣的公司也開始使用一些人工智能功能。我認為,下一次巨大的價值創造浪潮將是你可以讓制造公司或農業設備公司或醫療保健公司開發數十種人工智能解決方案來幫助他們的業務。”
和Chowdhury一樣,吳恩達對2018年AI能做什么和不能做什么的理解的增長感到驚訝,并且很高興能夠在不關注殺手機器人場景或害怕人工智能的情況下進行對話。
吳恩達說,他故有意回答我們提出的問題,并給出了很多他沒想別人也這么想的答案。
“我試圖有意地引用幾個我認為對實際應用非常重要的領域。我認為人工智能的實際應用存在障礙,我認為在這些問題上,一些領域取得了有希望的進展。”他說。
在未來的一年里,吳恩達很高興看到AI / ML研究中兩個特定領域的進展有助于推動整個領域的發展。一個是人工智能,可以用較少的數據得出準確的結論,一些人在該領域稱為“少樣本學習”。
“我認為第一波深度學習進展主要在于大公司,它們擁有大量的數據,可以訓練非常大的神經網絡,是吧?因此,如果你想構建語音識別系統,請使用100,000小時的數據進行訓練。想訓練機器翻譯系統?用平行語料庫的數量對句子進行訓練,這會產生很多突破性的結果。”吳恩達說,“我越來越多地看到在小數據上的結果,即使你有1000張照片,你也想在這些小數據上獲取結果。”
另一個是計算機視覺的進步,稱為“通用可見性”。“如果用斯坦福大學高端x光機拍攝的原始圖像訓練電腦視覺系統,效果可能會很好。”許多先進的公司和該領域的研究人員已經創造出了比人類放射學家更出色的系統,但它們并不是很靈活。
“但是,如果你采用訓練有素的模型,并將其應用于從低端X光機拍攝的X射線或從不同的醫院拍攝,其中圖像有點模糊,也許X射線技術人員有意讓患者略微向右轉,所以角度有點偏離,事實證明,人類放射科醫師在推廣這一新環境方面比今天的學習算法要好得多。因此,我認為有趣的研究正在嘗試提高新領域學習算法的普遍性。”他說。
Yann LeCun
Yann LeCun是??紐約大學的教授,Facebook首席人工智能科學家,Facebook AI Research(FAIR)的創始董事,該公司創建了PyTorch 1.0和Caffe2,以及許多人工智能系統 - 就像文本翻譯人工智能工具,Facebook每天使用數十億次或使用高級強化學習系統。
LeCun認為,FAIR在其研究和工具中采用的開源政策,有助于推動其他大型科技公司做同樣的事情,他認為這已經將AI領域作為一個整體推進。 LeCun上個月在NeurIPS會議和FAIR五周年之際與VentureBeat進行了交談,他描述FAIR是一個組織,對機器學習的技術、數學感興趣,使其全部起作用。
“當更多人就研究進行溝通時,整個領域的進展更快,這實際上會產生非常大的影響。”他說,“你今天在人工智能中看到的進步速度很大程度上是因為更多的人比以往更快、更有效率地進行更開放的研究。”
在倫理方面,LeCun很高興看到在簡單考慮工作的倫理影響和偏見決策的危險方面取得的進展。
“這些人們本應該注意的問題現在終于開始得到關注了。但在兩三年前情況并非如此。”他說。
LeCun表示他不相信人工智能中的道德和偏見已經成為一個需要立即采取行動的主要問題,但他認為人們應該做好準備。
他說:“我認為還有......重大的生死問題需要緊急解決,但問題會出現,我們需要......了解這些問題,并在這些問題發生之前加以預防。”
與吳恩達一樣,LeCun希望看到更多的AI系統具有靈活性,可以產生強大的AI系統,不需要原始輸入數據或精確條件來實現精確輸出。
LeCun表示,研究人員已經可以通過深度學習很好地管理感知,但缺少的部分是對完整AI系統整體架構的理解。
他說,通過觀察世界訓練機器來學習將需要自我監督學習或基于模型的強化學習。
“不同的人給它起了不同的名字,但從本質上說,人類嬰兒和動物通過觀察了解世界是如何運轉的,并弄清楚關于它的大量背景信息,而我們還不知道如何用機器做到這一點,但這就是一個巨大的挑戰。”他說,“這實質上是在人工智能和機器方面取得真正進展,讓人們擁有一些常識和虛擬助理,與之交談不會令人沮喪,話題和討論范圍也會更廣。”
對于將在Facebook內部提供幫助的應用程序,LeCun表示在自我監督學習方面取得的重大進展將非常重要,同時人工智能需要更少的數據來反饋準確的結果。
“在解決這個問題的過程中,我們希望找到減少任何特定任務所需的數據量的方法,如機器翻譯或圖像識別或類似的事情,我們已經在這方面取得了進展;我們已經通過弱監督或自我監督學習翻譯和圖像識別,對Facebook使用的服務產生了影響。因此,這些事情不僅僅是長期的,它們也會產生非常短期的后果。”他說。
在未來,LeCun希望看到在人工智能方面取得的進展,能夠在事件之間建立因果關系。這不僅是通過觀察來學習的能力,也是通過實際的理解來學習的能力,例如,如果人們帶雨傘,可能會下雨。
“那將是非常重要的,因為如果你想讓一臺機器通過觀察來學習世界的模型,它必須能夠知道它可以影響什么,從而改變世界的狀態,還有一些事情是你做不了的。” 他說,“你知道,如果你在一個房間里,桌子就在你面前,它上面有一個物體,比如一個水瓶,你知道你推動水瓶,它會移動,但你不能移動桌子,因為它很大很重,這樣的事情與因果關系有關。”
希拉里·梅森
在Cloudera于2017年收購Fast Forward Labs之后,希拉里·梅森成為了Cloudera的機器學習負責人。Fast Forward Labs雖然吸收了Cloudera,但仍在運作中,提供應用機器學習報告,并幫助客戶預測未來六個月到兩年的情況。
人工智能在2018年讓梅森感到驚訝的一個進步與多任務學習有關,它可以訓練單個神經網絡,在推斷例如圖像中看到的物體時應用多種標簽。
Fast Forward Labs也一直在為客戶提供有關AI系統倫理影響的建議。梅森認為有必要建立某種道德框架。
“這是自從我們創建Fast Forward以來的事情,所以,五年前就開始了,我們一直在撰寫關于道德規范的報告,但是今年[2018]人們已經真正開始接受并關注,我想明年我們“會開始看到公司和那些不關注這個問題的人們在這個領域嘗到的后果或承擔的責任。”梅森說,“我沒有說清楚的是,我希望數據科學和人工智能的實踐發展成為默認的期望,技術人員和商業領袖創建AI產品將考慮道德和偏見問題,而今天并不是任何人都想到這些問題,把它們當做一種默認。”
隨著更多AI系統成為未來一年業務運營的一部分,梅森預計產品經理和產品負責人將開始在AI方面做出更多貢獻,因為他們處于最佳狀態。
“我認為很明顯是那些了解整個產品的人,并且理解企業了解什么是有價值的,什么是沒價值的,他們處于最佳位置,能夠決定他們應該在哪里投資。”她說,“所以,如果你想要我預測,我想,就像我們希望所有這些人都能使用電子表格這樣簡單建模,我們很快就會期望他們在認識到自己產品中的人工智能機會時,也能有這家的簡單能力。
人工智能的民主化,或者擴張到數據科學團隊以外的公司的角落,是幾家公司所強調的,包括Kubeflow Pipelines和AI Hub等Google Cloud AI產品,以及CI&T咨詢公司的建議,以確保AI系統實際上是在公司內使用。
梅森還認為,越來越多的企業需要形成結構來管理多個人工智能系統。
就像有時用于描述在DevOps中工作的人所面臨的挑戰的類比,梅森說,管理單個系統可以使用手動部署的自定義腳本完成,而cron作業可以管理幾十個。但是,當你管理數十個或數百個系統時,在具有安全性、治理和風險要求的企業中,你需要專業、強大的工具。
她說,企業正在從擁有一定能力甚至是聰明才智轉變為有系統地追求機器學習和人工智能機會。
由于Cloudera最近推出了自己的基于容器的機器學習平臺,因此強調部署AI的容器對梅森來說很有意義。 她相信這種趨勢將在未來幾年繼續,因此公司可以選擇在云中部署和內部部署AI作出選擇。
最后,梅森認為,人工智能的業務將繼續發展,在整個行業內,而不僅僅是在單個公司內,會有共同的實踐。
“我認為我們將看到人工智能專業實踐的不斷發展。”她說, “現在,如果你是一家公司的數據科學家或ML工程師,而你跳槽到另一家公司,你的工作將完全不同:不同的工具,不同的期望,不同的報告結構。我想我們會看到這種一致性。”她說。