精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當(dāng)前位置:人工智能行業(yè)動(dòng)態(tài) → 正文

人工智能迎來寒冬,自動(dòng)駕駛汽車發(fā)展受阻

責(zé)任編輯:zsheng |來源:企業(yè)網(wǎng)D1Net  2018-08-13 18:58:18 本文摘自:電車之家

如果你相信各大公司的CEO,那么感覺可能再過幾個(gè)月全自動(dòng)駕駛汽車就要實(shí)現(xiàn)了。2015年,埃隆·馬斯克預(yù)測(cè)特斯拉將于2018年推出全自動(dòng)駕駛汽車,Google也是如此。Delphi和MobileEye計(jì)劃將于2019年推出四級(jí)系統(tǒng),Nutonomy計(jì)劃于同年在新加坡街頭部署數(shù)千輛無人駕駛出租車。通用汽車將于2019年開始生產(chǎn)全自動(dòng)駕駛汽車,這種車輛沒有方向盤,也無法讓司機(jī)介入——這些預(yù)測(cè)背后關(guān)系到的是資金的投入,這些公司紛紛下注賭軟件的發(fā)展能夠?qū)崿F(xiàn)這些大肆的宣傳。

從表面上看,似乎全自動(dòng)駕駛汽車近在眼前。Waymo已經(jīng)開始在亞利桑那州特定的公共道路上測(cè)試汽車。特斯拉和其他效仿者也紛紛開始出售功能上有限制的自動(dòng)駕駛汽車,但如果有意外情況發(fā)生,這類汽車依然需要依靠司機(jī)進(jìn)行干預(yù)。最近幾起事故,有些是致命的,但是只要系統(tǒng)不斷改進(jìn),從邏輯上說,我們距離沒有人為干預(yù)的自動(dòng)駕駛車輛不會(huì)太遠(yuǎn)了。

但是全自動(dòng)駕駛汽車的夢(mèng)想可能比我們想象中還要更加遙遠(yuǎn)。人工智能專家越來越擔(dān)心,距離自動(dòng)駕駛系統(tǒng)可以確保避免事故,可能需要數(shù)年甚至數(shù)十年。雖然自我訓(xùn)練系統(tǒng)可以應(yīng)對(duì)現(xiàn)實(shí)世界的混亂,但是紐約大學(xué)的GaryMarcus等專家則認(rèn)為重新審視這一問題不可避免,有人稱之為“人工智能的寒冬”。這種延遲可能會(huì)造成整整一代人都無法實(shí)現(xiàn)全自動(dòng)駕駛汽車,這會(huì)給那些依靠自動(dòng)駕駛技術(shù)的公司帶來災(zāi)難性的后果。

很容易理解為什么汽車公司對(duì)自動(dòng)駕駛持樂觀態(tài)度。

在過去的十年中,深度學(xué)習(xí)(一種使用分層機(jī)器學(xué)習(xí)算法,從海量數(shù)據(jù)集中提取結(jié)構(gòu)化信息的方法)已經(jīng)在人工智能和技術(shù)行業(yè)取得了驚人的進(jìn)展:它加強(qiáng)了Google搜索、Facebook的NewsFeed、將會(huì)話語音轉(zhuǎn)成文本的算法、還支持Go-playing系統(tǒng)。在互聯(lián)網(wǎng)之外,我們用機(jī)器學(xué)習(xí)檢測(cè)地震、預(yù)測(cè)心臟病,并通過攝像頭檢測(cè)行為,還有很多不計(jì)其數(shù)的創(chuàng)新。

但是深度學(xué)習(xí)需要大量的訓(xùn)練數(shù)據(jù)才能正常工作,幾乎需要涵蓋算法可能遭遇的所有情況。例如,Google圖片等系統(tǒng)非常善于識(shí)別動(dòng)物,只要有訓(xùn)練數(shù)據(jù)向他們展示每種動(dòng)物的樣子。Marcus稱這種任務(wù)為“插值”,即掃描所有被標(biāo)記為“豹貓”的圖像后,確定新圖片是否屬于同一組。

工程師可以根據(jù)數(shù)據(jù)的來源和結(jié)構(gòu)獲得創(chuàng)意,但是已有算法的范圍有嚴(yán)格的限制。除非已經(jīng)看過幾千張豹貓的圖片,否則即便是同一個(gè)算法也無法識(shí)別豹貓——即使這個(gè)算法已經(jīng)看過了家貓和美洲豹的圖片,且知道豹貓是介于兩者之間的東西。這個(gè)稱之為“通用化”的過程需要一套不同的技術(shù)。

長(zhǎng)期以來,研究人員以為他們已經(jīng)通過正確的算法提高了通用化技術(shù),但是最近的研究表明,傳統(tǒng)的深度學(xué)習(xí)在實(shí)現(xiàn)通用化方面比我們想象的更糟。一項(xiàng)研究發(fā)現(xiàn),傳統(tǒng)的深度學(xué)習(xí)系統(tǒng)甚至難以在一個(gè)視頻的不同幀上實(shí)現(xiàn)通用化,隨著背景輕微的變化,深度學(xué)習(xí)會(huì)將同一只北極熊錯(cuò)認(rèn)為狒狒、貓鼬或黃鼠狼。由于每個(gè)分類都匯總了數(shù)百個(gè)因素,因此即使是圖片微小的變化也可以徹底影響系統(tǒng)的判斷,這種現(xiàn)象被其他研究人員當(dāng)作對(duì)抗數(shù)據(jù)集使用。

Marcus指出聊天機(jī)器人熱潮就是最近炒作通用化問題的一個(gè)例子。

“我們承諾于2015年推出聊天機(jī)器人,”他說,“但是它們沒有什么幫助性,因?yàn)樗贿^是收集數(shù)據(jù)。”當(dāng)你在網(wǎng)上與人交談時(shí),你不想重新討論早期的對(duì)話。你希望他們回應(yīng)你所說的話,利用更加廣泛的會(huì)話技巧來做獨(dú)特的回應(yīng)。深度學(xué)習(xí)無法建立那種聊天機(jī)器人。最初的炒作過后,各個(gè)公司就會(huì)對(duì)聊天機(jī)器人項(xiàng)目失去信心,很少有人仍在積極地開發(fā)。

這給特斯拉和其他自動(dòng)駕駛公司帶來一個(gè)可怕的問題:自動(dòng)駕駛汽車會(huì)像圖片搜索、語音識(shí)別和其他人工智能的成功一樣不斷提高嗎?它們會(huì)像聊天機(jī)器人一樣在通用化的問題上卡殼嗎?自動(dòng)駕駛技術(shù)是插值問題還是通用化問題?駕駛真的很難預(yù)測(cè)嗎?

現(xiàn)在可能還為時(shí)過早。Marcus說:“無人駕駛汽車就像一個(gè)我們不知道答案的科學(xué)實(shí)驗(yàn)。”我們從未實(shí)現(xiàn)過這個(gè)級(jí)別的自動(dòng)駕駛,所以我們不知道它是什么類型的任務(wù)。在某種程度上,它需要識(shí)別熟悉的對(duì)象,遵守規(guī)則,現(xiàn)有的技術(shù)應(yīng)該可以勝任。但是Marcus擔(dān)心,事故多發(fā)情況下的駕駛可能比業(yè)界承認(rèn)的還要復(fù)雜。“新情況的出現(xiàn),對(duì)深度學(xué)習(xí)來說并不是一件好事。”

我們的實(shí)驗(yàn)數(shù)據(jù)來自公共事故報(bào)告,每個(gè)報(bào)告都提供了一些不尋常的難題。2016年特斯拉的那場(chǎng)車禍中,ModelS汽車由于受到拖車的高度和太陽光反射的影響,全速撞上了一輛白色半掛車的尾部,今年3月,Uber的一輛自動(dòng)駕駛汽車車禍撞死了一名推著自行車橫穿馬路(違反交通規(guī)則)的女士。根據(jù)美國(guó)國(guó)家運(yùn)輸安全委員會(huì)的報(bào)告,Uber的軟件在做其預(yù)測(cè)時(shí),首先將這位女士誤認(rèn)為不明物體,繼而錯(cuò)認(rèn)為一輛自行車,最后確認(rèn)為一輛自行車。特斯拉在加利福尼亞州的一次車禍中,ModelX在撞擊發(fā)生之前突然轉(zhuǎn)向障礙物并提速,原因至今不清楚。

每次事故看似都是一個(gè)極端的例子,工程師無法對(duì)這類的事情提前作出預(yù)測(cè)。但是幾乎每次車禍都涉及某種無法預(yù)測(cè)的情況,如果沒有通用化的能力,那么自動(dòng)駕駛車輛不得不在每次遇到這些情形的時(shí)候,當(dāng)作第一次來處理。結(jié)果將是一連串的意外事故,且隨著時(shí)間的發(fā)展,這些事故次數(shù)不會(huì)減少,危險(xiǎn)系數(shù)也不會(huì)降低。對(duì)于持懷疑態(tài)度的人來說,《無手動(dòng)操作報(bào)告》的轉(zhuǎn)變表明這種情況還將繼續(xù),且將維持一定的穩(wěn)定水平。

Drive.AI創(chuàng)始人AndrewNg是前百度的高管,也是該行業(yè)最著名的推動(dòng)者之一,他認(rèn)為問題不在于建立完美的駕駛系統(tǒng),而在于培訓(xùn)旁觀者預(yù)測(cè)自動(dòng)駕駛車輛的行為。換句話說,我們可以為汽車提供安全的道路。作為一個(gè)不可預(yù)測(cè)案例的例子,我問他是否認(rèn)為現(xiàn)代系統(tǒng)可以處理行人玩彈跳桿的行人,即使它們以前從未見過。Ng跟我說:“我認(rèn)為很多自動(dòng)駕駛車輛團(tuán)隊(duì)可以處理在人行橫道上玩彈跳桿的行人。話雖如此,在高速公路上玩彈跳桿是非常危險(xiǎn)的。”

他說:“我們應(yīng)該和政府合作,要求合法并得到人們的體諒,而不是通過人工智能來解決彈跳桿的問題。安全駕駛不僅僅與人工智能技術(shù)的質(zhì)量有關(guān)。”

深度學(xué)習(xí)不是唯一的人工智能技術(shù),許多公司已經(jīng)在探索代替方案。雖然這些技術(shù)在業(yè)界受到嚴(yán)密保護(hù)(單從最近Waymo起訴Uber就能看出來),但是許多公司已經(jīng)轉(zhuǎn)向基于規(guī)則的人工智能,這是一種較老的技術(shù),可以讓工程師將特定的行為或邏輯寫死到其他自導(dǎo)系統(tǒng)中。它沒有通過研究數(shù)據(jù)來編寫自我行為的能力(而深度學(xué)習(xí)恰恰是因?yàn)檫@種能力引起了關(guān)注),但是它可以讓這些公司避免一些深度學(xué)習(xí)的局限性。由于深度學(xué)習(xí)對(duì)基本感知任務(wù)的影響仍然非常深刻,因此很難說工程師如何才能成功地檢測(cè)出潛在的錯(cuò)誤。

身為L(zhǎng)yft董事會(huì)的風(fēng)險(xiǎn)資本家AnnMiura-Ko表示,她認(rèn)為問題的一部分是對(duì)自動(dòng)駕駛汽車本身的高度期望,所以大家將無法全自動(dòng)視為一種失敗。Miura-Ko說:“希望它們從零級(jí)一躍到五級(jí)不等于技術(shù)的失敗,更像是不應(yīng)有的期望。我認(rèn)為所有這些微小的進(jìn)步都對(duì)邁向全自動(dòng)駕駛有著非凡的意義。”

不過,我們還不清楚自動(dòng)駕駛汽車還要在目前的困境里持續(xù)多久。像特斯拉的自動(dòng)駕駛汽車等半自動(dòng)的產(chǎn)品也足夠智能,可以處理大多數(shù)的情況,但是如果發(fā)生不可預(yù)測(cè)的情況,仍然需要人為干預(yù)。

當(dāng)出現(xiàn)問題時(shí),很難判斷是汽車還是司機(jī)的問題。對(duì)于一些評(píng)論家來說,即使出錯(cuò)不能完全歸咎于機(jī)器,這種混合駕駛也不如人類駕駛員安全。根據(jù)蘭德公司一項(xiàng)研究估計(jì),自動(dòng)駕駛車輛必須在不出現(xiàn)任何死亡事件的情況下,行駛夠2.75億英里才能證明它們和人類駕駛員一樣安全。特斯拉的自動(dòng)駕駛汽車出現(xiàn)第一次死亡事件時(shí)的行駛里程數(shù)大約為1.3億英里,遠(yuǎn)遠(yuǎn)低于標(biāo)準(zhǔn)。

但是,利用深度學(xué)習(xí)控制車輛如何覺察物體并決定應(yīng)對(duì),提高事故發(fā)生率比看起來更難。杜克大學(xué)教授MaryCummings表示:“這不是一個(gè)簡(jiǎn)單的孤立問題,”他指今年早些時(shí)候Uber車禍導(dǎo)致一名行人遇難。“這起行人死亡事件中的感知決策周期是相互關(guān)聯(lián)的。由于感知的模糊導(dǎo)致了錯(cuò)誤決定(不做處理),而且因?yàn)樗鼜母兄魃系玫搅颂嗟腻e(cuò)誤警報(bào),所以導(dǎo)致沒有剎車。”

起車禍導(dǎo)致Uber暫停了夏季的自動(dòng)駕駛車工作,對(duì)其他公司計(jì)劃的推出是一個(gè)不祥之兆。在整個(gè)業(yè)界內(nèi),各大公司正在競(jìng)相爭(zhēng)取更多數(shù)據(jù)來解決問題,并假設(shè)擁有最高里程數(shù)的公司將建立最強(qiáng)大的系統(tǒng)。但是這些公司看到的是數(shù)據(jù)問題,而對(duì)于Marcus來說這是更難解決的問題。

Marcus說:“他們只是在使用他們希望能夠成功的技術(shù)。他們依靠大數(shù)據(jù),這是他們賴以生存的根本,但是沒有任何證據(jù)可以達(dá)到我們所需要的精確度。”

關(guān)鍵字:發(fā)展駕駛智能

本文摘自:電車之家

x 人工智能迎來寒冬,自動(dòng)駕駛汽車發(fā)展受阻 掃一掃
分享本文到朋友圈
當(dāng)前位置:人工智能行業(yè)動(dòng)態(tài) → 正文

人工智能迎來寒冬,自動(dòng)駕駛汽車發(fā)展受阻

責(zé)任編輯:zsheng |來源:企業(yè)網(wǎng)D1Net  2018-08-13 18:58:18 本文摘自:電車之家

如果你相信各大公司的CEO,那么感覺可能再過幾個(gè)月全自動(dòng)駕駛汽車就要實(shí)現(xiàn)了。2015年,埃隆·馬斯克預(yù)測(cè)特斯拉將于2018年推出全自動(dòng)駕駛汽車,Google也是如此。Delphi和MobileEye計(jì)劃將于2019年推出四級(jí)系統(tǒng),Nutonomy計(jì)劃于同年在新加坡街頭部署數(shù)千輛無人駕駛出租車。通用汽車將于2019年開始生產(chǎn)全自動(dòng)駕駛汽車,這種車輛沒有方向盤,也無法讓司機(jī)介入——這些預(yù)測(cè)背后關(guān)系到的是資金的投入,這些公司紛紛下注賭軟件的發(fā)展能夠?qū)崿F(xiàn)這些大肆的宣傳。

從表面上看,似乎全自動(dòng)駕駛汽車近在眼前。Waymo已經(jīng)開始在亞利桑那州特定的公共道路上測(cè)試汽車。特斯拉和其他效仿者也紛紛開始出售功能上有限制的自動(dòng)駕駛汽車,但如果有意外情況發(fā)生,這類汽車依然需要依靠司機(jī)進(jìn)行干預(yù)。最近幾起事故,有些是致命的,但是只要系統(tǒng)不斷改進(jìn),從邏輯上說,我們距離沒有人為干預(yù)的自動(dòng)駕駛車輛不會(huì)太遠(yuǎn)了。

但是全自動(dòng)駕駛汽車的夢(mèng)想可能比我們想象中還要更加遙遠(yuǎn)。人工智能專家越來越擔(dān)心,距離自動(dòng)駕駛系統(tǒng)可以確保避免事故,可能需要數(shù)年甚至數(shù)十年。雖然自我訓(xùn)練系統(tǒng)可以應(yīng)對(duì)現(xiàn)實(shí)世界的混亂,但是紐約大學(xué)的GaryMarcus等專家則認(rèn)為重新審視這一問題不可避免,有人稱之為“人工智能的寒冬”。這種延遲可能會(huì)造成整整一代人都無法實(shí)現(xiàn)全自動(dòng)駕駛汽車,這會(huì)給那些依靠自動(dòng)駕駛技術(shù)的公司帶來災(zāi)難性的后果。

很容易理解為什么汽車公司對(duì)自動(dòng)駕駛持樂觀態(tài)度。

在過去的十年中,深度學(xué)習(xí)(一種使用分層機(jī)器學(xué)習(xí)算法,從海量數(shù)據(jù)集中提取結(jié)構(gòu)化信息的方法)已經(jīng)在人工智能和技術(shù)行業(yè)取得了驚人的進(jìn)展:它加強(qiáng)了Google搜索、Facebook的NewsFeed、將會(huì)話語音轉(zhuǎn)成文本的算法、還支持Go-playing系統(tǒng)。在互聯(lián)網(wǎng)之外,我們用機(jī)器學(xué)習(xí)檢測(cè)地震、預(yù)測(cè)心臟病,并通過攝像頭檢測(cè)行為,還有很多不計(jì)其數(shù)的創(chuàng)新。

但是深度學(xué)習(xí)需要大量的訓(xùn)練數(shù)據(jù)才能正常工作,幾乎需要涵蓋算法可能遭遇的所有情況。例如,Google圖片等系統(tǒng)非常善于識(shí)別動(dòng)物,只要有訓(xùn)練數(shù)據(jù)向他們展示每種動(dòng)物的樣子。Marcus稱這種任務(wù)為“插值”,即掃描所有被標(biāo)記為“豹貓”的圖像后,確定新圖片是否屬于同一組。

工程師可以根據(jù)數(shù)據(jù)的來源和結(jié)構(gòu)獲得創(chuàng)意,但是已有算法的范圍有嚴(yán)格的限制。除非已經(jīng)看過幾千張豹貓的圖片,否則即便是同一個(gè)算法也無法識(shí)別豹貓——即使這個(gè)算法已經(jīng)看過了家貓和美洲豹的圖片,且知道豹貓是介于兩者之間的東西。這個(gè)稱之為“通用化”的過程需要一套不同的技術(shù)。

長(zhǎng)期以來,研究人員以為他們已經(jīng)通過正確的算法提高了通用化技術(shù),但是最近的研究表明,傳統(tǒng)的深度學(xué)習(xí)在實(shí)現(xiàn)通用化方面比我們想象的更糟。一項(xiàng)研究發(fā)現(xiàn),傳統(tǒng)的深度學(xué)習(xí)系統(tǒng)甚至難以在一個(gè)視頻的不同幀上實(shí)現(xiàn)通用化,隨著背景輕微的變化,深度學(xué)習(xí)會(huì)將同一只北極熊錯(cuò)認(rèn)為狒狒、貓鼬或黃鼠狼。由于每個(gè)分類都匯總了數(shù)百個(gè)因素,因此即使是圖片微小的變化也可以徹底影響系統(tǒng)的判斷,這種現(xiàn)象被其他研究人員當(dāng)作對(duì)抗數(shù)據(jù)集使用。

Marcus指出聊天機(jī)器人熱潮就是最近炒作通用化問題的一個(gè)例子。

“我們承諾于2015年推出聊天機(jī)器人,”他說,“但是它們沒有什么幫助性,因?yàn)樗贿^是收集數(shù)據(jù)。”當(dāng)你在網(wǎng)上與人交談時(shí),你不想重新討論早期的對(duì)話。你希望他們回應(yīng)你所說的話,利用更加廣泛的會(huì)話技巧來做獨(dú)特的回應(yīng)。深度學(xué)習(xí)無法建立那種聊天機(jī)器人。最初的炒作過后,各個(gè)公司就會(huì)對(duì)聊天機(jī)器人項(xiàng)目失去信心,很少有人仍在積極地開發(fā)。

這給特斯拉和其他自動(dòng)駕駛公司帶來一個(gè)可怕的問題:自動(dòng)駕駛汽車會(huì)像圖片搜索、語音識(shí)別和其他人工智能的成功一樣不斷提高嗎?它們會(huì)像聊天機(jī)器人一樣在通用化的問題上卡殼嗎?自動(dòng)駕駛技術(shù)是插值問題還是通用化問題?駕駛真的很難預(yù)測(cè)嗎?

現(xiàn)在可能還為時(shí)過早。Marcus說:“無人駕駛汽車就像一個(gè)我們不知道答案的科學(xué)實(shí)驗(yàn)。”我們從未實(shí)現(xiàn)過這個(gè)級(jí)別的自動(dòng)駕駛,所以我們不知道它是什么類型的任務(wù)。在某種程度上,它需要識(shí)別熟悉的對(duì)象,遵守規(guī)則,現(xiàn)有的技術(shù)應(yīng)該可以勝任。但是Marcus擔(dān)心,事故多發(fā)情況下的駕駛可能比業(yè)界承認(rèn)的還要復(fù)雜。“新情況的出現(xiàn),對(duì)深度學(xué)習(xí)來說并不是一件好事。”

我們的實(shí)驗(yàn)數(shù)據(jù)來自公共事故報(bào)告,每個(gè)報(bào)告都提供了一些不尋常的難題。2016年特斯拉的那場(chǎng)車禍中,ModelS汽車由于受到拖車的高度和太陽光反射的影響,全速撞上了一輛白色半掛車的尾部,今年3月,Uber的一輛自動(dòng)駕駛汽車車禍撞死了一名推著自行車橫穿馬路(違反交通規(guī)則)的女士。根據(jù)美國(guó)國(guó)家運(yùn)輸安全委員會(huì)的報(bào)告,Uber的軟件在做其預(yù)測(cè)時(shí),首先將這位女士誤認(rèn)為不明物體,繼而錯(cuò)認(rèn)為一輛自行車,最后確認(rèn)為一輛自行車。特斯拉在加利福尼亞州的一次車禍中,ModelX在撞擊發(fā)生之前突然轉(zhuǎn)向障礙物并提速,原因至今不清楚。

每次事故看似都是一個(gè)極端的例子,工程師無法對(duì)這類的事情提前作出預(yù)測(cè)。但是幾乎每次車禍都涉及某種無法預(yù)測(cè)的情況,如果沒有通用化的能力,那么自動(dòng)駕駛車輛不得不在每次遇到這些情形的時(shí)候,當(dāng)作第一次來處理。結(jié)果將是一連串的意外事故,且隨著時(shí)間的發(fā)展,這些事故次數(shù)不會(huì)減少,危險(xiǎn)系數(shù)也不會(huì)降低。對(duì)于持懷疑態(tài)度的人來說,《無手動(dòng)操作報(bào)告》的轉(zhuǎn)變表明這種情況還將繼續(xù),且將維持一定的穩(wěn)定水平。

Drive.AI創(chuàng)始人AndrewNg是前百度的高管,也是該行業(yè)最著名的推動(dòng)者之一,他認(rèn)為問題不在于建立完美的駕駛系統(tǒng),而在于培訓(xùn)旁觀者預(yù)測(cè)自動(dòng)駕駛車輛的行為。換句話說,我們可以為汽車提供安全的道路。作為一個(gè)不可預(yù)測(cè)案例的例子,我問他是否認(rèn)為現(xiàn)代系統(tǒng)可以處理行人玩彈跳桿的行人,即使它們以前從未見過。Ng跟我說:“我認(rèn)為很多自動(dòng)駕駛車輛團(tuán)隊(duì)可以處理在人行橫道上玩彈跳桿的行人。話雖如此,在高速公路上玩彈跳桿是非常危險(xiǎn)的。”

他說:“我們應(yīng)該和政府合作,要求合法并得到人們的體諒,而不是通過人工智能來解決彈跳桿的問題。安全駕駛不僅僅與人工智能技術(shù)的質(zhì)量有關(guān)。”

深度學(xué)習(xí)不是唯一的人工智能技術(shù),許多公司已經(jīng)在探索代替方案。雖然這些技術(shù)在業(yè)界受到嚴(yán)密保護(hù)(單從最近Waymo起訴Uber就能看出來),但是許多公司已經(jīng)轉(zhuǎn)向基于規(guī)則的人工智能,這是一種較老的技術(shù),可以讓工程師將特定的行為或邏輯寫死到其他自導(dǎo)系統(tǒng)中。它沒有通過研究數(shù)據(jù)來編寫自我行為的能力(而深度學(xué)習(xí)恰恰是因?yàn)檫@種能力引起了關(guān)注),但是它可以讓這些公司避免一些深度學(xué)習(xí)的局限性。由于深度學(xué)習(xí)對(duì)基本感知任務(wù)的影響仍然非常深刻,因此很難說工程師如何才能成功地檢測(cè)出潛在的錯(cuò)誤。

身為L(zhǎng)yft董事會(huì)的風(fēng)險(xiǎn)資本家AnnMiura-Ko表示,她認(rèn)為問題的一部分是對(duì)自動(dòng)駕駛汽車本身的高度期望,所以大家將無法全自動(dòng)視為一種失敗。Miura-Ko說:“希望它們從零級(jí)一躍到五級(jí)不等于技術(shù)的失敗,更像是不應(yīng)有的期望。我認(rèn)為所有這些微小的進(jìn)步都對(duì)邁向全自動(dòng)駕駛有著非凡的意義。”

不過,我們還不清楚自動(dòng)駕駛汽車還要在目前的困境里持續(xù)多久。像特斯拉的自動(dòng)駕駛汽車等半自動(dòng)的產(chǎn)品也足夠智能,可以處理大多數(shù)的情況,但是如果發(fā)生不可預(yù)測(cè)的情況,仍然需要人為干預(yù)。

當(dāng)出現(xiàn)問題時(shí),很難判斷是汽車還是司機(jī)的問題。對(duì)于一些評(píng)論家來說,即使出錯(cuò)不能完全歸咎于機(jī)器,這種混合駕駛也不如人類駕駛員安全。根據(jù)蘭德公司一項(xiàng)研究估計(jì),自動(dòng)駕駛車輛必須在不出現(xiàn)任何死亡事件的情況下,行駛夠2.75億英里才能證明它們和人類駕駛員一樣安全。特斯拉的自動(dòng)駕駛汽車出現(xiàn)第一次死亡事件時(shí)的行駛里程數(shù)大約為1.3億英里,遠(yuǎn)遠(yuǎn)低于標(biāo)準(zhǔn)。

但是,利用深度學(xué)習(xí)控制車輛如何覺察物體并決定應(yīng)對(duì),提高事故發(fā)生率比看起來更難。杜克大學(xué)教授MaryCummings表示:“這不是一個(gè)簡(jiǎn)單的孤立問題,”他指今年早些時(shí)候Uber車禍導(dǎo)致一名行人遇難。“這起行人死亡事件中的感知決策周期是相互關(guān)聯(lián)的。由于感知的模糊導(dǎo)致了錯(cuò)誤決定(不做處理),而且因?yàn)樗鼜母兄魃系玫搅颂嗟腻e(cuò)誤警報(bào),所以導(dǎo)致沒有剎車。”

起車禍導(dǎo)致Uber暫停了夏季的自動(dòng)駕駛車工作,對(duì)其他公司計(jì)劃的推出是一個(gè)不祥之兆。在整個(gè)業(yè)界內(nèi),各大公司正在競(jìng)相爭(zhēng)取更多數(shù)據(jù)來解決問題,并假設(shè)擁有最高里程數(shù)的公司將建立最強(qiáng)大的系統(tǒng)。但是這些公司看到的是數(shù)據(jù)問題,而對(duì)于Marcus來說這是更難解決的問題。

Marcus說:“他們只是在使用他們希望能夠成功的技術(shù)。他們依靠大數(shù)據(jù),這是他們賴以生存的根本,但是沒有任何證據(jù)可以達(dá)到我們所需要的精確度。”

關(guān)鍵字:發(fā)展駕駛智能

本文摘自:電車之家

電子周刊
回到頂部

關(guān)于我們聯(lián)系我們版權(quán)聲明隱私條款廣告服務(wù)友情鏈接投稿中心招賢納士

企業(yè)網(wǎng)版權(quán)所有 ©2010-2024 京ICP備09108050號(hào)-6 京公網(wǎng)安備 11010502049343號(hào)

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 武威市| 德格县| 胶南市| 哈尔滨市| 科技| 大关县| 且末县| 堆龙德庆县| 巴里| 宽城| 南乐县| 尼勒克县| 库伦旗| 哈尔滨市| 新干县| 嘉鱼县| 五指山市| 樟树市| 营口市| 太湖县| 济阳县| 汉中市| 宕昌县| 昌宁县| 夏邑县| 古浪县| 岗巴县| 邵阳市| 涡阳县| 永年县| 莱阳市| 腾冲县| 油尖旺区| 建瓯市| 武平县| 泗阳县| 浦城县| 巨鹿县| 库车县| 赫章县| 右玉县|