精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

李飛飛等人的新研究,可能讓人工智能真的不需要人了

責任編輯:zsheng |來源:企業網D1Net  2019-01-17 12:35:20 本文摘自:PingWest品玩

你可能聽說過,在河南的農村里,在非洲的城市中,每一個你想象不到的地方,有著大量的數據標注員。

他們手動在圖片里把每一只花瓶和每一輛汽車框出來,并且標上“花瓶”和“汽車”。一段時間后,這些人把成千上萬張標記好的圖片打包,發送給遠在北京、上海甚至舊金山的 AI 公司。

GQ 將這些人稱為《那些給人工智能打工的人》。

人工智能發展迅速,大大小小的互聯網科技公司相繼開展研究,投入商用。然而訓練一個可用的 AI,需要大量準確標記好的圖片、視頻等資料。

正因為此,市場對數據標注的需求如此之大,吸引“那些給 AI 打工的人”爭相加入,其中不乏原來找不到工作的閑散人員——畢竟這份工作只需要動動鼠標,用不上太多知識。

但是,恐怕不久后,這些人就將再次失業。

上周,來自約翰·霍普金斯大學、斯坦福大學和 Google 的專家聯合發布了一篇論文,介紹了他們使用神經網絡來自動搜索神經網絡,將其投入圖像分割方面的研究,并且取得的重要進展:

研究人員采用神經架構搜索 (Neural Architecture Seartch, NAS) 技術設計了一個神經架構 (A),放任它去自動搜索/設計出新的神經架構 (B),投入到圖像語義分割 (semantic image segmentation) 的任務中。

研究人員發現,這個被自動搜索出來的神經架構 B,在主流的小規模圖像數據集上,未經訓練就直接使用,表現已經超過了現有人類設計的、預先訓練好的模型。

以往人們一直相信,設計 AI 需要大量知識和經驗,簡而言之就是需要人來設計。

但現在,AI 設計出的 AI,已經比人設計出的 AI 更強。

論文的標題叫做: Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation

研究人員將這個能夠自動搜索(設計)神經架構的技術命名為Auto-DeepLab。這個名字來自于 DeepLab,Google 人工開發的圖像語義分割技術。前面加上 Auto,意思是在 DeepLab 的基礎上,新的技術可以實現了很大程度的自動化。

論文署名作者當中,兩人來自約翰·霍普金斯大學,其中第一作者是 Chenxi Liu,曾在 Google 實習;有四人來自 Google;剩下的一人來自斯坦福大學,正是原 Google Cloud 首席科學家,在計算機視覺學術和業界知名的李飛飛教授。

“本著 AutoML(編者注:Google 主導的 AI 計劃,將算法選擇,模型的超參數調整,迭代建模和模型評估等工作自動化。)和人工智能普及化的精神,對于不依賴專家經驗知識,自動設計神經網絡架構,人們的興趣有了顯著提升。”作者提到。

在“AI 自動設計 AI”這件事上,Auto-DeepLab 有幾個比較重要的新嘗試。

首先,神經架構搜索 NAS 技術是 AI 領域的新興物種,主要用于簡單的圖片分類。而在這篇論文里,研究者首次嘗試將 NAS 投入到高密度的圖片預測任務上(也就是對更復雜的高分辨率圖片進行語義分割,比如 Cityscapes 城市街景數據集、PASCAL VOC 2012 和ADE20K 等數據集)。

其次,在計算機視覺領域內的神經網絡架構,通常分為內層、外層的兩級架構,自動化的神經架構設計往往只能設計內層,外層仍需要人來設計和手調。而 Auto-DeepLab 是第一個讓 AI 掌握外層設計和調參能力,并在圖像語義分割任務上得到優異結果的嘗試。

“圖像語義分割”六個字聽上去有點拗口,其實很好理解:對于一張圖劃分幾個類別,然后將所有的像素點歸類。

比如下面這張圖,可以簡單分為三類。圖像語義分割的任務,就是判斷每一個像素點屬于人、自行車,還是背景。

需要明確的是,圖像語義分割的任務純粹是判斷像素點屬于哪個類別,它不能識別和區分獨立的物體。

不過圖像語義分割仍然有很重要的意義,比如在它可以用于手機拍照的“人像模式”。采用更優秀的圖像語義分割技術,手機能夠在更高精度的照片里確認每一個像素點,屬于人,亦或是背景。

目前 Google、小米等公司都在手機拍照上使用這一技術。理論上,未來的“人像模式”可以在毛發、衣物邊緣實現更好的效果。

以及在自動駕駛的場景里,神經網絡需要判斷擋在前面的是車、行人還是建筑物,進而采用不同策略進行躲避,這同樣需要圖像語義分割來打基礎。

從該論文體現的效果來看,Auto-DeepLab 還可以被轉移到其他任務上。言外之意,讓 AI 自動設計 AI 這件事,可能還會有很大的想象空間。

比如作者在論文最后提到,在目前的研究框架內,他們可以繼續在物體識別的方向進行研究。

如果能夠取得類似的結果,大規模使用,沒準有一天,在數據標注(特別是圖像標注)這件事上,人類標注員的成本等優勢可能也會消失。

如果人工智能可以給人工智能打工,打工效率比人還高……

“那些給人工智能打工的人”,會失去工作嗎?

關鍵字:智能研究

本文摘自:PingWest品玩

x 李飛飛等人的新研究,可能讓人工智能真的不需要人了 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

李飛飛等人的新研究,可能讓人工智能真的不需要人了

責任編輯:zsheng |來源:企業網D1Net  2019-01-17 12:35:20 本文摘自:PingWest品玩

你可能聽說過,在河南的農村里,在非洲的城市中,每一個你想象不到的地方,有著大量的數據標注員。

他們手動在圖片里把每一只花瓶和每一輛汽車框出來,并且標上“花瓶”和“汽車”。一段時間后,這些人把成千上萬張標記好的圖片打包,發送給遠在北京、上海甚至舊金山的 AI 公司。

GQ 將這些人稱為《那些給人工智能打工的人》。

人工智能發展迅速,大大小小的互聯網科技公司相繼開展研究,投入商用。然而訓練一個可用的 AI,需要大量準確標記好的圖片、視頻等資料。

正因為此,市場對數據標注的需求如此之大,吸引“那些給 AI 打工的人”爭相加入,其中不乏原來找不到工作的閑散人員——畢竟這份工作只需要動動鼠標,用不上太多知識。

但是,恐怕不久后,這些人就將再次失業。

上周,來自約翰·霍普金斯大學、斯坦福大學和 Google 的專家聯合發布了一篇論文,介紹了他們使用神經網絡來自動搜索神經網絡,將其投入圖像分割方面的研究,并且取得的重要進展:

研究人員采用神經架構搜索 (Neural Architecture Seartch, NAS) 技術設計了一個神經架構 (A),放任它去自動搜索/設計出新的神經架構 (B),投入到圖像語義分割 (semantic image segmentation) 的任務中。

研究人員發現,這個被自動搜索出來的神經架構 B,在主流的小規模圖像數據集上,未經訓練就直接使用,表現已經超過了現有人類設計的、預先訓練好的模型。

以往人們一直相信,設計 AI 需要大量知識和經驗,簡而言之就是需要人來設計。

但現在,AI 設計出的 AI,已經比人設計出的 AI 更強。

論文的標題叫做: Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation

研究人員將這個能夠自動搜索(設計)神經架構的技術命名為Auto-DeepLab。這個名字來自于 DeepLab,Google 人工開發的圖像語義分割技術。前面加上 Auto,意思是在 DeepLab 的基礎上,新的技術可以實現了很大程度的自動化。

論文署名作者當中,兩人來自約翰·霍普金斯大學,其中第一作者是 Chenxi Liu,曾在 Google 實習;有四人來自 Google;剩下的一人來自斯坦福大學,正是原 Google Cloud 首席科學家,在計算機視覺學術和業界知名的李飛飛教授。

“本著 AutoML(編者注:Google 主導的 AI 計劃,將算法選擇,模型的超參數調整,迭代建模和模型評估等工作自動化。)和人工智能普及化的精神,對于不依賴專家經驗知識,自動設計神經網絡架構,人們的興趣有了顯著提升。”作者提到。

在“AI 自動設計 AI”這件事上,Auto-DeepLab 有幾個比較重要的新嘗試。

首先,神經架構搜索 NAS 技術是 AI 領域的新興物種,主要用于簡單的圖片分類。而在這篇論文里,研究者首次嘗試將 NAS 投入到高密度的圖片預測任務上(也就是對更復雜的高分辨率圖片進行語義分割,比如 Cityscapes 城市街景數據集、PASCAL VOC 2012 和ADE20K 等數據集)。

其次,在計算機視覺領域內的神經網絡架構,通常分為內層、外層的兩級架構,自動化的神經架構設計往往只能設計內層,外層仍需要人來設計和手調。而 Auto-DeepLab 是第一個讓 AI 掌握外層設計和調參能力,并在圖像語義分割任務上得到優異結果的嘗試。

“圖像語義分割”六個字聽上去有點拗口,其實很好理解:對于一張圖劃分幾個類別,然后將所有的像素點歸類。

比如下面這張圖,可以簡單分為三類。圖像語義分割的任務,就是判斷每一個像素點屬于人、自行車,還是背景。

需要明確的是,圖像語義分割的任務純粹是判斷像素點屬于哪個類別,它不能識別和區分獨立的物體。

不過圖像語義分割仍然有很重要的意義,比如在它可以用于手機拍照的“人像模式”。采用更優秀的圖像語義分割技術,手機能夠在更高精度的照片里確認每一個像素點,屬于人,亦或是背景。

目前 Google、小米等公司都在手機拍照上使用這一技術。理論上,未來的“人像模式”可以在毛發、衣物邊緣實現更好的效果。

以及在自動駕駛的場景里,神經網絡需要判斷擋在前面的是車、行人還是建筑物,進而采用不同策略進行躲避,這同樣需要圖像語義分割來打基礎。

從該論文體現的效果來看,Auto-DeepLab 還可以被轉移到其他任務上。言外之意,讓 AI 自動設計 AI 這件事,可能還會有很大的想象空間。

比如作者在論文最后提到,在目前的研究框架內,他們可以繼續在物體識別的方向進行研究。

如果能夠取得類似的結果,大規模使用,沒準有一天,在數據標注(特別是圖像標注)這件事上,人類標注員的成本等優勢可能也會消失。

如果人工智能可以給人工智能打工,打工效率比人還高……

“那些給人工智能打工的人”,會失去工作嗎?

關鍵字:智能研究

本文摘自:PingWest品玩

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 库车县| 长泰县| 南开区| 罗山县| 庆城县| 洪泽县| 深圳市| 信丰县| 柘荣县| 兴和县| 银川市| 湄潭县| 浦北县| 江都市| 萝北县| 安宁市| 高青县| 曲水县| 山阴县| 苏尼特左旗| 大冶市| 延川县| 高雄市| 柞水县| 新和县| 渝中区| 墨脱县| 改则县| 高州市| 逊克县| 尚义县| 雅安市| 黑龙江省| 太原市| 资中县| 虎林市| 宝丰县| 长治市| 新绛县| 融水| 隆德县|