Brockman讓Stripe繼續從事AI工作,從頭開始建立知識庫。他與在大學里成為朋友的研究人員重新聯系,閱讀有關機器學習基礎知識的書籍,并與Y Combinator總裁Sam Altman聯系。幸運的是,奧特曼一直在考慮啟動AI實驗室。
該實驗室成長為OpenAI,其中包括Altman,Elon Musk,LinkedIn執行主席Reid Hoffman,Peter Thiel以及其他業界巨頭作為其支持者。其聲明的目標是“建立安全的人類AI”,并通過機器人,游戲和數據集生成方面的突破性研究推進人工智能領域。
展望本周(將流于強人工智能國會山聽證會在這里上午10:30東部時間6月26日),布羅克曼與VentureBeat的談到了深度學習,需要一些關于AI的討論和辯論的最新進展,并研究人員和政策制定者可能會解決“ AI偏見問題”。
這是我們采訪的編輯記錄。
VentureBeat:“紐約時報”最近有一篇有趣的文章引用了一些研究人員的觀點,他們認為如果我們想要實現人類智能,我們將不得不超越深度學習。您認為我們距離它有多遠,您認為現有方法可以做到嗎?
格雷格布羅克曼:我認為這個問題的框架并不完全正確。
所有AI系統都有三個功能:數據,計算和算法。我們生活在這個非常罕見,珍貴的標記數據集的世界中,現在我們開始看到[OpenAI] 為能夠使用未標記數據的語言發布的模型。他們閱讀了數以千計的書籍,并且不要求你去仔細地應用這些標簽,最后,給你一個可以閱讀互聯網和這些龐大的語料庫的系統。
我們在數據方面做的第二件事就像[Dota 2-playing AI] OpenAI Five。它每天都會對自己進行180年的游戲,這是使用計算機生成數據的一個例子。
在計算方面,在過去幾個月中,我們發布了一篇文章 ,了解過去六年中深度學習模型的計算能力。你可以看到,最大的人工智能訓練每3.5個月增加一倍,增加300,000倍。從這個角度來看,有點像六年后,智能手機電池從持續的一天變為持續800年。
這帶給我們算法。到目前為止我們所做的一切都涉及簡單的想法,但這些是正確的簡單想法嗎?他們會走得更遠嗎?事實是我們還沒有打到它們,所以我們不知道 - 我們不知道它們是否會崩潰......我們有點迷霧,我們將會在那場大霧直到景觀停止變化如此迅速。
VentureBeat:人工智能的概念 - 所謂的超智能AI - 對一些人來說很關心。你將在國會面前作證的部分內容是圍繞它的潛在危險及其如何使用,以及在我們達到這一點之前制定政策的重要性。那么,在我們擁有不可預測的智能系統之前,確切地建立什么是必要的?我們需要什么框架?
布羅克曼:我認為這是關鍵,對吧?我們所談論的這項技術有可能成為我們創造的最積極的事情,而且這是[OpenAI]非常認真考慮的事情。
我認為這一切都歸結為一個核心理念:人工智能有可能導致極快的變化。當你迅速改變時,政策機制和社會規范 - 人們如何聯系并融入系統 - 很難跟上。
政府在政策層面做的最重要的事情就是制定衡量政策的方法。未來很難預測,部分原因是對現在的了解很少。我們實際上已經在OpenAI上開展了許多不同的計劃 - 例如人工智能指數 - 這些計劃是決策的關鍵,但還有很多問題需要回答。
VentureBeat:具體的例子怎么樣?我想了解一下AI應該受到限制的方式。我正在談論在戰爭和其他有爭議的領域中使用的人工智能。你認為我們應該關注走這條路嗎?
布羅克曼:對于任何具有變革性的技術,進行這些對話非常重要。沒有一個簡單的答案,我不相信我一個人或單獨的OpenAI是正確的回答方。
我們花了很多精力在Open AI的章程上。這是兩年的政策研究,旨在弄清楚我們認為安全和負責任的人工智能開發及其意義。這些都是我們所關注的問題,但對我來說最重要的是這個對話中有很多利益相關者。這對于人們正在進行和談論的公開辯論來說非常重要。
所以你知道,我認為,如果你看一下具體的應用,我們的監管機構就能很好地幫助確保這些技術的實用性和積極性。在某些情況下,我們設置得很好,而在其他情況下,并沒有那么多。
VentureBeat:最近新聞中出現了很多關于人工智能道德的問題。顯而易見的例子是[有爭議的無人機計劃] Project Maven和亞馬遜的[面部識別平臺] Rekognition。您是否認為公司有責任制定有關人工智能使用的政策,或者他們必須與政府共同做些什么?
Brockman:其中一些應該是個案......有了一種技術[像一般的人工智能],我很清楚它會影響每個人,對吧?如果它影響到每個人,你需要進行公開對話。其中一個核心問題是AI將創造如此多的好處 - 它不應該被鎖定在任何一個實體中。它應該是我們分享并廣泛分發的東西。
這就是為什么我認為舉行國會聽證會以及讓我們進行公開對話對我們如此重要的原因之一,因為現在很難將信號與噪音分開 - 即使對于場內人士來說也是如此。
我們需要深入了解正在發生的事情,正在推動的進展以及未來幾年將會發生什么。這是一個非常棘手的問題 - 我們面臨著一些真正的挑戰 - 但我認為通過正確的數據進行真實的對話,我們將有機會做到正確。
VentureBeat:最后一個問題。AI中的偏見是一個經常被討論的問題,而人工的一般情報可能會使“ 黑匣子 ”問題更加嚴重。在我們最終完成難以理解的系統之前,我們是否應該考慮解決這個問題?
布羅克曼:我認為這里存在一系列問題,從我們今天的系統看到的問題到你可以開始看到未來系統的問題......即使數據很好,如果這些系統設置在錯誤的方式 - 例如,如果他們被給予了錯誤的目標 - 他們最終會以令人驚訝的方式行事。那么如何確保AI系統能夠實現您的意圖并且無偏差地運行?這些都是非常重要的開放性問題。
建立這個人工智能安全領域非常重要。有一件事是很好的,公司有極大的動力來做到這一點......但是代表我們采取行動的更強大的系統沒有得到很好的探索,因為我們還沒有建立這些系統。我們已經接近了 - 我們開始看到像OpenAI Five這樣的東西 - 但是我們還沒有這樣做,而且我認為對我們來說,擺脫問題而不是追趕是非常重要的。