從歷史上看,快速發展和變革的時期帶來了極大的不確定性。哈佛大學經濟學家約翰·肯尼斯·加爾布雷斯在1977年出版的《不確定時代》一書中寫到了這樣一個時期,他在書中討論了市場經濟的成功,但也預測了一段不穩定、低效率和社會不公平的時期。
AI不斷增長的足跡
AI在日常生活中的影響已經變得越來越明顯。從AI生成的歌曲,到莎士比亞風格的haikus,再到自動駕駛汽車,再到可以模仿失去的親人的聊天機器人,再到幫助我們工作的AI助手,這項技術正開始變得無處不在。
隨著AI的快速發展,AI很快就會變得更加普遍。沃頓商學院教授伊桑·莫里克最近寫了一篇關于專業工作未來的實驗結果。這項實驗以波士頓咨詢集團的兩組顧問為中心。每一組都被分配了各種共同的任務。一組人能夠使用目前可用的AI來加強他們的努力,而另一組人則不能。
莫里克報告說:“使用AI的咨詢師平均多完成12.2%的任務,完成任務的速度比不使用AI的人快25.1%,產生的結果質量也比不使用AI的人高40%。”
當然,大型語言模型(LLM)中固有的問題,如虛構和偏見,可能會導致這股浪潮消散--盡管現在看來這不太可能。雖然這項技術已經展示了其顛覆性的潛力,但我們還需要幾年時間才能體驗到海嘯的力量。下面讓我們來看看即將發生的事情。
下一波AI模型
下一代LLM將比目前的GPT-4(OpenAI)、Palm 2(Google)、Llama(Meta)和Claude 2(Anthropic)更復雜、更通用。埃隆·馬斯克的新創業公司Xai很可能也會有一位新的、可能非常有能力的模特參賽者。推理、常識和判斷等能力仍然是這些模型面臨的巨大挑戰。然而,我們可以預期在這些領域中的每一個方面都會取得進展。
在下一代LLM中,《華爾街日報》報道稱,Meta正在研究一種至少與GPT-4一樣能力的LLM。根據這份報告,這預計將在2024年的某個時候出現。我們有理由預計,OpenAI也在致力于他們的下一代,盡管他們在討論計劃時一直保持沉默。這很可能不會持續太久。
根據目前掌握的信息,最具實質性的新模式是谷歌大腦和DeepMind AI團隊聯合推出的《雙子座》。雙子座可能遠遠超過目前的任何一種。Alphabet首席執行官桑達爾·皮查伊去年5月宣布,該模型的培訓已經開始。
皮查伊當時在一篇博客中說:“雖然還很早,但我們已經看到了令人印象深刻的多式聯運功能,這是以前的車型所沒有的。”
多模式意味著它可以處理和理解多種類型的數據輸入(文本和圖像),作為基于文本和基于圖像的應用程序的基礎。對以前模型中沒有看到的功能的引用意味著可能會有更大的緊急或意想不到的質量和行為。當前這一代的一個新例子是創建計算機代碼的能力,因為這不是一種預期的能力。
一把瑞士軍刀的AI模型?
有報道稱,谷歌已經允許一小部分公司使用雙子座的早期版本。其中之一可能是久負盛名的半導體研究公司Semianalys。根據該公司的一篇新帖子,雙子座可能比目前市場上的GPT-4型號先進5到20倍。
雙子座的設計可能會基于DeepMind在2022年披露的Gato。VentureBeat去年的一篇文章報道:“深度學習轉換器模型被描述為‘多面手代理’,聲稱執行604個不同的、大多是平凡的任務,具有不同的形式、觀察和動作規范。它被稱為AI模型中的瑞士軍刀。顯然,它比迄今開發的其他AI系統更通用,在這方面似乎是朝著通用人工智能(AGI)邁出的一步。“
走向AGI
根據微軟的說法,GPT-4已經被認為顯示了“AGI的火花”,能夠“解決跨越數學、編碼、視覺、醫學、法律、心理學等領域的新的和困難的任務,而不需要任何特殊的提示。”通過超越所有現有模式,雙子座確實可能是邁向AGI的一大步。據猜測,雙子座將以幾個級別的模型能力發布,可能在幾個月內發布,也可能在今年年底之前開始發布。
盡管雙子座可能會令人印象深刻,但預計會有更大、更復雜的車型。Infltion AI的首席執行官兼聯合創始人、DeepMind的聯合創始人穆斯塔法·蘇萊曼在接受《經濟學人》的一次對話時預測,“在接下來的五年里,前沿模型公司--我們這些處于尖端的公司正在培訓最大的AI模型--將訓練出比你今天在GPT-4中看到的模型大一千倍以上的模型。”
這些模型的潛在應用和對我們日常生活的影響可能是無與倫比的,有可能帶來巨大的好處,但也有可能增加危險。《名利場》引用紐約大學哲學和神經科學教授戴維·查爾默斯的話說:“這樣做的好處是巨大的,也許這些系統能找到治愈疾病的方法,解決貧困和氣候變化等問題,而這些都是巨大的好處。”文章還討論了潛在的風險,引用了專家對可怕結果的預測,包括人類滅絕的可能性,概率估計從1%到50%不等。
人類主宰歷史的終結?
在《經濟學人》的對話中,歷史學家尤瓦爾·諾亞·哈拉里表示,AI發展的這些即將到來的進步不會標志著歷史的結束,而是“人類主導歷史的結束”。歷史將繼續,在其他人的控制下。我認為這更像是一次外星人入侵。
蘇萊曼反駁說:AI工具將不會有代理,這意味著它們不能做人類賦予它們的能力之外的任何事情。哈拉里隨后回應說,這種未來的AI可能會比我們更智能。你如何阻止比你更聰明的人發展代理呢?有了機構,AI可以采取可能不符合人類需求和價值觀的行動。
這些下一代模型代表著AGI的下一步,以及AI變得更有能力、更完整、對現代生活不可或缺的未來。盡管我們有充分的理由抱有希望,但這些預期中的新進展為監管和監管的呼聲增添了更多動力。
監管難題
即使是制造前沿模型的公司的領導人也同意,監管是必要的。9月13日,在許多人聯合出現在美國參議院后,《財富》雜志報道稱,他們“松散地支持政府監管的想法”,“對于監管將是什么樣子幾乎沒有達成共識。”
這次會議是由參議員查克·舒默組織的,他后來討論了制定適當法規所面臨的挑戰。他指出,AI在技術上是復雜的,不斷變化,并且“在全世界產生了如此廣泛、廣泛的影響”。
監管AI甚至可能在現實中都不可能。首先,大部分技術都是以開源軟件的形式發布的,這意味著它實際上是任何人都可以使用的。僅此一點就可能使許多監管努力出現問題。
進行合乎邏輯和理智的規范
一些人看到了AI領導人支持監管戲劇性的公開聲明。MarketWatch報道了長期在硅谷擔任高管、C3 AI現任首席執行官湯姆·西貝爾的觀點:“AI高管正在與立法者玩繩索興奮劑游戲,要求他們請監管我們。但沒有足夠的資金和智力資本來確保數百萬算法的安全。他們知道這是不可能的。
這可能確實是不可能的,但我們必須做出嘗試。正如蘇萊曼在他與《經濟學人》的對話中所指出的:“現在是我們必須采取預防原則的時刻,不是通過任何散布恐懼的人,而是作為一種合乎邏輯、合情合理的方式來進行。”
隨著AI從狹隘的能力迅速發展到AGI,前景是廣闊的,但危險是深遠的。這個充滿不確定性的時代需要我們最深切的良知、智慧和謹慎來開發這些AI技術,以造福人類,同時避免極端的潛在危險。
關于企業網D1net(hfnxjk.com):
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。