精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

技術樂觀主義者和末日論者在硅谷展開的關于AI潛藏的危險的激烈辯論

責任編輯:cres 作者:Deborah Kong |來源:企業網D1Net  2023-12-18 11:02:22 原創文章 企業網D1Net

如今,在推出ChatGPT一年多之后,2023年最大的AI故事可能與其說是技術本身,不如說是OpenAI董事會對其快速發展的戲劇性報道。在奧特曼被趕下臺并隨后復職擔任CEO期間,GenAI進入2024年的潛在緊張局勢顯而易見:AI處于巨大分歧的中心,一方是完全接受其快速創新步伐的人,另一方是由于涉及的許多風險而希望它放緩的人。
 
這場在科技界被稱為e/acc vs.Decels的辯論自2021年以來一直在硅谷流傳,但隨著AI在權力和影響力上的增長,理解分歧的雙方變得越來越重要。
 
以下是一些關鍵術語的入門讀物,以及一些塑造AI未來的知名參與者。
 
e/acc與技術樂觀主義
 
術語“e/acc”代表有效的加速主義。
 
簡而言之,那些支持e/acc的人希望技術和創新盡可能快地發展。
 
這一概念的支持者在關于e/acc的第一篇帖子中解釋道:“科技資本可以帶來意識的下一次進化,創造不可想象的下一代生命形式和基于硅的意識。”
 
在AI方面,“AI”,或稱AGI,是這里辯論的基礎。AGI是一種超級智能的AI,它非常先進,可以做得和人類一樣好,甚至比人類做得更好。AGI也可以改進自己,創造一個無限的反饋循環,具有無限的可能性。
 
一些人認為AGI將擁有直到世界末日的能力,變得如此聰明,以至于它們找到了如何消滅人類的方法,但e/acc的愛好者選擇關注AGI可以提供的好處。創始的e/acc子棧解釋說:“沒有什么能阻止我們為活著的每一個人創造財富,除了這樣做的意愿。”
 
e/acc Start的創始人一直籠罩在神秘之中,但是@basedbeffjezos,可以說是e/acc最大的支持者,最近在他的身份被媒體曝光后透露自己是Guillaume Verdon。
 
Verdon之前曾在Alphabet、X和谷歌工作,現在他正在致力于他所說的“AI曼哈頓項目”,并在X上說:“這不是e/acc的結束,而是一個新的開始。在這里,我可以站出來,讓我們的聲音在X之外的傳統世界被聽到,并利用我的資歷為我們社區的利益提供支持。”
 
Verdon也是科技初創公司Extrotic的創始人,他將該公司描述為“通過利用熱力學物理,在物理世界中為生成性AI構建終極基礎。”
 
頂級風投的AI宣言
 
最著名的e/acc支持者之一是安德森-霍洛維茨公司(Andreessen Horowitz)的風險投資家馬克·安德森,他此前曾稱韋爾登為“科技樂觀主義的守護神”。
 
技術樂觀主義就像它聽起來那樣:信徒認為更多的技術最終會讓世界變得更美好。安德森撰寫了《技術樂觀主義宣言》,這是一份5000多字的聲明,解釋了技術將如何賦予人類力量,并解決所有物質問題。安德森甚至說:“AI的任何減速都會以生命為代價”,如果不發展到足以防止死亡的程度,這將是一種“謀殺形式”。
 
他寫的另一篇技術樂觀主義文章《為什么AI將拯救世界》被Meta的首席AI科學家Yann LeCun轉發,他因在AI方面的突破而獲得著名的圖靈獎,被稱為“AI教父”之一。
 
LeCun在X雜志上給自己貼上了“人文主義者”的標簽,他認同積極的和規范的積極技術樂觀主義。
 
LeCun最近表示,他預計AI在很長一段時間內都不會到來,他在公開場合與那些他所說的“懷疑當前的經濟和政治機構,以及整個人類是否有能力永遠使用AI”的人形成了鮮明的對比。
 
Meta對開源AI的擁抱奠定了LeCun的信念,即這項技術將提供更多的潛力,而不是有害的,而其他人則指出了像Meta這樣的商業模式的危險,這種模式正在推動將廣泛可用的新一代AI模型置于許多開發者手中。
 
AI協調和減速
 
今年3月,Encode Justice和未來生活研究所(Future Of Life Institute)發表了一封公開信,呼吁“所有AI實驗室立即暫停對比GPT-4更強大的AI系統的培訓至少六個月。”
 
這封信得到了科技界知名人士的支持,如埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克。
 
OpenAI的CEO奧特曼在4月份的一次麻省理工學院活動中發表了這封信,他說:“我認為謹慎行事,對安全問題越來越嚴格真的很重要。我認為這封信不是解決這個問題的最佳方式。”
 
當OpenAI董事會大戲上演時,奧特曼再次卷入了這場戰斗,OpenAI非營利性部門的原始董事們越來越擔心進展的速度及其宣稱的使命,即確保通用人工智能-通常比人類更聰明的AI系統-造福全人類。
 
公開信中的一些想法是減速的關鍵,也是AI減速的支持者。Decel希望進展放慢,因為AI的未來是危險和不可預測的,他們最大的擔憂之一是AI的一致性。
 
AI協調問題解決了這樣一種想法,即AI最終將變得如此智能,以至于人類將無法控制它。
 
“我們作為一個物種的統治地位是由我們相對優越的智力驅動的,這給其他物種帶來了有害的后果,包括滅絕,因為我們的目標與他們的目標不一致。我們控制著未來——動物園里有黑猩猩。先進的AI系統也同樣可以影響人類。“機器智能研究所的CEO Malo Bourgon說。
 
AI協調研究,如MIRI的,旨在訓練AI系統,使其與人類的目標、道德和倫理相結合,這將防止對人類的任何生存風險。“核心風險在于創造比我們聰明得多的實體,目標錯位,其行動不可預測和無法控制。”Bourgon說。
 
政府和AI的世界末日問題
 
戰略風險委員會CEO、前五角大樓官員克里斯汀·帕特莫爾將她的職業生涯獻給了降低危險情況的風險,她最近告訴記者,當我們考慮到AI如果被用來監督核武器可能導致的“大規模死亡”時,這是一個需要立即關注的問題。
 
但她強調,“盯著問題看”不會有任何好處,“關鍵是要解決風險,找到最有效的解決方案,”她說。她補充說:“這是一項純粹的兩用技術。沒有哪種情況下,AI更像是一種武器,而不是一種解決方案。”例如,大型語言模型將成為虛擬實驗室助手,加快醫學進程,但也會幫助邪惡的行為者識別最好、最具傳播性的病原體用于攻擊。這是AI無法阻止的原因之一,她說。“放慢速度不是解決方案的一部分。”帕特莫爾說。
 
今年早些時候,她的前雇主國防部在使用AI系統時表示,循環中永遠會有一個人。她說,這是一種應該在任何地方都采用的協議。“AI本身不可能是權威,”她說。我們需要信任這些工具,或者我們不應該使用它們,但我們需要將它們與環境聯系起來。人們普遍缺乏對這個工具集的了解,因此過度自信和過度依賴的風險更高。
 
政府官員和政策制定者已經開始注意到這些風險。今年7月,拜登-哈里斯政府宣布,它已獲得AI巨頭亞馬遜、Anthropic、谷歌、Inflect、Meta、微軟和OpenAI的自愿承諾,將“朝著安全、可靠和透明的AI技術發展方向邁進。”
 
就在幾周前,拜登總統發布了一項行政命令,進一步建立了AI安全和安保的新標準,盡管社會上的利益攸關方團體對其局限性感到擔憂。同樣,英國政府在11月初引入了AI安全研究所,這是第一個專注于導航AI的國家支持組織。
 
在全球對AI霸主地位的爭奪中,以及與地緣政治競爭的聯系中,中國正在實施自己的一套AI護欄。
 
負責任的AI承諾和懷疑
 
OpenAI目前正在研究SuperAlign,目標是在四年內解決超智能Align的核心技術挑戰。
 
在亞馬遜最近舉行的亞馬遜網絡服務Re:Inventt 2023大會上,它宣布了AI創新的新能力,并在整個公司內實施了負責任的AI保障措施。
 
AWS負責AI的負責人Diya Wynn表示:“我經常說,負責任的AI不應被視為一個單獨的工作流程,而應最終融入我們的工作方式,這是商業上的當務之急。”
 
根據AWS委托Morning Consult進行的一項研究,負責任的AI對59%的商業領袖來說是越來越重要的商業優先事項,約一半(47%)的人計劃在2024年比2023年更多地投資于負責任的AI。
 
盡管考慮到負責任的AI可能會減緩AI的創新步伐,但像永利這樣的團隊認為自己正在為更安全的未來鋪平道路。“公司看到了價值,并開始優先考慮負責任的AI,”韋恩說,因此,“系統將變得更安全、更有保障、更具包容性。”
 
Bourgon并不信服,他說,像政府最近宣布的那些行動“遠遠不是最終需要的”。
 
他預測,AI系統很可能最早在2030年就會發展到災難性的水平,政府需要準備好無限期停止AI系統,直到領先的AI開發人員能夠“有力地證明他們系統的安全性”。
 
企業網D1net(hfnxjk.com):
 
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
 
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:AI

原創文章 企業網D1Net

x 技術樂觀主義者和末日論者在硅谷展開的關于AI潛藏的危險的激烈辯論 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

技術樂觀主義者和末日論者在硅谷展開的關于AI潛藏的危險的激烈辯論

責任編輯:cres 作者:Deborah Kong |來源:企業網D1Net  2023-12-18 11:02:22 原創文章 企業網D1Net

如今,在推出ChatGPT一年多之后,2023年最大的AI故事可能與其說是技術本身,不如說是OpenAI董事會對其快速發展的戲劇性報道。在奧特曼被趕下臺并隨后復職擔任CEO期間,GenAI進入2024年的潛在緊張局勢顯而易見:AI處于巨大分歧的中心,一方是完全接受其快速創新步伐的人,另一方是由于涉及的許多風險而希望它放緩的人。
 
這場在科技界被稱為e/acc vs.Decels的辯論自2021年以來一直在硅谷流傳,但隨著AI在權力和影響力上的增長,理解分歧的雙方變得越來越重要。
 
以下是一些關鍵術語的入門讀物,以及一些塑造AI未來的知名參與者。
 
e/acc與技術樂觀主義
 
術語“e/acc”代表有效的加速主義。
 
簡而言之,那些支持e/acc的人希望技術和創新盡可能快地發展。
 
這一概念的支持者在關于e/acc的第一篇帖子中解釋道:“科技資本可以帶來意識的下一次進化,創造不可想象的下一代生命形式和基于硅的意識。”
 
在AI方面,“AI”,或稱AGI,是這里辯論的基礎。AGI是一種超級智能的AI,它非常先進,可以做得和人類一樣好,甚至比人類做得更好。AGI也可以改進自己,創造一個無限的反饋循環,具有無限的可能性。
 
一些人認為AGI將擁有直到世界末日的能力,變得如此聰明,以至于它們找到了如何消滅人類的方法,但e/acc的愛好者選擇關注AGI可以提供的好處。創始的e/acc子棧解釋說:“沒有什么能阻止我們為活著的每一個人創造財富,除了這樣做的意愿。”
 
e/acc Start的創始人一直籠罩在神秘之中,但是@basedbeffjezos,可以說是e/acc最大的支持者,最近在他的身份被媒體曝光后透露自己是Guillaume Verdon。
 
Verdon之前曾在Alphabet、X和谷歌工作,現在他正在致力于他所說的“AI曼哈頓項目”,并在X上說:“這不是e/acc的結束,而是一個新的開始。在這里,我可以站出來,讓我們的聲音在X之外的傳統世界被聽到,并利用我的資歷為我們社區的利益提供支持。”
 
Verdon也是科技初創公司Extrotic的創始人,他將該公司描述為“通過利用熱力學物理,在物理世界中為生成性AI構建終極基礎。”
 
頂級風投的AI宣言
 
最著名的e/acc支持者之一是安德森-霍洛維茨公司(Andreessen Horowitz)的風險投資家馬克·安德森,他此前曾稱韋爾登為“科技樂觀主義的守護神”。
 
技術樂觀主義就像它聽起來那樣:信徒認為更多的技術最終會讓世界變得更美好。安德森撰寫了《技術樂觀主義宣言》,這是一份5000多字的聲明,解釋了技術將如何賦予人類力量,并解決所有物質問題。安德森甚至說:“AI的任何減速都會以生命為代價”,如果不發展到足以防止死亡的程度,這將是一種“謀殺形式”。
 
他寫的另一篇技術樂觀主義文章《為什么AI將拯救世界》被Meta的首席AI科學家Yann LeCun轉發,他因在AI方面的突破而獲得著名的圖靈獎,被稱為“AI教父”之一。
 
LeCun在X雜志上給自己貼上了“人文主義者”的標簽,他認同積極的和規范的積極技術樂觀主義。
 
LeCun最近表示,他預計AI在很長一段時間內都不會到來,他在公開場合與那些他所說的“懷疑當前的經濟和政治機構,以及整個人類是否有能力永遠使用AI”的人形成了鮮明的對比。
 
Meta對開源AI的擁抱奠定了LeCun的信念,即這項技術將提供更多的潛力,而不是有害的,而其他人則指出了像Meta這樣的商業模式的危險,這種模式正在推動將廣泛可用的新一代AI模型置于許多開發者手中。
 
AI協調和減速
 
今年3月,Encode Justice和未來生活研究所(Future Of Life Institute)發表了一封公開信,呼吁“所有AI實驗室立即暫停對比GPT-4更強大的AI系統的培訓至少六個月。”
 
這封信得到了科技界知名人士的支持,如埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克。
 
OpenAI的CEO奧特曼在4月份的一次麻省理工學院活動中發表了這封信,他說:“我認為謹慎行事,對安全問題越來越嚴格真的很重要。我認為這封信不是解決這個問題的最佳方式。”
 
當OpenAI董事會大戲上演時,奧特曼再次卷入了這場戰斗,OpenAI非營利性部門的原始董事們越來越擔心進展的速度及其宣稱的使命,即確保通用人工智能-通常比人類更聰明的AI系統-造福全人類。
 
公開信中的一些想法是減速的關鍵,也是AI減速的支持者。Decel希望進展放慢,因為AI的未來是危險和不可預測的,他們最大的擔憂之一是AI的一致性。
 
AI協調問題解決了這樣一種想法,即AI最終將變得如此智能,以至于人類將無法控制它。
 
“我們作為一個物種的統治地位是由我們相對優越的智力驅動的,這給其他物種帶來了有害的后果,包括滅絕,因為我們的目標與他們的目標不一致。我們控制著未來——動物園里有黑猩猩。先進的AI系統也同樣可以影響人類。“機器智能研究所的CEO Malo Bourgon說。
 
AI協調研究,如MIRI的,旨在訓練AI系統,使其與人類的目標、道德和倫理相結合,這將防止對人類的任何生存風險。“核心風險在于創造比我們聰明得多的實體,目標錯位,其行動不可預測和無法控制。”Bourgon說。
 
政府和AI的世界末日問題
 
戰略風險委員會CEO、前五角大樓官員克里斯汀·帕特莫爾將她的職業生涯獻給了降低危險情況的風險,她最近告訴記者,當我們考慮到AI如果被用來監督核武器可能導致的“大規模死亡”時,這是一個需要立即關注的問題。
 
但她強調,“盯著問題看”不會有任何好處,“關鍵是要解決風險,找到最有效的解決方案,”她說。她補充說:“這是一項純粹的兩用技術。沒有哪種情況下,AI更像是一種武器,而不是一種解決方案。”例如,大型語言模型將成為虛擬實驗室助手,加快醫學進程,但也會幫助邪惡的行為者識別最好、最具傳播性的病原體用于攻擊。這是AI無法阻止的原因之一,她說。“放慢速度不是解決方案的一部分。”帕特莫爾說。
 
今年早些時候,她的前雇主國防部在使用AI系統時表示,循環中永遠會有一個人。她說,這是一種應該在任何地方都采用的協議。“AI本身不可能是權威,”她說。我們需要信任這些工具,或者我們不應該使用它們,但我們需要將它們與環境聯系起來。人們普遍缺乏對這個工具集的了解,因此過度自信和過度依賴的風險更高。
 
政府官員和政策制定者已經開始注意到這些風險。今年7月,拜登-哈里斯政府宣布,它已獲得AI巨頭亞馬遜、Anthropic、谷歌、Inflect、Meta、微軟和OpenAI的自愿承諾,將“朝著安全、可靠和透明的AI技術發展方向邁進。”
 
就在幾周前,拜登總統發布了一項行政命令,進一步建立了AI安全和安保的新標準,盡管社會上的利益攸關方團體對其局限性感到擔憂。同樣,英國政府在11月初引入了AI安全研究所,這是第一個專注于導航AI的國家支持組織。
 
在全球對AI霸主地位的爭奪中,以及與地緣政治競爭的聯系中,中國正在實施自己的一套AI護欄。
 
負責任的AI承諾和懷疑
 
OpenAI目前正在研究SuperAlign,目標是在四年內解決超智能Align的核心技術挑戰。
 
在亞馬遜最近舉行的亞馬遜網絡服務Re:Inventt 2023大會上,它宣布了AI創新的新能力,并在整個公司內實施了負責任的AI保障措施。
 
AWS負責AI的負責人Diya Wynn表示:“我經常說,負責任的AI不應被視為一個單獨的工作流程,而應最終融入我們的工作方式,這是商業上的當務之急。”
 
根據AWS委托Morning Consult進行的一項研究,負責任的AI對59%的商業領袖來說是越來越重要的商業優先事項,約一半(47%)的人計劃在2024年比2023年更多地投資于負責任的AI。
 
盡管考慮到負責任的AI可能會減緩AI的創新步伐,但像永利這樣的團隊認為自己正在為更安全的未來鋪平道路。“公司看到了價值,并開始優先考慮負責任的AI,”韋恩說,因此,“系統將變得更安全、更有保障、更具包容性。”
 
Bourgon并不信服,他說,像政府最近宣布的那些行動“遠遠不是最終需要的”。
 
他預測,AI系統很可能最早在2030年就會發展到災難性的水平,政府需要準備好無限期停止AI系統,直到領先的AI開發人員能夠“有力地證明他們系統的安全性”。
 
企業網D1net(hfnxjk.com):
 
國內主流的to B IT門戶,同時在運營國內最大的甲方CIO專家庫和智力輸出及社交平臺-信眾智(www.cioall.com)。同時運營19個IT行業公眾號(微信搜索D1net即可關注)。
 
版權聲明:本文為企業網D1Net編譯,轉載需在文章開頭注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:AI

原創文章 企業網D1Net

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 邵武市| 宝清县| 军事| 武冈市| 柳林县| 怀化市| 西宁市| 正蓝旗| 徐州市| 南雄市| 醴陵市| 缙云县| 万全县| 大英县| 益阳市| 娱乐| 安义县| 会东县| 区。| 凤山市| 黑河市| 肇源县| 莱州市| 大理市| 兰西县| 喀喇沁旗| 青阳县| 永吉县| 栾城县| 轮台县| 六枝特区| 治县。| 武安市| 万源市| 内乡县| 古浪县| 台中县| 即墨市| 苗栗县| 花莲县| 张家川|