精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當前位置:人工智能行業動態 → 正文

公眾輿論如何塑造人工智能的未來

責任編輯:cres 作者:Darren Beauchamp |來源:企業網D1Net  2018-02-07 10:31:44 原創文章 企業網D1Net

如今,人工智能(AI)正在發展,消費者對其關注度越來越高。而人工智能在未來會給人們帶來痛苦和恐懼嗎?
 
人們對人工智能發展的焦慮如今非常明顯。科學家斯蒂芬·霍金和特斯拉CEO伊隆·馬斯克對于人類能夠控制人工智能也表示懷疑。Facebook公司首席執行官馬克•扎克伯格駁斥了這些可怕的問題,并稱他們的說法“不負責任”。 人形機器人(Al Sophia)在沙特阿拉伯獲得公民身份,這成為了媒體的頭條新聞,但也給人們帶來了一些疑慮。這個討論吸引了大量的公眾關注,并帶來了直接的和延遲的后果。
 
公眾輿論的影響可能會阻礙人工智能的采用。只要人們認為這種技術是危險的,不管事實與否,人工智能的發展都會受到阻礙。
 
然而,公眾情緒受大眾文化的影響多于對專家的影響。世界末日的荒涼情景對人們特別具有震撼力。伊隆·馬斯克(Elon Musk)將人工智能稱為是人類文明的基本存在風險時,人們對這種恐懼和疑慮產生了共鳴。
 
那么人們究竟害怕什么?以下來了解一些最流行的說法。
 
1.不受控制的發展
 
人工智能不僅僅是人類的工具。如果其變得足夠強大,人工智能可以掌握自己的命運。根據這個說法,當人工智能進化到能夠獨立思考時,它會發現自己優于人類。因此,人類必須制服或消滅人工智能。這是一個經典的反烏托邦的故事。許多專家(包括伊隆·馬斯克、比爾·蓋茨、史蒂芬·霍金)都提出了對于這個問題的消極觀點。
 
毀滅創造者的創造物是一個古老的主題。它在西方文化中的第一個突出的例子是科幻小說中的《弗蘭肯斯坦》的怪物一樣可怕。而其后來者(電影中的HAL 9000、終結者和矩陣)仍保持這個傳統。不過,這個話題是非常具有爭議的。即使是那些對人工智能保持警惕線陣營的人也認為這樣的技術不會很快到來。
 
但是伊隆·馬斯克提出的一點是非常重要的,人類專家必須積極主動應對,而在行業中保持領先是不夠的。人們必須向前看,人工智能究竟是否會構成威脅,科學家必須想到所有可能的情景來安撫公眾的想法和感受。
 
在采取預防措施的同時,要注意不要忽略人工智能實施的積極案例。而出現一次失誤或漏洞可能會導致對整個行業不利的立法出臺,并導致未來幾年人工智能的發展停滯不前。
 
2.致命的錯誤
 
另一個流行的情況表明,過分信任技術是危險的。如果人工智能缺乏情感智能或數據,可能會錯誤地解讀人類的要求。另外,由于錯誤或病毒的原因,人工智可能變得不穩定并且可能是危險的。正如O'Reilly Media公司創始人蒂姆?奧萊利(Tim O'Reilly)所說:“我們的算法系統有點像阿拉伯神話中的精靈。我們要求他們做某些事情,但如果我們沒有清楚表達意愿,他們會曲解命令,會給人們帶來意想不到的結果。”
 
人們還沒有準備好處理不可預知的人工智能。百分百安全是消費者讓虛擬助手和機器人進入人們日常生活的必要條件。例如,當一輛自動駕駛汽車發生一起交通事故時,人工智能的安全性總是會受到嚴格的審查。
 
到目前為止,只有一例人工智能的錯誤導致人員傷亡,但這足以引起人們的爭議。當人工智能解決危險情況時,人們無法對這種單一的事件進行權衡。而其實全球每年發生的4萬多起事故都是由于司機的大意疏忽或誤操作導致傷亡。這些事故中78%以上的司機在駕駛汽車時在發短信。這是人工智能永遠不會做的事情。
 
而且,在特斯拉汽車自動駕駛汽車發生的悲慘事故中,其自動駕駛系統未能識別出明亮天空背景中迎面駛來的汽車的白邊,從而導致事故的發生,而車上的司機至少有7秒鐘可以踩剎車,顯然他沒有注意。司機認為這輛車100%可以自動駕駛。人為錯誤(一廂情愿)導致了這一事故發生。
 
法院對這次特斯拉自動駕駛汽車車禍的裁決處理對于該行業的未來發展是幸運的,這是一個很好的結果。專家們必須以樂觀的想法來解決這個問題。如果人工智能的能力是有限的,那么它就不能被當做“為人類駕駛汽車”或“理解人類的每一個愿望”的東西。如果產品的名稱或其特定功能意味著自主性(“人工智能”,“智能”,“自我”,“智能”),則必須對其功能提供指導說明。明確其用戶必須采取哪些措施。
 
恐怖谷
 
“恐怖谷”( Uncanny Valley)這一影片代表著人類對人工智能的形而上學和存在的恐懼。類人的人工智能會威脅到人類的獨特性和身份,將挑戰人類“特殊性”的觀念。人們擔心這些人工智能會取代人類的工作。而科幻作家在上世紀五六十年代就已經積極探索這個概念。
 
由于當今的大多數人工智能是虛擬助手和導航系統的組成部分,這種恐懼正在消失。但是,取代人力或減少可用職位數量的技術力量仍值得考慮。幾乎三分之一的人擔心人工智能會取代他們的工作崗位。
 
在“恐怖谷”背景下考慮的另一個非常重要的事情就是人工智能的情商。機器人如果有自己的夢想,這可能是令人毛骨悚然的,因為它們無能為力。他們確實感受到自己的情緒,但只是為了自我保護。他們不會尊重生物的痛苦,同情心對他們來說是陌生的事物。
 
許多專家認為,如果人們想創造一個能夠真正提高生活質量的人工智能,那么其情商就非常重要。人們很難預測未來,但具有一定情商的機器人肯定是朝著正確的方向邁出的一步。
 
3.制度化偏見
 
最近,人們開始擔心人工智能會使種族主義、性別歧視以及創作者的其他偏見變得形式化,并且重現。這是迄今為止最真實的恐懼。盡管機器的編程并沒有摻雜偏見,但它們可以向人們學習,并采取相應行動。
 
微軟公司的聊天機器人Tai的命運多舛的實驗提供了一個機器學習機制可能會適得其反的例子。在搜索結果和面部識別問題上,有許多不太令人震驚的但卻令人不安的情況。 Google Photos在2015年錯誤地將兩個非洲裔美國人標記為大猩猩。2009年,惠普視頻跟蹤軟件沒有識別出膚色較暗的面孔。2015年,尼康相機軟件對于一名東亞人的面孔總是錯誤地提示為“眨眼”。
 
HeyHuman公司總經理Neil Davidson認為,企業應該成為時代的救世主,并且不能讓顧客失望。因此,企業必須盡一切力量創造一種無偏見和無害的人工智能。Davidson說:“隨著這一技術領域的發展,人們需要從以前的失敗教訓中學習,并確保機器的功能具有一定的意識和直覺。”
 
被人類濫用
 
最后,人們擔心其他人會用人工智能進行欺騙,欺騙他人的信任和愛情等。即使是在人工智能的幫助下營銷也被視為一種操縱行為。90%的美國人認為,在市場營銷中使用人工智能應該通過具有法律約束力的行為規范進行管理。四分之三的人認為企業應該在使用人工智能之前需要獲得明確的控制權。
 
人們對機器的焦慮轉移到人類自身,這絕對是朝著正確方向邁出的一步。這個世界觀大多代表東方的反烏托邦傳統,這在日本流行文化中表現出來。 “攻殼機動隊”(漫畫和電視連續劇)展示了未來世界,而犯罪仍然是由人類犯下的錯誤,罪犯具有人類的動機和動力,而機器人只是一種工具,盡管其很復雜。
 
人們可能爭論這種清醒的態度和日本在機器人方面的成功是否是巧合。但有一點是肯定的——這種觀點在西方文化中也慢慢成為主流。人們不太關心人工智能,而更多關心的是人類創造者。
 
影片《機械姬》(Ex Machina)”和“神秘博士”(Oxygen)代表了流行文化的這種轉變。這二者都顯示人類的貪婪和自私可能比任何先進的人工智能更具破壞性。
 
事實上,人們可能更信任人工智能。波士頓醫學中心的Michael Paasche-Orlow博士分享了他對于絕癥患者的觀察。據他介紹,這些患者接受了旨在引導他們生命終結的人工智能,有時更傾向于將其作為人類照顧者。他說:“事實證明,病人很高興能和電腦交談。”這些患者非常明確表示,“醫生從來沒有問過我這些事情。”
 
小貼士
 
•工程師有責任確保人工智能的設計不會反映人類最壞的一面。對于在線服務,在邀請所有人加入之前,應該經常采取反濫用措施和過濾措施。另外,不能教授機器人知識的部分。
 
•訓練人工智能,為其提供盡可能多樣化的數據。對于使用各種口音訓練語音識別。而面部識別使用不同年齡和種族的人來進行學習。在向公眾發布最終產品之前,在各種條件下測試所有功能。讓人工智能算法邊做邊學可能是代價高昂的錯誤。
 
•過于樂觀的人工智能產品命名通常會引起誤解,并危害整個行業。企業要非常清楚人工智能能做什么,不能做什么。人工智能需要情商來獲得認可。情商在人類和機器人工作場所都有很高的需求。
 
•為了確保公眾觀念的改變,人們必須積極實施人工智能實施的積極案例。幾十年來,人們習慣于不相信人工智能。這些根深蒂固的恐懼不會輕易消除。
 
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:人工智能

原創文章 企業網D1Net

x 公眾輿論如何塑造人工智能的未來 掃一掃
分享本文到朋友圈
當前位置:人工智能行業動態 → 正文

公眾輿論如何塑造人工智能的未來

責任編輯:cres 作者:Darren Beauchamp |來源:企業網D1Net  2018-02-07 10:31:44 原創文章 企業網D1Net

如今,人工智能(AI)正在發展,消費者對其關注度越來越高。而人工智能在未來會給人們帶來痛苦和恐懼嗎?
 
人們對人工智能發展的焦慮如今非常明顯。科學家斯蒂芬·霍金和特斯拉CEO伊隆·馬斯克對于人類能夠控制人工智能也表示懷疑。Facebook公司首席執行官馬克•扎克伯格駁斥了這些可怕的問題,并稱他們的說法“不負責任”。 人形機器人(Al Sophia)在沙特阿拉伯獲得公民身份,這成為了媒體的頭條新聞,但也給人們帶來了一些疑慮。這個討論吸引了大量的公眾關注,并帶來了直接的和延遲的后果。
 
公眾輿論的影響可能會阻礙人工智能的采用。只要人們認為這種技術是危險的,不管事實與否,人工智能的發展都會受到阻礙。
 
然而,公眾情緒受大眾文化的影響多于對專家的影響。世界末日的荒涼情景對人們特別具有震撼力。伊隆·馬斯克(Elon Musk)將人工智能稱為是人類文明的基本存在風險時,人們對這種恐懼和疑慮產生了共鳴。
 
那么人們究竟害怕什么?以下來了解一些最流行的說法。
 
1.不受控制的發展
 
人工智能不僅僅是人類的工具。如果其變得足夠強大,人工智能可以掌握自己的命運。根據這個說法,當人工智能進化到能夠獨立思考時,它會發現自己優于人類。因此,人類必須制服或消滅人工智能。這是一個經典的反烏托邦的故事。許多專家(包括伊隆·馬斯克、比爾·蓋茨、史蒂芬·霍金)都提出了對于這個問題的消極觀點。
 
毀滅創造者的創造物是一個古老的主題。它在西方文化中的第一個突出的例子是科幻小說中的《弗蘭肯斯坦》的怪物一樣可怕。而其后來者(電影中的HAL 9000、終結者和矩陣)仍保持這個傳統。不過,這個話題是非常具有爭議的。即使是那些對人工智能保持警惕線陣營的人也認為這樣的技術不會很快到來。
 
但是伊隆·馬斯克提出的一點是非常重要的,人類專家必須積極主動應對,而在行業中保持領先是不夠的。人們必須向前看,人工智能究竟是否會構成威脅,科學家必須想到所有可能的情景來安撫公眾的想法和感受。
 
在采取預防措施的同時,要注意不要忽略人工智能實施的積極案例。而出現一次失誤或漏洞可能會導致對整個行業不利的立法出臺,并導致未來幾年人工智能的發展停滯不前。
 
2.致命的錯誤
 
另一個流行的情況表明,過分信任技術是危險的。如果人工智能缺乏情感智能或數據,可能會錯誤地解讀人類的要求。另外,由于錯誤或病毒的原因,人工智可能變得不穩定并且可能是危險的。正如O'Reilly Media公司創始人蒂姆?奧萊利(Tim O'Reilly)所說:“我們的算法系統有點像阿拉伯神話中的精靈。我們要求他們做某些事情,但如果我們沒有清楚表達意愿,他們會曲解命令,會給人們帶來意想不到的結果。”
 
人們還沒有準備好處理不可預知的人工智能。百分百安全是消費者讓虛擬助手和機器人進入人們日常生活的必要條件。例如,當一輛自動駕駛汽車發生一起交通事故時,人工智能的安全性總是會受到嚴格的審查。
 
到目前為止,只有一例人工智能的錯誤導致人員傷亡,但這足以引起人們的爭議。當人工智能解決危險情況時,人們無法對這種單一的事件進行權衡。而其實全球每年發生的4萬多起事故都是由于司機的大意疏忽或誤操作導致傷亡。這些事故中78%以上的司機在駕駛汽車時在發短信。這是人工智能永遠不會做的事情。
 
而且,在特斯拉汽車自動駕駛汽車發生的悲慘事故中,其自動駕駛系統未能識別出明亮天空背景中迎面駛來的汽車的白邊,從而導致事故的發生,而車上的司機至少有7秒鐘可以踩剎車,顯然他沒有注意。司機認為這輛車100%可以自動駕駛。人為錯誤(一廂情愿)導致了這一事故發生。
 
法院對這次特斯拉自動駕駛汽車車禍的裁決處理對于該行業的未來發展是幸運的,這是一個很好的結果。專家們必須以樂觀的想法來解決這個問題。如果人工智能的能力是有限的,那么它就不能被當做“為人類駕駛汽車”或“理解人類的每一個愿望”的東西。如果產品的名稱或其特定功能意味著自主性(“人工智能”,“智能”,“自我”,“智能”),則必須對其功能提供指導說明。明確其用戶必須采取哪些措施。
 
恐怖谷
 
“恐怖谷”( Uncanny Valley)這一影片代表著人類對人工智能的形而上學和存在的恐懼。類人的人工智能會威脅到人類的獨特性和身份,將挑戰人類“特殊性”的觀念。人們擔心這些人工智能會取代人類的工作。而科幻作家在上世紀五六十年代就已經積極探索這個概念。
 
由于當今的大多數人工智能是虛擬助手和導航系統的組成部分,這種恐懼正在消失。但是,取代人力或減少可用職位數量的技術力量仍值得考慮。幾乎三分之一的人擔心人工智能會取代他們的工作崗位。
 
在“恐怖谷”背景下考慮的另一個非常重要的事情就是人工智能的情商。機器人如果有自己的夢想,這可能是令人毛骨悚然的,因為它們無能為力。他們確實感受到自己的情緒,但只是為了自我保護。他們不會尊重生物的痛苦,同情心對他們來說是陌生的事物。
 
許多專家認為,如果人們想創造一個能夠真正提高生活質量的人工智能,那么其情商就非常重要。人們很難預測未來,但具有一定情商的機器人肯定是朝著正確的方向邁出的一步。
 
3.制度化偏見
 
最近,人們開始擔心人工智能會使種族主義、性別歧視以及創作者的其他偏見變得形式化,并且重現。這是迄今為止最真實的恐懼。盡管機器的編程并沒有摻雜偏見,但它們可以向人們學習,并采取相應行動。
 
微軟公司的聊天機器人Tai的命運多舛的實驗提供了一個機器學習機制可能會適得其反的例子。在搜索結果和面部識別問題上,有許多不太令人震驚的但卻令人不安的情況。 Google Photos在2015年錯誤地將兩個非洲裔美國人標記為大猩猩。2009年,惠普視頻跟蹤軟件沒有識別出膚色較暗的面孔。2015年,尼康相機軟件對于一名東亞人的面孔總是錯誤地提示為“眨眼”。
 
HeyHuman公司總經理Neil Davidson認為,企業應該成為時代的救世主,并且不能讓顧客失望。因此,企業必須盡一切力量創造一種無偏見和無害的人工智能。Davidson說:“隨著這一技術領域的發展,人們需要從以前的失敗教訓中學習,并確保機器的功能具有一定的意識和直覺。”
 
被人類濫用
 
最后,人們擔心其他人會用人工智能進行欺騙,欺騙他人的信任和愛情等。即使是在人工智能的幫助下營銷也被視為一種操縱行為。90%的美國人認為,在市場營銷中使用人工智能應該通過具有法律約束力的行為規范進行管理。四分之三的人認為企業應該在使用人工智能之前需要獲得明確的控制權。
 
人們對機器的焦慮轉移到人類自身,這絕對是朝著正確方向邁出的一步。這個世界觀大多代表東方的反烏托邦傳統,這在日本流行文化中表現出來。 “攻殼機動隊”(漫畫和電視連續劇)展示了未來世界,而犯罪仍然是由人類犯下的錯誤,罪犯具有人類的動機和動力,而機器人只是一種工具,盡管其很復雜。
 
人們可能爭論這種清醒的態度和日本在機器人方面的成功是否是巧合。但有一點是肯定的——這種觀點在西方文化中也慢慢成為主流。人們不太關心人工智能,而更多關心的是人類創造者。
 
影片《機械姬》(Ex Machina)”和“神秘博士”(Oxygen)代表了流行文化的這種轉變。這二者都顯示人類的貪婪和自私可能比任何先進的人工智能更具破壞性。
 
事實上,人們可能更信任人工智能。波士頓醫學中心的Michael Paasche-Orlow博士分享了他對于絕癥患者的觀察。據他介紹,這些患者接受了旨在引導他們生命終結的人工智能,有時更傾向于將其作為人類照顧者。他說:“事實證明,病人很高興能和電腦交談。”這些患者非常明確表示,“醫生從來沒有問過我這些事情。”
 
小貼士
 
•工程師有責任確保人工智能的設計不會反映人類最壞的一面。對于在線服務,在邀請所有人加入之前,應該經常采取反濫用措施和過濾措施。另外,不能教授機器人知識的部分。
 
•訓練人工智能,為其提供盡可能多樣化的數據。對于使用各種口音訓練語音識別。而面部識別使用不同年齡和種族的人來進行學習。在向公眾發布最終產品之前,在各種條件下測試所有功能。讓人工智能算法邊做邊學可能是代價高昂的錯誤。
 
•過于樂觀的人工智能產品命名通常會引起誤解,并危害整個行業。企業要非常清楚人工智能能做什么,不能做什么。人工智能需要情商來獲得認可。情商在人類和機器人工作場所都有很高的需求。
 
•為了確保公眾觀念的改變,人們必須積極實施人工智能實施的積極案例。幾十年來,人們習慣于不相信人工智能。這些根深蒂固的恐懼不會輕易消除。
 
版權聲明:本文為企業網D1Net編譯,轉載需注明出處為:企業網D1Net,如果不注明出處,企業網D1Net將保留追究其法律責任的權利。

關鍵字:人工智能

原創文章 企業網D1Net

電子周刊
回到頂部

關于我們聯系我們版權聲明隱私條款廣告服務友情鏈接投稿中心招賢納士

企業網版權所有 ©2010-2024 京ICP備09108050號-6 京公網安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 镇远县| 凯里市| 曲松县| 海宁市| 阿克苏市| 鄂州市| 和政县| 左贡县| 溆浦县| 洪泽县| 庐江县| 丘北县| 樟树市| 西昌市| 砀山县| 久治县| 太仓市| 江安县| 雷波县| 隆昌县| 涞源县| 尼勒克县| 昌乐县| 龙海市| 德惠市| 班玛县| 盐亭县| 栖霞市| 周宁县| 称多县| 琼海市| 保康县| 区。| 交城县| 新乡县| 思南县| 陆河县| 饶平县| 新泰市| 苏尼特右旗| 易门县|