精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當(dāng)前位置:人工智能行業(yè)動(dòng)態(tài) → 正文

確保人工智能不作惡,谷歌為AI再上“緊箍咒”

責(zé)任編輯:zsheng |來(lái)源:企業(yè)網(wǎng)D1Net  2018-11-15 18:05:42 本文摘自:新智元

谷歌認(rèn)為,比起殺人AI機(jī)器人,我們更該擔(dān)心的是AI偏見(jiàn)問(wèn)題。谷歌提出AI技術(shù)開(kāi)發(fā)的道德準(zhǔn)則,成立了專門的機(jī)器學(xué)習(xí)道德部門,對(duì)公司的產(chǎn)品和服務(wù)進(jìn)行分析測(cè)試,提出改進(jìn)意見(jiàn),盡可能避免AI偏見(jiàn)的產(chǎn)生。

在去年舉行的谷歌會(huì)議上,谷歌當(dāng)時(shí)的人工智能(AI)負(fù)責(zé)人John Giannandrea表示,我們不需要擔(dān)心殺手機(jī)器人,相反,我們需要擔(dān)心的是AI偏見(jiàn)。

“如果要說(shuō)真正的安全問(wèn)題,那就是如果我們給這些系統(tǒng)提供有偏見(jiàn)的數(shù)據(jù),那么生成的AI模型就會(huì)有偏見(jiàn)。”他說(shuō)。

這是谷歌過(guò)去一直在努力解決的問(wèn)題。2015年6月,谷歌照片應(yīng)用的算法曾經(jīng)錯(cuò)誤地將黑人分類為“大猩猩”,引發(fā)了軒然大波。因此,從IBM到Airbnb,每家公司都在努力確保自己算法不會(huì)出現(xiàn)類似的偏差。

最近一段時(shí)間,谷歌為解決AI偏見(jiàn)又上了緊箍咒。

對(duì)于谷歌機(jī)器學(xué)習(xí)道德、信任和安全主管Jen Gennai來(lái)說(shuō),防止出現(xiàn)數(shù)據(jù)和AI偏見(jiàn)實(shí)際上就是他的工作內(nèi)容。Gennai負(fù)責(zé)領(lǐng)導(dǎo)一個(gè)跨公司的團(tuán)隊(duì),對(duì)谷歌的新產(chǎn)品和服務(wù)進(jìn)行分析和咨詢,以確保所有新產(chǎn)品都遵守這一道德標(biāo)準(zhǔn)。

“如果我們要打造一項(xiàng)新技術(shù),我們需要確保它從一開(kāi)始就走在正確的軌道上。”她說(shuō)。

谷歌制定AI技術(shù)開(kāi)發(fā)七大準(zhǔn)則

今年6月,Google首席執(zhí)行官Sundar Pichai發(fā)布了該公司的人工智能原則,指導(dǎo)谷歌在這些方面的工作和研究,包括確保Google員工不會(huì)制造或加強(qiáng)不公平的AI偏見(jiàn)。

Pichai表示,AI的開(kāi)發(fā)和使用將在未來(lái)許多年內(nèi)對(duì)社會(huì)產(chǎn)生重大影響。作為AI的領(lǐng)導(dǎo)者,我們感到自己有責(zé)任做到這一點(diǎn)。

這種關(guān)于人AI技術(shù)的新立場(chǎng)是受到谷歌出現(xiàn)問(wèn)題的影響而提出的。除了“大猩猩”事件之外,哈佛大學(xué)研究人員Latanya Sweeney發(fā)現(xiàn)谷歌搜索中的存在種族歧視。當(dāng)搜索類似黑人名字時(shí),會(huì)比搜索類似白人名字更有可能出現(xiàn)與“被逮捕”相關(guān)的廣告。

“這些現(xiàn)象都是我們的部門成立的原因,不應(yīng)該讓我們的用戶看到這些,我們需要首先阻止這些偏見(jiàn)的產(chǎn)生。”Gennai說(shuō)。

現(xiàn)在每當(dāng)谷歌推出新產(chǎn)品時(shí),都會(huì)接受Gennai及其團(tuán)隊(duì)的嚴(yán)格測(cè)試。來(lái)自技術(shù)、法律、隱私和社會(huì)科學(xué)等領(lǐng)域的專家聚集在一起,根據(jù)谷歌制定的AI準(zhǔn)則對(duì)每個(gè)產(chǎn)品進(jìn)行分析。

這種測(cè)試主要是找出產(chǎn)品的優(yōu)缺點(diǎn)。“我們并不是公司里可怕的監(jiān)工。”Gennai說(shuō)。“我們想的是,希望公司能推出最好的產(chǎn)品,所以我們要找出所有可能出錯(cuò)的漏洞,以便解決問(wèn)題。

在谷歌智能助理給真人打電話的功能上,產(chǎn)品團(tuán)隊(duì)事先就AI如何處理不同口音做了大量工作,但Gennai的測(cè)試團(tuán)隊(duì)提出了一些其他問(wèn)題。

“我們研究了用戶如何與之互動(dòng),如何利用技術(shù)降低AI的偏見(jiàn)。我們提出了問(wèn)題,要如何判斷用戶是不是有口吃或語(yǔ)言障礙。產(chǎn)品開(kāi)發(fā)團(tuán)隊(duì)做了很多工作,但我們?cè)噲D縮小所有差距,提升產(chǎn)品表現(xiàn)。”她說(shuō)。

改善AI偏見(jiàn)的一種方法是改進(jìn)數(shù)據(jù)集。 Gennai舉了一個(gè)婚禮的例子。

過(guò)去,如果你在Google圖片上搜索“婚禮”,得到的結(jié)果是白人穿著婚禮禮服的照片,因?yàn)樗惴ㄊ窃诨谖鞣饺说臄?shù)據(jù)源上進(jìn)行訓(xùn)練的。然而,這對(duì)印度或中國(guó)的谷歌用戶就不合適。谷歌要求人們提交世界各地的婚禮照片,以改善數(shù)據(jù)集。

“現(xiàn)在,我們得到了印度用戶的大量反饋,他們向我們發(fā)送了許多色彩繽紛的婚禮照片,”我們希望了解我們現(xiàn)有資源,創(chuàng)建偏見(jiàn)相對(duì)較小的新資源。”

讓用戶也能理解算法

了解谷歌算法的內(nèi)部工作流程,有助于團(tuán)隊(duì)更好地進(jìn)行修改。比如用谷歌搜索“CEO”時(shí)出現(xiàn)的問(wèn)題,當(dāng)你在搜索欄中鍵入“CEO”時(shí),你會(huì)看到一些穿著西裝打著領(lǐng)帶的白人男子的圖片。

Gennai的團(tuán)隊(duì)調(diào)查數(shù)據(jù)時(shí)發(fā)現(xiàn),這個(gè)現(xiàn)象往往并不是人為偏見(jiàn),而是技術(shù)上的偏見(jiàn)。

“在算法看來(lái),海軍藍(lán)像素就等于CEO,而且因?yàn)榘兹四行愿菀状┧{(lán)色西裝,所以這純粹是模型學(xué)習(xí)的方式問(wèn)題。但這表明我們需要仔細(xì)檢查數(shù)據(jù)。

讓谷歌用戶了解公司算法的運(yùn)作方式也是很重要的。谷歌用戶現(xiàn)在可以查看為你投放廣告的原因,并查看由算法做出的決定。用戶還可以查看為何會(huì)在谷歌搜索結(jié)果中看到某個(gè)鏈接,具體取決于用戶之前的搜索記錄。 Gennai表示,這是為了幫助用戶更多地了解谷歌,以便他們可以信任谷歌搜索。

透明度也是谷歌AI原則的一部分。但是“與用戶共享一個(gè)完整的算法根本沒(méi)有用,反而可能會(huì)引起更多的混淆,并感覺(jué)我們是故意混淆。但是,用用戶可讀的語(yǔ)言解釋算法,將有助于人們了解谷歌正在嘗試做的事情,即使我們做錯(cuò)了。”Gennai說(shuō)。

解決AI偏見(jiàn),光靠谷歌不夠

說(shuō)到最后,偏見(jiàn)的根源其實(shí)還是來(lái)自人類。“我們每個(gè)人都有偏見(jiàn),我們現(xiàn)有的全部數(shù)據(jù)源,都是建立在我們每個(gè)人和過(guò)去的歷史偏見(jiàn)之上。”

但是,僅僅因?yàn)檫@一點(diǎn),并不能說(shuō)我們無(wú)法阻止偏見(jiàn)。相反,谷歌試圖盡可能調(diào)查和解釋最大的偏見(jiàn)來(lái)源,并嘗試改變。

從這個(gè)角度看,谷歌的AI準(zhǔn)則在公司內(nèi)部非常重要,也是因?yàn)檫@個(gè)原因,谷歌為公司外的人創(chuàng)建了“負(fù)責(zé)任的AI”開(kāi)發(fā)實(shí)踐項(xiàng)目,這些人正在使用其開(kāi)源軟件來(lái)構(gòu)建人工智能和機(jī)器學(xué)習(xí)算法。

“我們希望能夠以身作則,提供相關(guān)工具和知識(shí),讓更多的人能夠遵循這些準(zhǔn)則。”她說(shuō)。

關(guān)鍵字:谷歌智能

本文摘自:新智元

x 確保人工智能不作惡,谷歌為AI再上“緊箍咒” 掃一掃
分享本文到朋友圈
當(dāng)前位置:人工智能行業(yè)動(dòng)態(tài) → 正文

確保人工智能不作惡,谷歌為AI再上“緊箍咒”

責(zé)任編輯:zsheng |來(lái)源:企業(yè)網(wǎng)D1Net  2018-11-15 18:05:42 本文摘自:新智元

谷歌認(rèn)為,比起殺人AI機(jī)器人,我們更該擔(dān)心的是AI偏見(jiàn)問(wèn)題。谷歌提出AI技術(shù)開(kāi)發(fā)的道德準(zhǔn)則,成立了專門的機(jī)器學(xué)習(xí)道德部門,對(duì)公司的產(chǎn)品和服務(wù)進(jìn)行分析測(cè)試,提出改進(jìn)意見(jiàn),盡可能避免AI偏見(jiàn)的產(chǎn)生。

在去年舉行的谷歌會(huì)議上,谷歌當(dāng)時(shí)的人工智能(AI)負(fù)責(zé)人John Giannandrea表示,我們不需要擔(dān)心殺手機(jī)器人,相反,我們需要擔(dān)心的是AI偏見(jiàn)。

“如果要說(shuō)真正的安全問(wèn)題,那就是如果我們給這些系統(tǒng)提供有偏見(jiàn)的數(shù)據(jù),那么生成的AI模型就會(huì)有偏見(jiàn)。”他說(shuō)。

這是谷歌過(guò)去一直在努力解決的問(wèn)題。2015年6月,谷歌照片應(yīng)用的算法曾經(jīng)錯(cuò)誤地將黑人分類為“大猩猩”,引發(fā)了軒然大波。因此,從IBM到Airbnb,每家公司都在努力確保自己算法不會(huì)出現(xiàn)類似的偏差。

最近一段時(shí)間,谷歌為解決AI偏見(jiàn)又上了緊箍咒。

對(duì)于谷歌機(jī)器學(xué)習(xí)道德、信任和安全主管Jen Gennai來(lái)說(shuō),防止出現(xiàn)數(shù)據(jù)和AI偏見(jiàn)實(shí)際上就是他的工作內(nèi)容。Gennai負(fù)責(zé)領(lǐng)導(dǎo)一個(gè)跨公司的團(tuán)隊(duì),對(duì)谷歌的新產(chǎn)品和服務(wù)進(jìn)行分析和咨詢,以確保所有新產(chǎn)品都遵守這一道德標(biāo)準(zhǔn)。

“如果我們要打造一項(xiàng)新技術(shù),我們需要確保它從一開(kāi)始就走在正確的軌道上。”她說(shuō)。

谷歌制定AI技術(shù)開(kāi)發(fā)七大準(zhǔn)則

今年6月,Google首席執(zhí)行官Sundar Pichai發(fā)布了該公司的人工智能原則,指導(dǎo)谷歌在這些方面的工作和研究,包括確保Google員工不會(huì)制造或加強(qiáng)不公平的AI偏見(jiàn)。

Pichai表示,AI的開(kāi)發(fā)和使用將在未來(lái)許多年內(nèi)對(duì)社會(huì)產(chǎn)生重大影響。作為AI的領(lǐng)導(dǎo)者,我們感到自己有責(zé)任做到這一點(diǎn)。

這種關(guān)于人AI技術(shù)的新立場(chǎng)是受到谷歌出現(xiàn)問(wèn)題的影響而提出的。除了“大猩猩”事件之外,哈佛大學(xué)研究人員Latanya Sweeney發(fā)現(xiàn)谷歌搜索中的存在種族歧視。當(dāng)搜索類似黑人名字時(shí),會(huì)比搜索類似白人名字更有可能出現(xiàn)與“被逮捕”相關(guān)的廣告。

“這些現(xiàn)象都是我們的部門成立的原因,不應(yīng)該讓我們的用戶看到這些,我們需要首先阻止這些偏見(jiàn)的產(chǎn)生。”Gennai說(shuō)。

現(xiàn)在每當(dāng)谷歌推出新產(chǎn)品時(shí),都會(huì)接受Gennai及其團(tuán)隊(duì)的嚴(yán)格測(cè)試。來(lái)自技術(shù)、法律、隱私和社會(huì)科學(xué)等領(lǐng)域的專家聚集在一起,根據(jù)谷歌制定的AI準(zhǔn)則對(duì)每個(gè)產(chǎn)品進(jìn)行分析。

這種測(cè)試主要是找出產(chǎn)品的優(yōu)缺點(diǎn)。“我們并不是公司里可怕的監(jiān)工。”Gennai說(shuō)。“我們想的是,希望公司能推出最好的產(chǎn)品,所以我們要找出所有可能出錯(cuò)的漏洞,以便解決問(wèn)題。

在谷歌智能助理給真人打電話的功能上,產(chǎn)品團(tuán)隊(duì)事先就AI如何處理不同口音做了大量工作,但Gennai的測(cè)試團(tuán)隊(duì)提出了一些其他問(wèn)題。

“我們研究了用戶如何與之互動(dòng),如何利用技術(shù)降低AI的偏見(jiàn)。我們提出了問(wèn)題,要如何判斷用戶是不是有口吃或語(yǔ)言障礙。產(chǎn)品開(kāi)發(fā)團(tuán)隊(duì)做了很多工作,但我們?cè)噲D縮小所有差距,提升產(chǎn)品表現(xiàn)。”她說(shuō)。

改善AI偏見(jiàn)的一種方法是改進(jìn)數(shù)據(jù)集。 Gennai舉了一個(gè)婚禮的例子。

過(guò)去,如果你在Google圖片上搜索“婚禮”,得到的結(jié)果是白人穿著婚禮禮服的照片,因?yàn)樗惴ㄊ窃诨谖鞣饺说臄?shù)據(jù)源上進(jìn)行訓(xùn)練的。然而,這對(duì)印度或中國(guó)的谷歌用戶就不合適。谷歌要求人們提交世界各地的婚禮照片,以改善數(shù)據(jù)集。

“現(xiàn)在,我們得到了印度用戶的大量反饋,他們向我們發(fā)送了許多色彩繽紛的婚禮照片,”我們希望了解我們現(xiàn)有資源,創(chuàng)建偏見(jiàn)相對(duì)較小的新資源。”

讓用戶也能理解算法

了解谷歌算法的內(nèi)部工作流程,有助于團(tuán)隊(duì)更好地進(jìn)行修改。比如用谷歌搜索“CEO”時(shí)出現(xiàn)的問(wèn)題,當(dāng)你在搜索欄中鍵入“CEO”時(shí),你會(huì)看到一些穿著西裝打著領(lǐng)帶的白人男子的圖片。

Gennai的團(tuán)隊(duì)調(diào)查數(shù)據(jù)時(shí)發(fā)現(xiàn),這個(gè)現(xiàn)象往往并不是人為偏見(jiàn),而是技術(shù)上的偏見(jiàn)。

“在算法看來(lái),海軍藍(lán)像素就等于CEO,而且因?yàn)榘兹四行愿菀状┧{(lán)色西裝,所以這純粹是模型學(xué)習(xí)的方式問(wèn)題。但這表明我們需要仔細(xì)檢查數(shù)據(jù)。

讓谷歌用戶了解公司算法的運(yùn)作方式也是很重要的。谷歌用戶現(xiàn)在可以查看為你投放廣告的原因,并查看由算法做出的決定。用戶還可以查看為何會(huì)在谷歌搜索結(jié)果中看到某個(gè)鏈接,具體取決于用戶之前的搜索記錄。 Gennai表示,這是為了幫助用戶更多地了解谷歌,以便他們可以信任谷歌搜索。

透明度也是谷歌AI原則的一部分。但是“與用戶共享一個(gè)完整的算法根本沒(méi)有用,反而可能會(huì)引起更多的混淆,并感覺(jué)我們是故意混淆。但是,用用戶可讀的語(yǔ)言解釋算法,將有助于人們了解谷歌正在嘗試做的事情,即使我們做錯(cuò)了。”Gennai說(shuō)。

解決AI偏見(jiàn),光靠谷歌不夠

說(shuō)到最后,偏見(jiàn)的根源其實(shí)還是來(lái)自人類。“我們每個(gè)人都有偏見(jiàn),我們現(xiàn)有的全部數(shù)據(jù)源,都是建立在我們每個(gè)人和過(guò)去的歷史偏見(jiàn)之上。”

但是,僅僅因?yàn)檫@一點(diǎn),并不能說(shuō)我們無(wú)法阻止偏見(jiàn)。相反,谷歌試圖盡可能調(diào)查和解釋最大的偏見(jiàn)來(lái)源,并嘗試改變。

從這個(gè)角度看,谷歌的AI準(zhǔn)則在公司內(nèi)部非常重要,也是因?yàn)檫@個(gè)原因,谷歌為公司外的人創(chuàng)建了“負(fù)責(zé)任的AI”開(kāi)發(fā)實(shí)踐項(xiàng)目,這些人正在使用其開(kāi)源軟件來(lái)構(gòu)建人工智能和機(jī)器學(xué)習(xí)算法。

“我們希望能夠以身作則,提供相關(guān)工具和知識(shí),讓更多的人能夠遵循這些準(zhǔn)則。”她說(shuō)。

關(guān)鍵字:谷歌智能

本文摘自:新智元

電子周刊
回到頂部

關(guān)于我們聯(lián)系我們版權(quán)聲明隱私條款廣告服務(wù)友情鏈接投稿中心招賢納士

企業(yè)網(wǎng)版權(quán)所有 ©2010-2024 京ICP備09108050號(hào)-6 京公網(wǎng)安備 11010502049343號(hào)

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 玛多县| 贺兰县| 洛宁县| 台湾省| 谢通门县| 平湖市| 盐津县| 沾益县| 深水埗区| 五台县| 尉犁县| 久治县| 张家界市| 吉林省| 安龙县| 休宁县| 神木县| 南汇区| 修水县| 临桂县| 宁晋县| 永善县| 墨玉县| 肥乡县| 北安市| 盘山县| 鄂托克前旗| 惠东县| 临沂市| 任丘市| 富蕴县| 洞口县| 金山区| 额敏县| 驻马店市| 青铜峡市| 板桥市| 印江| 临城县| 安泽县| 临海市|