精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當(dāng)前位置:人工智能行業(yè)動(dòng)態(tài) → 正文

別把個(gè)人隱私不知不覺“喂”給人工智能

責(zé)任編輯:zsheng |來源:企業(yè)網(wǎng)D1Net  2019-03-26 09:44:40 本文摘自:科技日?qǐng)?bào)

據(jù)英國廣播公司(BBC)報(bào)道,IBM近日被指在未經(jīng)用戶同意的情況下,在圖片分享網(wǎng)站Flickr上獲取了大約100萬張照片,用于訓(xùn)練其人臉識(shí)別算法。

圖片來自網(wǎng)絡(luò)

當(dāng)個(gè)人隱私成了“數(shù)據(jù)”

據(jù)報(bào)道,IBM研究人員在一篇公開的論文中詳細(xì)描述了使用這些照片進(jìn)行人臉分析的步驟,包括測量人臉五官的距離等等。研究人員寫道,通過使用頭部和面部的47個(gè)標(biāo)記點(diǎn),可以對(duì)人的面部照片進(jìn)行很多可靠的測量。

對(duì)于技術(shù)公司而言,這些照片的價(jià)值不言而喻。龐大的圖片數(shù)據(jù)集有助于將人臉識(shí)別算法訓(xùn)練得更加精確,從而可以快速地從不同照片或不同場景中識(shí)別出某個(gè)用戶。

然而,那些照片上的人,大概并沒有想到,自己的肖像數(shù)據(jù)就這樣被技術(shù)公司收集,“喂”給了人工智能神經(jīng)網(wǎng)絡(luò),不知不覺地成了人臉識(shí)別技術(shù)迭代升級(jí)的“糧食”。

IBM在一則聲明中表示,它非常嚴(yán)肅地對(duì)待用戶隱私,一直謹(jǐn)慎地遵循隱私原則,并表示用戶可以選擇退出數(shù)據(jù)集。

話說回來,選擇退出時(shí)間點(diǎn)應(yīng)為用戶在肖像數(shù)據(jù)被獲取之前,知道自己的肖像數(shù)據(jù)將被用于其他用途。而在這一事件中,很多用戶的隱私已不知不覺地被侵犯了。

行業(yè)內(nèi)公開的秘密

假如你的頭像也是上述100萬張照片之一,肯定會(huì)覺得這件事特別詭異。但對(duì)某些人來說,IBM的所作所為并不值得大驚小怪,只是行業(yè)內(nèi)公開的秘密而已。

《麻省理工技術(shù)評(píng)論》官網(wǎng)發(fā)表文章說,人工智能研發(fā)人員一直在從互聯(lián)網(wǎng)的各個(gè)角落搜集大量數(shù)據(jù),來“喂”那些饑餓的機(jī)器學(xué)習(xí)算法,因?yàn)檫@些算法的訓(xùn)練需要以大數(shù)據(jù)為支撐。該文稱,社交平臺(tái)Instagram上的照片也常常作為技術(shù)公司獲取圖片數(shù)據(jù)的來源,而且照片的內(nèi)容標(biāo)簽經(jīng)常對(duì)應(yīng)照片的內(nèi)容,這更加方便了研發(fā)人員對(duì)數(shù)據(jù)的標(biāo)注。

除了社交平臺(tái)上的照片被不知不覺地獲取,隨著人工智能技術(shù)的應(yīng)用越來越廣泛,個(gè)人隱私被不當(dāng)利用的擔(dān)憂同樣存在于其他場景。

比如,最近不少商家把人臉識(shí)別技術(shù)請(qǐng)上了收銀臺(tái),推廣刷臉支付。消費(fèi)者在刷臉支付的同時(shí),自己的面部肖像也同時(shí)被人臉識(shí)別系統(tǒng)所獲取。關(guān)鍵是,這些面部會(huì)不會(huì)也像Flickr上的照片那樣,變成訓(xùn)練人工智能神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)?甚至在未經(jīng)消費(fèi)者同意的情況下,再次被提供給其他商家,用于其他用途?這些都是值得追問的。

可能被侵犯的個(gè)人隱私也不僅僅限于面部肖像。現(xiàn)在多種應(yīng)用軟件都可以在語音識(shí)別技術(shù)的支持下,允許用戶進(jìn)行語音輸入。但聲紋是重要的個(gè)人生物信息,這些語音數(shù)據(jù)被商家獲取后將如何被保管和使用?要知道,一旦聲紋數(shù)據(jù)被泄露,不法分子有可能利用當(dāng)前的語音技術(shù),合成出難辨真?zhèn)蔚穆曇簦糜陔娫捲p騙等不良企圖。

虹膜識(shí)別、指紋支付、文字識(shí)別等人工智能技術(shù)在應(yīng)用過程中也可能毫不例外地涉及個(gè)人隱私問題。

用戶知情同意是前提

人工智能時(shí)代,正讓每個(gè)置身其中的人變得越來越透明。享受其便利的同時(shí),公民的個(gè)人隱私也很容易被推向灰色地帶。

解決方案其實(shí)很簡單:獲取用戶個(gè)人隱私信息,應(yīng)保證用戶的知情權(quán);要給予用戶選擇不拿個(gè)人隱私“喂”人工智能的權(quán)利。

要實(shí)現(xiàn)這一目標(biāo),僅僅依靠行業(yè)自覺恐怕遠(yuǎn)遠(yuǎn)不夠。制定相關(guān)法律對(duì)人工智能技術(shù)的應(yīng)用加以規(guī)范才是硬道理。

就在IBM事件掀起軒然大波之際,兩位美國參議員提議通過新的法案——商業(yè)面部識(shí)別隱私法,對(duì)技術(shù)公司的人臉識(shí)別技術(shù)使用進(jìn)行一定限制。

這項(xiàng)法案提出,禁止在未經(jīng)用戶同意的情況下,使用商業(yè)面部識(shí)別技術(shù)收集和分享數(shù)據(jù),用于識(shí)別或追蹤用戶。新法案還將要求公司在收集人臉識(shí)別數(shù)據(jù)時(shí)明確地告知用戶,并且經(jīng)過用戶的知情同意才能分享給第三方。

令人欣喜的是,今年兩會(huì)期間,我國在相關(guān)領(lǐng)域也有好消息傳出:全國人大常委會(huì)已將個(gè)人信息保護(hù)法等與人工智能密切相關(guān)的立法項(xiàng)目列入本屆五年的立法規(guī)劃。

期待人工智能技術(shù)在變得越來越能干的同時(shí),也越來越懂得尊重個(gè)人隱私。

延伸閱讀

歐美學(xué)者對(duì)于《一般數(shù)據(jù)保護(hù)條例》表示擔(dān)憂

過去一年,科技發(fā)展與隱私保護(hù)的沖突似乎愈演愈烈。近日,2014年經(jīng)濟(jì)學(xué)諾獎(jiǎng)得主、法國圖盧茲經(jīng)濟(jì)學(xué)院教授讓·梯若爾等多位知名學(xué)者現(xiàn)身杭州,就“數(shù)據(jù)隱私和技術(shù)發(fā)展”發(fā)表了各自的看法。

2018年5月,由歐盟頒發(fā)、被稱為史上最嚴(yán)格的GDPR(《一般數(shù)據(jù)保護(hù)條例》)開始實(shí)施,F(xiàn)acebook等巨頭企業(yè)接連收到了歐洲開出的天價(jià)罰單。與此同時(shí),對(duì)于隱私保護(hù)的政策爭議不斷,有人呼吁出臺(tái)更嚴(yán)格的隱私保護(hù)條例,也有不少專家認(rèn)為,歐洲嚴(yán)格的數(shù)據(jù)保護(hù)條例,并不適合在全世界推廣,在未來的大世界面前,隱私就是一個(gè)小問題。

討論中來自歐美的學(xué)者對(duì)這一由歐盟頒發(fā)的數(shù)據(jù)保護(hù)條例普遍表示了擔(dān)心。讓·梯若爾認(rèn)為,該條例太過復(fù)雜,如果不允許收集數(shù)據(jù),就類似于“想倒掉洗澡水,把寶寶也潑出去了”。美國伯克利法學(xué)院教授姆斯·鄧普希則直言,當(dāng)前對(duì)隱私問題的研究,有待于更充足的經(jīng)濟(jì)學(xué)、社會(huì)學(xué)層面的知識(shí)給予支撐和完善。

《經(jīng)濟(jì)學(xué)人》智庫發(fā)布的最新報(bào)告稱,關(guān)于隱私,存在很多地區(qū)偏見。中國比歐美更認(rèn)同“數(shù)據(jù)隱私對(duì)企業(yè)治理的重要性”。98%的中國受訪者認(rèn)為,數(shù)據(jù)隱私是良好企業(yè)治理的最重要組成部分,這與中國企業(yè)不重視隱私的普遍觀念截然相反。(記者江耘 實(shí)習(xí)生洪恒飛)

關(guān)鍵字:智能隱私

本文摘自:科技日?qǐng)?bào)

x 別把個(gè)人隱私不知不覺“喂”給人工智能 掃一掃
分享本文到朋友圈
當(dāng)前位置:人工智能行業(yè)動(dòng)態(tài) → 正文

別把個(gè)人隱私不知不覺“喂”給人工智能

責(zé)任編輯:zsheng |來源:企業(yè)網(wǎng)D1Net  2019-03-26 09:44:40 本文摘自:科技日?qǐng)?bào)

據(jù)英國廣播公司(BBC)報(bào)道,IBM近日被指在未經(jīng)用戶同意的情況下,在圖片分享網(wǎng)站Flickr上獲取了大約100萬張照片,用于訓(xùn)練其人臉識(shí)別算法。

圖片來自網(wǎng)絡(luò)

當(dāng)個(gè)人隱私成了“數(shù)據(jù)”

據(jù)報(bào)道,IBM研究人員在一篇公開的論文中詳細(xì)描述了使用這些照片進(jìn)行人臉分析的步驟,包括測量人臉五官的距離等等。研究人員寫道,通過使用頭部和面部的47個(gè)標(biāo)記點(diǎn),可以對(duì)人的面部照片進(jìn)行很多可靠的測量。

對(duì)于技術(shù)公司而言,這些照片的價(jià)值不言而喻。龐大的圖片數(shù)據(jù)集有助于將人臉識(shí)別算法訓(xùn)練得更加精確,從而可以快速地從不同照片或不同場景中識(shí)別出某個(gè)用戶。

然而,那些照片上的人,大概并沒有想到,自己的肖像數(shù)據(jù)就這樣被技術(shù)公司收集,“喂”給了人工智能神經(jīng)網(wǎng)絡(luò),不知不覺地成了人臉識(shí)別技術(shù)迭代升級(jí)的“糧食”。

IBM在一則聲明中表示,它非常嚴(yán)肅地對(duì)待用戶隱私,一直謹(jǐn)慎地遵循隱私原則,并表示用戶可以選擇退出數(shù)據(jù)集。

話說回來,選擇退出時(shí)間點(diǎn)應(yīng)為用戶在肖像數(shù)據(jù)被獲取之前,知道自己的肖像數(shù)據(jù)將被用于其他用途。而在這一事件中,很多用戶的隱私已不知不覺地被侵犯了。

行業(yè)內(nèi)公開的秘密

假如你的頭像也是上述100萬張照片之一,肯定會(huì)覺得這件事特別詭異。但對(duì)某些人來說,IBM的所作所為并不值得大驚小怪,只是行業(yè)內(nèi)公開的秘密而已。

《麻省理工技術(shù)評(píng)論》官網(wǎng)發(fā)表文章說,人工智能研發(fā)人員一直在從互聯(lián)網(wǎng)的各個(gè)角落搜集大量數(shù)據(jù),來“喂”那些饑餓的機(jī)器學(xué)習(xí)算法,因?yàn)檫@些算法的訓(xùn)練需要以大數(shù)據(jù)為支撐。該文稱,社交平臺(tái)Instagram上的照片也常常作為技術(shù)公司獲取圖片數(shù)據(jù)的來源,而且照片的內(nèi)容標(biāo)簽經(jīng)常對(duì)應(yīng)照片的內(nèi)容,這更加方便了研發(fā)人員對(duì)數(shù)據(jù)的標(biāo)注。

除了社交平臺(tái)上的照片被不知不覺地獲取,隨著人工智能技術(shù)的應(yīng)用越來越廣泛,個(gè)人隱私被不當(dāng)利用的擔(dān)憂同樣存在于其他場景。

比如,最近不少商家把人臉識(shí)別技術(shù)請(qǐng)上了收銀臺(tái),推廣刷臉支付。消費(fèi)者在刷臉支付的同時(shí),自己的面部肖像也同時(shí)被人臉識(shí)別系統(tǒng)所獲取。關(guān)鍵是,這些面部會(huì)不會(huì)也像Flickr上的照片那樣,變成訓(xùn)練人工智能神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)?甚至在未經(jīng)消費(fèi)者同意的情況下,再次被提供給其他商家,用于其他用途?這些都是值得追問的。

可能被侵犯的個(gè)人隱私也不僅僅限于面部肖像。現(xiàn)在多種應(yīng)用軟件都可以在語音識(shí)別技術(shù)的支持下,允許用戶進(jìn)行語音輸入。但聲紋是重要的個(gè)人生物信息,這些語音數(shù)據(jù)被商家獲取后將如何被保管和使用?要知道,一旦聲紋數(shù)據(jù)被泄露,不法分子有可能利用當(dāng)前的語音技術(shù),合成出難辨真?zhèn)蔚穆曇簦糜陔娫捲p騙等不良企圖。

虹膜識(shí)別、指紋支付、文字識(shí)別等人工智能技術(shù)在應(yīng)用過程中也可能毫不例外地涉及個(gè)人隱私問題。

用戶知情同意是前提

人工智能時(shí)代,正讓每個(gè)置身其中的人變得越來越透明。享受其便利的同時(shí),公民的個(gè)人隱私也很容易被推向灰色地帶。

解決方案其實(shí)很簡單:獲取用戶個(gè)人隱私信息,應(yīng)保證用戶的知情權(quán);要給予用戶選擇不拿個(gè)人隱私“喂”人工智能的權(quán)利。

要實(shí)現(xiàn)這一目標(biāo),僅僅依靠行業(yè)自覺恐怕遠(yuǎn)遠(yuǎn)不夠。制定相關(guān)法律對(duì)人工智能技術(shù)的應(yīng)用加以規(guī)范才是硬道理。

就在IBM事件掀起軒然大波之際,兩位美國參議員提議通過新的法案——商業(yè)面部識(shí)別隱私法,對(duì)技術(shù)公司的人臉識(shí)別技術(shù)使用進(jìn)行一定限制。

這項(xiàng)法案提出,禁止在未經(jīng)用戶同意的情況下,使用商業(yè)面部識(shí)別技術(shù)收集和分享數(shù)據(jù),用于識(shí)別或追蹤用戶。新法案還將要求公司在收集人臉識(shí)別數(shù)據(jù)時(shí)明確地告知用戶,并且經(jīng)過用戶的知情同意才能分享給第三方。

令人欣喜的是,今年兩會(huì)期間,我國在相關(guān)領(lǐng)域也有好消息傳出:全國人大常委會(huì)已將個(gè)人信息保護(hù)法等與人工智能密切相關(guān)的立法項(xiàng)目列入本屆五年的立法規(guī)劃。

期待人工智能技術(shù)在變得越來越能干的同時(shí),也越來越懂得尊重個(gè)人隱私。

延伸閱讀

歐美學(xué)者對(duì)于《一般數(shù)據(jù)保護(hù)條例》表示擔(dān)憂

過去一年,科技發(fā)展與隱私保護(hù)的沖突似乎愈演愈烈。近日,2014年經(jīng)濟(jì)學(xué)諾獎(jiǎng)得主、法國圖盧茲經(jīng)濟(jì)學(xué)院教授讓·梯若爾等多位知名學(xué)者現(xiàn)身杭州,就“數(shù)據(jù)隱私和技術(shù)發(fā)展”發(fā)表了各自的看法。

2018年5月,由歐盟頒發(fā)、被稱為史上最嚴(yán)格的GDPR(《一般數(shù)據(jù)保護(hù)條例》)開始實(shí)施,F(xiàn)acebook等巨頭企業(yè)接連收到了歐洲開出的天價(jià)罰單。與此同時(shí),對(duì)于隱私保護(hù)的政策爭議不斷,有人呼吁出臺(tái)更嚴(yán)格的隱私保護(hù)條例,也有不少專家認(rèn)為,歐洲嚴(yán)格的數(shù)據(jù)保護(hù)條例,并不適合在全世界推廣,在未來的大世界面前,隱私就是一個(gè)小問題。

討論中來自歐美的學(xué)者對(duì)這一由歐盟頒發(fā)的數(shù)據(jù)保護(hù)條例普遍表示了擔(dān)心。讓·梯若爾認(rèn)為,該條例太過復(fù)雜,如果不允許收集數(shù)據(jù),就類似于“想倒掉洗澡水,把寶寶也潑出去了”。美國伯克利法學(xué)院教授姆斯·鄧普希則直言,當(dāng)前對(duì)隱私問題的研究,有待于更充足的經(jīng)濟(jì)學(xué)、社會(huì)學(xué)層面的知識(shí)給予支撐和完善。

《經(jīng)濟(jì)學(xué)人》智庫發(fā)布的最新報(bào)告稱,關(guān)于隱私,存在很多地區(qū)偏見。中國比歐美更認(rèn)同“數(shù)據(jù)隱私對(duì)企業(yè)治理的重要性”。98%的中國受訪者認(rèn)為,數(shù)據(jù)隱私是良好企業(yè)治理的最重要組成部分,這與中國企業(yè)不重視隱私的普遍觀念截然相反。(記者江耘 實(shí)習(xí)生洪恒飛)

關(guān)鍵字:智能隱私

本文摘自:科技日?qǐng)?bào)

電子周刊
回到頂部

關(guān)于我們聯(lián)系我們版權(quán)聲明隱私條款廣告服務(wù)友情鏈接投稿中心招賢納士

企業(yè)網(wǎng)版權(quán)所有 ©2010-2024 京ICP備09108050號(hào)-6 京公網(wǎng)安備 11010502049343號(hào)

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 共和县| 平远县| 赫章县| 大姚县| 石阡县| 奉化市| 盱眙县| 弥勒县| 木里| 漠河县| 章丘市| 松江区| 上蔡县| 通山县| 多伦县| 乌苏市| 海丰县| 通化市| 马关县| 宝丰县| 潼关县| 张家港市| 金阳县| 临洮县| 凌海市| 田林县| 营山县| 麻江县| 牟定县| 渭南市| 镇康县| 运城市| 额敏县| 綦江县| 仙桃市| 股票| 防城港市| 汾阳市| 龙南县| 始兴县| 沙湾县|