圖片來自網(wǎng)絡(luò)
當(dāng)個(gè)人隱私成了“數(shù)據(jù)”
據(jù)報(bào)道,IBM研究人員在一篇公開的論文中詳細(xì)描述了使用這些照片進(jìn)行人臉分析的步驟,包括測量人臉五官的距離等等。研究人員寫道,通過使用頭部和面部的47個(gè)標(biāo)記點(diǎn),可以對(duì)人的面部照片進(jìn)行很多可靠的測量。
對(duì)于技術(shù)公司而言,這些照片的價(jià)值不言而喻。龐大的圖片數(shù)據(jù)集有助于將人臉識(shí)別算法訓(xùn)練得更加精確,從而可以快速地從不同照片或不同場景中識(shí)別出某個(gè)用戶。
然而,那些照片上的人,大概并沒有想到,自己的肖像數(shù)據(jù)就這樣被技術(shù)公司收集,“喂”給了人工智能神經(jīng)網(wǎng)絡(luò),不知不覺地成了人臉識(shí)別技術(shù)迭代升級(jí)的“糧食”。
IBM在一則聲明中表示,它非常嚴(yán)肅地對(duì)待用戶隱私,一直謹(jǐn)慎地遵循隱私原則,并表示用戶可以選擇退出數(shù)據(jù)集。
話說回來,選擇退出時(shí)間點(diǎn)應(yīng)為用戶在肖像數(shù)據(jù)被獲取之前,知道自己的肖像數(shù)據(jù)將被用于其他用途。而在這一事件中,很多用戶的隱私已不知不覺地被侵犯了。
行業(yè)內(nèi)公開的秘密
假如你的頭像也是上述100萬張照片之一,肯定會(huì)覺得這件事特別詭異。但對(duì)某些人來說,IBM的所作所為并不值得大驚小怪,只是行業(yè)內(nèi)公開的秘密而已。
《麻省理工技術(shù)評(píng)論》官網(wǎng)發(fā)表文章說,人工智能研發(fā)人員一直在從互聯(lián)網(wǎng)的各個(gè)角落搜集大量數(shù)據(jù),來“喂”那些饑餓的機(jī)器學(xué)習(xí)算法,因?yàn)檫@些算法的訓(xùn)練需要以大數(shù)據(jù)為支撐。該文稱,社交平臺(tái)Instagram上的照片也常常作為技術(shù)公司獲取圖片數(shù)據(jù)的來源,而且照片的內(nèi)容標(biāo)簽經(jīng)常對(duì)應(yīng)照片的內(nèi)容,這更加方便了研發(fā)人員對(duì)數(shù)據(jù)的標(biāo)注。
除了社交平臺(tái)上的照片被不知不覺地獲取,隨著人工智能技術(shù)的應(yīng)用越來越廣泛,個(gè)人隱私被不當(dāng)利用的擔(dān)憂同樣存在于其他場景。
比如,最近不少商家把人臉識(shí)別技術(shù)請(qǐng)上了收銀臺(tái),推廣刷臉支付。消費(fèi)者在刷臉支付的同時(shí),自己的面部肖像也同時(shí)被人臉識(shí)別系統(tǒng)所獲取。關(guān)鍵是,這些面部會(huì)不會(huì)也像Flickr上的照片那樣,變成訓(xùn)練人工智能神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)?甚至在未經(jīng)消費(fèi)者同意的情況下,再次被提供給其他商家,用于其他用途?這些都是值得追問的。
可能被侵犯的個(gè)人隱私也不僅僅限于面部肖像。現(xiàn)在多種應(yīng)用軟件都可以在語音識(shí)別技術(shù)的支持下,允許用戶進(jìn)行語音輸入。但聲紋是重要的個(gè)人生物信息,這些語音數(shù)據(jù)被商家獲取后將如何被保管和使用?要知道,一旦聲紋數(shù)據(jù)被泄露,不法分子有可能利用當(dāng)前的語音技術(shù),合成出難辨真?zhèn)蔚穆曇簦糜陔娫捲p騙等不良企圖。
虹膜識(shí)別、指紋支付、文字識(shí)別等人工智能技術(shù)在應(yīng)用過程中也可能毫不例外地涉及個(gè)人隱私問題。
用戶知情同意是前提
人工智能時(shí)代,正讓每個(gè)置身其中的人變得越來越透明。享受其便利的同時(shí),公民的個(gè)人隱私也很容易被推向灰色地帶。
解決方案其實(shí)很簡單:獲取用戶個(gè)人隱私信息,應(yīng)保證用戶的知情權(quán);要給予用戶選擇不拿個(gè)人隱私“喂”人工智能的權(quán)利。
要實(shí)現(xiàn)這一目標(biāo),僅僅依靠行業(yè)自覺恐怕遠(yuǎn)遠(yuǎn)不夠。制定相關(guān)法律對(duì)人工智能技術(shù)的應(yīng)用加以規(guī)范才是硬道理。
就在IBM事件掀起軒然大波之際,兩位美國參議員提議通過新的法案——商業(yè)面部識(shí)別隱私法,對(duì)技術(shù)公司的人臉識(shí)別技術(shù)使用進(jìn)行一定限制。
這項(xiàng)法案提出,禁止在未經(jīng)用戶同意的情況下,使用商業(yè)面部識(shí)別技術(shù)收集和分享數(shù)據(jù),用于識(shí)別或追蹤用戶。新法案還將要求公司在收集人臉識(shí)別數(shù)據(jù)時(shí)明確地告知用戶,并且經(jīng)過用戶的知情同意才能分享給第三方。
令人欣喜的是,今年兩會(huì)期間,我國在相關(guān)領(lǐng)域也有好消息傳出:全國人大常委會(huì)已將個(gè)人信息保護(hù)法等與人工智能密切相關(guān)的立法項(xiàng)目列入本屆五年的立法規(guī)劃。
期待人工智能技術(shù)在變得越來越能干的同時(shí),也越來越懂得尊重個(gè)人隱私。
延伸閱讀
歐美學(xué)者對(duì)于《一般數(shù)據(jù)保護(hù)條例》表示擔(dān)憂
過去一年,科技發(fā)展與隱私保護(hù)的沖突似乎愈演愈烈。近日,2014年經(jīng)濟(jì)學(xué)諾獎(jiǎng)得主、法國圖盧茲經(jīng)濟(jì)學(xué)院教授讓·梯若爾等多位知名學(xué)者現(xiàn)身杭州,就“數(shù)據(jù)隱私和技術(shù)發(fā)展”發(fā)表了各自的看法。
2018年5月,由歐盟頒發(fā)、被稱為史上最嚴(yán)格的GDPR(《一般數(shù)據(jù)保護(hù)條例》)開始實(shí)施,F(xiàn)acebook等巨頭企業(yè)接連收到了歐洲開出的天價(jià)罰單。與此同時(shí),對(duì)于隱私保護(hù)的政策爭議不斷,有人呼吁出臺(tái)更嚴(yán)格的隱私保護(hù)條例,也有不少專家認(rèn)為,歐洲嚴(yán)格的數(shù)據(jù)保護(hù)條例,并不適合在全世界推廣,在未來的大世界面前,隱私就是一個(gè)小問題。
討論中來自歐美的學(xué)者對(duì)這一由歐盟頒發(fā)的數(shù)據(jù)保護(hù)條例普遍表示了擔(dān)心。讓·梯若爾認(rèn)為,該條例太過復(fù)雜,如果不允許收集數(shù)據(jù),就類似于“想倒掉洗澡水,把寶寶也潑出去了”。美國伯克利法學(xué)院教授姆斯·鄧普希則直言,當(dāng)前對(duì)隱私問題的研究,有待于更充足的經(jīng)濟(jì)學(xué)、社會(huì)學(xué)層面的知識(shí)給予支撐和完善。
《經(jīng)濟(jì)學(xué)人》智庫發(fā)布的最新報(bào)告稱,關(guān)于隱私,存在很多地區(qū)偏見。中國比歐美更認(rèn)同“數(shù)據(jù)隱私對(duì)企業(yè)治理的重要性”。98%的中國受訪者認(rèn)為,數(shù)據(jù)隱私是良好企業(yè)治理的最重要組成部分,這與中國企業(yè)不重視隱私的普遍觀念截然相反。(記者江耘 實(shí)習(xí)生洪恒飛)