據(jù)報(bào)道,在中國天津舉行的世界經(jīng)濟(jì)論壇新領(lǐng)軍者年會(huì)上,人工智能和機(jī)器學(xué)習(xí)主管凱-弗思-巴特菲爾德(Kay Firth-Butterfield)稱,兩三年前,極少有人會(huì)提出使用人工智能的道德問題。
但是,她說,道德問題現(xiàn)在“開始變得突出”。“這一方面是因?yàn)槲覀冊跉W洲有一般數(shù)據(jù)保護(hù)法案在關(guān)注隱私問題,另一方面是因?yàn)橐恍┤斯ぶ悄芩惴ù嬖诿黠@的問題。”
偏見的認(rèn)定:
機(jī)器人存在偏見?還是算法?
從理論上來說,機(jī)器人應(yīng)該是沒有偏見的。但是,近些年,有很多事情表明算法開始變得有偏見。
幾年前,谷歌因其圖像識(shí)別算法把非裔美國人識(shí)別為“大猩猩”而遭到了猛烈批評(píng)。今年初,有報(bào)道稱,谷歌還沒有解決這個(gè)問題,只是簡單地阻止其圖像識(shí)別軟件來識(shí)別大猩猩。
類似的問題在不斷地出現(xiàn),這也表明了尋找到解決問題的方法刻不容緩。
而解決偏見的方法,必須確保兩點(diǎn):1.確保人工智能高速發(fā)展,為人類謀福利;2.同時(shí)解決人工智能在隱私、偏見、透明度和責(zé)任感等方面的道德問題。
中國科技行業(yè):
培養(yǎng)的科技人才可一定程度上填補(bǔ)空白
而在討論解決偏見的過程中,巴特菲爾德特別提到了中國科技行業(yè)。
她說,現(xiàn)在沒有足夠的人工智能工程師來滿足行業(yè)內(nèi)的需求。中國在努力培訓(xùn)更多的人工智能工程師和數(shù)據(jù)科學(xué)家,這可以在一定程度上填補(bǔ)科技行業(yè)的人才空白。
這足以見得,中國科技人才在未來解決人工智能偏見的這個(gè)全球性的課題上,發(fā)揮著重要作用。