精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

當(dāng)前位置:人工智能行業(yè)動態(tài) → 正文

算法當(dāng)?shù)溃槭裁慈祟惡腿斯ぶ悄茉絹碓较瘢?

責(zé)任編輯:zsheng |來源:企業(yè)網(wǎng)D1Net  2019-01-23 11:42:50 本文摘自:網(wǎng)易智能

算法告訴我們該如何思考,而這正在改變我們。隨著計算機學(xué)會如何模仿,我們是否正開始變得越來越像它們呢?

硅谷正越來越多地預(yù)測人們會如何回復(fù)電子郵件,會對某人的Instagram照片做出什么樣的反應(yīng),越來越多地決定人們有資格享受哪些政府服務(wù),不久以后,即將到來的谷歌語音助理Google Assistant將能夠為人們實時打電話預(yù)約理發(fā)師。

從醫(yī)院到學(xué)校,再到法庭,我們幾乎將算法帶到了所有的地方。我們被各種自動化系統(tǒng)所環(huán)繞。幾行代碼即可告訴我們應(yīng)該看什么媒體內(nèi)容,與誰約會,甚至告訴司法系統(tǒng)應(yīng)該把誰送進監(jiān)獄。

我們把如此之多的決策權(quán)和控制權(quán)交給這些程序,是對的嗎?

我們之所以癡迷于數(shù)學(xué)程序,是因為它們能對一系列錯綜復(fù)雜的問題給出快速而準(zhǔn)確的答案。機器學(xué)習(xí)系統(tǒng)已經(jīng)被應(yīng)用于我們的現(xiàn)代社會的幾乎每一個領(lǐng)域。

算法是如何影響我們的日常生活的?在一個不斷變化的世界里,機器正在快速而出色地學(xué)習(xí)人類的行為方式,我們喜歡些什么,討厭些什么,以及什么是對我們最好的。我們現(xiàn)在生活在由預(yù)測性技術(shù)主宰的空間里。

通過分析整理海量的數(shù)據(jù),給我們提供即時且相關(guān)的結(jié)果,算法極大地改變了我們的生活。多年來,我們讓公司們收集了大量的數(shù)據(jù),讓公司變得能夠給我們提供各種建議,能夠決定什么是對我們最有利的。

谷歌母公司Alphabet或亞馬遜等公司一直在為各自的算法灌輸從我們身上收集到的數(shù)據(jù),并指導(dǎo)人工智能利用收集到的信息來適應(yīng)我們的需求,變得更像我們。然而,隨著我們習(xí)慣了這些便捷的功能以后,我們的說話和行為方式是否會變得更像一臺計算機呢?

“算法本身并不公平,因為構(gòu)建模型的人定義了成功。”——數(shù)據(jù)科學(xué)家凱茜·奧尼爾(Cathy O’Neil)

按照當(dāng)前這樣的技術(shù)發(fā)展速度,我們不可能不去想象在不久的將來,我們的行為會變得由算法引導(dǎo)或支配。事實上,這已經(jīng)在發(fā)生了。

去年10月,谷歌為旗下郵箱服務(wù)Gmail推出了名為“Smart Reply”的智能回復(fù)功能,意在幫助你編寫回信或者快速回復(fù)。此后,該助理功能在互聯(lián)網(wǎng)上掀起了一場風(fēng)暴,很多人都批評它,稱其量身定制的建議具有侵害性,讓人看起來像機器,甚至有人認為,它的回復(fù)最終可能會影響我們的交流方式,甚至可能改變電子郵件的規(guī)范。

算法的主要問題在于,隨著它們變得如此巨大而復(fù)雜,它們會開始給我們當(dāng)前的社會帶來負面影響,會危及民主。隨著機器學(xué)習(xí)系統(tǒng)在社會的許多領(lǐng)域變得越來越普遍,算法會統(tǒng)治世界,接管我們的思想嗎?

現(xiàn)在,讓我們來看看Facebook的做法。早在2015年,他們的新版News Feed信息流的設(shè)計初衷就是篩選用戶的訂閱內(nèi)容,使其變成個性化的報紙,讓用戶能夠看到與他們之前曾點贊、分享和評論的內(nèi)容相關(guān)的東西。

“個性化”算法的問題在于,它們會將用戶放入“過濾氣泡”或者“回聲室”。在現(xiàn)實生活中,大多數(shù)人不太可能接受他們覺得困惑、討厭、不正確或可恨的觀點。就Facebook的算法而言,該公司給予用戶他們想要看到的東西,因此,每個用戶的信息流都變成一個獨特的世界,它們本身就是一個獨特的現(xiàn)實。

過濾氣泡使得公開論證變得越來越困難,因為從系統(tǒng)的視角來看,信息和虛假信息看起來完全一樣。正如羅杰?麥克納米(Roger McNamee)最近在《時代》(Time)雜志上所寫的那樣,“在Facebook上,事實不是絕對的;它們是一種選擇,最初留給用戶和他們的朋友決定的一種選擇,但隨后被算法放大,以便促進傳播和用戶的互動。”

過濾氣泡制造了一種錯覺:每個人都相信我們在做著同樣的事情,或者有同樣的習(xí)慣。我們已經(jīng)知道,在Facebook上,算法因為加劇了兩極化而讓這一問題進一步惡化,最終損害了民主。有證據(jù)表明,算法可能影響了英國公投或2016年美國總統(tǒng)大選的結(jié)果。

“Facebook的算法推崇極端信息,而非中性信息,這會讓虛假信息凌駕于真實信息之上,讓陰謀論凌駕于事實之上。”——硅谷投資人羅杰·麥克納米(Roger McNamee)

在無時無刻都充斥著大量信息的當(dāng)今世界,篩選信息對一些人來說是一個巨大的挑戰(zhàn)。如果使用得當(dāng),人工智能可能會增強人們的在線體驗,或幫助人們迅速處理不斷增長的內(nèi)容資訊負荷。然而,要能夠正當(dāng)運作,算法需要關(guān)于真實世界中發(fā)生的事情的準(zhǔn)確數(shù)據(jù)。

公司和政府需要確保算法的數(shù)據(jù)不存在偏見,且是準(zhǔn)確的。由于沒有什么是完美無瑕的,存在自然偏差的數(shù)據(jù)估計已經(jīng)存在于許多的算法中,這不僅給我們的網(wǎng)絡(luò)世界帶來了危險,也給現(xiàn)實世界帶來了危險。

倡導(dǎo)實施更強有力的監(jiān)管框架是必要的,這樣我們就不會陷入技術(shù)上的蠻荒。

我們也應(yīng)該非常謹(jǐn)慎于我們賦予算法的能力。人們正變得越來越擔(dān)心算法帶來的透明度問題,算法做出的決策和流程背后的倫理意味,以及影響人們工作生活的社會后果。例如,在法庭上使用人工智能可能會增加偏見,造成對少數(shù)族裔的歧視,因為它會考慮到“風(fēng)險”因素,比如人們所在的社區(qū)以及與犯罪的關(guān)聯(lián)性。這些算法可能會犯下災(zāi)難性的系統(tǒng)性錯誤,把現(xiàn)實中無辜的人類送進監(jiān)獄。

“我們有失去人性的危險嗎?”

安全專家布魯斯·施奈爾(Bruce Schneier)在他的書《點擊這里殺死所有人》(Click Here to Kill Everybody)中寫道,“如果我們讓計算機為我們思考,而底層的輸入數(shù)據(jù)是糟糕的,那么它們會進行糟糕的思考,而我們可能永遠都不會察覺。”

英國倫敦大學(xué)學(xué)院的數(shù)學(xué)家漢娜·弗萊(Hannah Fry)帶領(lǐng)我們進入了一個計算機可以自由操作的世界。在她的新著作《世界你好:在算法的時代里做個人類》(Hello World: Being Human In the Age of Algorithms)中,她認為,作為公民,我們應(yīng)該更多地關(guān)注鍵盤后面的人,即那些編寫算法的人。

“我們不必創(chuàng)造一個由機器來告訴我們該做什么或者該如何思考的世界,盡管我們最終很可能會進入這樣一個世界。”她說道。在整本書中,她多次問道:“我們有失去人性的危險嗎?”

現(xiàn)在,我們還沒有到人類被排除在外的階段。我們在這個世界上的角色還沒有被邊緣化,在很長一段時間內(nèi)都不會。人類和機器可以結(jié)合各自的優(yōu)勢和劣勢一起運作。機器有缺陷,會犯和我們一樣的錯誤。我們應(yīng)該注意我們交出了多少的信息,放棄了多少的能力,畢竟算法現(xiàn)在是人類固有的一部分,它們不會在短時間內(nèi)消失。

關(guān)鍵字:智能人類算法

本文摘自:網(wǎng)易智能

x 掃一掃
分享本文到朋友圈
當(dāng)前位置:人工智能行業(yè)動態(tài) → 正文

算法當(dāng)?shù)溃槭裁慈祟惡腿斯ぶ悄茉絹碓较瘢?

責(zé)任編輯:zsheng |來源:企業(yè)網(wǎng)D1Net  2019-01-23 11:42:50 本文摘自:網(wǎng)易智能

算法告訴我們該如何思考,而這正在改變我們。隨著計算機學(xué)會如何模仿,我們是否正開始變得越來越像它們呢?

硅谷正越來越多地預(yù)測人們會如何回復(fù)電子郵件,會對某人的Instagram照片做出什么樣的反應(yīng),越來越多地決定人們有資格享受哪些政府服務(wù),不久以后,即將到來的谷歌語音助理Google Assistant將能夠為人們實時打電話預(yù)約理發(fā)師。

從醫(yī)院到學(xué)校,再到法庭,我們幾乎將算法帶到了所有的地方。我們被各種自動化系統(tǒng)所環(huán)繞。幾行代碼即可告訴我們應(yīng)該看什么媒體內(nèi)容,與誰約會,甚至告訴司法系統(tǒng)應(yīng)該把誰送進監(jiān)獄。

我們把如此之多的決策權(quán)和控制權(quán)交給這些程序,是對的嗎?

我們之所以癡迷于數(shù)學(xué)程序,是因為它們能對一系列錯綜復(fù)雜的問題給出快速而準(zhǔn)確的答案。機器學(xué)習(xí)系統(tǒng)已經(jīng)被應(yīng)用于我們的現(xiàn)代社會的幾乎每一個領(lǐng)域。

算法是如何影響我們的日常生活的?在一個不斷變化的世界里,機器正在快速而出色地學(xué)習(xí)人類的行為方式,我們喜歡些什么,討厭些什么,以及什么是對我們最好的。我們現(xiàn)在生活在由預(yù)測性技術(shù)主宰的空間里。

通過分析整理海量的數(shù)據(jù),給我們提供即時且相關(guān)的結(jié)果,算法極大地改變了我們的生活。多年來,我們讓公司們收集了大量的數(shù)據(jù),讓公司變得能夠給我們提供各種建議,能夠決定什么是對我們最有利的。

谷歌母公司Alphabet或亞馬遜等公司一直在為各自的算法灌輸從我們身上收集到的數(shù)據(jù),并指導(dǎo)人工智能利用收集到的信息來適應(yīng)我們的需求,變得更像我們。然而,隨著我們習(xí)慣了這些便捷的功能以后,我們的說話和行為方式是否會變得更像一臺計算機呢?

“算法本身并不公平,因為構(gòu)建模型的人定義了成功。”——數(shù)據(jù)科學(xué)家凱茜·奧尼爾(Cathy O’Neil)

按照當(dāng)前這樣的技術(shù)發(fā)展速度,我們不可能不去想象在不久的將來,我們的行為會變得由算法引導(dǎo)或支配。事實上,這已經(jīng)在發(fā)生了。

去年10月,谷歌為旗下郵箱服務(wù)Gmail推出了名為“Smart Reply”的智能回復(fù)功能,意在幫助你編寫回信或者快速回復(fù)。此后,該助理功能在互聯(lián)網(wǎng)上掀起了一場風(fēng)暴,很多人都批評它,稱其量身定制的建議具有侵害性,讓人看起來像機器,甚至有人認為,它的回復(fù)最終可能會影響我們的交流方式,甚至可能改變電子郵件的規(guī)范。

算法的主要問題在于,隨著它們變得如此巨大而復(fù)雜,它們會開始給我們當(dāng)前的社會帶來負面影響,會危及民主。隨著機器學(xué)習(xí)系統(tǒng)在社會的許多領(lǐng)域變得越來越普遍,算法會統(tǒng)治世界,接管我們的思想嗎?

現(xiàn)在,讓我們來看看Facebook的做法。早在2015年,他們的新版News Feed信息流的設(shè)計初衷就是篩選用戶的訂閱內(nèi)容,使其變成個性化的報紙,讓用戶能夠看到與他們之前曾點贊、分享和評論的內(nèi)容相關(guān)的東西。

“個性化”算法的問題在于,它們會將用戶放入“過濾氣泡”或者“回聲室”。在現(xiàn)實生活中,大多數(shù)人不太可能接受他們覺得困惑、討厭、不正確或可恨的觀點。就Facebook的算法而言,該公司給予用戶他們想要看到的東西,因此,每個用戶的信息流都變成一個獨特的世界,它們本身就是一個獨特的現(xiàn)實。

過濾氣泡使得公開論證變得越來越困難,因為從系統(tǒng)的視角來看,信息和虛假信息看起來完全一樣。正如羅杰?麥克納米(Roger McNamee)最近在《時代》(Time)雜志上所寫的那樣,“在Facebook上,事實不是絕對的;它們是一種選擇,最初留給用戶和他們的朋友決定的一種選擇,但隨后被算法放大,以便促進傳播和用戶的互動。”

過濾氣泡制造了一種錯覺:每個人都相信我們在做著同樣的事情,或者有同樣的習(xí)慣。我們已經(jīng)知道,在Facebook上,算法因為加劇了兩極化而讓這一問題進一步惡化,最終損害了民主。有證據(jù)表明,算法可能影響了英國公投或2016年美國總統(tǒng)大選的結(jié)果。

“Facebook的算法推崇極端信息,而非中性信息,這會讓虛假信息凌駕于真實信息之上,讓陰謀論凌駕于事實之上。”——硅谷投資人羅杰·麥克納米(Roger McNamee)

在無時無刻都充斥著大量信息的當(dāng)今世界,篩選信息對一些人來說是一個巨大的挑戰(zhàn)。如果使用得當(dāng),人工智能可能會增強人們的在線體驗,或幫助人們迅速處理不斷增長的內(nèi)容資訊負荷。然而,要能夠正當(dāng)運作,算法需要關(guān)于真實世界中發(fā)生的事情的準(zhǔn)確數(shù)據(jù)。

公司和政府需要確保算法的數(shù)據(jù)不存在偏見,且是準(zhǔn)確的。由于沒有什么是完美無瑕的,存在自然偏差的數(shù)據(jù)估計已經(jīng)存在于許多的算法中,這不僅給我們的網(wǎng)絡(luò)世界帶來了危險,也給現(xiàn)實世界帶來了危險。

倡導(dǎo)實施更強有力的監(jiān)管框架是必要的,這樣我們就不會陷入技術(shù)上的蠻荒。

我們也應(yīng)該非常謹(jǐn)慎于我們賦予算法的能力。人們正變得越來越擔(dān)心算法帶來的透明度問題,算法做出的決策和流程背后的倫理意味,以及影響人們工作生活的社會后果。例如,在法庭上使用人工智能可能會增加偏見,造成對少數(shù)族裔的歧視,因為它會考慮到“風(fēng)險”因素,比如人們所在的社區(qū)以及與犯罪的關(guān)聯(lián)性。這些算法可能會犯下災(zāi)難性的系統(tǒng)性錯誤,把現(xiàn)實中無辜的人類送進監(jiān)獄。

“我們有失去人性的危險嗎?”

安全專家布魯斯·施奈爾(Bruce Schneier)在他的書《點擊這里殺死所有人》(Click Here to Kill Everybody)中寫道,“如果我們讓計算機為我們思考,而底層的輸入數(shù)據(jù)是糟糕的,那么它們會進行糟糕的思考,而我們可能永遠都不會察覺。”

英國倫敦大學(xué)學(xué)院的數(shù)學(xué)家漢娜·弗萊(Hannah Fry)帶領(lǐng)我們進入了一個計算機可以自由操作的世界。在她的新著作《世界你好:在算法的時代里做個人類》(Hello World: Being Human In the Age of Algorithms)中,她認為,作為公民,我們應(yīng)該更多地關(guān)注鍵盤后面的人,即那些編寫算法的人。

“我們不必創(chuàng)造一個由機器來告訴我們該做什么或者該如何思考的世界,盡管我們最終很可能會進入這樣一個世界。”她說道。在整本書中,她多次問道:“我們有失去人性的危險嗎?”

現(xiàn)在,我們還沒有到人類被排除在外的階段。我們在這個世界上的角色還沒有被邊緣化,在很長一段時間內(nèi)都不會。人類和機器可以結(jié)合各自的優(yōu)勢和劣勢一起運作。機器有缺陷,會犯和我們一樣的錯誤。我們應(yīng)該注意我們交出了多少的信息,放棄了多少的能力,畢竟算法現(xiàn)在是人類固有的一部分,它們不會在短時間內(nèi)消失。

關(guān)鍵字:智能人類算法

本文摘自:網(wǎng)易智能

電子周刊
回到頂部

關(guān)于我們聯(lián)系我們版權(quán)聲明隱私條款廣告服務(wù)友情鏈接投稿中心招賢納士

企業(yè)網(wǎng)版權(quán)所有 ©2010-2024 京ICP備09108050號-6 京公網(wǎng)安備 11010502049343號

^
  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 泸溪县| 大石桥市| 米泉市| 宁强县| 商城县| 喀什市| 门源| 兖州市| 武定县| 桓台县| 喀喇沁旗| 叶城县| 罗田县| 乌兰县| 青州市| 水城县| 台中市| 青田县| 平江县| 大渡口区| 隆化县| 怀来县| 开原市| 枞阳县| 萝北县| 长宁区| 汉川市| 如皋市| 肃宁县| 宣威市| 郯城县| 苏尼特左旗| 南投县| 林州市| 吉木乃县| 桓台县| 武夷山市| 阳东县| 仁寿县| 宣威市| 张家界市|