人工智能在社會和經(jīng)濟領(lǐng)域中成功的整合也會出現(xiàn)自身的挑戰(zhàn),人工智能可以幫助克服經(jīng)濟不平等或利益分配不均等現(xiàn)象,要把事情做好,就需要對人工智能的社會后果進行認(rèn)真研究,并建立合作伙伴關(guān)系,以確保其為公共利益服務(wù)。
這就是為什么要去探討人工智能的社會道德問題,安全和社會影響研究將成為未來一年最緊迫的研究領(lǐng)域之一,例如,人們逐漸認(rèn)識到,開發(fā)新技術(shù)有助于解決不平等,不公正和偏見的影響。2018年,我們將看到更多的團體開始解決這些問題。
這并不是一件容易的事情,技術(shù)部門常常陷入簡化的思維方式,取而代之的是復(fù)雜的價值判斷,重點應(yīng)放在可以隨時追蹤和優(yōu)化的簡單指標(biāo)上。
對于一個從事社會活動工作的人來說,可以看到很多從事科技工作的人都是真正的為了改變世界而努力,如微軟和谷歌分別聘用的凱特·克勞福德(Kate Crawford)和梅雷迪思·惠特克(Meredith Whittaker)共同創(chuàng)辦了AI Now小組,以研究技術(shù)對社會的影響,
其實人工智能的倫理道德問題會在接下來的發(fā)展中成為其核心討論問題,所以在一些問題我們都是在不斷的探索中并從中找出人工智能道德問題的真正含義所在。