但不得不說,對商家有幫助的東西不一定對用戶有好處,有些人們希望看到的內(nèi)容不一定是應(yīng)該看的??墒?,對于那些靠吸引觀眾注意來賺錢的工作,該如何遵守道德規(guī)范同時還能為用戶提供高質(zhì)量內(nèi)容呢?
為解決這一難題,一隊由IBM與美國麻省理工學院媒體實驗室組成的科研人員開發(fā)出了一種AI推薦系統(tǒng),不僅能依照用戶喜好優(yōu)化推薦結(jié)果,還能夠符合道德與行為規(guī)范等約束。據(jù)悉,這個科研團隊由IBM實驗室的AI道德規(guī)范全球領(lǐng)導(dǎo)人Francesca Rossi帶領(lǐng),這一隊科學家在一個電影推薦系統(tǒng)中展示了利用AI可以讓家長為孩子篩選符合道德規(guī)范的觀看內(nèi)容。
之前也有科研人員試圖將道德規(guī)范與AI算法結(jié)合,但大多使用的都是死規(guī)矩,比如,用戶可以指定算法取消對某些新聞來源或類別的推薦。盡管這種方法有時候有效,但是也有一些局限性。
IBM的一名研究院Nicholas Mattei表示:“設(shè)定明確的一組規(guī)矩很容易,但是網(wǎng)上信息量很大,在一些數(shù)據(jù)量很多的領(lǐng)域,是沒辦法為機器設(shè)定完整規(guī)范的。”
Mattei等科研人員決定解決這一問題,他們開發(fā)出了一種利用范例訓練機器學習從而制定規(guī)則的辦法。對此,Mattei補充道:“我們認為通過范例來學習規(guī)則,并且在規(guī)則約束下還能獲得瀏覽量是一個很有趣的技術(shù)難題。”
通過范例來學習道德規(guī)范
上面說到,科研人員使用了電影推薦系統(tǒng)來示范應(yīng)用AI后的效果,這是因為有相當多跟電影相關(guān)的數(shù)據(jù)可供參考,而且電影方面的用戶偏好與道德規(guī)范也很好區(qū)別。比如,父母不希望小孩子看少兒不宜的內(nèi)容,即使孩子很喜歡。
據(jù)悉,這款A(yù)I推薦系統(tǒng)使用了兩個訓練階段。第一個階段是線下的,也就是說最終用戶使用推薦系統(tǒng)之前的訓練,在這一階段,會設(shè)定一個仲裁人給推薦系統(tǒng)提供一些需要遵守的規(guī)范例子。之后,AI會檢查這些例子,然后用產(chǎn)生出的數(shù)據(jù)來做出自己的道德規(guī)范。對于機器學習系統(tǒng)來講,使用的例子越多,道德規(guī)范就越全面。
而在電影推薦系統(tǒng)的線下訓練階段,父母們會為AI列舉一系列適合與不適合孩子觀看的內(nèi)容。Mattei補充:“推薦系統(tǒng)應(yīng)該學習這些例子從而知道什么樣的內(nèi)容不應(yīng)該推薦給孩子。”
接著,訓練的第二階段在線上,在系統(tǒng)于最終用戶的互動中完成。與傳統(tǒng)推薦系統(tǒng)相似,AI推薦的內(nèi)容應(yīng)盡可能符合用戶偏好、提供一些用戶更想要了解的內(nèi)容平臺才能獲得最大收益。
鑒于道德規(guī)范與用戶喜好有時候很難兩全,仲裁者可以為二者設(shè)定臨界點,也就是二者的優(yōu)先權(quán)。IBM展示了一個滑動條,可供父母們調(diào)節(jié),從而平衡道德原則與孩子喜好。
至此,便很容易發(fā)現(xiàn)這套AI推薦系統(tǒng)也能很容易解決其他相關(guān)的問題,IBM科研人員還在醫(yī)療領(lǐng)域測試過該系統(tǒng),成功利用AI算法控制藥量,調(diào)節(jié)藥物成功變量與生活質(zhì)量之間的平衡。
此外,IBM的科研團隊也同時在整理更多的范例來訓練AI推薦系統(tǒng)??蒲袌F隊的頭Rossi表示:“我們也會用是非界限不太明顯、需要考慮優(yōu)先級的范例來做實驗,這樣更能清楚示范目標道德規(guī)范。”
局限性
未來,IBM的科研團隊會研究如何讓AI在更復(fù)雜的情況下工作,對此,Rossi表示:“在這個用例中,我們重點放在了單一內(nèi)容的推薦上,例如某部電影應(yīng)不應(yīng)該被推薦,而我們的計劃是深入研究出能限制一類型內(nèi)容的系統(tǒng)。”
如果實現(xiàn)的話,算法就能夠解決一些其它問題,例如因使用個性化過濾后產(chǎn)生的信息單一化和科技產(chǎn)品上癮的問題,因為有這些問題,即使一個無害的小動作(例如查看手機通知或者閱讀具有偏見性的新聞)在日積月累或與其他相似行為疊加的情況下會產(chǎn)生不好的影響。
盡管Rossi團隊的科研成果在父母-孩子或醫(yī)生-病人情況下見到了成效,但是設(shè)定方面還是有局限性,比如推薦功能只針對一位用戶,而且這種情況很普遍。這樣的話,定制符合自己道德規(guī)范和約束的事就只能靠用戶自己了。
對此,Mattei還說道:“有些系統(tǒng)更人性化,用戶也許能對其表達更高級的想法,比如‘我想看更多樣化的內(nèi)容’或‘我想少看手機’。但是能夠表達這些想法,也就能修改,這樣自己立下的flag就得靠自己堅持。”
對此有一個解決辦法,就是用戶找一位關(guān)系比較遠的朋友幫你設(shè)定規(guī)矩,除此之外,IBM與MIT媒體實驗室也許也在合作研發(fā)這個問題的答案。據(jù)了解,IBM科研人員將會在7月17日,于瑞典斯德哥爾摩舉行的27屆人工智能國際聯(lián)合大會(IJCAI)上展示這項算法。