*本文只能在《好奇心日報(www.qdaily.com)》發(fā)布,即使我們允許了也不許轉載*
加州山景城電-多年來,Google 訓練的計算機系統(tǒng)能從 YouTube 上清除有版權的內容和色情內容。不過,當工程師們看到可口可樂、寶潔和沃爾瑪的廣告出現在種族主義、反猶或恐怖主義視頻的旁邊,他們才意識到系統(tǒng)模式的盲點:計算機不能理解語境。
現在,要想平息廣告大客戶的怒氣,關鍵在于教會計算機理解人能立刻感知的內容,因為客戶們的廣告與極端主義團體的視頻、侮辱性信息出現在了一塊兒。
Google 的工程師、產品經理、政策專家都在試圖讓計算機理解,視頻里哪些微妙內容會引人反感。比如,廣告商可能可以忍受嘻哈視頻中有種族稱謂,卻會被種族主義光頭黨視頻里的這些稱呼嚇到。
知名企業(yè)的廣告偶爾會出現在讓人反感的視頻旁邊,對 YouTube 來說這一直是個麻煩,但在近幾周變成了急需解決的問題。因為倫敦《泰晤士報》等媒體報道說,有些品牌由于自動廣告的緣故不經意間支持了極端主義團體,因為 YouTube 會與視頻內容創(chuàng)作者共享企業(yè)廣告收入的一部分。
YouTube 大規(guī)模、自動化系統(tǒng)中的小差錯演變成了一場公關噩夢。AT&T、強生(Johnson &Johnson)等公司表示,他們會撤銷在 YouTube、Google 上的展示型廣告,直到他們確保這類問題不再發(fā)生。
消費者每天在 YouTube 觀看 10 億多個小時視頻,使之成為互聯網最大的視頻節(jié)目平臺。當廣告收入從電視流向互聯網,YouTube 也成了最顯而易見的受益者。不過,近期這些問題導致 Google 遭到了指責,人們認為它沒有充分考慮到廣告客戶的利益。市值幾十億的 YouTube,大部分收入依然來自廣告,所以這是重大問題。
“我們非常重視,”Google 的首席商務官 Philipp Schindler 上周在采訪中說,“正在緊急處理。”
過去兩周,Google 更改了那些類型視頻可匹配廣告的設置,將廣告與含仇恨言論、歧視內容的視頻隔離開。
此外,Google 還在簡化流程,讓廣告商能在 YouTube 和 Google 展示廣告的設置中排除特定站點、頻道或視頻。
這讓品牌能仔細設置想回避的內容類型,比如“含有性暗示”或“聳動/怪異”的視頻。
Google 還設定了更為嚴格的默認安全標準,廣告商必須主動選擇,才能設置把廣告放在更刺激的內容旁邊。當廣告出現在侮辱性內容旁邊,Google 會發(fā)出一種應急警告。
這家硅谷巨頭正在努力保住世界第二大廣告客戶聯合利華(旗下有德芙和 Ben &Jerry’s 等消費品牌)。當其他品牌開始從 YouTube 撤廣告時,聯合利華發(fā)現,它旗下品牌也有 3 次出現在了不良內容頻道里。
Google 某項目正在利用機器學習技術解決內容識別難題,因為廣告客戶認為 YouTube 上有些內容不體面。圖片版權 Dado Ruvic/路透社
不過,聯合利華的首席營銷官 Keith Weed 決定不撤下廣告,因為出現在不良內容旁的廣告比例非常小。根據視頻分析公司 OpenSlate 的數據,在 YouTube 上平均 10 萬美元的廣告就會覆蓋 7000 多個頻道,而聯合利華在 YouTube 上花了上億美元。而且 Google 發(fā)現,問題廣告的出現是因為安全級別設置中有個人工的錯誤。
Weed 說,最符合聯合利華利益的做法是取得對方的讓步,而非終止合作。作為新舉措的一部分,Google 同意與外部公司合作,進行第三方內容審核,以確定 YouTube 上的廣告位安排。
Weed 說,從前他提出要獨立審查時,Google 高管認為,這像是暗示他們不值得信任。Weed 說,這與信任無關,而是企業(yè)能否“批改自己的作業(yè)”。他說,他認為 Google 最終會同意的,只不過“現在的情況加快了他們的計劃。”
人們注意到了 Google 的努力。比如強生公司表示,他們恢復了在某些國家的 YouTube 廣告。Google 表示,其他企業(yè)也開始回歸了。
總地來說,此前 Google 沒有充分解決這個問題,原因是,這不是非解決不可;廣告出現在不良內容旁的概率很低,而且這不在廣大受眾的視野范圍內。Google 表示,對許多頂級廣告客戶來說,出現不良內容的情況還不及他們廣告總量的 0.001%。
為了訓練計算機系統(tǒng),Google 正在采用機器學習技術——這也是 Google 許多重大技術突破的基礎,比如無人駕駛車。Google 還引入了大批人工團隊(拒絕透露團隊的規(guī)模)來審查計算機標記的內容是否合適。
本質上,他們在教計算機學習這些內容:穿著運動胸罩和褲襪的女性做瑜伽,這類運動視頻沒有性暗示,對廣告客戶是安全的。同樣的道理,好萊塢動作片中,演員持槍的情節(jié)對某些廣告客戶來說可以接受,但類似畫面一旦涉及伊斯蘭國組織(Islamic State)狙擊手就不合適了。
Google 過去做過一個類似電影評級的視頻自動評級系統(tǒng),標準是對特定觀眾群的合適程度。但 Google 現在著力解決的是另一個問題。
“計算機要理解上下文會更加困難,所以我們在用目前最新、最好的機器學習技術實現這個效果,” Schindler 說。
Google 計算機系統(tǒng)會把一段 YouTube 視頻拆解成一幀一幀的,分析每個畫面,輔以人工審查的實例判斷哪些內容安全、哪些不安全。計算機也能分析視頻中的對話、作者提供的內容簡介,并識別圖形信號,發(fā)現不良內容的微小線索等。
目的就是讓機器最終自己抉擇。如果品牌認為 Google 沒有標記出不良內容,這些情況會反饋給計算機,隨著時間推移,計算機系統(tǒng)會越發(fā)完善。
Google 表示,目前標記的不適用廣告的視頻數量是先前的 5 倍,但它拒絕提供相關視頻的絕對數量。
每一分鐘,YouTube 就有 10 萬多個上傳視頻、400 個小時新內容,300 萬個贊助商頻道上線,Schindler 說,Google 不可能保證徹底消滅問題內容。他打了個比方,汽車公司不能承諾輪胎跑 1 萬英里不出問題,哪怕是新輪胎。
“沒有哪個系統(tǒng)百分百完美,”他說,“但我們在盡全力保證它盡可能安全。”