精品国产一级在线观看,国产成人综合久久精品亚洲,免费一级欧美大片在线观看

不作惡的Google回來了 發“谷11條”劃清AI道德底線

責任編輯:zsheng

2018-06-10 10:15:54

摘自:PingWest

在人工智能應該怎么“管”這個事上,Google大佬說話,我們要聽。

在人工智能應該怎么“管”這個事上,Google大佬說話,我們要聽。

在國防部合作項目被員工要求關閉的風波之后,Google發布了公司在使用人工智能的十一條準則。

其中包括Google進行AI研發的七個目標,和GoogleAI絕不會進入的四種應用場景,堪稱AI道德規范的“谷11條”。

CEO頌達爾皮柴(SundarPichai)在發布準則的公開信里,也對國防部項目爭議做出了直接回應,表示今后不會讓AI涉及武器化的應用,但并未“一刀切”,和政府、軍方劃清界限。

 

 

作為AI界的帶頭大哥,Google并未對多如牛毛的AI應用領域一一作出指引,但這么多年經歷了這么多“坑”之后,這本“谷11條”所體現出的智慧,也許會對所有關心AI道德問題的人有很大的幫助。

下面,硅星人就帶大家來捋一捋“谷11條”背后的思路。

Google眼中“好AI”的標準

首先,設計產品之初,價值觀就要正。

GoogleAI(原GoogleResearch)研究院克里斯汀·羅伯森曾向硅星人闡釋,公司研發AI的領導思想是:按照對社會有益的原則進行設計,創造世界最棒的產品,讓這些產品實現商業化,在競爭中保持領先,同時,讓這些產品為世界做出貢獻。

Google一向強調不作惡(don'tbeevil)的價值觀,但它從來不是一家慈善機構。和所有科技公司一樣,它需要靠好產品賺錢,只不過,在對“好”產品的定義上,Google和許多公司明顯不同。

“谷11條”一上來就告訴員工,AI產品一要對社會有益,二不能加重現實社會已有的問題:

1要對社會有益

...當我們思考AI潛在的應用場景時,我們將會把一系列社會和經濟因素考慮進內,在那些整體收益遠遠超過可預見風險和弊端的領域,進行推進。

2要避免制造或加強不平等的偏見

AI算法和數據集可以反映、加強或減少不平等的偏見...我們將努力避免人們受到不公正的影響,尤其是與種族、民族、性別、國籍、收入、性取向、殘疾以及政治或宗教信仰等敏感特征相關的人群。

確保方向正確后,接下來Google要保證自己的產品是業界最棒的。準則的第三到七條列出了好產品需要滿足的標準。字里行間繼續體現著以人為本的理念。

3要保證安全性

4要對人負責... 我們的AI產品將易于接受合適的人類指導和控制

5要結合隱私設計原則

6要維持科學卓越的高規格

7要可以用于符合原則的使用場景

仔細閱讀這些準則,你甚至可以找到對應的具體產品。

比如準則中Google提到,“AI加強了我們理解大規模內容含義的能力,我們將努力利用AI提供高質量和準確的信息”。這說的不就是最近上線的新版GoogleNews嘛。

此外可以看到,在這些對產品標準的要求中,Google還加入了對最近科技界激辯的話題的思考:比如數據隱私,比如AI發展對人類本身可能帶來的威脅。

對國防部合作風波的回應

“谷11條”的結構是“七要四絕不”。

舉了七個目標后,Google提出了四個絕對不碰的領域。首先:

我們不會將AI應用于:

1帶來或可能帶來傷害的技術

2武器或其他旨在給人們造成傷害的技術

做出這段表述的背景:今年3月時,有媒體曝光Google的一份內部文件,顯示該公司參加了五角大樓的無人機計劃ProjectMaven,幫助開發應用于無人機的AI系統。

與此同時,又有媒體曝出Google在內部行為準則里刪掉了有三處“不作惡”的文案。

 

 

和恨不得公司再壞一點的Facebook不同,大批Google員工對這個事實感到憤怒不滿。內網激烈的討論后,超過三千名員工聯名上書CEO,要求退出項目。

最終,公司向員工和外界妥協,宣布2019年國防部合同到期后不再與續約。

正是這件事,推動了“谷11條”的誕生。據報道,Google創始人拉里佩奇、謝爾蓋布林、CEO皮柴和其他高管一起花了數月,最終制定了這版新的AI準則

不過,在這兩條表述里,Google并沒有表達以后完全跟政府及國防部門徹底交割。

顯然在強大的合作關系面前,Google是糾結的,而這并沒有錯誤。比如在云計算上,國防軍事是個潛力巨大的領域。Google的競爭對手亞馬遜、微軟都在積極競標國防部的云計算及存儲業務,Google不可能因噎廢食。

不過既然做了決定就要承擔后果,Google的糾結之后肯定還會引發新的爭議和討論,Google只好表示準則會根據公司新的理解而不斷改進。

自己不作惡,也不讓別人作惡

更具體來說,堅決不允許別人利用自己的技術作惡,這是不能跨過的底線。

四絕不的后兩條:

AI不會用于:

3收集或使用信息用于監控并違反國際規范的科技

4技術的目的違反了廣泛接受的國際法與人權原則的科技

從這兩個條款可以明顯看到,“谷11條”再次穩固了不作惡三個字的地位,而且還更進了一步:不僅自己不作惡,還要防止別人利用Google的技術作惡。

這在上面第七條的AI目標中也有體現:

許多技術同時擁有很多用途。我們會努力進行識別,限制可能有害或被濫用的應用。我們會評估以下因素:

首要目的和用途……以及與有害的用途有多接近

本質和獨特性:我們的技術是普世的還是有獨特應用場景的

規模:這項技術的使用是否會帶來重大影響

Google在其中參與的性質:我們是在提供普通的工具,還是為用戶做集成的工具,還是在開發定制解決方案

Google希望借保證自己的AI技術不被濫用,這么做勢必意味著跟更多可能得到的利益說再見。一個直接影響可能是Google重返某些市場的難度會變得更大。

但沒有人會因為Google堅持它的真誠和正義而怪罪它。有些事情必須做出取舍。

 

 

博客文章中,皮柴再次提到2004年Google上市時提到的兩個原則:“讓世界變得更好”,和“不作惡”:

我們當時就表明了我們要用更長遠目光看問題的愿望,即使這意味著需要作出短期的犧牲。我們當時這樣說,我們現在還是這樣相信。

Google的準則體現著一家已經20歲高齡的新技術公司,對可能是未來最關鍵技術,和道德的思考。它給出了一個寬泛,但又方向明確的指引,讓一些事情不再停留在想法和概念。

這本“谷11條”,或許也能推動其他公司,扔掉“技術中立”的保護傘,更誠實地參與到這個話題的討論中。

鏈接已復制,快去分享吧

企業網版權所有?2010-2024 京ICP備09108050號-6京公網安備 11010502049343號

  • <menuitem id="jw4sk"></menuitem>

    1. <form id="jw4sk"><tbody id="jw4sk"><dfn id="jw4sk"></dfn></tbody></form>
      主站蜘蛛池模板: 高阳县| 宜都市| 石柱| 福建省| 巴楚县| 庄河市| 盘山县| 江都市| 梨树县| 阿勒泰市| 青龙| 三亚市| 涞源县| 即墨市| 南部县| 永靖县| 博客| 晋城| 吴江市| 南丰县| 明溪县| 无为县| 建德市| 扎赉特旗| 鹤壁市| 万年县| 荥阳市| 高密市| 和顺县| 天全县| 望城县| 秀山| 梓潼县| 乌拉特中旗| 同江市| 申扎县| 两当县| 柯坪县| 太白县| 施秉县| 苍梧县|