1月20日消息,據外媒報道,人工智能(AI)已成為當今科技領域的核心力量之一,正融入到社會的方方面面。但在給我們帶來更多便利的同時,AI的負面效應也逐漸顯現出來。
谷歌首席執行官桑達爾·皮查伊(Sundar Pichai)日前撰文,認為AI將變得越來越重要,必須受到監管。公司不能僅僅只是構建新的AI技術,而放任市場力量控制如何使用它。
以下是皮查伊撰文的全文:
我在印度長大,始終對科技很著迷。每一項新發明都以非常有意義的方式改變了我們家的生活。電話使我們省去了去醫院看化驗結果的長途跋涉,冰箱意味著我們可以少花時間準備飯菜,電視讓我們看到以前聽短波收音機時只能想象的世界新聞和板球比賽。現在,我很榮幸能夠幫助塑造新的技術,我們希望這些技術能夠改變世界各地人們的生活。
其中,AI是最有前途的領域之一:就在本月,Alphabet和谷歌就如何挖掘AI潛力的三個具體例子已經出爐。《自然》雜志發表了我們的研究成果,表明AI模型可以幫助醫生更準確地在乳房X光檢查中發現乳腺癌;作為應對氣候變化努力的一部分,我們正在使用AI來比現有模型更快速、更準確地做出即時、超越局部限制的降雨預測;漢莎航空集團正與我們的云計算部門合作,測試利用AI幫助減少航班延誤。
然而,歷史上有很多例子表明,我們無法確保技術總是發揮積極作用。內燃機允許人們到更遠的地方旅行,但也造成了更多的事故。互聯網使人們可以與任何人聯系,從任何地方獲得信息,但也更容易傳播錯誤信息。這些教訓告訴我們,我們需要對可能出現的問題保持清醒的頭腦。
AI的潛在負面后果確實令人擔憂,從深度換臉(deepfakes)到面部識別的壓制性使用。雖然許多公司已經做了很多工作以幫助解決這些問題,但不可避免地會有更多的挑戰出現,而沒有任何單獨的公司或行業可以獨自應對。歐盟和美國已經開始制定監管提案,要使全球標準發揮作用,國際協調至關重要。
為了實現這一目標,我們需要在核心價值觀達成一致。像我們這樣的公司不能只是構建有前途的新技術,然后讓市場力量來決定如何使用它。我們同樣有責任確保技術得到善用,造福于所有人。毫無疑問,AI需要被監管。這項技術太重要,不能對其放任不管。唯一的問題是如何去監管。
這就是為何在2018年,谷歌發布了我們自己的AI原則的原因,旨在幫助以符合倫理道德的方式開發和使用AI技術。這些原則幫助我們避免偏見,嚴格測試安全性,設計時就將隱私放在首位,并使技術對人們負責。它們還規定了我們不會設計或部署AI的領域,比如支持大規模監控或侵犯人權等。
但留在紙上的原則不經執行毫無意義。因此,我們也開發了許多工具來幫助施行這些原則,比如測試AI決策的公平性,以及對新產品進行獨立的安全評估。我們甚至更進一步,使這些工具和相關的開源代碼廣泛可用,這將使其他人能夠永遠善意地使用AI。我們認為,任何開發新AI工具的公司也應該采用指導原則和嚴格的審查流程。
政府監管也將發揮重要作用,但我們不必從零開始。現有的規則可以提供堅實的基礎,如歐洲的《通用數據保護條例》。良好的監管框架將考慮安全性、可解釋性、公平性和責任,以確保我們以正確的方式開發正確的工具。合理的監管還必須采取適當的方法,平衡潛在的危害(尤其是在高風險地區)。
監管可以提供廣泛的指導,同時允許在不同的部門以量身定制的方式部署AI。對于有些AI應用,如受監管的醫療設備(輔助心臟監測儀),現有的框架提供了很好的起點。對于自動駕駛汽車等新領域,政府將需要制定適當的新規則,考慮所有相關成本和收益。
谷歌的作用始于認識到應用AI需要有原則性和規范的方法,但并沒有到此為止。我們希望在監管機構應對不可避免的緊張局勢和權衡取舍時,成為有用的、積極參與的合作伙伴。我們提供我們的專業知識、經驗和工具,共同應對這些問題。AI有潛力改善數十億人的生活,但最大的風險可能是無法實現上述目標。通過確保它以對每個人都有利的方式負責任地發展,我們可以激勵子孫后代像我一樣相信技術的力量。