對算法設(shè)計進行監(jiān)管。人工智能是人類智慧的延伸,算法設(shè)計也不是純粹的技術(shù)問題。所有算法都是為完成特定任務、實現(xiàn)特定目的而設(shè)計的,特定任務、特定目的的實現(xiàn)路徑往往蘊含著設(shè)計者的價值觀。而設(shè)計者的價值觀又會影響其設(shè)計的技術(shù)方案,這就可能在技術(shù)運用中產(chǎn)生所謂的算法歧視。比如,某網(wǎng)絡公司推出的廣告服務中,男性用戶能夠比女性用戶看到更多高薪招聘廣告。即使算法設(shè)計者沒有給算法植入歧視的意圖,但有時仍然會出現(xiàn)某種歧視效果。因此,編制算法應當遵循一定的法律規(guī)則和行業(yè)規(guī)則,以合理控制路徑選擇,使其符合社會基本倫理規(guī)范。
對算法設(shè)計進行監(jiān)管,可以采用專業(yè)監(jiān)督和社會監(jiān)督等手段。專業(yè)監(jiān)督就是對算法設(shè)計制定具有可操作性的技術(shù)和行業(yè)規(guī)范,讓設(shè)計者在進行設(shè)計之前就受到有效制約。還可以請同行專家進行監(jiān)督。同行專家比較容易洞悉設(shè)計者的理念,能夠了解具體的操作程序。通過同行專家的評價和信息披露,可以對設(shè)計者設(shè)計出來的算法進行比較有效的事后規(guī)制。社會監(jiān)督就是要求設(shè)計者將其算法設(shè)計的基本情況進行登記或備案,并且這種登記或備案信息可供社會公眾查詢,形成社會公眾評判,從而進行道德和輿論上的制約。通過專業(yè)監(jiān)督和社會監(jiān)督,可以更好地防范人工智能算法設(shè)計偏離社會基本倫理規(guī)范。
對數(shù)據(jù)運用進行監(jiān)管。數(shù)據(jù)的獲得和利用方式是法律關(guān)注的問題。當用戶流連于網(wǎng)絡、享受人工智能設(shè)備帶來的便利時,其個人信息安全可能正面臨風險。例如,人們使用智能設(shè)備,往往要同意所謂的注冊協(xié)議、服務協(xié)議,這些協(xié)議通常會要求用戶“自愿”提供個人基本信息。企業(yè)在獲得用戶形式上的授權(quán)后,服務過程中涉及的個人數(shù)據(jù)就會按照約定通過網(wǎng)絡傳送給企業(yè)。比如,可以上傳用戶的位置、興趣、需求、使用習慣等信息。獲得這些數(shù)據(jù)的企業(yè),可以據(jù)此形成消費者分析報告,針對用戶的年齡、居住區(qū)域、消費習慣差異等,準確把握用戶偏好,進行精準的市場投放。因此,數(shù)據(jù)運用可以給企業(yè)帶來巨大利益。
由于互聯(lián)網(wǎng)海量存儲和快速傳播的特點,獲取、存儲和利用個人信息的主體和環(huán)節(jié)眾多,其中往往存在侵犯用戶隱私安全和濫用數(shù)據(jù)的風險。面對這些風險,法律應當確立相應規(guī)范,對企業(yè)使用個人信息進行限制,使得對個人信息的保護更為詳實、充分。例如,允許智能設(shè)備出于便捷服務的需要收集個人信息,但不能要求用戶作出概括性授權(quán)。企業(yè)應以正當?shù)摹⒎ǘǖ摹⑻囟ǖ哪康模谔囟ǚ秶鷥?nèi)收集個人信息,并用于特定用途,而不能隨意超越用戶對其個人信息收集、使用的授權(quán)范圍。應禁止企業(yè)向用戶收集與服務無關(guān)的信息。服務提供商違反個人信息保護義務的,應當依法承擔法律責任。總之,面對人工智能領(lǐng)域可能出現(xiàn)的風險,我們應認真研究思考并作出法律上的應對,為新技術(shù)發(fā)展設(shè)計好法治框架,讓人工智能更好地造福人類。