隨著AI在更多行業中被越來越多地采用,其用戶試圖在有效保護其實用性的同時實現保護用戶隱私的微妙平衡。AI的常見優秀實踐是對AI的使用以及如何達到特定結果保持透明。但是,這種透明度有好有壞的一面。這是您應該了解的AI透明性的利弊,以及實現這一困難平衡的可能解決方案。
好處
人工智能可提高效率,利用創新并簡化流程。透明地了解其工作原理和計算結果的方式可以帶來一些社會和商業優勢,包括:
司法公正
在過去的幾年中,人工智能的使用數量持續增長。人工智能甚至已經擴展到司法系統中,從做交通票到考慮比陪審團更公平,人工智能都可以做。
當公司對使用AI透明時,它們可以增加用戶訴諸司法的機會。人們可以看到AI如何收集關鍵信息并達到特定結果。與不使用AI的情況相比,他們可以獲得的技術和信息更多。
避免歧視
AI的原始缺點之一是當AI被用來檢測模式并根據其收集的數據對用戶做出假設時,可能會產生歧視性結果。
然而,人工智能今天變得更加復雜,甚至被用來檢測歧視。AI可以確保包括所有用戶的信息或聽到他們的聲音。在這方面,人工智能可以成為一個很好的均衡器。
灌輸的信任
當AI用戶預先了解他們對AI的使用并向其客戶群說明這種用法時,他們更有可能灌輸信任感。人們需要知道公司如何達到特定的結果,而透明可以幫助彌合企業與其客戶之間的鴻溝。
客戶愿意擁抱AI。在Salesforce的“關聯消費者狀況”中接受調查的消費者中,有62%的人表示他們對AI持開放態度,以改善他們的體驗,并且企業愿意滿足這一需求。
埃森哲(Accenture)最近的一項調查顯示,有72%的高管表示,他們希望通過透明地使用AI來獲得客戶對產品或服務的信任和信心。能夠透明地使用AI以及為保護用戶數據而采取的安全措施的公司可能會從這種提高的透明度中受益。
更明智的決策
當人們知道自己正在與AI系統進行交互而不是被騙去認為它是人類時,他們通??梢赃m應自己的行為以獲取所需的信息。
例如,人們可能在聊天框中使用關鍵字而不是完整的句子。用戶可能會對這些系統的優點和局限性有更好的了解,并做出有意識的決定與AI系統進行交互。
缺點
盡管透明度可以帶來上述一些積極成果,但它也有一些缺點,包括以下方面:
缺少隱私
反對AI及其透明性的一個重要論據是可能缺乏隱私。AI通常會收集大數據,并使用獨特的算法為該數據分配一個值。但是,為了獲得結果,人工智能通常會跟蹤每項在線活動(您可以免費獲得背景調查),人工智能會跟蹤,搜索和使用企業網站。其中一些信息也可能出售給第三方。
此外,人工智能通常用于跟蹤人們的在線行為,從中人們可以辨別有關一個人的關鍵信息,包括他或她:
• 種族
• 政治信仰
• 宗教信仰
• 性別
• 性傾向
• 健康狀況
即使人們選擇不向任何人在線提供此敏感信息,由于AI功能,他們仍然可能會遭受信息的丟失。此外,AI可能會跟蹤公開可用的信息。但是,當沒有人檢查此信息的準確性時,一個人的信息可能會與另一個人的信息混淆。
破解說明
當公司發布其對AI的解釋時,黑客可能會使用此信息來操縱系統。例如,黑客可能能夠對代碼或輸入進行微小的更改以實現不準確的結果。
這樣,黑客就可以利用公司自身的透明度來抵制它。
當黑客了解AI背后的原因時,他們可能會影響算法。通常不鼓勵使用這種技術來檢測欺詐。因此,當利益相關者未采取其他措施時,該系統可能更易于操作。
知識產權盜竊
當一家公司對AI的使用透明時,可能會出現的另一個潛在問題是這些黑客竊取了其專有商業秘密或知識產權的可能性。這些人可能能夠查看公司的解釋并重新創建專有算法,從而損害業務。
容易受到攻擊
網上有如此多的可用信息,有7800萬美國人說他們擔心網絡安全。當公司闡明如何使用AI時,這可能使黑客更容易訪問消費者的信息或造成可能導致身份盜用的數據泄露,例如臭名昭著的Equifax數據泄露,使1.48億美國人的私人記錄受損。
監管的敏感性
有關AI的披露可能會帶來其他風險,例如更嚴格的監管。當AI令人困惑且難以使用時,監管機構可能不理解或無法對其進行監管。但是,當企業對AI的角色透明時,這可能會帶來關于AI及其使用方式的更重要的監管框架。以這種方式,創新者可能因其創新而受到懲罰。
訴訟目標更容易
當企業清楚其如何保護消費者的數據以實現透明性為目的時,它們可能會不知不覺地使自己更容易受到聲稱其信息使用不當的消費者的法律主張的影響。聰明的律師可以仔細審查AI透明性信息,然后開發有關業務對AI的使用的創新法律理論。
例如,他們可能專注于企業沒有采取哪些措施來保護消費者的隱私。然后,他們可能會使用此信息來聲稱該企業的行為或疏忽大意。此外,許多AI系統都以更簡單的模型運行。對其算法透明的公司可能會使用不太復雜的算法,這些算法可能會忽略某些信息或在某些情況下導致錯誤。經驗豐富的律師可能能夠確定AI導致的其他問題,以證實其對企業的法律主張。
關于AI和隱私的真相
任何看過《終結者》電影(或者基本上是世界末日電影)的人都知道,即使僅出于最崇高的理由而開發的技術也有可能被武器化或用作最終損害社會的東西。
由于存在潛在的危害,已經通過了許多法律,要求某些公司在使用AI方面保持透明。例如,金融服務公司必須披露他們在確定一個人的信譽時使用的主要因素,以及為什么他們在貸款決定中采取不利行動。
立法者正在積極提出并考慮其他法律。
如果獲得通過,這些法律可能會確立企業必須遵守的有關其如何收集信息,如何使用AI以及是否首先需要征得消費者同意的新義務。2019年,一項行政命令簽署成為法律,指示聯邦機構將資源投入到AI的開發和維護中,并呼吁制定準則和標準,以允許聯邦機構以保護隱私和國家安全的方式監管AI技術。
即使尚未要求企業對AI的使用保持透明,也可能很快就沒有選擇的機會了。為了應對這種可能的結果,一些企業正在積極建立內部審查委員會,以測試AI并確定圍繞AI的道德問題。
他們還可以與法律部門和開發人員合作,為他們發現的問題創建解決方案。通過仔細評估其潛在風險并在強制披露之前確定問題的解決方案,企業可能會更好地規避與AI透明度相關的風險。