采用人工智能的社交媒體監(jiān)控可能會讓某些人失去工作、影響大學(xué)錄取、租賃房屋等等——而且人們不會知道它是怎么發(fā)生的。
AirBnB公司希望在客戶租用其別墅之前了解其是否具有“馬基雅維利(狡詐)”個性。
根據(jù)其客戶在Facebook、Twitter和Instagram上發(fā)布的信息,AirBnB公司可能會用人工智能軟件來判斷租賃別墅的客戶是否值得信任。
他們將使人工智能系統(tǒng)失去社交性,運行算法并獲得結(jié)果。對于處于此過程另一端的人們來說,該過程將沒有透明度,沒有任何信息,也沒有上訴程序。
該公司擁有一項技術(shù)專利,該技術(shù)旨在通過分析潛在訪客的社交媒體活動來確定他們是否是可能損害房東的高風險客戶,從而對客戶的“個性”進行評分。
他們技術(shù)的最終產(chǎn)品是為AirBnB每個客戶分配“可信度評分”。據(jù)報道,這不僅將基于社交媒體活動,而且還將基于在線發(fā)現(xiàn)的其他數(shù)據(jù),其中包括博客文章和法律記錄。
這項技術(shù)是由AirBnB公司三年前收購的Trooliy公司開發(fā)的。Trooly公司創(chuàng)建了一個基于人工智能的工具,旨在“預(yù)測可信任的關(guān)系和互動”,并將社交媒體作為一個數(shù)據(jù)源。
該軟件根據(jù)軟件識別出的感知“個性特征”來建立分數(shù),包括一些可能預(yù)測到的特質(zhì)(例如認真、開放、外向、隨和,還有一些怪異的特質(zhì)——例如“自戀”和“狡詐”(有趣的是,該軟件還尋找客戶涉及民事訴訟的行為,這表明他們可能會基于對客戶可能提起訴訟行為進行預(yù)測)。
AirBnB公司尚未透露他們是否使用該軟件。
如果人們對此消息感到驚訝,震驚或不滿意,則就像大多數(shù)人一樣,他們不知道使用適用于社交媒體的人工智能來判斷人們(客戶、公民、員工和學(xué)生)的巨大且快速增長的做法。
AirBnB公司并不是掃描社交媒體來判斷個性或預(yù)測行為的唯一組織。其他機構(gòu)和組織包括美國國土安全部、美國中央情報局、雇主、學(xué)區(qū)、警察局、保險公司等。
有人估計,一半以上的大學(xué)招生員使用基于人工智能的社會監(jiān)測工具作為申請人甄選過程的一部分。
人力資源部門和招聘經(jīng)理在招聘前也越來越多地使用人工智能社交媒體監(jiān)控。美國政府機構(gòu)(特別是雇用需要安全檢查人員的政府機構(gòu))也依靠社交媒體監(jiān)控來檢查不信任的員工。
而且,正如在這個領(lǐng)域所報告的那樣,當人們進入美國國境時,美國海關(guān)和邊境保護局搜索的智能手機數(shù)量每年都在急劇增長。這些搜索包括社交媒體帳戶,以后可以使用人工智能對其進行監(jiān)視和分析。
不僅越來越多的學(xué)校監(jiān)控學(xué)生的社交媒體活動,一些州也開始依法要求這樣做。基于人工智能的社交媒體監(jiān)控是一種潮流。各種各樣的組織都在積極參與。
基于人工智能的社交媒體監(jiān)控不是那么智能
多年來,各種組織一直在質(zhì)疑社交媒體監(jiān)控。但是最近基于人工智能的監(jiān)視工具應(yīng)運而生,并創(chuàng)建了新的行業(yè)和專業(yè)。
這些工具尋找的是諸如智力、社會責任、經(jīng)濟責任和遵紀守法和負責任行為等人格特征。問題不是人工智能是否適用于數(shù)據(jù)收集。當然可以。問題在于社交媒體是否揭示了有關(guān)用戶的真相。也有一些專家在質(zhì)疑其數(shù)據(jù)的質(zhì)量。
例如,掃描某人的Instagram帳戶可能“表明”他非常富有,曾經(jīng)環(huán)游世界,并享用香檳和魚子醬。事實可能是他已經(jīng)破產(chǎn),面臨的經(jīng)濟壓力很大,他們在酒店和餐廳用餐時以社交方式進行炫耀,他們的自拍純粹是為了建立聲譽而精心偽造的照片。有些人利用社交工具刻意塑造自己的高大形象。
Twitter帳戶可能會表明用戶是一個正直、有建設(shè)性和富有成效的社會成員,但如果第二個匿名帳戶被社交媒體監(jiān)控系統(tǒng)所知,則可能會顯示出這個人可能是一個反社會的不法分子。人們有多個社交媒體帳戶可以反映其個性的不同方面。其中一些是匿名的。
而且,某人的Facebook帳戶可能充斥著一些冷幽默信息,其內(nèi)容低俗并且夸張,監(jiān)控工具可能會得出這樣的結(jié)論,顯示出一種不可信任的性格,而實際上問題是人工智能并沒有幽默感或諷刺意味。而人工智能工具的創(chuàng)造者本身可能對個性沒有真正的理解。
例如,在網(wǎng)上的不良行為可能會降低對某人的信任度得分,因為人們認為這表明缺乏道德。但最近的研究表明情況恰恰相反,通常來說,這樣的人可能更值得信任,也更聰明、更誠實、更有能力、更專業(yè)。那么開發(fā)人工智能軟件的開發(fā)人員知道或關(guān)心人類個性的微妙性和復(fù)雜性嗎?
如今,一些人是許多社交媒體網(wǎng)站的持續(xù)用戶。其他人從不使用社交媒體。大多數(shù)都介于兩者之間。
當然也存在代際鴻溝。從統(tǒng)計上看,年輕人不太可能公開發(fā)布信息,他們更喜歡私人信息和小組社交。基于人工智能的社交媒體監(jiān)控從根本上說是年齡歧視嗎?
女人比男人更有可能在社交媒體上發(fā)布個人信息(關(guān)于自己的信息),而男人比女人更可能發(fā)布非個人信息。發(fā)表有關(guān)個人事務(wù)的信息可能更能揭示人格。人工智能是以社交媒體監(jiān)控為基礎(chǔ)的性別歧視嗎?
而采用這種可能造成極端后果的監(jiān)視技術(shù)之前,有人問過這些問題嗎?
像AirBnB這樣的公司正試圖解決一個真正的問題。就AirBnB而言,它們本質(zhì)上是一項配對服務(wù),其中一個用戶的“產(chǎn)品”是另一個用戶。這是質(zhì)量保證的問題。它們?nèi)绾巫畲蟪潭鹊販p少對用戶的傷害?
需要注意的是:在過去40年中,科技的作用總是被夸大。而人工智能現(xiàn)在成為這一新科技。業(yè)界人士擔心的是像AirBnB這樣的公司會出現(xiàn)問題,他們認為解決問題的辦法就是讓人工智能魔法神奇地解決問題。他們會使人工智能系統(tǒng)脫離社交網(wǎng)絡(luò),運行算法,然后得到結(jié)果。人工智能系統(tǒng)會告訴他們哪些人不可以進入學(xué)校,哪些人不能雇傭,哪些人可以剝奪他們的安全許可,哪些人禁止進入AirBnB。
人工智能拒絕了合適的應(yīng)聘者嗎?怎么會有人知道?一些被人工智能視為“值得信賴”的人員是不是通過某種方式欺騙這個系統(tǒng)而獲得了這種區(qū)別?怎么會有人知道?
如果人們在互聯(lián)網(wǎng)上瀏覽有關(guān)社交媒體監(jiān)控的信息,就會發(fā)現(xiàn)很多關(guān)于“在網(wǎng)上發(fā)布的內(nèi)容”的建議,這聽起來很合理,直到人們真正思考這些建議的含義。他們說,如果某人是一個真正應(yīng)該被解雇的人,而不是根據(jù)其社交媒體活動被學(xué)校錄用或拒絕的人,那么真的需要變得聰明一些,模仿或假冒一個不令人反感的人員的社交媒體活動。
隨著關(guān)于社交媒體監(jiān)控范圍的知識的傳播,限制人們在社交網(wǎng)站上的一些不良行為(向人工智能受眾提供假數(shù)據(jù),以便機器判斷是否值得信賴)將變得司空見慣。
從政府機構(gòu)到企業(yè),再到硅谷的一些科技公司,許多類型的組織都在緊跟基于人工智能的社交媒體監(jiān)控的發(fā)展潮流。專門提供這些工具的數(shù)十家公司正在崛起,這種做法越來越普遍。
而當公眾意識到這一普遍做法的現(xiàn)實時,他們的反應(yīng)必然是改變社交媒體的行為,采用正確方法來維持自己的“可信分數(shù)”,黑客的攻擊使整個事情變得毫無意義和過時。
現(xiàn)在是開始關(guān)注基于人工智能的社交媒體監(jiān)控的時候
人們可以從掃描社交網(wǎng)絡(luò)中獲得一些啟發(fā),即使沒有人工智能技術(shù)也是如此。知識淵博、熱衷科技的公眾通常對“監(jiān)視資本主義”的做法持謹慎態(tài)度,并且輕視個人數(shù)據(jù)收集、網(wǎng)絡(luò)活動跟蹤,以及廣泛使用各種網(wǎng)站和應(yīng)用程序的隨機用戶的聯(lián)系數(shù)據(jù)庫的做法,利用這些行為,企業(yè)可以未經(jīng)用戶了解并許可,即可訪問其認識的每個人的個人信息。
同時,人們很少聽到關(guān)于基于人工智能的社交媒體監(jiān)控的在線對話。然而,潛在的“危害”是巨大的,導(dǎo)致一些人失業(yè)、被學(xué)校拒絕錄取,或者使保險費率提高等。
在這里沒有“不值得信賴”的秘訣來欺騙人工智能系統(tǒng)并獲得機器信任。而且基于人工智能的社交媒體監(jiān)視來確定“可信賴性”本身就是不可信賴的。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責任的權(quán)利。