隨著所有行業(yè)對人工智能的呼聲越來越高,IT領(lǐng)導(dǎo)者必須掌握與人工智能合作的一些秘密,以便收集商業(yè)見解。
人類一直就在夢想有一個無所不知、無所不能的精靈來承擔(dān)自己的工作。現(xiàn)在,多虧了計算機科學(xué)家在實驗室里的辛勤工作,我們在人工智能中找到了答案,如果你也相信這一點,你的公司幾乎可以做任何你需要做的事情--至少是其中的一些。
是的,人工智能的創(chuàng)新是驚人的。像Siri、Alexa或Google Assistant這樣的虛擬助手對于10到15年前的時間旅行者來說似乎是很神奇的。你的話就是它們的命令,與上世紀(jì)90年代的語音識別工具不同,他們通常會給出正確的答案--如果你避免問一些曲線球問題的話,比如問有多少天使能在一根大頭針上跳舞。
盡管人工智能很神奇,但它們?nèi)匀灰蕾囉谟嬎銠C編程,這意味著它們會受到各種限制,這些限制阻礙了電子表格或文字處理器等更普通的代碼。它們在處理世界統(tǒng)計上的變幻莫測方面做得更好,但歸根結(jié)底,它們?nèi)匀恢皇峭ㄟ^計算一個函數(shù)并確定某個數(shù)字是大于還是小于閾值來做出決策的計算機。在所有巧妙的神秘和復(fù)雜的算法之下,是一組實現(xiàn)“如果--那么”決策的晶體管。
我們能接受這個嗎?我們還有別的選擇嗎?隨著所有行業(yè)對人工智能的呼聲越來越高,我們必須開始學(xué)會接受以下人工智能的一些現(xiàn)實。
你在AI中發(fā)現(xiàn)的很多東西都是顯而易見的
對人工智能科學(xué)家來說,最艱難的工作就是告訴老板,人工智能已經(jīng)發(fā)現(xiàn)了每個人都已經(jīng)知道的東西。也許它檢查了100億張照片,發(fā)現(xiàn)天空是藍(lán)色的。但是如果你忘了把晚上的照片也放在訓(xùn)練集里,它也就不會意識到晚上會變黑了。
但是人工智能如何才能避免這些顯而易見的結(jié)論呢?數(shù)據(jù)中最強烈的信號對任何在第一線工作的人來說都是顯而易見的,對于挖掘數(shù)據(jù)的計算機算法來說也是顯而易見的。它們將是獵犬能夠帶回來并落在你腳下的第一個答案。只不過算法不會期望得到你的回報。
利用微妙的人工智能洞察力可能并不值得
當(dāng)然,當(dāng)數(shù)據(jù)精確時,好的人工智能也會鎖定小的差異。但是使用這些小的見解可能需要對公司的工作流程進(jìn)行深刻的戰(zhàn)略轉(zhuǎn)變。有些細(xì)微的差別將過于微妙,根本不值得追根究底。但計算機依然會糾結(jié)于此。問題是,大信號往往是明顯的,而小信號可能只能產(chǎn)生很小的收益。
神秘的計算機更具威脅性
雖然早期的研究人員希望計算機算法的數(shù)學(xué)方法會給最終的決定帶來一種體面的氣氛,但世界上的許多人都不愿意向邏輯之神投降。如果說有什么不同的話,那就是人工智能的復(fù)雜性和神秘性讓任何對答案不滿意的人都更容易攻擊這個過程。算法是有偏差的嗎?暗箱下的神秘和復(fù)雜越多,這個世界就越有理由產(chǎn)生懷疑和憤怒。
人工智能主要是曲線擬合
數(shù)百年來,科學(xué)家們一直在繪制一些噪聲數(shù)據(jù),并在這些點上畫線。機器學(xué)習(xí)算法核心的許多人工智能算法就是這樣做的。他們收集了一些數(shù)據(jù),并通過它們畫了一條線。大部分的進(jìn)步都來自于找到方法將問題分解成數(shù)千、數(shù)百萬甚至是數(shù)十億個的小問題,然后在所有的問題上畫線。這不是魔法;這只是一條流水線,展示了幾個世紀(jì)以來我們是如何做科學(xué)的。那些不喜歡人工智能并發(fā)現(xiàn)很容易在它的決策上戳洞的人關(guān)注的就是這樣一個事實,即通常沒有深刻的理論或哲學(xué)支架來為答案提供可信度。這只是對某條線的斜率的一個猜測。
收集數(shù)據(jù)才是真正的工作
每個開始研究數(shù)據(jù)科學(xué)的人都開始意識到做科學(xué)的時間不多了,因為找到數(shù)據(jù)才是真正的工作。人工智能是數(shù)據(jù)科學(xué)的近親,它也面臨著同樣的挑戰(zhàn)。0.01%的靈感來自于文件格式,99.99%的靈感來自于丟失的數(shù)據(jù)字段和字符代碼。
你需要大量的數(shù)據(jù)來得出更深刻的結(jié)論
有些答案很容易找到,但更深層次、更復(fù)雜的答案往往需要越來越多的數(shù)據(jù)。有時數(shù)據(jù)量會呈指數(shù)級增長。人工智能會讓你對越來越多的信息貪得無厭。
你會被你的數(shù)據(jù)偏見所困
就像柏拉圖洞穴里的居民一樣,我們都被我們所能看到和感知的東西所限制。人工智能也沒有什么不同。他們明顯受到了訓(xùn)練環(huán)境的限制。如果數(shù)據(jù)中存在偏差,人工智能就將繼承這些偏差。如果數(shù)據(jù)有漏洞,人工智能對世界的理解就會有漏洞。
人工智能是電力的黑洞
大多數(shù)好的游戲都有一個最終的關(guān)卡或最終的目標(biāo)。然而,人工智能只會變得越來越復(fù)雜。只要你愿意支付電費,他們就會不斷推出更多節(jié)點、更多級別和更多內(nèi)部狀態(tài)的更復(fù)雜的模型。也許這種額外的復(fù)雜性將足以使模型真正有用。也許下一次跑步時就會出現(xiàn)一些緊急的感知行為。但也許我們需要一個更大的GPU集合通宵運行才能真正捕捉到這些效果。
可解釋的人工智能只是另一只烏龜
人工智能研究人員最近花了更多時間來試圖解釋人工智能到底在做什么。我們可以深入研究數(shù)據(jù),發(fā)現(xiàn)經(jīng)過訓(xùn)練的模型在很大程度上將依賴于這些來自數(shù)據(jù)集特定角落的參數(shù)。然而,通常其解釋就像是魔術(shù)師通過表演一個戲法來解釋另一個戲法一樣。回答“為什么”這個問題出人意料地困難。你可以看著最簡單的線性模型,盯著參數(shù),但通常你會一頭霧水。如果模型顯示每年行駛的英里數(shù)乘以0.043255,你可能會想為什么不是0.043256或0.7,或者可能是像4110億或100億這樣驚人的不同。一旦你使用一個連續(xù)體,沿著軸的所有數(shù)字可能都是對的。
這就像是那個舊模型,地球只是坐在一只巨大的烏龜上面。但這只烏龜站在哪里?在另一只烏龜?shù)谋成稀6乱粋€站在哪里?一路下來都是烏龜。
努力做到公平是一項挑戰(zhàn)
你可以把身高排除在訓(xùn)練集之外,但是你的人工智能程序很有可能會找到其他代理來標(biāo)記高個子,并為你的籃球隊選擇他們。也許會是鞋碼。或者是手長。人們夢想著讓一個中立的人工智能做出公正的決定來使世界變得更加公平,但有時這些問題已經(jīng)深深植根于現(xiàn)實,算法也做不到更好。
有時修復(fù)后的情況甚至更糟
強迫使人工智能公平有什么真正的解決辦法嗎?有些人試圖堅持認(rèn)為人工智能產(chǎn)生的結(jié)果具有一定的預(yù)定百分比。他們把拇指放在天平上,然后重寫算法來改變輸出。但是,人們開始懷疑,如果你已經(jīng)決定了你想要的答案,為什么我們還要費心的進(jìn)行任何培訓(xùn)或數(shù)據(jù)分析。
人類才是真正的問題
當(dāng)風(fēng)險較低時,我們通常會對人工智能感到滿意。如果你有1000萬張圖片要分類,如果一些人工智能在大多數(shù)時候都能產(chǎn)生相當(dāng)準(zhǔn)確的結(jié)果,你就會很高興。當(dāng)然,也可能會有問題和錯誤。一些小故障甚至可能反映了人工智能偏見的深層問題,這些問題可能寫出一篇200頁的令人毛骨悚然的論文。
但是人工智能可能并不是問題所在。他們會按照他們的要求去做。如果他們變得大驚小怪并開始生成錯誤消息,我們可以隱藏這些消息。如果訓(xùn)練集不能產(chǎn)生完美的結(jié)果,我們可以把抱怨的結(jié)果放在一邊,然后要求更多的數(shù)據(jù)。如果準(zhǔn)確性不高,我們可以把結(jié)果歸檔。人工智能將回去工作,并盡其所能。
然而,人類是一種完全不同的動物。人工智能是他們的工具,而人類就是那些想要利用它們來尋找優(yōu)勢并從中獲利的人。這些計劃中的一些將是相對無辜的,但也有一些是被預(yù)先策劃的秘密惡意所驅(qū)使的。很多時候,當(dāng)我們遇到一個糟糕的人工智能時,可能只是因為它是一些人從糟糕的行為中獲利的傀儡而已。
版權(quán)聲明:本文為企業(yè)網(wǎng)D1Net編譯,轉(zhuǎn)載需注明出處為:企業(yè)網(wǎng)D1Net,如果不注明出處,企業(yè)網(wǎng)D1Net將保留追究其法律責(zé)任的權(quán)利。