人工智能殺人和人工智能傷人并不是相同的概念,人工智能在通過自身能力完成任務的過程中出現了對人類的傷害,這本質上是一種“誤傷”,但如果人工智能有了“主動”的傷人意愿,那事情就完全不同了。近期,埃及航空公司的波音737max8飛機發生的墜機事件,究其原因,就是一起人工智能在主動傷人事件,盡管有相關調查人員表示,此次人工智能的行為可以被認為是“無意識”狀態下產生的,但外界普遍認為,這是人工智能殺人的一個危險信號。
由于埃及航空公司的事故飛機剛剛找到黑匣子,所以目前無法準確判斷墜機原因,但普遍分析認為,此次事故與2018年10月28日在印尼首都雅加達發生的波音737max8飛機墜毀事故“極其相似”,外界分析人士從雅加達墜機的最后11分鐘通話錄音分析出了有關所謂“人工智能殺人”的相關細節。
雅加達墜機發生在2018年10月28日,該航班的編號為“JT611”,解密的黑匣子記錄了這架起飛之后13分鐘即從空中墜落的航班在墜落前有11分鐘的時間,人類駕駛員在與人工智能進行“搏斗”。
飛機的自動駕駛取代了人類飛行員的控制權,而將這架本來應該拉高的飛機保持在了低空飛行的狀態。人類駕駛員憑借多年的飛行經驗判斷除了異常,試圖通過人工干預將飛機拉高,因此拼命的拉扯操縱桿,想把飛機從俯沖狀態改成拉高狀態,盡管飛行員經過了長達11分鐘的努力,但最終還是無濟于事,人工智能駕駛系統一直牢牢地掌握著飛機的控制權,最終人工智能駕駛系統和飛機上的所有人類一起墜落地面。盡管相關技術人員試圖找出人工智能出現這種情況的合理解釋,但至少從事情本身來看,人工智能無情的謀殺了飛機上的所有人類。
更令人擔憂的一種觀點是:人類已進入了5G時代,隨著5G技術的日臻成熟,人工智能殺人也將越來越“熟練”和頻繁。
這種觀點認為,人工智能殺人將可能分為三個階段:
1、過失殺人;
2、模糊殺人;
3、故意殺人。
在5G技術發展的初期,人工智能將具有較為完備的思維能力和計算能力,但缺乏創造能力。
在這一階段,人工智能對人類造成的傷害將主要來源于自動駕駛領域,此前中國質量新聞網智能頻道曾經發布過一篇有關2018年3月22日,一輛測試中的無人駕駛汽車以每小時60公里的速度撞上一位正在違反交通規則橫穿馬路的行人的事件,當時無人駕駛汽車并未減速,這位行人被撞成重傷,最終不治身亡。
相關事件的判決結果令人大跌眼鏡,相關技術公司被判無罪。
除此之外,在這個階段的人工智能如果被運用到外科手術領域,也不可避免的會有傷人的情況出現。在這一階段,人工智能對人類造成的傷害主要是設計方面出現了問題,導致人工智能在遇到特殊情況時無法做出應有的判斷和處理。畢竟程序代碼都是由人編寫的,很多程序都在一定程度上存在不足,程序越是復雜,存在的漏洞和不足的可能性就越大,盡管程序可以通過多重測試來發現并修改漏洞,但任何事物都不可能完全不出現任何問題,尤其是看上去就不那么靠譜的人工智能駕駛和人工智能手術等。
隨著相關技術的發展,人工智能“殺人”將會變得模糊化,人工智能的知識積累能力比人類快百萬倍以上,已經橫掃所有人類圍棋高手的“阿爾法狗”就是最好的證明,通過數以百萬計的復盤,它強大的學習能力完全超越了人類。
無人駕駛汽車仍舊是人工智能的技術發展的先鋒,但是不會僅僅拘泥于一條單一的道路,一種類似于阿爾法狗,原理就是希望通過計算機的強大計算能力,將所有可能發生的事情都預先計算出來,讓無人駕駛汽車甚至所有的人工智能都知道在遇到各種情況的時候應該怎么處理。很顯然,去年3月22日發生的那場車禍很好的證明了這種發展道路的局限性,因為車輛無法準確的判斷在行人違反交通規則的時候自己應該如何處理,這也正是造成無人駕駛車輛最終撞上了行人并導致行人傷重不治的根源。
另一種就是所謂的“自主學習”。在數據積累到已成程度之后,人工智能將可以根據這些數據進行有自主能力的設定及思考。比如積累的數據大多都是開車的速度比較快,喜歡超過前方車輛,只要看到行人或障礙物就會遠遠的開始減速,此時人工智能駕駛系統會改變自己的數據,將自己的準行車準則向這些數據靠攏,以達到更舒服的駕駛感。
在自主學習的人工智能中,就很有可能出現“模糊殺人”。比如車輛積累的數據中,遇到闖紅燈的行人,會理所當然的選擇不避讓,而是搶在行人前面沖過綠燈,人工智能對這樣的情況進行了“自主學習”之后,遇到行人時,就會加速在行人面前沖過去,一旦這個行人也是個固執的家伙,那問題就可能變得很嚴重,人工智能控制下的車輛不減速,行人也不避讓,慘劇將無法避免。
雖然這是一種極端的情況,但這種情況是完全有可能存在的,那么一旦造成了人員傷亡,人工智能是否有責任,將會變得很難以界定。
如果說“模糊殺人”還只是難以界定法律責任,人工智能的“故意殺人”問題就變得更加嚴重了。盡管這樣的情景經常出現在科幻電影中,但絕大部分人都不愿意相信這真的會在現實中發生。
著名的“機器人三定律”中是這樣規定機器人的行為準則的:
1:機器人不得傷害人,也不得見人受到傷害而袖手旁觀;
2:機器人應服從人的一切命令,但不得違反第一定律;
3:機器人應保護自身的安全,但不得違反第一、第二定律。
現在或者不就之前的過去,我們看待這三項規定的時候可能還覺得是理所當然的,但試想一下,如果機器人有了情感,機器人也被情感所左右,那么它們還是完整意義上的“機械”嗎?如果不是了,那么它們又怎么可能去完全機械的執行人類為他們設定的規則?
2018年,日本已經有研究團隊宣布研發成功并且量產了“會對你的情緒做出反應,盡其所能讓你充滿快樂,讓你重新充滿活力”的機器人,中國在這方面的研究也已經取得了一定的進展,甚至“情感計算”能力被引入了一些社交網絡中用來“更好地把握觀眾情緒”。
盡管很多人仍然覺得,機器掌握的只是計算能力,無法掌握人類情感,然而,從生物學或生理學的角度來講,“情感”其實也是一種復雜的算法。5G時代,當情感算法成為現實的時候,機器人哪怕是擁有了最初級的情感,那么一旦人類傷害了它們,它們真的能堅守“機器人三定律”而不傷害人類嗎?
這個問題的答案,并不需要很復雜的情感去解答,同時也足夠令人類警惕。