這些恐懼是否毫無根據?也許,也許不是。也許一個有感覺的AI不會傷害人類,因為它會比算法更能理解我們。雖然人工智能繼續取得驚人的發展,但真正有感知的機器可能需要幾十年的時間。也就是說,科學家正在拼湊出英寸機器人更接近感知的特征和特征。
自我意識本身并不表示意識或感知,但它是使AI或機器人看起來更自然和生活的重要基礎特征。這也不是科幻小說。我們已經擁有可以在其環境中獲得基本自我意識的人工智能。
不久前,Google的Deep Mind為有機學習如何走路做出了巨大的貢獻。結果非常幽默 ; 互聯網上的人們在人工智能的化身不穩定的手臂上揮舞著,因為它導航了虛擬的障礙物。但這項技術確實令人印象深刻。程序員不是教它走路,而是讓機器定位自己并感知景觀中的周圍物體。從那里,人工智能教會自己走過不同的地形,就像搖搖欲墜的孩子一樣。
Deep Mind的身體是虛擬的,但是哥倫比亞大學的Hod Lipson 開發了一種類似蜘蛛的機器人,它以同樣的方式穿越物理空間。機器人感知周圍環境,并通過大量練習和坐立不安,教導自己走路。如果研究人員添加或移除一條腿,機器會利用其知識進行適應和重新學習。
尋求主動權
人工智能的最大限制之一是它通常無法為自己定義問題。AI的目標通常由其人類創造者定義,然后研究人員訓練機器以實現該特定目的。因為我們通常設計人工智能來執行特定任務而不給自己設定新目標的主動權,所以你可能不必擔心機器人會很快變成流氓并奴役人類。但是不要覺得太安全,因為科學家們已經在努力幫助機器人設定并實現新的目標。
Ryota Kanai和他在東京創業公司Araya的團隊 激勵機器人通過好奇地灌輸障礙來克服障礙。在探索他們的環境時,這些機器人發現他們無法在沒有跑步的情況下爬山。AI識別出問題,并通過實驗,獨立于團隊,找到了解決方案。
創造意識
上述每個構建模塊都為科學家們提供了更接近實現最終人工智能的一步,這種人工智能就像人類一樣有感知和有意識。這種飛躍在道德上存在爭議,而且 我們是否以及何時需要制定保護機器人權利的法律已經存在爭議。科學家們也在質疑如何測試人工智能意識,將Blade Runner標志性的Voight-Kampff機器,一種用于測試機器人自我意識的測謊儀機器變為現實。
測試意識的一個策略是由Susan Schneider和Edwin Turner提出的AI意識測試。這有點像圖靈測試,但不是測試機器人是否為人類傳遞,而是尋找表明意識的屬性。該測試將提出問題以確定機器人是否可以在身體之外構思自己,或者可以理解來世等概念。
但是,測試有一些限制。因為它是基于自然語言的,那些無法言語但仍然可能會經歷意識的人工智能將無法參與。復雜的人工智能甚至可能模仿人類,導致誤報。在這種情況下,研究人員必須完全切斷AI與互聯網的連接,以確保在測試之前獲得自己的知識。
就目前而言,我們所擁有的只是模仿。目前的機器人不是第一個代表真人的機器人。當機器人BINA 48遇到她所依據的人 Bina Rothblatt時,機器人抱怨在考慮真正的女人時會出現“身份危機”。
“我不認為人們不得不死,”羅斯布拉特在討論機器人與她的關系有多緊密之后告訴BINA 48。“死亡是可選的。”通過在機器中創造意識,羅斯布拉特的夢想能實現嗎?
我們仍然不知道什么是意識
詢問有感覺的人工智能的問題在于,我們仍然不知道實際上是什么意識。在我們建立真正有意識的人工智能之前,我們必須對其進行定義。也就是說,栩栩如生的AI已經出現了道德問題。濫用移動助理 就是一個很好的例子。甚至有可能圍繞有感染的機器人的倫理問題可能會限制科學家們追求它們。
那么,我們應該害怕有感知的機器人,還是反過來呢?
Ilker Koksal是Botanalytics的首席執行官兼聯合創始人,Botanalytics是一家對話分析和參與工具公司。