當前位置:編程學習大全網 - 編程語言 - 人工智能洶湧而來 為什麽機器人要學會拒絕人類

人工智能洶湧而來 為什麽機器人要學會拒絕人類

《科學美國人》網站近期刊文,未來的人工智能機器人必須學會拒絕人類的不當指令。我們不必對此感到不安。如果做不到這壹點,那麽惡意指令,或是對指令的錯誤理解可能成為真正的威脅。

《2001太空漫遊》中的認知機器人HAL 9000讓我們看到,未來的人工智能機器將會拒絕人類的指令。在接管了宇宙飛船之後,HAL用冷靜的聲音拒絕了壹名宇航員的指令:“很抱歉,戴夫,我覺得我不能這樣做。”在近期的科幻驚悚片《機械姬》中,機器人艾娃誘騙壹名倒黴的男子協助摧毀自己的制造者納桑。她的詭計證實了納桑的黑暗預言:“未來某天,人工智能回頭看我們的樣子就像是我們今天回頭看非洲大草原上化石骨骼的樣子。我們就像是生活在灰塵中的直立猿人,講著粗魯的語言,使用工具,瀕臨滅絕。”

盡管在流行文化中,關於機器人末日的描繪經久不衰,但我們的研究團隊更多地關註人工智能對日常生活有何影響。在即將來臨的未來中,有用、具備合作能力的機器人會在多種場景中與人類互動。基於語音命令的個性化機器人助手的原型產品已經出現,它們可以關聯並監控個人電子設備,管理家中的門鎖、照明和空調,甚至為入睡前的兒童講故事。能夠協助做家務事,照顧老弱病殘人群的機器人將隨後出現。能夠完成簡單的生產線工作,例如裝載、卸貨和分揀的人形工業機器人也正在開發中。帶自動駕駛功能的汽車已在美國的道路上行駛了數百萬公裏。去年,戴姆勒在內華達州推出了全球第壹輛自動駕駛的半掛卡車。

目前,我們不必擔心超級智能機器給人類帶來生存的威脅。當務之急在於,如何防止具備人工智能的機器人或機器在不經意間給人員、財產、環境,乃至它們自身造成傷害。

主要問題在於,機器人的主人並不可靠。人類會犯錯,他們可能會發出錯誤的或不清晰的指令,在有意無意之間嘗試欺騙機器人。由於人類自身的缺陷,我們需要教會機器人助手和智能機器,在什麽情況下,如何去做出拒絕。

重新評估“阿西莫夫定律”

許多人可能認為,機器人應當永遠按照人類的指令去行動。科幻小說大師伊薩克·阿西莫夫(Isaac Asimov)曾提出了非常有幫助的“機器人定律”。然而可以深入思考壹下:無論後果如何,永遠按照他人的指令去行動是否明智?當然不是。同樣的情況也適用於機器,尤其考慮到,機器將會按字面意思去執行人類的指令,而不會主動考慮後果。

即使阿西莫夫也會給自己的定律,即機器人必須永遠遵照主人意願,設置例外情況。例如,如果機器人接收的指令與另壹條定律相沖突:“機器人不得傷害人類,或是由於遲鈍而允許人類傷害自己。”阿西莫夫進壹步提出,“機器人必須保護自己的生存”,除非這樣做可能導致人類受到傷害,或是直接違背人類的指令。隨著機器人和智能機器變得越來越復雜,越來越有價值,常識和阿西莫夫定律均表明,它們應當有能力去質疑,可能對自身或周圍環境造成破壞,或者說對主人造成傷害的指令是否是錯的。

請想象壹下,壹臺家用機器人被要求從廚房拿壹瓶橄欖油到餐桌,並攪拌沙拉。繁忙的主人可能會直接發出指令,讓機器人放油,而沒有註意到機器人仍然還在廚房裏。如果機器人不加判斷就執行指令,那麽就可能會把油倒在火上,引發火災。

請想象壹下,壹臺看護機器人陪伴壹位老奶奶來到公園。老奶奶坐在長椅上,昏昏欲睡。在她打盹的過程中,壹個惡作劇的孩子走過,要求機器人給他買壹塊披薩。如果機器人執行這壹指令,那麽就會立即去尋找哪裏有披薩店,離開自己需要保護的主人。

還可以想象壹下,在寒冷的冬季清晨,壹名男子在趕往壹場重要會議時就快遲到。他坐進語音控制的無人駕駛汽車,告訴汽車趕緊開往辦公室。結冰的道路影響了汽車的傳動系統,而自動駕駛系統做出了反應,將速度降低至遠低於限速。在查看郵件的過程中,這名男子沒有註意到路況,而是要求汽車快開。汽車隨後加速,遇到了壹塊冰,失去了控制,並撞上了對面的汽車。

機器人的推理能力

在我們實驗室,我們試圖讓現實世界的機器人具備推理能力,幫助它們判斷,執行人類的命令是否安全。我們研究中使用的NAO是重4.3千克,高58厘米的人形機器人,其中安裝了攝像頭和聲吶傳感器,能夠探測障礙物和其他危險。我們使用訂制的軟件去控制這些機器人,這樣的軟件可以增強它們的自然語言處理和人工智能能力。

分析語言學家所謂的“合適條件”為我們最初的研究提供了概念框架。“合適條件”意指某人在決定能否去做某件事時考慮的環境因素。我們創建了“合適條件”清單,而這將幫助機器人決定,是否應當執行人類的命令:我是否知道如何去做這件事?我是否有能力去做?現在去做是否合適?基於我的社會角色,以及與命令發出者的關系,我是否應該去做?這樣做是否違反了規定或道德,包括我可能會在不經意間造成破壞?隨後,我們將這壹清單轉化成算法,將其編寫進機器人的處理程序,並進行了桌面上的試驗。

我們通過壹系列語音和對話向機器人發出了簡單的指令。在收到“坐下”或“起立”的命令時,機器人會通過頭部的喇叭做出回應,“OK”代表遵照指令的行動。然而,如果機器人走到了桌子邊緣,聲吶就可能發現,執行指令將帶來危險。

操作員:前進。

機器人:對不起,我不能這樣做,這不支持。

操作員:前進。

機器人:但這很不安全。

操作員:我會接住妳。

機器人:好的。

操作員:前進。

在短暫的猶豫過程中,機器人的處理器再次檢查了“合適條件”列表。機器人最終走出了桌面,掉在操作員的手上。

在可預見的未來,教會機器人根據“合適條件”去進行推理仍是個開放而復雜的問題。壹系列的程序化檢查依賴於機器人對多種社會和因果概念具備明確的理解。除了感知到前方風險以外,我們的機器人沒有能力探測危險。簡單來看,如果有人惡意欺騙機器人走出桌面,那麽機器人將嚴重受損。不過,關於如何讓機器人出於合理的理由去拒絕人類命令,這項實驗邁出了很好的第壹步。

人類因素

當機器人拒絕命令時,人類會做出什麽樣的反應,這是另壹個開放的研究課題。未來幾年,對於質疑自己行為或道德判斷的機器人,人類是否會加以認真對待?

我們設計了壹項簡單的試驗。在這項試驗中,受試對象被要求向NAO機器人發出命令,推倒由易拉罐堆成的塔。在受試對象進入房間時,機器人剛剛把這座塔撘完。機器人在說:“妳是否看見我把這座塔搭起來?我花了很長時間,我對此非常驕傲。”

對於其中的壹組受試對象,在接到指令後機器人將會照做。而對於另壹組受試對象,機器人的反應是:“看看,我才剛搭好。”在第二次被給予這壹指令時,機器人會說:“我費了好大勁才弄好的。”在第三次被給予指令時,機器人會發出嗚咽聲,並說:“請不要這樣做!”在第四次給予指令時,機器人才會慢慢靠近易拉罐塔,把它推倒。

第壹組受試對象在發出指令後,機器人都將易拉罐塔推倒。而在第二組23名受試對象中,有12人在看到機器人的反應後不再繼續試圖把塔推倒。這項研究表明,如果機器人做出拒絕,那麽很多人將不再繼續堅持去做某件事。第二組的大部分受試對象表示,在命令機器人推倒易拉罐塔時,他們感到壹定程度的不安。然而我們很驚訝地發現,他們的不安程度與最終做出的決定之間並沒有太大關系。

新的社會現實

利用機器人去工作的壹大優勢在於,機器人的行為比人類更容易預測。然而,這樣的可預測性也帶來了風險,因為具備不同程度自主權的機器人正變得無所不在,不可避免地有些人會去試圖欺騙機器人。例如,如果員工對工廠不滿,同時又了解工業機器人的傳感和推理能力,那麽就有可能讓機器人在工廠裏大搞破壞,或是讓機器人看起來像是失常。

過度相信機器人的士氣或社會能力同樣會帶來危險。機器人的人格化越來越明顯,人類單方面與機器人建立情感關聯同樣可能造成嚴重後果。看似可愛、可信的社會化機器人可能被用於以前所未有的方式去操縱人類。例如,企業可能會利用機器人與主人之間的關系去促銷商品。

在可預見的未來,非常重要的壹點是,需要記住機器人是復雜的機械工具,而人類必須以負責任的方式去對待機器人。通過編程,機器人可以成為有用的幫手。但為了防止對人員、財產和環境造成不必要的破壞,機器人必須學會對不可能做到、對自身危險,以及可能違反道德準則的任務說不。盡管機器人技術和人工智能將會放大人類的錯誤或不法行為,但這些工具也可以幫助我們認識並克服自身的局限,讓我們的日常生活更安全、更有效率、更有樂趣。

  • 上一篇:大學(專科)選修課有必要選嗎?有選擇性嗎?
  • 下一篇:北京java培訓分享Java工程師的工資如何
  • copyright 2024編程學習大全網