機器人不再百依百順了,在未來它將會對指令說“不”
來源: 編輯:vbeiyou 時間:2016-09-06 03:44人閱讀
你是否認為機器人聽從人類的命令是理所應當的,這似乎才是它們 存在的意義。但換個角度思考一下,若人類的決策有誤,機器人是否應該及時制止呢?
就像《超能陸戰隊》中的一個情節,天才少年阿宏在得知卡拉漢正是害死哥哥的兇手時,憤怒地忘記了初衷,命令大白報仇。而大白拒絕傷害教授,通過播放哥哥生前的視頻,讓阿宏又恢復了理智。正確的拒絕,挽回了一場悲劇的發生。
現實生活中也會存在對機器人的不恰當指令,比如一名學生讓機器人幫她完成所有家庭作業,一個小朋友讓機器人把危險物品扔向窗外,一個機器人汽車根據指令在車道上倒車,而后面的路面上卻有一只熟睡的小狗。一個簡單的命令,如果不加以判斷就完全服從,很可能造成難以挽回的嚴重后果。
很多人會認為聽從人類命令是機器人的天職,但僅僅是聽從命令,很可能會產生相反的后果。那么,怎樣才能讓機器人既聽從人類的命令,又不會造成不利結果呢?
讓自主運行的機器人在行動中可以探測到潛在的危險,并可以試圖避免危險,或是直接拒絕命令,在任何情況下都很必要。因此,機器人必須學會說“不”。
位于波士頓的塔夫茨大學正在研發一種控制技術:機器人可以對人類的指令作出簡單推斷,這將決定機器人是否會按照指令行事,或者因為指令違反了愈顯設定的道德規范而拒絕行動。
要讓機器人知道什么時候、為什么、如何去拒絕執行任務可不是一項簡單的任務。任何一項行為,在不同的情況下會導致不同的結果。就拿扔球來說,在院子里和孩子扔球玩耍沒關系,但如果在路邊扔球,很可能會砸到過路行人或者車輛,在河邊扔球很可能導致球掉進水里丟失,如果在室內扔球則很可能會砸向玻璃。
機器人要理解哪些行為具有危險性,需要大量的背景知識,不僅能自主考慮到行為后果,還能思考出人類發出指令的真實意圖。此外,它們還需要了解法律、道德準則甚至是禮節,作為對行為結果的判斷準則。
不過,目前的機器人技術還遠沒有達到這一要求,想讓機器人處理這些問題,還有很長的路走。但是有一點已經早被證實:機器人在服從命令之前,它們得首先學會拒絕。
現實生活中也會存在對機器人的不恰當指令,比如一名學生讓機器人幫她完成所有家庭作業,一個小朋友讓機器人把危險物品扔向窗外,一個機器人汽車根據指令在車道上倒車,而后面的路面上卻有一只熟睡的小狗。一個簡單的命令,如果不加以判斷就完全服從,很可能造成難以挽回的嚴重后果。
很多人會認為聽從人類命令是機器人的天職,但僅僅是聽從命令,很可能會產生相反的后果。那么,怎樣才能讓機器人既聽從人類的命令,又不會造成不利結果呢?
讓自主運行的機器人在行動中可以探測到潛在的危險,并可以試圖避免危險,或是直接拒絕命令,在任何情況下都很必要。因此,機器人必須學會說“不”。
位于波士頓的塔夫茨大學正在研發一種控制技術:機器人可以對人類的指令作出簡單推斷,這將決定機器人是否會按照指令行事,或者因為指令違反了愈顯設定的道德規范而拒絕行動。
要讓機器人知道什么時候、為什么、如何去拒絕執行任務可不是一項簡單的任務。任何一項行為,在不同的情況下會導致不同的結果。就拿扔球來說,在院子里和孩子扔球玩耍沒關系,但如果在路邊扔球,很可能會砸到過路行人或者車輛,在河邊扔球很可能導致球掉進水里丟失,如果在室內扔球則很可能會砸向玻璃。
機器人要理解哪些行為具有危險性,需要大量的背景知識,不僅能自主考慮到行為后果,還能思考出人類發出指令的真實意圖。此外,它們還需要了解法律、道德準則甚至是禮節,作為對行為結果的判斷準則。
不過,目前的機器人技術還遠沒有達到這一要求,想讓機器人處理這些問題,還有很長的路走。但是有一點已經早被證實:機器人在服從命令之前,它們得首先學會拒絕。
分享到:
本站所有文章、數據、圖片均來自互聯網,一切版權均歸源網站或源作者所有。
如果侵犯了你的權益請來信告知我們刪除。郵箱:business@qudong.com
標簽:
大白

