"永遠(yuǎn)不要相信人類!" 在1950年末出版的科幻作品《我,機器人》里,作者阿西莫夫在第一頁就引用了《機器人學(xué)指南》第56版(2058年)的“機器人學(xué)三定律”:
這三定律看起來非常簡單易懂,right? 而且令人欣慰的是,服從人類的法則排在第二位。因為有些人經(jīng)常做傻事,如果機器人總是對人類言聽計從,恐怕會惹出不少亂子。所以來自塔夫斯大學(xué)人機交互實驗室的Gordon Briggs和Matthias Scheutz正著手制定一種全新的機制,讓機器人學(xué)會在必要時刻拒絕人類發(fā)出的命令。 從語言學(xué)理論上來看,如果某人要你做一件事,你理解它的意思靠的更多的是語境而不是詞匯本身,這就是我們說的“合適條件”。在合適條件下,你會將語義和自身能力統(tǒng)一起來進(jìn)行權(quán)衡,而不是只去理解別人的命令。對機器人來說,合適條件同樣重要,尤其是在如下的場景中:
前三種合適條件很容易理解,不過對于第四和第五條,我們可以討論一下。“社會角色和義務(wù)”是指機器人是否相信人類有權(quán)命令自己做事。而“規(guī)范允許”語義則更為復(fù)雜,它表示機器人不該去做那些明知很危險的事情,或者更準(zhǔn)確地說,如果機器人不了解事情的危險性,它就會按照命令去執(zhí)行。 現(xiàn)在我們來研究一下,這些條款在人類與機器人的交流中到底是如何工作的。研究人員做這件事不僅是為了讓機器人分清何時該聽從命令,他們還想提供一個全新的框架,讓機器人能表達(dá)出自己拒絕接受命令的原因。這一點很重要,因為如此一來人類就不會胡亂下命令了,他們在做決定前會充分考慮到一系列的合適條件。 舉例來說,如果你的命令違反了某些規(guī)則,即使是只是“前進(jìn)”——一個極其簡單的命令,機器人也會拒絕執(zhí)行(因為機器人知道如果“前進(jìn)”就會摔下桌子)。如果機器人可以解釋原因,人類就可以及時修改命令,這樣一來就可以提高機器人的效率。 我希望研究者能給機器人添加一個“狼來了”模式,如果有人故意下達(dá)惡意命令,今后就再也得不到機器人的信任了。 我們再舉一個例子,如果人類事先知道一個屋子是危房還硬要讓機器人進(jìn)入呢?這種行為依然會置機器人于危險境地,所以如果機器人和命令人之間沒有特定的社會關(guān)系,它可以選擇拒絕執(zhí)行命令。 如果全面推行該機制,原本的機器人第二和第三定律就不再起作用了,因為在危險情況下機器人可以選擇拒絕執(zhí)行命令。 這樣的機制會不會造成機器人反噬人類呢?也許會吧。不過恐怕想讓機器人無條件遵守人類的規(guī)則也是不現(xiàn)實的。如果你試著讓電腦和軟件完全遵守人類制定的規(guī)則,等待你的結(jié)果必然是一團糟,機器人也與該情況類似,畢竟強扭的瓜不甜。 也許未來的某天,機器人也會懂得拒絕的。 |