"永遠不要相信人類!" 在1950年末出版的科幻作品《我,機器人》里,作者阿西莫夫在第一頁就引用了《機器人學指南》第56版(2058年)的“機器人學三定律”:
這三定律看起來非常簡單易懂,right? 而且令人欣慰的是,服從人類的法則排在第二位。因為有些人經常做傻事,如果機器人總是對人類言聽計從,恐怕會惹出不少亂子。所以來自塔夫斯大學人機交互實驗室的Gordon Briggs和Matthias Scheutz正著手制定一種全新的機制,讓機器人學會在必要時刻拒絕人類發出的命令。 從語言學理論上來看,如果某人要你做一件事,你理解它的意思靠的更多的是語境而不是詞匯本身,這就是我們說的“合適條件”。在合適條件下,你會將語義和自身能力統一起來進行權衡,而不是只去理解別人的命令。對機器人來說,合適條件同樣重要,尤其是在如下的場景中:
前三種合適條件很容易理解,不過對于第四和第五條,我們可以討論一下。“社會角色和義務”是指機器人是否相信人類有權命令自己做事。而“規范允許”語義則更為復雜,它表示機器人不該去做那些明知很危險的事情,或者更準確地說,如果機器人不了解事情的危險性,它就會按照命令去執行。 現在我們來研究一下,這些條款在人類與機器人的交流中到底是如何工作的。研究人員做這件事不僅是為了讓機器人分清何時該聽從命令,他們還想提供一個全新的框架,讓機器人能表達出自己拒絕接受命令的原因。這一點很重要,因為如此一來人類就不會胡亂下命令了,他們在做決定前會充分考慮到一系列的合適條件。 舉例來說,如果你的命令違反了某些規則,即使是只是“前進”——一個極其簡單的命令,機器人也會拒絕執行(因為機器人知道如果“前進”就會摔下桌子)。如果機器人可以解釋原因,人類就可以及時修改命令,這樣一來就可以提高機器人的效率。 我希望研究者能給機器人添加一個“狼來了”模式,如果有人故意下達惡意命令,今后就再也得不到機器人的信任了。 我們再舉一個例子,如果人類事先知道一個屋子是危房還硬要讓機器人進入呢?這種行為依然會置機器人于危險境地,所以如果機器人和命令人之間沒有特定的社會關系,它可以選擇拒絕執行命令。 如果全面推行該機制,原本的機器人第二和第三定律就不再起作用了,因為在危險情況下機器人可以選擇拒絕執行命令。 這樣的機制會不會造成機器人反噬人類呢?也許會吧。不過恐怕想讓機器人無條件遵守人類的規則也是不現實的。如果你試著讓電腦和軟件完全遵守人類制定的規則,等待你的結果必然是一團糟,機器人也與該情況類似,畢竟強扭的瓜不甜。 也許未來的某天,機器人也會懂得拒絕的。 |