打造具備道德自主能力人工智能裝置的人該負什么樣的責任?我們該如何透過有責任感的方式,為機器人添加道德能力?研究人員將為這些鏈接機器人與人工智能工程、巨量數據分析以及道德哲學的迷人題目找出答案;它們正為工程師們帶來挑戰,也不應該被忽視。 來自美國塔夫斯大學(Tufts University)、布朗大學(Brown University)、壬色列理工學院(Rensselaer Polytechnic Institute)與世界其他學術機構的研究人員們,正與美國海軍共同探索以上相關問題,目標是開發出能成功植入機器人的道德算法。 為了解更多針對機器人應用的嵌入式道德算法開發現況,我們專訪了塔夫斯大學計算機科學教授Matthias Scheutz,他也是該校的人類-機器人互動實驗室(Human-Robot Interaction Laboratory,HRI Lab)的主持人。 設計具備道德能力機器人所遭遇的挑戰有哪些?Scheutz表示:“相關挑戰有很多,例如理解道德判斷情境,可解決道德沖突的恰當道德推理能力,以及判斷適合的行動路線等,還要將所有的算法以一種讓它們能堅定地實時運作之方式,布建在機器人架構中! Scheutz也表示,它們目前正在研究推理算法的不同設計選項,例如擴增道義邏輯(augmented deontic logic,形成義務與許可概念的邏輯),以及偵測出道德判斷情境的方式、主要是根據語言。 在一篇題為《讓自主代理體系架構更具功能性的需求(The Need for More Competency in Autonomous Agents Architectures)》之論文(參考原文)中,Scheutz以醫療與戰場做為自主式機器人的兩個應用案例,討論機器人設計師與工程師所面臨的部分挑戰;包括機器人將做出什么決定?以及不當決定導致原本可避免的傷害發生時,誰該負起責任? Scheutz表示,身為機器人設計者:“我們負責開發所有支持道德推理之算法的控制架構,但我們不會對機器人將被賦予的道德原則做出任何承諾,那應該是機器人布署者的任務──他們負責定義道德準則、規范等等! 因此Scheutz認為,法律專家應該要提早定義出對機器人行為應負的責任,這是一個關鍵問題,特別是因為具備學習能力的機器人,也會在執行任務的過程中吸收新的知識。 要賦予機器人道德能力,就是讓機器人在一個道德判斷情境中,模仿人類的決策過程;而首先,機器人就是能意識到一個道德判斷情境,接著依循所布建的推理策略──包括道德原則、基準與價值等。這呼應了美國達特茅斯學院(Dartmouth College)教授James H. Moor提出的第三種道德主體(ethical agent)”──也就是明確(explicit)的道德主體。 根據Moor的說法,明確的道德主體能在多樣化的情境之下判別并處理道德信息,并做出應該要做的敏感判斷;特別是它們能在道德兩難的情境下,在不同道德原則相互沖突時,做出“合理的決定”。 Scheutz指出,現今的機器人與人工智能科技進展,已經能制作出具備自我決策能力的自主機器人,不過大多數這類機器人的功能仍然很簡單,其自主能力也有限;因此它們有可能因為缺乏從道德角度來考慮的決策算法,而成為具傷害性的機器。 “如果我們不賦予機器人偵測并適當處理道德判斷情境的能力、而且是透過人類可接受的方式,我們可能會增加人類受到不必要傷害與苦難的風險;”Scheutz表示:“自主性機器人可能會做出我們認為在道德上有錯誤的決定──例如被授權不提供病患止痛藥。” 在論文中,Scheutz表示機器人開發者能采取一些行動,減輕布署在人類社會中的機器人面臨道德判斷情境可能造成的問題:“第一,機器人設計者可以透過機器人的設計與編程,降低遭遇道德判斷情境中的潛在性,例如當機器人不會回報社交關系時,就不利于社交連結(social bonding),這將會減少人們與機器人建立單向情感連結的情況! 相較于有些機器人的行為會表現情感,或是擬人化的設計,可能會暗示人們它有能力特定類型的關系,但實際上并不會。身為人類,對機器人可能在道德判斷情境或是道德兩難情境下可能做出的抉擇做出批判,可能會是挑戰。 考慮到我們身為人類,在評估我們自己的道德社交行為時,會一直表現出許多前后不一致的行為,無疑人類需要為打造具備道德自主性的人工智能負責。 Scheutz表示,實際上人類面對道德判斷情境時也會有不同的看法,但這不一定會成為替機器人布署道德推理功能的限制因素:“未受過正規訓練的人類通常不擅于正確的邏輯推理,而且有可能會犯錯──例如所得結論并未根據已知信息的邏輯──特別是在復雜的道德情境下。至于機器人,我們能確保它永遠或只會依循邏輯推理,不會執行未受允許的動作。” Scheutz期望,未來每一個布署在人類社會中的自主性機器人,包括輔助機器人、娛樂機器人、軍事機器人等等,都是“懂道德的機器人” |