打造具備道德自主能力人工智能裝置的人該負(fù)什么樣的責(zé)任?我們該如何透過有責(zé)任感的方式,為機(jī)器人添加道德能力?研究人員將為這些鏈接機(jī)器人與人工智能工程、巨量數(shù)據(jù)分析以及道德哲學(xué)的迷人題目找出答案;它們正為工程師們帶來挑戰(zhàn),也不應(yīng)該被忽視。 來自美國塔夫斯大學(xué)(Tufts University)、布朗大學(xué)(Brown University)、壬色列理工學(xué)院(Rensselaer Polytechnic Institute)與世界其他學(xué)術(shù)機(jī)構(gòu)的研究人員們,正與美國海軍共同探索以上相關(guān)問題,目標(biāo)是開發(fā)出能成功植入機(jī)器人的道德算法。 為了解更多針對機(jī)器人應(yīng)用的嵌入式道德算法開發(fā)現(xiàn)況,我們專訪了塔夫斯大學(xué)計(jì)算機(jī)科學(xué)教授Matthias Scheutz,他也是該校的人類-機(jī)器人互動實(shí)驗(yàn)室(Human-Robot Interaction Laboratory,HRI Lab)的主持人。 設(shè)計(jì)具備道德能力機(jī)器人所遭遇的挑戰(zhàn)有哪些?Scheutz表示:“相關(guān)挑戰(zhàn)有很多,例如理解道德判斷情境,可解決道德沖突的恰當(dāng)?shù)赖峦评砟芰Γ约芭袛噙m合的行動路線等,還要將所有的算法以一種讓它們能堅(jiān)定地實(shí)時(shí)運(yùn)作之方式,布建在機(jī)器人架構(gòu)中。” Scheutz也表示,它們目前正在研究推理算法的不同設(shè)計(jì)選項(xiàng),例如擴(kuò)增道義邏輯(augmented deontic logic,形成義務(wù)與許可概念的邏輯),以及偵測出道德判斷情境的方式、主要是根據(jù)語言。 在一篇題為《讓自主代理體系架構(gòu)更具功能性的需求(The Need for More Competency in Autonomous Agents Architectures)》之論文(參考原文)中,Scheutz以醫(yī)療與戰(zhàn)場做為自主式機(jī)器人的兩個(gè)應(yīng)用案例,討論機(jī)器人設(shè)計(jì)師與工程師所面臨的部分挑戰(zhàn);包括機(jī)器人將做出什么決定?以及不當(dāng)決定導(dǎo)致原本可避免的傷害發(fā)生時(shí),誰該負(fù)起責(zé)任? Scheutz表示,身為機(jī)器人設(shè)計(jì)者:“我們負(fù)責(zé)開發(fā)所有支持道德推理之算法的控制架構(gòu),但我們不會對機(jī)器人將被賦予的道德原則做出任何承諾,那應(yīng)該是機(jī)器人布署者的任務(wù)──他們負(fù)責(zé)定義道德準(zhǔn)則、規(guī)范等等。” 因此Scheutz認(rèn)為,法律專家應(yīng)該要提早定義出對機(jī)器人行為應(yīng)負(fù)的責(zé)任,這是一個(gè)關(guān)鍵問題,特別是因?yàn)榫邆鋵W(xué)習(xí)能力的機(jī)器人,也會在執(zhí)行任務(wù)的過程中吸收新的知識。 要賦予機(jī)器人道德能力,就是讓機(jī)器人在一個(gè)道德判斷情境中,模仿人類的決策過程;而首先,機(jī)器人就是能意識到一個(gè)道德判斷情境,接著依循所布建的推理策略──包括道德原則、基準(zhǔn)與價(jià)值等。這呼應(yīng)了美國達(dá)特茅斯學(xué)院(Dartmouth College)教授James H. Moor提出的第三種道德主體(ethical agent)”──也就是明確(explicit)的道德主體。 根據(jù)Moor的說法,明確的道德主體能在多樣化的情境之下判別并處理道德信息,并做出應(yīng)該要做的敏感判斷;特別是它們能在道德兩難的情境下,在不同道德原則相互沖突時(shí),做出“合理的決定”。 Scheutz指出,現(xiàn)今的機(jī)器人與人工智能科技進(jìn)展,已經(jīng)能制作出具備自我決策能力的自主機(jī)器人,不過大多數(shù)這類機(jī)器人的功能仍然很簡單,其自主能力也有限;因此它們有可能因?yàn)槿狈牡赖陆嵌葋砜紤]的決策算法,而成為具傷害性的機(jī)器。 “如果我們不賦予機(jī)器人偵測并適當(dāng)處理道德判斷情境的能力、而且是透過人類可接受的方式,我們可能會增加人類受到不必要傷害與苦難的風(fēng)險(xiǎn);”Scheutz表示:“自主性機(jī)器人可能會做出我們認(rèn)為在道德上有錯(cuò)誤的決定──例如被授權(quán)不提供病患止痛藥。” 在論文中,Scheutz表示機(jī)器人開發(fā)者能采取一些行動,減輕布署在人類社會中的機(jī)器人面臨道德判斷情境可能造成的問題:“第一,機(jī)器人設(shè)計(jì)者可以透過機(jī)器人的設(shè)計(jì)與編程,降低遭遇道德判斷情境中的潛在性,例如當(dāng)機(jī)器人不會回報(bào)社交關(guān)系時(shí),就不利于社交連結(jié)(social bonding),這將會減少人們與機(jī)器人建立單向情感連結(jié)的情況。” 相較于有些機(jī)器人的行為會表現(xiàn)情感,或是擬人化的設(shè)計(jì),可能會暗示人們它有能力特定類型的關(guān)系,但實(shí)際上并不會。身為人類,對機(jī)器人可能在道德判斷情境或是道德兩難情境下可能做出的抉擇做出批判,可能會是挑戰(zhàn)。 考慮到我們身為人類,在評估我們自己的道德社交行為時(shí),會一直表現(xiàn)出許多前后不一致的行為,無疑人類需要為打造具備道德自主性的人工智能負(fù)責(zé)。 Scheutz表示,實(shí)際上人類面對道德判斷情境時(shí)也會有不同的看法,但這不一定會成為替機(jī)器人布署道德推理功能的限制因素:“未受過正規(guī)訓(xùn)練的人類通常不擅于正確的邏輯推理,而且有可能會犯錯(cuò)──例如所得結(jié)論并未根據(jù)已知信息的邏輯──特別是在復(fù)雜的道德情境下。至于機(jī)器人,我們能確保它永遠(yuǎn)或只會依循邏輯推理,不會執(zhí)行未受允許的動作。” Scheutz期望,未來每一個(gè)布署在人類社會中的自主性機(jī)器人,包括輔助機(jī)器人、娛樂機(jī)器人、軍事機(jī)器人等等,都是“懂道德的機(jī)器人” |