來源:參考消息網(wǎng) 外媒稱,隨著人工智能技術(shù)越來越先進(jìn),人們愈發(fā)擔(dān)心,機(jī)器人可能變成一種威脅。據(jù)加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)學(xué)教授斯圖爾特·拉塞爾說,這種危險(xiǎn)是可以避免的,如果我們能夠解決如何把人類價(jià)值變成可編程的代碼。 據(jù)美國石英財(cái)經(jīng)網(wǎng)站11月1日報(bào)道,拉塞爾說,在機(jī)器人領(lǐng)域,“道德哲學(xué)將是一個(gè)非常重要的產(chǎn)業(yè)部門”。他指出:“隨著機(jī)器人從事更加復(fù)雜的任務(wù),我們絕對有必要把我們?nèi)祟惖牡赖罗D(zhuǎn)化為人工智能語言! 比如說,如果機(jī)器人在房子里做雜務(wù)——預(yù)計(jì)未來幾十年將會(huì)出現(xiàn)這種場面——的話,你可不想機(jī)器人把寵物貓放進(jìn)烤箱里,給饑腸轆轆的孩子們做頓大餐。拉塞爾說:“你會(huì)希望給那個(gè)機(jī)器人預(yù)先載入一大套人類價(jià)值! 人們已將基本的人類價(jià)值編入了一些機(jī)器人的程序。瑪麗女王大學(xué)計(jì)算機(jī)學(xué)教授彼得·麥克歐文說,可移動(dòng)機(jī)器人就被編入了與人類保持適當(dāng)距離的程序。 他說:“這是機(jī)器人行為可被視為體現(xiàn)某種價(jià)值的一個(gè)極為簡單的例子。如果機(jī)器人在你和別人說話時(shí)靠近你們的私人空間,你就會(huì)認(rèn)為,這不是一個(gè)有教養(yǎng)的人會(huì)做的事情。” 創(chuàng)造更復(fù)雜的、具備道德規(guī)范的機(jī)器人是可能的,但條件是我們要找到把人類價(jià)值設(shè)定成明確規(guī)則的辦法。 麥克歐文說:“這種價(jià)值設(shè)定工程要有研究人類價(jià)值的專家參與進(jìn)來,其中包括哲學(xué)家、心理學(xué)家、人種學(xué)家以及外行人士。就像你把專業(yè)知識(shí)轉(zhuǎn)化成一套規(guī)則一樣,你可以將這個(gè)討論組提供的信息轉(zhuǎn)化成一系列規(guī)則! 此外,機(jī)器人還可以選取根據(jù)有關(guān)人類行為的大套數(shù)據(jù)制成的模型來學(xué)習(xí)人類價(jià)值。 麥克歐文說,只有在程序員不負(fù)責(zé)任的情況下,機(jī)器人才會(huì)成為一種危險(xiǎn)。 他說:“就機(jī)器人違反人類價(jià)值這一問題,人們最擔(dān)心的是,如果人類因?yàn)闆]有進(jìn)行充分測試而沒有給機(jī)器人正確編程的話,機(jī)器人就不會(huì)有充分的安全保障,它們就會(huì)有辦法去打破某種禁忌! 簡單的方法是,當(dāng)出現(xiàn)特殊情況時(shí),給機(jī)器人編入讓人去檢查機(jī)器人行為是否正確的程序。 麥克歐文說:“如果機(jī)器人不確定一種動(dòng)物是否適合被放進(jìn)微波爐時(shí),它可以停下來,發(fā)出嗶嗶的信號(hào)聲,以請求人給出指示。” 把人類價(jià)值編成程序最困難的一步是,要確定什么才是我們認(rèn)為的道德行為,以及如何制定一套道德規(guī)則。如果我們有了答案,那么機(jī)器人對人類就會(huì)是有益的。 |