国产毛片a精品毛-国产毛片黄片-国产毛片久久国产-国产毛片久久精品-青娱乐极品在线-青娱乐精品

機器人發展或令人類感到恐怖:我們依賴它愛它

發布時間:2010-2-25 14:33    發布者:嵌入式公社
關鍵詞: 發展 , 機器人 , 恐怖 , 人類
自從機器人第一次出現在科幻小說中,人類就開始擔心機器人會舉行“起義”。但是今天,專家提醒人們的是一個更不易察覺的的威脅:我們可能會過于喜歡(或依賴)與他們生活在一起。

要感受到機器人帶來的驚駭并不需要很多的硬件設備。我們不需要戴著虛擬現實的護目鏡或鑲嵌著許多電極的無邊便帽,也不需要大量的電纜或可植入人的大腦象頭發那樣細的納米線。僅憑機器人那雙警惕的不斷閃爍的眼睛就足以做到。

媒體實驗室(Media Lab)

該實驗室座落在馬薩諸塞州劍橋園麻省理工學院校園內,其中屬于個人機器人小組的實驗室看起來更像一個十幾歲男孩的臥室,到處是纏在一起的電纜,已放了一段時間的比薩餅盒子和不知是被拆開的玩具還是被肢解的機器人。在一堆雜物中,一個5英尺高、有三個輪子的仿人機器人啟動并開始環顧房間四周。它確實是在看,它的大大的深藍色的眼睛轉到那邊,它的白色的、玩具娃娃似的大頭就跟著轉向那邊,而且不時停下來,好象在打量著每個研究人員。它的名字叫奈克西 (Nexi),它的一雙眼睛閃爍著。對視著它就象對視著新生兒的眼睛,激發起人們本能的愛,讓人們心里忍不住想問:“你想要什么?你需要什么?”很少有人能以一種無動于衷的態度與它接觸。

“現在它做的動作是環顧四周,這是一個非常基本的動作。”實驗室的研究人員馬特·柏林說,“我認為它很高興,因為它有一張臉,可以觀察外面。”在另外一個實驗室里,另一種類型的仿人形機器人動作的目標比較具體:從房間的一邊走到另一邊,保證不會摔倒,找到指定的彩球,并輕而快地踢它一下。 而奈克西的功能更具有深遠的意義,它是社交機器人。它的唯一目的是與人類互動,它的使命是被人類接受。

這是一個任何具有真正自我意識的機器人可能會拒絕的使命。為了得到廣泛的接受,可能意味著與人類幾十年形成的對機器人的恐懼和厭惡作斗爭。機器人的這種壞名聲范圍很廣,從機器人最終不可避免地對人類宣戰的末日預言到那種認為人形機器人將永遠是絕對令人不安的和不宜相處的同伴的信念。

至于奈克西,可以說是人機交互技術研究(the human–robot interaction ,HRI)領域中的一顆最耀眼的明星,但在出名的同時,也引起了恐懼。在YouTube上有一段奈克西的視頻,已有數千人點擊觀看。在這段視頻中,奈克西靠輪子移動進入視野,緩慢地轉向鏡頭,用令人愉快的完美的女性聲音介紹自己。如果這段視頻的目的是讓奈克西得到大家的喜歡,那就適得其反了。它的眼睛大而富有表現力,臉龐長得幼稚可愛,但這一切都有點不正常,就象是一個玩具娃娃偽裝成一個巨型的小孩。或者,對于存在主義者來說,更令人深感不安的是:一個具有真正情感的機器人,它能夠愛你,也同樣能夠輕視你。結果,觀眾稱它的表現為“毛骨悚然”。

但是機器人的辯護者反對這樣的評價。認為人機交互技術的未來是光明的。老年人沒有辦法拒絕那些輕言細語、眼睛眨動的并與他們朝夕相處的護士機器人遞來的藥物。毫無疑問兒童會愛上日托機器人,即使機器人有時沒有安慰他們,也有時會因軟件錯誤或電池組的故障而沒法作出反應。把今天面無表情的 Roombas機器人變成明天的積極主動的機器人伙伴,社交機器人只需要以奈克西為榜樣,開發利用強大的、甚至無法控制的人類本能。

這就是為什么奈克西的金屬手臂和雙手以小幅的、逼真的動作左右移動。這就是為什么奈克西在尋找面孔,似乎用眼睛在看你。當它的眼睛隨著小型發動機嗡嗡的叫聲再次閃爍,你會不由自主地對它微笑。你會把它當作與你一樣的一個具有社會性的生物。即使 奈克西沒有說一句話,你已經想成為它的朋友。

事實證明,即使你知道使你感到驚駭的是機器人,并不能使你更容易對它產生抵制。也許這才是社交機器人真正的危險。雖然人類已經對惡意計算機和橡膠肌肉體作出種種猜測,機器人專家可能已經制造了一個更真實的威脅。當面對實際機器人,人們可能變得過于依戀。就像人與人間的關系,這種依戀可能充滿著陷阱:一個老奶奶會如何想,例如,當她的機器人同伴被送去的升級,然后回來時是一個完全陌生的機器人?

機器人曾令人感到害怕:擔心它會消滅人類

當一臺機器人可以輕易地按下我們進化的按鈕,適時地眨動其人工眼瞼就能解除我們內心深處的保留意見,也許這種擔心根本不是愚蠢的反應。也許我們只是害怕這種本不該出現的東西。

機器人在它們存在之前就開始讓我們感到害怕。1921年,捷克的科幻劇作《羅素姆萬能機器人》(Rossum’s Universal Robots)中同時首次引進“機器人”一詞和機器人大災難的威脅。在劇中第一幕發表的宣言中,作為廉價的、可支配勞動者而制造的機器人使他們的意圖很清楚:“全世界的機器人,我們責成你要消滅人類。不要留下一個男人。不要留下一個婦女。”邪惡機器人的起源可以追溯到更遠,但《羅素姆萬能機器人》創造的那種惡魔般的機器人類型在上世紀四、五十年代的科幻小說中風行一時,而這時對機器人的實際研究還沒有開始。事實上,《我,機器人》(I,Robot)的作者艾薩克·阿西莫夫在創造了 “機器人學(robotics)”一詞的同時,他開始在他的短篇小說中建立機器人的規范和道德準則。

在1984年的電影《終結者》中,阿諾德·施瓦辛格扮演的人型機械人T – 800對警察局進行了大屠殺,終結者,這個機器人叛亂者,已經成為流行文化中最根深蒂固的陳詞濫調之一。這部電影已經成為一種特定恐懼的符號:即人工智能(AI)將成為太聰明、太沉迷于自我保護。終結者影響了我們對機器人、人工智能甚至正在發展的機器人戰爭的認識。其中,美國海軍研究所正研究將來是否需要對軍事機器人制定道德規范,并在2008年一份初步研究報告中提出最凄慘的結局:“象《終結者》中的情景,機器人反過來對付我們處于劣勢的人類。”

但據加州州立理工大學哲學助理教授兼美國海軍學院倫理學研究員帕特里克·林的觀點,對機器人道德規范的需要不僅限于戰場。“與軍事機器人相比,社會機器人對一般人可能構成的更大威脅。”她說。“雖然它們沒有武器,但我們會很快地與它們面對面。”

這當然也正是記者努力報道的言論。媒體向來是大肆渲染具有自我組織能力的人工智的可能的危險,以及武裝機器人射殺平民的前景。但是,機器人可能構成的真正威脅與《終結者》的情景無關,因為即使與最笨的武裝叛亂分子相比,機器人的大腦實際上也是死的。

以奈克西為例,奈克西被認為是世界上最先進的社交機器人之一,但它僅僅能理解最基本的聲音指令。現在它正處于半退休狀態,它的電機已搖搖欲墜。麻省理工學院為它的另一個機器人里奧納多(Leonardo)開發了新的行為軟件。里奧納多是一個毛茸茸的、長著大耳朵的機器人,它可以向人類學習,如判斷那些方塊可以拼成一幅指定的拼圖,或那些填充玩具是“好的”,哪些它應該感到害怕。這是一種讓我們感到震動的機器人類型:這種機器人能聽懂我們說話的內容,并知道我們告訴它應該喜歡的或害怕的東西。奈克西已裝上與萊昂納一樣的軟件,麻省理工學院的柏林(Berlin)說:“也許不用一年,奈克西將能和你交談,雖然交談可能很乏味。”

社交機器人帶來機器人的技術飛躍

如果漢森機器人(Hanson Robotics)公司的創始人大衛·漢森一切進展順利,在今年年底,這家總部設在德克薩斯州的公司的最新社會機器人芝諾(Zeno)可能在說話能力上超過奈克西。這種23英寸高的機器人售價為2500美元,可以說是物超所值,不僅因為它的硬件,而是因為裝在其卡通造型的頭部里的軟件。“這種智能軟件可以使芝諾認識到在一個房間里有多人。”漢森說,“它建立了一種有關“你是誰,你喜歡什么,你說了什么”的思維模式。現在我們已經達到這種程度,它可以進行一次自由回答的、不限主題的交談。”漢森計劃在2011年或2012年推出一種售價為250美元的大眾市場版的機器人,它具有與芝諾相同的臉部和聲音識別能力。他的目標是為研究人員提供一個功能強大的試驗平臺,同時還利用人工智能算法,生產一種機器人玩具,可以與人實實在在的玩耍15分鐘以上。

但是就奈克西和芝諾的社交技能和艱苦仿真的情感生活來說,機器人是本能的,而不會反省。跟蹤軟件發現,人說出一個關鍵詞,然后引發了機器人預設的反應,而當你離開房間,他們不會想你去那里,剛才的談話是幫助還是傷害你,或者如何擺脫你的控制。“要人工智能作出自然界意義上的預測是非常困難,”英國雷丁大學控制論教授凱文·沃里克(Kevin Warwick)說,“機器人能夠考慮各種可能性事件,但它甚至不能領先一步考慮到它作的決定會產生的后果。”

還有,當然,研究人員預見計算神經科學上的快速進展將不可避免的導致“強大的人工智能(strong AI)”,這種人工智能不是在谷歌搜索框里完成你的句子,而是模仿人類思維。IBM公司的藍色大腦計劃(Blue Brain Project)就是其中之一,它的目標是可能最快在2019年制造出虛擬大腦,這使災難預言家們更喋喋不休。不過,沒有一個能描繪我們自己的預感或道德感的神經網絡圖,要能夠創造出一個真正有權力欲或邪惡的機器人仍是遙遙無期。考慮它們就有點象辯論缺乏管制的超距傳輸(teleportation)上的倫理隱患。沒有人建造企業(Enterprise)號太空飛船,為什么要擔心斯科蒂(Scotty,《星際旅行:企業號》中的角色)會喝醉撥號到你的家中?

機器人不會很快大批起義。奈克西不會發送電子郵件給芝諾,傳播來自于《羅素姆萬能機器人》中的 “消滅所有人類”的信息。這則信息也不會在全世界的Roombas 機器人、鐵血戰士和和“裝配線焊接機”中傳播的。這是一個幻想,或者充其量是下一個世紀討論的話題。就象很多機器人擔心,這有可能淹沒一個更理性產生于現實的辯論,這個現實就是幾乎每個機器人都是在法律和道德的縫隙中降臨的。“如果一個孤獨癥患者控訴一個機器人,并試圖毀滅它,機器人應如何應對?”帕特里克·林問,她正計劃制定社交醫療機器人道德規范。

“難道把它關閉?這是一個昂貴的設備——它應該擋回去?”當機器人大規模地出現,我們是否已準備好它們同時可能造成的對人身體和心理上的損害?

當我們的眼睛盯著一個我們認為具有自主性的機器人——它能根據自身的意志移動、行動和工作——我們的鏡像神經元(mirror neuron)會被激發。當我們看到其他動物在走動時,同樣是這些神經細胞在活動,神經學家懷疑它們與學習有關,這種學習通過模仿的方式。鏡像神經元才不管是一個蠟像,還是一個遙控靶機。具有自主性的機器人激發這些神經元,欺騙人的大腦把一個機械設備當作活的東西。

然而,就像人與機器人互動的許多方面,這種全面影響尚不清楚。科幻作家可能花了一個半世紀的從理論上說明人與機器人生活的長期影響,但科學研究只是剛剛開始。雖然人機交互技術的領域正在做有關的數據收集工作和探究其原則,要得出堅實的結論還是不可能的,或者至少是不負責任的。就以這些鏡像神經元為例,神經科學家可以看到它們的運動,但是這些神經元的確切目仍然在爭論中。

有關大腦對機器人的神秘反應的另一個更經常被引用的的例子是通常被稱為“詭異谷(the uncanny valley)”的假說,換一種說法。就是“機器人令人毛骨悚然”。“詭異谷”理論是在1970由日本著名機器人專家森政弘(Masahiro Mori)在一篇論文中提出的,“詭異谷”描繪了一個圖表,顯示人類對人形機器人感覺比較熟悉且可能比較舒適。直到這個機器人變得與人類太相像,引發與看到死亡或不健康的人時會產生的同樣的心理警報;在這一點,圖表直線下降,然后會再次上升,與看到一個真人的反應一樣,或者從理論上講,一個完美的機器人。這是否是我們“戰斗或逃跑”本能的一種變形,或者是一種更復雜的東西,森政弘的用很重要——“詭異谷”不是赤裸裸的恐懼,而是一種混雜著熟悉和恐懼、吸引和排斥的情感。這是一個認知失調的時刻,原因是大腦不能一時反應不過來,就像人遇到了會說話的圣誕樹或一具發笑的尸體。

以學術標準,這是令人回味、令人興奮的東西,它描述的似乎是一種普遍現象。奈克西令人不安的YouTube視頻,看起來就是活生生的例子,并且奈克西還有大量令人感到不安的同伴。日本制造的社交機器人CB2(Child-robot with Biomimetic Body,兒童仿生機器人)具有真實感很強的眼睛,兒童的身材比例和灰色皮膚,幾乎所有的博客和記者都認為對它感到恐懼。而另一個日本機器人科比安(KOBIAN),具有豐富的臉部表情、突出的眉毛,一對寶石紅的完整的嘴唇。它也被立即被西方媒體打上“毛骨悚然”的標記。這些社交機器人的設計者原本是想避免“詭異谷”效應——亞洲實驗室堆滿了逼真的機器人,都深陷于森政弘永恒的“詭異谷”中。

但正如經嚴格分析,《終結者》的情景并不可能出現,“詭異谷“理論也并非完美無暇。如果僅僅憑那些YouTube上的機器人的視頻,你會以為當你真的見到奈克西時,會讓你毛發豎起。但實際上大多數人見到奈克西,都會喜歡上它。柏林介紹說:“我們做了一些非常實際的事情,使我們的機器人不會那么可怕。”奈克西成功的秘訣,很明顯對于其它機器人來說也不是很難做到。這個秘決在于一本書名為《迪斯尼動畫原則》的略微有點破損的精裝書,這是個人機器人小組人員的必讀書目。柏林說:“我們是創造現實中的動畫人物。”像許多動畫人物,奈克西的外表和動作是對人類的進行了夸大。當它伸手去拿一個物體時,它的手臂不是非常精確地直直地伸向目標。它會浪費時間和資源,所先調整好其眼睛、頭部和身體,然后手慢騰騰地以弧形運動的方式伸向目標。奈克西在物理上是低效的,但確深諳社會學。

機器人小組是如何做到這一點的?在與數百名人群互動中,包括大波士頓區三個老人中心的居民,研究人員聲稱,沒有人尖叫著逃離奈克西。恰恰相反:許多老年人試圖與這個機器人握手,或擁抱它。至少有1人還吻了它。“它以這種非常社交化的方式與人們互動,所以人們以人際交往的方式與其交往,把它視為一個社會個體,而不是把它當作一個機械。個人機器小組的主管辛西婭·布雷西亞(Cynthia Breazeal)說。“在奈克西的研究中,我們已經顯示,如果你讓機器人以已知的加強信任和了解的方式表現和移動,人們就會以同樣的方式進行反應。你在按下同樣的按鈕。”

這一原則也被證明同樣適用于CB2和科比安。這兩個項目的研究負責人稱,網絡和媒體上對他們機器人的擔憂在現實中從來沒有出現,根據大阪大學教授溙镲?∕inoru Asada)教授的說法,實際中每個人見到CB2都喜歡它,除了一位泰國公主。一家日本報社組織一群老年人訪問科比安。他們“非常高興和感動。” 早稻田大學機械工程教授高西(Atsuo Takanishi)說,“好像機器人真的有感情。”

即使“詭異谷”的曲線最終變得更為平滑,這很容易通過與機器人的接觸來實現,奈克西和其它機器人的成功提出了一個更深刻的問題:為什么我們會在本能上如此討厭機器人?

“事實證明,人類在精神上很容易產生依賴性。我們特別渴望交往。”麻省理工學院技術與人格研究項目主管謝里·特克爾說,“難道我們真的想對此加以利用?”特克爾對人與機器人之間能夠形成的強有力的關系進行了研究,例如帕羅(Paro),是日本研制的安撫型機器人,這是一只非常可愛的機器小海豹,它會在你的懷里耍嬌,被撫摸時會發出咕咕的叫聲,通過吮吸一個帶電線的安撫奶嘴對它充電。她還記錄了帕羅的智力甚至是情感,這些來自于與帕羅一起玩的小朋友的報告。這個安撫型機器人,充其量不過是一只電子填充動物玩具,但它對老年人的影響進一步引起了特克爾的關注。“請告訴我一下,為什么我需要一個機器人嬰兒保姆?”特克爾問道:“我們怎樣回答孩子這個問題?我們怎樣回答老年人這個問題?我們正在忙于發電子郵件而沒時間去照顧那些需要照顧的人?”

在特克爾這樣的研究人員看來,社交機器人的廣泛使用不可避免地存在風險。當一些分析家估計到2015年將出現一個150億美元的個人機器人市場,對情感機器人(expressive machines)的需求預計將更驚人。特克爾辯論的核心——本質上是呼吁謹慎行事——是害怕將人類交往完全托付于機器人。更令人值得警惕的是機器人可能陪伴的對象,從人手不足的學校的兒童,到患有老年癡呆癥的老人。用大量的機器人來監督青少年和看護老人,與雇用數千名教師和同住護工相比,可能在費用上要節省許多。但是第一代在機器人作為權威人物和朋友之下長大的青少年會怎樣處理不可預知的人際間的關系?沒有更多的數據,一個本意良好的應對人力短缺的方法就會變成用發放新的和未經考驗的抗抑郁藥來解決倫理和法律范圍內的問題。

一個可行的辦法是讓人重新處于主動地位,而把社交機器人作為木偶來使用。麻省理工學院個人機器人小組的另一個機器人 Huggable是一個泰迪玩具熊機器人,它的動作可以通過網絡瀏覽器來控制。研究人員計劃用它來安慰住院兒童,家庭成員或醫生將對它進行遙控操作。它實際上有一個泰迪玩具熊的骨架,而原來泰迪玩具熊毛茸茸的皮毛,被一個布滿壓力和觸摸感應器的表皮取代。用一操作的電腦上有一個簡單的命令菜單,可以命令其抬起或放一手臂,或者轉動其頭部。Huggable上面的攝影機可以將周圍的情形傳送到電腦上,讓操作者進行觀察。

目前Huggable并沒有自己的個性。它是一個高科技的傳聲器,傳送操縱者的聲音,而不是一個完全的社交機器人。在最近發表的一份研究報告,描述了日本機器人玩具的“父母”模式的危險和用機器人作保姆的誘惑。英國謝菲爾德大學機器人技術和人工智能教授諾埃爾·夏基把Huggable的缺乏自主性作為其賣點。“這樣的機器人,沒有引起對具有自主性的機器人提供的專有的或接近專有的護理那樣的道德上的關注。”他與合著者寫道。 半自主性的機器人可能不會減少支出,但它比起社交機器人可能更為安全。

人類是否要為機器人制定道德規范?

人類對機器人一直存在的恐懼感尚未消除,現在又增加了夏基和特克爾的悲觀論調。然而,幾乎每個研究員都同意這樣一個觀點:我們需要為機器人制定道德規范,我們現在就需要它們。并不是因為機器人缺乏道德指南,而是因為它們的創造者現在是在道德和法律真空中操作。“當一個橋梁倒下,我們有一套早已準備好的大致分攤責任的指導方針。”布魯金斯學會的高級研究員和《網絡戰爭》的作者P.W. 辛格說,“現在我們有一個等同于橋梁的東西,它可以在全世界站立、移動和運行,但當它倒下來時,我們沒有辦法搞清楚誰應該對此負責任。”

比起充滿了猜測和缺少試驗數據的辯論,一套高明的道德準則可能更能起保險作用。“我關心的并不是機器人明顯令人討厭的因素,而是如果這個機器人出錯呢?”克里斯·埃利奧特(Chris Elliott)說,他是一個系統工程師和審判律師,最近促成了英國皇家科學院起草一份關于自治系統的報告,“這是人們將會犯錯的地方。”甚至即使社交機器人大規模的心理影響機器人結果是零,埃利奧特擔心一步出錯以及相應的反彈,可能會使數年的進步反轉。想象一下近年有關的媒體報道,首次出現病人被一個機器人外科醫生殺死,一輛自動駕駛的汽車迎頭撞上一輛校車,及機器人有板有眼地與老年癡呆癥患者扭打的視頻。埃利奧特說:“法律是遠遠落后的。因為法律的不確定性,我們將達到這樣的地步,我們會害怕部署新的有益的機器人。”

這些準則的確切性質仍然是一個猜測。有一個觀點是每個機器人類或模型只限定于一個特定的任務——機器人護士可以訪問與一定年齡范圍的病人,或者老年人看護機器人可以提防危險的摔跤,但是不能私下里談話和讓人依偎。從長遠來看,大衛·漢森認為應明確規定智能機器人與人合作的程序,所以當機器人能自我發展,具有他所謂的“智慧”后,能保證它們不傷害我們。辛西婭·布雷齊爾的立場更強硬:“現在絕對是作出決定的時候。”她說,“在這些機器人與脆弱人群接觸前,人類應該進行一次認真的對話。”

哲學家、倫理學家、律師和機器人專家也僅僅是開始了豐富阿西莫夫的早期機器人倫理規則的艱苦工作。同時,如果有一種方法化解我們對機器人長期的、不合理的恐懼和阻止任何勒德分子強烈反對的風險,就可能要依靠象奈克西這樣的機器人。

譯自美《大眾科學》
本文地址:http://m.qingdxww.cn/thread-8510-1-1.html     【打印本頁】

本站部分文章為轉載或網友發布,目的在于傳遞和分享信息,并不代表本網贊同其觀點和對其真實性負責;文章版權歸原作者及原出處所有,如涉及作品內容、版權和其它問題,我們將根據著作權人的要求,第一時間更正或刪除。
您需要登錄后才可以發表評論 登錄 | 立即注冊

廠商推薦

  • Microchip視頻專區
  • 使用SAM-IoT Wx v2開發板演示AWS IoT Core應用程序
  • 使用Harmony3加速TCP/IP應用的開發培訓教程
  • 集成高級模擬外設的PIC18F-Q71家族介紹培訓教程
  • 探索PIC16F13145 MCU系列——快速概覽
  • 貿澤電子(Mouser)專區

相關視頻

關于我們  -  服務條款  -  使用指南  -  站點地圖  -  友情鏈接  -  聯系我們
電子工程網 © 版權所有   京ICP備16069177號 | 京公網安備11010502021702
快速回復 返回頂部 返回列表
主站蜘蛛池模板: 亚洲视频区| 日本黄页网| 午夜国产| 天堂成人在线观看| xiah俊秀| 老阿姨儿子一二三区| 亚洲欧美一区二区久久| 亚洲成a人不卡在线观看| 婷婷精品国产亚洲AV在线观看| 亚洲干综合| 日韩 欧美 国产 亚洲 制服| 思思99热在线观看精品| 97视频在线免费| 久久频这里精品99香蕉久网址| 人妖另类xxxxx| 亚洲国产高清视频| 亚洲综合精品一二三区在线| 在线视频99| 欧美日韩国产在线一区二区| 亚洲国产精品ⅴa在线观看| 日本porno动漫| 天堂bt在线| 动漫成人片| 手机在线看片欧美亚洲| 日本中文字幕在线播放| 午夜视频观看| 伊人蕉久| 久久精品黄色| 亚洲线精品久久一区二区三区| 日韩美女一区| 天堂8在线天堂资源在线| 成人永久免费视频| 色婷婷综合久久久久中文一区二区| 热久久国产| 四虎影院永久免费观看| 香蕉大伊亚洲人在线观看| jizz日本黄色| 性色AV一区二区三区咪爱四虎| 日韩永久免费视频| 亚洲 丝袜 制服 欧美 另类| 亚洲色图日韩|