1000多名人工智能研究員已經(jīng)簽署公開(kāi)信,呼吁禁止“殺人機(jī)器人”(或稱(chēng)自主武器)。此外,還有數(shù)以百計(jì)業(yè)外人士在公開(kāi)信上簽名,包括特斯拉電動(dòng)汽車(chē)首席執(zhí)行官伊隆·馬斯克(Elon Musk)、著名科學(xué)家史蒂芬·霍金(Stephen Hawking)以及社會(huì)理論學(xué)家諾姆·喬姆斯基(Noam Chomsky)等。 無(wú)需人類(lèi)干預(yù)就能襲擊目標(biāo)的自主武器現(xiàn)在還未出現(xiàn),但這無(wú)法阻止有關(guān)其被創(chuàng)造或使用潛力的激烈辯論。反對(duì)者擔(dān)心自主武器出現(xiàn)后若遭到濫用,將對(duì)人類(lèi)產(chǎn)生巨大威脅,包括難以解決的道德問(wèn)題。 未來(lái)生命研究所發(fā)布的這封公開(kāi)信中稱(chēng):“人工智能技術(shù)已經(jīng)達(dá)到臨界點(diǎn),部署這樣的武器實(shí)際上是不合法的,在未來(lái)數(shù)年甚至數(shù)十年都是不可行的,危險(xiǎn)性太高。自主武器被視為繼火藥和核武之后的第三次戰(zhàn)爭(zhēng)革命。” 科學(xué)家們還在公開(kāi)信中將自主武器稱(chēng)為“未來(lái)的卡拉什尼科夫步槍”,警告“它們將無(wú)所不在,其生產(chǎn)成本低廉,所有軍事力量都可以大規(guī)模制造。”這種假設(shè)的后果令人感到恐懼:“它們出現(xiàn)在黑市中,落入恐怖分子、軍閥、獨(dú)裁者手中只是時(shí)間問(wèn)題。對(duì)于執(zhí)行暗殺、令國(guó)家陷入動(dòng)蕩、征服人口以及有選擇性地屠殺特定種族等任務(wù),自主武器將非常理想。” 科學(xué)家們?cè)诠_(kāi)信中警告稱(chēng):“如果有軍事力量在人工智能武器開(kāi)發(fā)領(lǐng)域占據(jù)優(yōu)勢(shì),全球性軍備競(jìng)賽幾乎將不可避免。”有鑒于此,科學(xué)家們呼吁各國(guó)采取“先發(fā)制人”行動(dòng),反對(duì)自主武器技術(shù)。他們?cè)诠_(kāi)信中得出結(jié)論稱(chēng):“我們認(rèn)為人工智能技術(shù)在很多方面都將讓人類(lèi)獲益,我們應(yīng)該繼續(xù)沿著這個(gè)方向前進(jìn)。開(kāi)始人工智能武器軍備競(jìng)賽是個(gè)糟糕的主意,應(yīng)該禁止人類(lèi)控制之外的攻擊性自主武器的出現(xiàn)。” 這封公開(kāi)信的其他簽名者包括哲學(xué)家和認(rèn)知學(xué)家丹尼爾·丹尼特(Daniel Dennett)、蘋(píng)果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)、Skype聯(lián)合創(chuàng)始人塔林(Jaan Talinn)、Google DeepMind CEO德米斯·哈薩比斯(Demis Hassabis)等。 4月份,英國(guó)政府曾拒絕支持禁止建造殺人機(jī)器人的禁令。該國(guó)政府發(fā)言人稱(chēng):“截止到目前,我們還沒(méi)有看到禁止使用致命自主武器系統(tǒng)的必要,因?yàn)閲?guó)際人道主義法律已經(jīng)對(duì)這一領(lǐng)域提供了足夠的監(jiān)管。英國(guó)沒(méi)有開(kāi)發(fā)致命自主武器系統(tǒng),而英國(guó)軍方使用的武器系統(tǒng)永遠(yuǎn)都會(huì)受到人類(lèi)監(jiān)督和控制。” |