1000多名人工智能研究員已經(jīng)簽署公開信,呼吁禁止“殺人機器人”(或稱自主武器)。此外,還有數(shù)以百計業(yè)外人士在公開信上簽名,包括特斯拉電動汽車首席執(zhí)行官伊隆·馬斯克(Elon Musk)、著名科學家史蒂芬·霍金(Stephen Hawking)以及社會理論學家諾姆·喬姆斯基(Noam Chomsky)等。 無需人類干預就能襲擊目標的自主武器現(xiàn)在還未出現(xiàn),但這無法阻止有關(guān)其被創(chuàng)造或使用潛力的激烈辯論。反對者擔心自主武器出現(xiàn)后若遭到濫用,將對人類產(chǎn)生巨大威脅,包括難以解決的道德問題。 未來生命研究所發(fā)布的這封公開信中稱:“人工智能技術(shù)已經(jīng)達到臨界點,部署這樣的武器實際上是不合法的,在未來數(shù)年甚至數(shù)十年都是不可行的,危險性太高。自主武器被視為繼火藥和核武之后的第三次戰(zhàn)爭革命。” 科學家們還在公開信中將自主武器稱為“未來的卡拉什尼科夫步槍”,警告“它們將無所不在,其生產(chǎn)成本低廉,所有軍事力量都可以大規(guī)模制造。”這種假設的后果令人感到恐懼:“它們出現(xiàn)在黑市中,落入恐怖分子、軍閥、獨裁者手中只是時間問題。對于執(zhí)行暗殺、令國家陷入動蕩、征服人口以及有選擇性地屠殺特定種族等任務,自主武器將非常理想。” 科學家們在公開信中警告稱:“如果有軍事力量在人工智能武器開發(fā)領(lǐng)域占據(jù)優(yōu)勢,全球性軍備競賽幾乎將不可避免。”有鑒于此,科學家們呼吁各國采取“先發(fā)制人”行動,反對自主武器技術(shù)。他們在公開信中得出結(jié)論稱:“我們認為人工智能技術(shù)在很多方面都將讓人類獲益,我們應該繼續(xù)沿著這個方向前進。開始人工智能武器軍備競賽是個糟糕的主意,應該禁止人類控制之外的攻擊性自主武器的出現(xiàn)。” 這封公開信的其他簽名者包括哲學家和認知學家丹尼爾·丹尼特(Daniel Dennett)、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)、Skype聯(lián)合創(chuàng)始人塔林(Jaan Talinn)、Google DeepMind CEO德米斯·哈薩比斯(Demis Hassabis)等。 4月份,英國政府曾拒絕支持禁止建造殺人機器人的禁令。該國政府發(fā)言人稱:“截止到目前,我們還沒有看到禁止使用致命自主武器系統(tǒng)的必要,因為國際人道主義法律已經(jīng)對這一領(lǐng)域提供了足夠的監(jiān)管。英國沒有開發(fā)致命自主武器系統(tǒng),而英國軍方使用的武器系統(tǒng)永遠都會受到人類監(jiān)督和控制。” |