智能武器的危險(xiǎn)之處在于,軟件工程師可以很輕松地給它重新編程,使其成為濫殺無辜的機(jī)器。 最近一段時(shí)間,很多知名人士都對(duì)人工智能武器表示了抵制,但他們給出的原因卻比較偏頗,認(rèn)為機(jī)器人有朝一日將會(huì)控制人類。這種說法其實(shí)并不合理,至少在短期內(nèi)不合理。但是,人工智能武器所蘊(yùn)含的危險(xiǎn),也確實(shí)不是那種常規(guī)的、由人類操控的武器可以比擬的。因此要求禁止人工智能武器的呼吁,也理應(yīng)獲得大家的聲援。 迫在眉睫的危險(xiǎn) 從谷歌無人駕駛汽車的身上,我們可以一瞥人工智能的未來。現(xiàn)在你試想一下:一個(gè)兇惡的黑社會(huì)團(tuán)伙偷走了一輛這樣的車,在其頂端加裝了一門火炮,然后給車輛重新編程,把炮口對(duì)準(zhǔn)公眾。如此一來,它就成為了一件人工智能武器。 各國(guó)政府的眼睛是雪亮的,當(dāng)然不會(huì)看不到這種武器的潛力。美國(guó)海軍今年宣布計(jì)劃開發(fā)無人機(jī)武器,而韓國(guó)的Super aEgis II自動(dòng)炮塔,俄羅斯的Platform-M 戰(zhàn)斗機(jī)器也雙雙亮相。 但人工智能武器不會(huì)是政府的獨(dú)家秘制。現(xiàn)在人人都可以買得到搭載GoPro 相機(jī)的四軸無人飛行器。現(xiàn)在想象一下,有人開發(fā)了一個(gè)簡(jiǎn)單的軟件,可以讓它自動(dòng)飛行。而那個(gè)邪惡的黑社會(huì)組織,就是可以把無人駕駛汽車改裝成武器的犯罪團(tuán)伙,當(dāng)然也可以把槍支搭載在無人機(jī)上面,給它重新編程,然后讓它飛到擁擠的公共場(chǎng)所去殺人。 這就是人工智能武器近在眼前的危險(xiǎn),:它們很容易被人利用,改裝成濫殺無辜的機(jī)器,其危害性遠(yuǎn)遠(yuǎn)超過了同樣的、但需要有人操作的武器。 機(jī)器本身并不可怕 斯蒂芬·霍金、宇宙學(xué)家馬克斯·特格馬克以及伊隆·馬斯克和其他很多人都簽署了“未來生活”(Future of Life)請(qǐng)?jiān)笗蠼怪圃焓褂萌斯ぶ悄芪淦鳌=衲?月,馬斯克捐款 1000萬美元給發(fā)起該請(qǐng)?jiān)傅臋C(jī)構(gòu)。4月份,聯(lián)合國(guó)召開了“殺手機(jī)器人”會(huì)議,不過沒有產(chǎn)生任何具有持久性的政策決定。“未來生活”請(qǐng)?jiān)感胖赋觯斯ぶ悄芪淦鞯奈kU(xiǎn)非常具體,不出幾年就有可能導(dǎo)致災(zāi)難,需要馬上采取行動(dòng)來加以避免。可惜的是,它并沒有明確指出,有哪些人工智能武器已經(jīng)出現(xiàn)在了地平線上。 很多人擔(dān)心會(huì)出現(xiàn)“終結(jié)者”那樣的世界末日?qǐng)鼍埃簷C(jī)器人具有了像人類一樣的能力,能夠完全依靠自己與世界交互,而且這些機(jī)器人試圖征服世界。 物理學(xué)家、皇家天文學(xué)家馬丁·里斯爵士就警告說,災(zāi)難性的場(chǎng)景,比如“愚蠢的機(jī)器人不按指令行事,或一個(gè)網(wǎng)絡(luò)自己有了主見。”他在劍橋的同事、哲學(xué)家休·普萊斯也表達(dá)了類似的擔(dān)憂,覺得當(dāng)智能“不受生物學(xué)限制”時(shí),人類可能無法生存。在兩人的推動(dòng)下,劍橋大學(xué)組建了生存風(fēng)險(xiǎn)中心(Centre for the Study of Existential Risk),以圖避免人類的生存遭受如此巨大的威脅。 這些問題當(dāng)然很值得研究。但是,它們遠(yuǎn)不如人工智能武器問題那么迫在眉睫。 我們很快就能開發(fā)出類似于人類的人工智能了嗎?幾乎所有的標(biāo)準(zhǔn)答案都是:不是很快。很多媒體都說,雷丁大學(xué)的聊天機(jī)器人尤金·古斯特曼(Eugene Goostman)是真正的人工智能,因?yàn)樗娴淖屢恍┤艘詾樗且粋(gè)13歲的男孩。但是,聊天機(jī)器人和真正的“像人類一樣的智能”還差多遠(yuǎn)呢?計(jì)算機(jī)科學(xué)家斯科特·阿倫森(Scott Aaronson)的第一個(gè)問題就把尤金難住了:“是鞋盒大呢,還是珠穆朗瑪峰大?” 盡管這樣,還是有很多人都在“未來生活”請(qǐng)?jiān)感派虾灹嗣鞔_表示要抵制人工智能武器。原因在于:與擁有自我意識(shí)的計(jì)算機(jī)網(wǎng)絡(luò)不同,在無人駕駛汽車上架機(jī)槍現(xiàn)在就可能出現(xiàn)。 人工智能武器的問題,不在于它們將會(huì)控制世界,而在于它們非常容易被重新編程,因此任何人都能夠以低得驚人的預(yù)算,制作出一臺(tái)濫殺無辜的高效機(jī)器。可怕的不是機(jī)器本身,而是黑客可以用比較適中的價(jià)格,用它們來做什么樣的事情。 容易被改造和利用 不妨想象一下:一個(gè)正在崛起的的暴君,決心辣手摧毀反對(duì)派,他擁有一個(gè)數(shù)據(jù)庫(kù),知道每個(gè)人對(duì)他的忠誠(chéng)度高低,以及地址和照片。在以前,暴君需要一支軍隊(duì)來完成這個(gè)任務(wù),而還需要賄賂士兵,或者給他們洗腦,才能讓他們槍殺無辜者。 而以后,暴君只需要花上幾千美元,購(gòu)買一些搭載自動(dòng)槍械的無人機(jī),就可以如愿以償了。依照摩爾定律(自從晶體管的發(fā)明以來,1美元成本的計(jì)算能力是呈指數(shù)級(jí)增長(zhǎng)的),人工智能無人機(jī)的價(jià)格某一天會(huì)降到和一支AK-47差不多。給四個(gè)軟件工程師洗洗腦,其中就有三個(gè)有能力給無人機(jī)重新編程,讓它們前去附近異見者的住處和工作場(chǎng)所,當(dāng)場(chǎng)射殺他們。無人機(jī)犯錯(cuò)誤的可能性更小一些,而且也不需要賄賂或者洗腦,最重要的,它們的工作效率比人類士兵高得多。在國(guó)際社會(huì)還沒有來得及做出任何反應(yīng)之前,野心勃勃的暴君就已經(jīng)血洗了反對(duì)派陣營(yíng)。 自動(dòng)化大幅提高了效率,因此對(duì)于任何想要犯下這種暴行的瘋子來說,人工智能武器的門檻也降低了。當(dāng)年的獨(dú)裁者需要?jiǎng)佑靡徽к婈?duì)才能做到的事情,現(xiàn)在只要有點(diǎn)錢的人就能辦到了。 有興趣研發(fā)這種武器的制造商和政府可能會(huì)聲稱,他們可以提供出色的保障措施,以確保這些機(jī)器不能被重新編程,不會(huì)遭到黑客攻擊。對(duì)于這種說法,我們最好是保持懷疑態(tài)度。電子投票機(jī)、自動(dòng)取款機(jī)、藍(lán)光光盤播放機(jī),甚至飛馳在高速公路上的汽車,盡管都曾標(biāo)榜自己有很高的安全性,最近卻都已被黑客攻破。歷史事實(shí)已經(jīng)證明,在計(jì)算設(shè)備和試圖改變其利用方式的黑客之間,贏家往往是黑客。人工智能武器不可能會(huì)是例外。 禁用人工智能武器 1925年簽訂的國(guó)際條約禁止在戰(zhàn)爭(zhēng)中使用化學(xué)武器和生物武器。而中空彈(Hollow Point Bullet)早在1899年就被禁用,因?yàn)檫@些武器會(huì)導(dǎo)致極大的、不必要的痛苦。它們特別容易導(dǎo)致平民傷亡。比如公眾可能會(huì)吸入毒氣,醫(yī)生在嘗試取出中空彈時(shí)可能會(huì)受傷。這些武器很容易給無辜者造成痛苦和死亡,所以它們?cè)獾搅私谩?br /> 是否有某種類型的人工智能機(jī)器同樣也應(yīng)該被禁用呢?答案是肯定的。如果一種人工智能機(jī)器可以很便宜、很容易地改造成高效的無差別大殺器,那么我們就應(yīng)該制定禁止它的國(guó)際公約。這樣的機(jī)器與放射性金屬在本質(zhì)上沒有什么不同。它們都可以和平利用,造福人類。但是我們必須小心翼翼地對(duì)它們加以管控,因?yàn)樗鼈兒苋菀妆桓脑斐蓺缧晕淦鳌2煌氖牵瑢?duì)人工智能機(jī)器進(jìn)行改造,將其用于破壞性目的,遠(yuǎn)比把核電站的反應(yīng)堆改成核武容易得多。 我們應(yīng)該禁止人工智能武器,這不是因?yàn)樗鼈內(nèi)季哂胁坏赖碌膶傩裕且驗(yàn)槿藗兛梢岳迷诰W(wǎng)上找到的資料,把人工智能武器改裝成“猙獰的嗜血怪物”。只需一段簡(jiǎn)單的代碼,就可以把很多人工智能武器轉(zhuǎn)變成不亞于化學(xué)武器、生物武器和空心彈的殺人機(jī)器。 --騰訊科技 |
無人機(jī)也是人工智能武器,導(dǎo)彈也算。要禁止這些恐怕很難吧?頂多能禁止人工智能自主發(fā)送殺人指令的武器。但是美國(guó)航母上的“密集陣”也是自主發(fā)送射擊指令的,美國(guó)還曾經(jīng)有一架飛機(jī)在航母上著陸的時(shí)候被“密集陣”打碎了,飛行員當(dāng)場(chǎng)死亡。讓美國(guó)航母上拆除“密集陣”也不現(xiàn)實(shí)吧? |
禁止殺傷性毀滅性的武器,像聊天機(jī)器人,服務(wù)機(jī)器人不能阻止的,尤其是在中國(guó)勞動(dòng)構(gòu)成本不斷上升的背景下,機(jī)器人可以更好的為我們服務(wù) |