MarketWatch專欄作家高德(HOWARD GOLD)撰文介紹了人工智能目前的發展情況,指出這很可能是人類最大的威脅,而且要命的還是,其裁量權還掌握在追逐利潤的企業界手中。以下即高德的評論文章全文: 長達幾十年的時間當中,未來派一直都在擔心著計算機真正獲得人類的智能。從《2001太空漫游》到《終結者》,再到《黑客帝國》,一部又一部電影都在重復講述著智能機器給人類造成浩劫的主題。 現在,哪怕是嚴肅思考的人們也已經聽到了關于人工智能的警報聲——機器人和自動化已經在造成意義重大的社會和經濟混亂了。 兩周前,物理學巨擘霍金(Stephen Hawking)對BBC表示:“全面人工智能的發展可能會導致人類的終結。” “它將會自行發展,以加速度重新設定自我。”霍金警告說,“人類受限于生物演化的緩慢,是無法與其競爭的,最終將會被替代。” 睿智的企業家馬斯克(Elon Musk)是貝寶的創始人之一,目前擔任特斯拉汽車(TSLA)和SpaceX的首席執行官,他也說人工智能是“對我們的存在的最大威脅”。 “開發人工智能,我們其實就是在召喚魔鬼。”馬斯克如是說。 此外,兩位牛津大學的研究人員估計,計算機化將使得美國近一半的工作機會受到威脅,甚至一些創造性的專業崗位也不能免疫。 “那些要求微妙的判斷力的崗位也日益受到了計算機化的波及。”弗雷(Carl Benedikt Frey)和奧斯伯恩(Michael A. Osborne)寫道,“在很多這種任務當中,依照計算法則做出的不偏不倚的判斷較之人類確實有一定優勢。” 哪怕投資評論?希望這不會讓我們失業。 總之,機器真的開始接管世界了嗎?我采訪了幾位業界領先的人工智能研究專家,得到的回答讓我多少感到了一點安心,但也不是特別安心。人工智能正在發展,但是一些技術障礙或許會延緩其前進速度,使得機器智能無法立即實現大幅度的躍進。 不過,假以時日,智能機器必然能夠完成越來越復雜的思維計算,甚至完全復制人類大腦高度復雜的運作。 IBM的專家估計,人類的大腦一秒鐘之內就能完成36800萬億次計算。世界上所有的超級計算機的計算力加在一起,總能力相當于一個人腦的八倍,而中國廣州的全球最大超級計算機,計算能力大致和一個人腦相當。 正如霍金所指出的,計算力的指數增長背后,是摩爾定律在發揮作用——集成電路上的晶體管數目,每十八個月就會翻一番。 2007年,耶魯大學經濟學家諾德豪斯(William D. Nordhaus)估算得出的結論是,和手工計算相比,計算機的表現已經好出了1萬7000億到76萬億倍。 “在復雜度和計算力方面,計算機正在逼近人腦。”諾德豪斯寫道,“或許,計算機最終會被證明,它才是終極外包。” 喬治華盛頓大學工程學名譽教授波克(Peter Bock)研究人工智能已經四十年了,他說,人工智能的發展軌跡和摩爾定律高度契合。 波克在1993年出版有《人工認知的興起》(The Emergence of Artificial Cognition)一書,其中虛構了一個類似于人腦的人工智能機器Mada,他預計Mada2024年將成為現實,而目前,一切“都在精確地按照預定日程”發展。 他在接受采訪的郵件當中介紹說,這一智能機器將可以學習新事物,以使得自己的智能得到不斷發展,“就像人類認知的過程一樣”。 那么,人類的情感呢?波克的回答是:“這是最簡單的部分,只是反饋學習而已。”不過,智能機器顯然會比巴甫洛夫的狗高明得多。 在有些地方,電腦已經領先于我們了。正如加州大學伯克利分校電機工程和計算機教授羅素(Stuart Russell)所指出的,哪怕我們窮盡一生的時間,也不可能像谷歌那樣在不到十分之一秒的時間中檢索數以億計的文件,找出答案。 只是,思想機器還不能完成某些常識性任務,這一點谷歌[微博]的自駕車就已經證明。“你必須盡快決定,不然車子就要把你撞倒了。” 這,以及其他一些技術局限或許會延緩發展的過程,但是計算力的缺乏顯然不在最大障礙之列。 羅素指出,目前,“我們依然不了解”該如何為一個思維機器編程,以便它可以像人類大腦一樣運轉。他在郵件中寫道:“想要設計能夠得出智能行為的運算法則,還有許多觀念上和技術上的問題需要解決。” 可是,那些大科技公司如IBM[微博](IBM)、微軟(MSFT)、Facebook(FB),尤其是谷歌(GOOG),都在投入重金和人力去研究這一問題。日前,谷歌斥資4億美元收購英國公司DeepMind Technologies,網羅到了很多人工智能精英。 我信奉自由企業理念,但是考慮到人工智能潛在的危險性,到底是誰該成為這一科技發展最終的裁量人顯然是至關重要的。到底該是由利潤和股市表現驅動的企業,是政府,再或者是其他人呢? 谷歌設立了一個道德委員會來監控DeepMind——公司的創始人之一和馬斯克一樣,也說人工智能是“這個世紀的頭號風險”。可是,我們必須看到,華爾街的風險管理部門可曾防止住金融危機?當然沒有。當閃爍著巨大利潤光暈的重大突破發生時,道德肯定會被拋出窗外的。谷歌方面拒絕對本文發表評論。 羅素在劍橋大學生存風險研究中心顧問委員會中與霍金一同任職,他相信,科學家們應該“理解并消除掉潛在的風險”。 他對我表示:“讓人工智能的能力發展到越來越強大的過程中,你也必須開發出越來越好的控制機制。” “我們在真正走到那一步之前,是不會真正明白自己做了些什么的。”波克表示,“那道路的終點,對我們而言簡直是墓穴一樣的危險。” 我們從魔瓶中放出的,到底會是怎樣的妖怪?希望我們不會是以最慘痛的方式來接受教訓的,這樣的錯誤,我們過去犯下過太多次了。 |