來源:AI世代 人工智能是一項了不起的技術,它正在以不可思議的方式改變世界。如果你看過電影《終結者》,肯定知道先進的人工智能技術蘊含一些危險。 正因如此,伊隆·馬斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)才連同另外數百名研究人員、科技領袖和科學家聯名支持人工智能應該在生產力、道德和安全領域遵守的23條基本原則。 在未來生活研究院(Future of Life Institute)組織數十名專家共同參加Beneficial A.I. 2017大會之后,便正式發布了《艾斯羅馬人工智能23定律》(Asilomar A.I. Principles)。這些專家包括機器人學家、物理學家、經濟學家、哲學家,他們對人工智能在安全、經濟和道德等領域產生的影響展開了激烈辯論。要讓這套定律最終獲得通過,必須獲得多達90%的與會專家認可。 “我們起草了23條定律,范圍從研究戰略到數字權益,再到可能出現的超級智能等未來的各種問題。認可這些定律的專家已經在上面簽下自己的名字。”未來生活研究院網站寫道,“這些定律并不全面,顯然也可以有不同的解讀,但它也凸顯出一個問題:目前圍繞許多相關問題開展的很多‘默認’行為,可能會破壞在多數與會人員看來十分重要的原則。” 共有892名人工智能或機器人研究人員以及另外1445名專家在這份定律上簽字,包括特斯拉CEO馬斯克和著名物理學家霍金。 其中一些定律(例如透明度和共享研究成果)實現的可能性較低。即便這些定律無法得到全面落實,但這23條定律仍然可以改進人工智能開發過程,確保這些技術符合道德標準,避免邪惡勢力崛起。 以下是《艾斯羅馬人工智能23定律》的全部內容: 1、研究目標: 人工智能研究目標不能不受約束,必須發展有益的人工智能。 2、研究資金: 人工智能投資應該附帶一部分專項研究基金,確保其得到有益的使用,解決計算機科學、經濟、法律、倫理道德和社會研究方面的棘手問題: ——如何確保未來的人工智能系統健康發展,使之符合我們的意愿,避免發生故障或遭到黑客入侵? ——如何通過自動化實現繁榮,同時保護人類的資源,落實人類的目標? ——如何更新法律制度,使之更加公平、效率更高,從而跟上人工智能的發展步伐,控制與人工智能有關的風險? ——人工智能應該符合哪些價值觀,還應該具備哪些法律和道德地位? 3、科學政策聯系: 人工智能研究人員應該與政策制定者展開有建設性的良性交流。 4、研究文化: 人工智能研究人員和開發者之間應該形成合作、互信、透明的文化。 5、避免競賽: 人工智能系統開發團隊應該主動合作,避免在安全標準上出現妥協。 6、安全性: 人工智能系統應當在整個生命周期內確保安全性,還要針對這項技術的可行性以及適用的領域進行驗證。 7、故障透明度: 如果人工智能系統引發破壞,應該可以確定原因。 8、司法透明度: 在司法決策系統中使用任何形式的自動化系統,都應該提供令人滿意的解釋,而且需要由有能力的人員進行審查。 9、責任: 對于先進的人工智能系統在使用、濫用和應用過程中蘊含的道德意義,設計者和開發者都是利益相關者,他們有責任也有機會塑造由此產生的影響。 10、價值觀一致性: 需要確保高度自動化的人工智能系統在運行過程中秉承的目標和采取的行動,都符合人類的價值觀。 11、人類價值觀: 人工智能系統的設計和運行都必須符合人類的尊嚴、權利、自由以及文化多樣性。 12、個人隱私: 人類應該有權使用、管理和控制自己生成的數據,為人工智能賦予數據的分析權和使用權。 13、自由和隱私: 人工智能在個人數據上的應用決不能不合理地限制人類擁有或理應擁有的自由。 14、共享利益: 人工智能技術應當讓盡可能多的人使用和獲益。 15、共享繁榮: 人工智能創造的經濟繁榮應當廣泛共享,為全人類造福。 16、由人類控制: 人類應當有權選擇是否及如何由人工智能系統制定決策,以便完成人類選擇的目標。 17、非破壞性: 通過控制高度先進的人工智能系統獲得的權力,應當尊重和提升一個健康的社會賴以維繼的社會和公民進程,而不是破壞這些進程。 18、人工智能軍備競賽: 應該避免在自動化致命武器上開展軍備競賽。 19、能力警告: 目前還沒有達成共識,我們應該避免對未來人工智能技術的能力上限做出強假定。 20、重要性: 先進的人工智能代表了地球生命歷史上的一次深遠變革,應當以與之相稱的認真態度和充足資源對其進行規劃和管理。 21、風險: 針對人工智能系統的風險,尤其是災難性風險和存在主義風險,必須針對其預期影響制定相應的規劃和緩解措施。 22、不斷自我完善: 對于能夠通過自我完善或自我復制的方式,快速提升質量或增加數量的人工智能系統,必須輔以嚴格的安全和控制措施。 23、共同利益: 超級人工智能只能服務于普世價值,應該考慮全人類的利益,而不是一個國家或一個組織的利益。 |