霍金等千名專家敦促禁止“殺人機器人”
- 發(fā)布時間:2015-08-04 01:30:34 來源:科技日報 責任編輯:羅伯特
科技日報北京8月3日電 (記者劉園園)1000多名知名科學家和人工智能領(lǐng)域?qū)<医蘸炇鸸_信,警告可能出現(xiàn)人工智能軍備競賽,并敦促聯(lián)合國發(fā)布針對“攻擊性自動化武器”的禁令。
據(jù)英國《衛(wèi)報》報道,公開信的簽署者包括著名科學家斯蒂芬·威廉·霍金、特斯拉CEO伊隆·馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克以及谷歌人工智能項目負責人米斯·哈撒比斯等。這封信已在網(wǎng)上公開發(fā)表,并于日前提交至在阿根廷布宜諾斯艾利斯召開的國際人工智能聯(lián)合會議。
公開信稱:“人工智能技術(shù)已經(jīng)發(fā)展到這樣一種地步:盡管不合法,自動化武器的使用將在幾年內(nèi)而不是幾十年內(nèi)會成為現(xiàn)實。這將帶來極大的風險,自動化武器已經(jīng)被稱為繼火藥和核武器之后的武器的第三次革命?!?/p>
這封信認為,人工智能可以讓戰(zhàn)場對軍事人員而言更為安全,但是能夠自主操作的攻擊性武器會降低戰(zhàn)爭發(fā)生的門檻,從而給人類生命帶來更大的損失。
公開信指出,如果某個軍事力量開始研發(fā)能選擇攻擊目標并在沒有人類直接操控情況下自動運行的武器系統(tǒng),會像當年的原子彈一樣引發(fā)軍備競賽。而與核武器不同的是,人工智能武器并不需要具體的、難于制造的材料,因此很難對其生產(chǎn)進行監(jiān)控。這封信稱,“人類今天所面對的關(guān)鍵問題在于,是在全球范圍內(nèi)啟動一場人工智能軍備競賽,還是將其扼殺在萌芽狀態(tài)?!?/p>
新南威爾士大學人工智能教授托比·沃爾什對這一呼吁表示支持:“我們需要在當下做出決定,這個決定將主宰我們的未來,并事關(guān)我們是否走在正確的道路上?!?/p>
“殺人機器人”是當今的熱議話題?;艚鸷婉R斯克此前都曾警告說,人工智能是人類最大的威脅,而且完全人工智能的發(fā)展將導(dǎo)致人類的終結(jié)。今年4月,聯(lián)合國曾專門召開會議討論了包括“殺人機器人”在內(nèi)的未來武器的發(fā)展,這次會議曾考慮針對某些特定類型的自動化武器頒布禁令,但遭到一些國家的反對。
機器人(300024) 詳細
機器人 詳細
熱圖一覽
- 股票名稱 最新價 漲跌幅
- 最嚴調(diào)控下滬深房價仍漲 人口老齡化影響三四線樓市
- 樂天大規(guī)模退出中國市場 供應(yīng)商趕赴北京總部催款
- 北京16家銀行上調(diào)首套房貸利率 封殺“過道學區(qū)房”
- 10萬輛共享單車僅50人管遭質(zhì)疑 摩拜ofo優(yōu)勢變劣勢
- 去年聯(lián)通、電信凈利潤均下滑 用戶爭奪漸趨白熱化
- 奧迪否認“官民不等價”:優(yōu)惠政策并非只針對公務(wù)員
- 季末銀行考核在即 一日風云難改“錢緊錢貴”現(xiàn)狀
- 美圖7小時暴跌四成 虧損業(yè)績?nèi)绾沃?00億市值受拷問
- 監(jiān)管重壓下P2P退出平臺增加 網(wǎng)貸行業(yè)進入冷靜期
- 配資炒股虧損逾百萬 股民將信托公司告上法庭