新聞源 財富源

2025年04月22日 星期二

財經(jīng) > 滾動新聞 > 正文

字號:  

霍金等千名專家敦促禁止“殺人機器人”

  • 發(fā)布時間:2015-08-04 01:30:34  來源:科技日報  作者:佚名  責任編輯:羅伯特

  科技日報北京8月3日電 (記者劉園園)1000多名知名科學家和人工智能領(lǐng)域?qū)<医蘸炇鸸_信,警告可能出現(xiàn)人工智能軍備競賽,并敦促聯(lián)合國發(fā)布針對“攻擊性自動化武器”的禁令。

  據(jù)英國《衛(wèi)報》報道,公開信的簽署者包括著名科學家斯蒂芬·威廉·霍金、特斯拉CEO伊隆·馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克以及谷歌人工智能項目負責人米斯·哈撒比斯等。這封信已在網(wǎng)上公開發(fā)表,并于日前提交至在阿根廷布宜諾斯艾利斯召開的國際人工智能聯(lián)合會議。

  公開信稱:“人工智能技術(shù)已經(jīng)發(fā)展到這樣一種地步:盡管不合法,自動化武器的使用將在幾年內(nèi)而不是幾十年內(nèi)會成為現(xiàn)實。這將帶來極大的風險,自動化武器已經(jīng)被稱為繼火藥和核武器之后的武器的第三次革命?!?/p>

  這封信認為,人工智能可以讓戰(zhàn)場對軍事人員而言更為安全,但是能夠自主操作的攻擊性武器會降低戰(zhàn)爭發(fā)生的門檻,從而給人類生命帶來更大的損失。

  公開信指出,如果某個軍事力量開始研發(fā)能選擇攻擊目標并在沒有人類直接操控情況下自動運行的武器系統(tǒng),會像當年的原子彈一樣引發(fā)軍備競賽。而與核武器不同的是,人工智能武器并不需要具體的、難于制造的材料,因此很難對其生產(chǎn)進行監(jiān)控。這封信稱,“人類今天所面對的關(guān)鍵問題在于,是在全球范圍內(nèi)啟動一場人工智能軍備競賽,還是將其扼殺在萌芽狀態(tài)?!?/p>

  新南威爾士大學人工智能教授托比·沃爾什對這一呼吁表示支持:“我們需要在當下做出決定,這個決定將主宰我們的未來,并事關(guān)我們是否走在正確的道路上?!?/p>

  “殺人機器人”是當今的熱議話題?;艚鸷婉R斯克此前都曾警告說,人工智能是人類最大的威脅,而且完全人工智能的發(fā)展將導(dǎo)致人類的終結(jié)。今年4月,聯(lián)合國曾專門召開會議討論了包括“殺人機器人”在內(nèi)的未來武器的發(fā)展,這次會議曾考慮針對某些特定類型的自動化武器頒布禁令,但遭到一些國家的反對。

機器人(300024) 詳細

機器人 詳細

漲幅榜 更多

排名 股票名稱 最新價 漲跌幅
1 藍英裝備 10.95 10.05%
2 光啟技術(shù) 27.78 10.02%
3 紫光股份 80.14 10.01%
4 賽為智能 18.52 9.98%
5 上海機電 22.65 6.59%

跌幅榜 更多

排名 股票名稱 最新價 漲跌幅
1 華昌達 10.89 -6.76%
2 韻達股份 47.84 -4.32%
3 雅化集團 12.83 -4.25%
4 海源機械 16.64 -3.70%
5 美的集團 52.84 -3.10%

熱圖一覽

  • 股票名稱 最新價 漲跌幅