新聞源 財富源

2025年01月09日 星期四

財經(jīng) > 滾動新聞 > 正文

字號:  

發(fā)展人工智能要慎之又慎

  • 發(fā)布時間:2015-04-27 03:31:14  來源:科技日報  作者:佚名  責(zé)任編輯:羅伯特

  從智能手機上類似于Siri這樣的語音助理程序到能自動駕駛的汽車,人工智能(AI)正在成為我們?nèi)粘I钪械囊粋€重要組成部分。但也有專家表示,與發(fā)展其他技術(shù)相比,發(fā)展人工智能要更加小心謹(jǐn)慎。

  科技巨頭心有戚戚

  最近越來越多的科學(xué)與科技巨頭加入反AI陣營當(dāng)中。

  著名天體物理學(xué)家斯蒂芬·霍金曾警告稱,按人工智能的發(fā)展進度,在不久的將來,機器可能就會以不斷加快的速度重新設(shè)計自己,超越受制于生物進化速度的人類,最終擺脫人類的控制。

  美國太空探索技術(shù)公司SpaceX創(chuàng)辦人及特斯拉電動汽車CEO伊隆·馬斯克將玩弄人工智能等同于“召喚惡魔”,他認(rèn)為人工智能可能是未來人類生存的最大威脅之一。

  微軟聯(lián)合創(chuàng)始人比爾·蓋茨最近也發(fā)表言論表示對人工智能的發(fā)展感到擔(dān)憂,他說:“如果我們能夠很好地駕馭,機器能夠為人類造福,但如果若干年后機器發(fā)展得足夠智能就將成為人類的心頭大患?!?/p>

  縱觀歷史上的發(fā)明,如火、電、蒸汽機等,除了推動社會前進,造福人類外,同樣也會造成危險。為什么我們偏偏要對人工智能區(qū)別對待?

  未能如愿的邁達斯

  美國麻省理工學(xué)院物理學(xué)家馬克斯·泰格馬克此前在參加一個電臺節(jié)目時說:“發(fā)展人工智能就像是發(fā)展核武器,在首次使用時我們真的需要慎之又慎,因為我們很有可能只有這一次機會。”

  從好的方面來看,在一定時期內(nèi),人工智能的確有益于社會,甚至于幫助人類消滅戰(zhàn)爭、遠離疾病、告別貧困也不無可能。微軟研究院實驗室主管埃里克·霍維茨說,這項技術(shù)可以拯救成千上萬人的生命,無論是通過防止車禍還是避免醫(yī)療上的人為失誤。但對人類而言,發(fā)展人工智能的一個重要隱患是創(chuàng)造了一種能夠不斷完善自己并最終極有可能擺脫人類控制的機器。

  美國加州大學(xué)伯克利分校計算機科學(xué)家斯圖爾特·拉塞爾說,不少人認(rèn)為聰明一定是好的,會讓事情變得更加美好。但實際情況是,并非所有的事情都是如此。就像希臘神話中邁達斯國王的故事一樣,聰明的邁達斯曾想將他所觸碰到的東西都變成黃金,但獲得這一能力后他很快就后悔了,因為就連他的食物、水,甚至還有他的女兒也都變成了黃金。最終他接受建議,在河中沐浴后才得以解脫。

  拉塞爾說,越來越聰明的機器極有可能不會沿著人類的期望發(fā)展。實際上,能夠自我學(xué)習(xí)自我完善的它們,很有可能在目標(biāo)上與創(chuàng)造它的人類出現(xiàn)不一致。例如,核聚變和核裂變將近乎無限的能量儲存在一個原子當(dāng)中,但不幸的是我們獲得這些知識后的第一件事情就是制造了一個超級殺人武器——原子彈。“如今,99%的聚變研究都是受到嚴(yán)格管制的,人工智能也將走上同一條道路。”

  擔(dān)憂還不如去行動

  泰格馬克將發(fā)展人工智能稱為“日益強大的技術(shù)實力與人類不斷增長的智慧之間的一場競賽”。他認(rèn)為,與其減緩前者的發(fā)展還不如更多地投資于后者。

  在今年1月的波多黎各,在由一家非營利組織生命未來研究所舉行的一次會議上,來自學(xué)術(shù)界和工業(yè)界的百余名位科學(xué)家、企業(yè)家、投資者聯(lián)名簽署了一封公開信,提醒人們關(guān)注人工智能的安全性和社會效益。生命未來研究所是由Skype聯(lián)合創(chuàng)始人讓·塔林等志愿者于2014年創(chuàng)立的一家非營利組織,該機構(gòu)致力于促進對人工智能“樂觀的未來圖景”的研究,同時“降低人類面臨的風(fēng)險”。

  這封公開信中描述了人工智能的潛在好處,同時也對其隱患進行了警告。與會者認(rèn)為,隨著人工智能研究的發(fā)展,它對社會的影響將越來越大。鑒于人工智能所具備的巨大潛力,應(yīng)當(dāng)將如何在規(guī)避潛在威脅的同時從中獲益作為一個重要的課題來進行研究。對人工智能,我們的目標(biāo)是讓機器造福人類。期間,馬斯克向該機構(gòu)捐贈了1000萬美元以促進這一目標(biāo)的實現(xiàn)。

熱圖一覽

高清圖集賞析

  • 股票名稱 最新價 漲跌幅