新聞源 財(cái)富源

2025年01月09日 星期四

財(cái)經(jīng) > 滾動(dòng)新聞 > 正文

字號(hào):  

人工智能:下一個(gè)“大熱門”

  被簡稱為AI的人工智能(Artificial Intelligence),一直是科幻電影和小說中的??汀,F(xiàn)在,隨著模式識(shí)別、大數(shù)據(jù)、云計(jì)算等技術(shù)的發(fā)展,這種幻想中的未來角色,正在逐步走入人們的現(xiàn)實(shí)生活。我們已經(jīng)在使用較低水平的人工智能技術(shù)來診斷疾病、提供教育,并開發(fā)新的技術(shù)——比如智能交通。

  《哈佛商業(yè)評(píng)論》就報(bào)道說,2015年全球數(shù)字媒體與新興科技將會(huì)再次改變和影響人們的生活,其中居首位的是人工智能技術(shù)。在2015年,智能手機(jī)內(nèi)的虛擬個(gè)人助理技術(shù)也將日益成熟。

  人工智能甚至被視為科技行業(yè)最新的下一個(gè)“大熱門”。在硅谷,已有超過1700家創(chuàng)業(yè)公司加入人工智能浪潮。

  一般而言,有熱潮,就會(huì)有潑冷水的。英國理論物理學(xué)家霍金近日就給AI潑了一瓢冷水,他預(yù)言人工智能科技如果不加控制地發(fā)展,將超越人類智能,并控制或滅絕人類。

  無獨(dú)有偶,牛津大學(xué)哲學(xué)教授博斯特羅姆近日也發(fā)表言論,說超級(jí)人工智能是人類未來最大的存在風(fēng)險(xiǎn),其風(fēng)險(xiǎn)性高于自然災(zāi)害、環(huán)境惡化和流行疾病。

  他們所警示的風(fēng)險(xiǎn)從理論上來說是存在的,但在未來相當(dāng)長時(shí)間內(nèi)不會(huì)成為現(xiàn)實(shí)。

  人工智能可以分成四個(gè)階段。第一個(gè)階段是功能,各種各樣的軟件是為了滿足我們的各種需求被開發(fā)出來,一個(gè)軟件就可以做一件事。我們的AI技術(shù),大多停留在這一階段。第二個(gè)階段是智能,要求機(jī)器模仿人類去看、去聽,甚至去修正、改進(jìn)。這是一些AI正在攀登并已初步達(dá)到的階段。第三個(gè)階段是智力。智力包括創(chuàng)造力,讓一件沒有經(jīng)歷過的事情發(fā)生并完成這樣的創(chuàng)造力,對(duì)機(jī)器來說是一個(gè)很大的鴻溝。智力還包括判斷力,人類能在信息不完全時(shí)作出判斷,機(jī)器卻很難做到。目前的AI技術(shù)還沒能達(dá)到這個(gè)階段。第四個(gè)階段是智慧。人類中的智者,能在前人經(jīng)驗(yàn)的基礎(chǔ)上升華出各種思想,對(duì)事物的本質(zhì)進(jìn)行總結(jié)、提煉。這一階段對(duì)機(jī)器來說,就更遙遠(yuǎn)了。

  所以,要真正做到人工智能,其實(shí)還有很長的路要走。

  如何讓機(jī)器人擁有像人一樣的智慧,這是類人腦工程的研究者們正在作的探索。這一探索雖然目前看來距離成功還很遙遠(yuǎn),但如果成功了呢?那會(huì)不會(huì)就是人類的滅亡之日?

  早有人設(shè)想過如何避免這種情況??苹眯≌f家阿西莫夫早在數(shù)十年前就提出過“機(jī)器人三定律”:一,機(jī)器人不得傷害人類,或坐視人類受到傷害;二,除非違背第一法則,機(jī)器人必須服從人類的命令;三,在不違背第一和第二法則的情況下,機(jī)器人必須保護(hù)自己。這個(gè)著名的三定律早就被讀者們找出過它的漏洞,但它的意義并不在此,而在于提醒人們,AI技術(shù)的發(fā)展也必須有它的倫理準(zhǔn)則。

  如今,人工智能對(duì)社會(huì)的影響正逐漸增大。未來隨著AI技術(shù)的發(fā)展,根除疾病和貧困將不再是遙不可及的夢(mèng)想。有人說,人工智能可能“比核武器更加危險(xiǎn)”。但核武器被開發(fā)近70年來,世界非但沒有毀滅,反而進(jìn)入一個(gè)微妙的較和平時(shí)期。核能的和平利用,也在為人類的現(xiàn)代生活作出貢獻(xiàn)。

  AI,是有愛還是有害?將最終取決于人類自己的選擇。

熱圖一覽

高清圖集賞析

  • 股票名稱 最新價(jià) 漲跌幅