新聞源 財富源

2025年01月09日 星期四

財經(jīng) > 滾動新聞 > 正文

字號:  

人工智能讓世界變得更美好

  • 發(fā)布時間:2016-03-22 09:29:16  來源:中華工商時報  作者:佚名  責(zé)任編輯:羅伯特

  “人工智能的徹底發(fā)展可能將招致人類的終結(jié)。”物理學(xué)家斯蒂芬·霍金曾警告說。

  Sun Microsystems公司的共同創(chuàng)始人比爾·喬伊也曾擔(dān)心,我們有可能研制出微型智能機(jī)器人,有朝一日它們能擺脫我們的控制,遍布地球并根據(jù)自己的計劃一點(diǎn)點(diǎn)重建這個世界。

  到目前為止,類似的言論和擔(dān)憂一直沒有間斷過。在最近一場人機(jī)棋類對決上,人類確實已經(jīng)感受到了某種挫敗感,并再次喚起了人們對于機(jī)器是否有一天會成為人類的可怕“異己”力量的熱烈討論。很多人如特斯拉CEO埃隆·馬斯克所擔(dān)憂的,人工智能的發(fā)展可能將成為全人類面臨的最大生存威脅。

  3月12日下午,全球媒體都在報道這則消息:在一場5局的人機(jī)對決戰(zhàn)中,谷歌人工智能AlphaGo與韓國國際頂尖棋手李世石進(jìn)行了第三場較量,最終AlphaGo戰(zhàn)勝李世石,連續(xù)取得3場勝利。

  這并非人類歷史上第一次人機(jī)大戰(zhàn)了。還記得IBM公司那臺超級國際象棋電腦“深藍(lán)”吧?它就是為挑戰(zhàn)人類智慧而生的。

  人類與“深藍(lán)”的對決開始于1963年。當(dāng)時,國際象棋大師大衛(wèi)·布龍斯坦懷疑計算機(jī)的能力,決定與計算機(jī)一決高下。下棋的時候他非常自信地讓了一個子,結(jié)果當(dāng)對局進(jìn)行到一半時,計算機(jī)就把布龍斯坦的一半兵力都吃掉了。

  1997年5月11日,人機(jī)大戰(zhàn)又迎來歷史性的一天。等級分排名世界第一的棋手加里·卡斯帕羅夫以1勝2負(fù)3平輸給IBM最新版本的計算機(jī)程序“深藍(lán)”。

  計算機(jī)技術(shù)的不斷進(jìn)步以及人機(jī)對決中機(jī)器的不斷勝利開始讓更多人憧憬一個人工智能時代的到來。

  針對這次最新的人機(jī)對戰(zhàn),英國《金融時報》網(wǎng)站3月9日的一篇社論稱,“阿爾法圍棋”是一個令人生畏的人工智能機(jī)器。它的研發(fā)只是計算機(jī)科學(xué)的“牛刀”在娛樂消遣領(lǐng)域的小試。然而,它的勝利提醒我們,世界正在迅速克服人工智能發(fā)展途中的各種障礙。

  不過,人類在與機(jī)器對戰(zhàn)中的一次次落敗,也令很多人開始擔(dān)心,智能機(jī)器總有一天會在智力上超越人類,成為凱文·凱利筆下的“有心智的機(jī)器”。

  斯蒂芬·霍金去年還告誡說,除非我們謹(jǐn)慎從事,否則棋盤游戲或許只是開始:人工智能最終可能“變得比我們所有人都更聰明”。

  有些人更加擔(dān)心,智能機(jī)器會如《黑客帝國》或者《終結(jié)者》中那些具備自我心智、不可控制的機(jī)器一樣作惡并成為我們的敵人。

  人們又翻出了美國未來學(xué)家?guī)炱濏f爾的“奇點(diǎn)”理論?!捌纥c(diǎn)”理論認(rèn)為,技術(shù)的加速發(fā)展會導(dǎo)致一個“失控效應(yīng)”,人工智能將超越人類智能的潛力和控制,迅速改變?nèi)祟愇拿鳌?/p>

  上百年來,科幻小說和科幻電影不斷加深著人類的這種恐懼。越來越多的人相信機(jī)器統(tǒng)治世界的那一天遲早要到來。他們更加具有心智,他們像《星際迷航》里的機(jī)器人一樣能理解自然語言并且能回答問題,他們更精于計算,更加崇拜極權(quán),更加喜歡殺戮和奴役,他們更具野心。

  隨著人工智能技術(shù)的不斷發(fā)展,上述擔(dān)憂也越發(fā)強(qiáng)化。在某些人的腦海中,機(jī)器怪物似乎正大踏步向人類走來。

  這或許真的是杞人憂天之舉。杰夫·霍金斯在他那本《人工智能的未來》書中稱,我們當(dāng)然有能力造出智能機(jī)器,但它可不是你想象的那個樣子。霍金斯認(rèn)為,未來技術(shù)無論多么強(qiáng)大,人工智能的產(chǎn)物都遠(yuǎn)遠(yuǎn)不會有人一樣的心智,也永遠(yuǎn)不會有人類大腦那樣的復(fù)雜結(jié)構(gòu)與功能。

  憂心忡忡者們或許對此并不以為然,他們的理由是新技術(shù)的最終發(fā)展常常是無法預(yù)料的,就像100年前還無法理解人類可以登上月球一樣。

  按照這種思路,我們其實更不必?fù)?dān)心和恐懼,因為人工智能技術(shù)如果真有一天可以發(fā)展到科幻電影中那樣的高度,那么隨之而來的反制技術(shù)或者控制技術(shù)也一定更為強(qiáng)大。

  幾年前誕生的新媒體平臺Medium上的一篇相關(guān)文章分析得更為清晰。該文稱,關(guān)于人工智能,最為盛行的反烏托邦式的觀點(diǎn)并不正確,原因在于這種觀點(diǎn)是在將“智能”等同于“自主”。它所假設(shè)的是,一臺電腦能夠建立自己的目標(biāo)、有自己的意愿、依靠自己更快速的處理能力以及強(qiáng)大的數(shù)據(jù)庫來打敗人類。也就是說,這種觀點(diǎn)假設(shè)了人工智能擁有完全自由的智能,但“智能”和“自主”是兩件完全不同的事。

  該文作者進(jìn)一步認(rèn)為,“智能”與“自主”兩個概念的混淆源于我們對于自己在世界上變得“越來越無關(guān)緊要”的恐懼??戳爽旣悺ぱ┤R的《弗蘭肯斯坦》,我們害怕“機(jī)械怪物”,讀了艾薩克·阿西莫夫的機(jī)器人小說,我們可能會對機(jī)械怪物接近我們這件事變得更加畏懼,這也是所謂的“科學(xué)怪人情結(jié)”(Frankenstein Complex)。

  該文作者對于霍金的話也不以為然,他說,接下來1/4個世紀(jì),出現(xiàn)“全人工智能”的可能性還不如小行星撞地球讓人類滅絕的幾率高。

  科幻作家們筆下機(jī)器怪物推動著人們對非人類智慧的想象和擔(dān)憂,但同時也令我們更多思考自己作為人類本身的特質(zhì)以及技術(shù)可能造成的“變異性”破壞。

  事實可能正是如此。更多的時候,與其恐懼機(jī)器人還不如恐懼我們自己。

  當(dāng)谷歌人工智能AlphaGo與韓國棋手李世石進(jìn)行較量時,全世界的一些角落和地區(qū)正發(fā)生著一些更關(guān)系到人類未來命運(yùn)的事情。這些事情涉及到核武器等大規(guī)模殺傷性武器擴(kuò)散風(fēng)險,涉及到種族矛盾和地區(qū)沖突的加劇,涉及到因各種分歧和利益引起的外交爭端,涉及到貧窮和饑餓、恐怖和暴力……

  站在這些層面上看,我們應(yīng)該警惕的仍然應(yīng)該是我們自己。如果我們不墮落為自己的“異己”,人工智能也不可能輕易“異化”為“弗蘭肯斯坦”。

  其實,我更相信目前正在進(jìn)行著各種稀奇古怪且神秘的超級研究項目的谷歌所宣稱的那樣,研究人工智能,用人工智能把世界變成一個更美好的地方。

人工智能 詳細(xì)

漲幅榜 更多

排名 股票名稱 最新價 漲跌幅
1 藍(lán)英裝備 10.95 10.05%
2 振芯科技 19.11 10.02%
3 紫光股份 80.14 10.01%
4 賽為智能 18.52 9.98%
5 東杰智能 19.97 6.51%

跌幅榜 更多

排名 股票名稱 最新價 漲跌幅
1 華昌達(dá) 10.89 -6.76%
2 韻達(dá)股份 47.84 -4.32%
3 雅化集團(tuán) 12.83 -4.25%
4 神思電子 21.68 -3.30%
5 浪潮信息 23.85 -3.17%

熱圖一覽

  • 股票名稱 最新價 漲跌幅