新聞源 財富源

2025年01月23日 星期四

財經(jīng) > 滾動新聞 > 正文

字號:  

人工智能:讓機器擁有學(xué)習(xí)能力

  • 發(fā)布時間:2015-07-07 01:31:17  來源:科技日報  作者:佚名  責(zé)任編輯:羅伯特

  ■新視野

  最近,國內(nèi)外掀起了一陣討論人工智能的熱潮,其背后主因是以谷歌和臉書為代表的高新技術(shù)企業(yè)廣泛應(yīng)用機器學(xué)習(xí)以及深度學(xué)習(xí)技術(shù)開始顯現(xiàn)出了良好的效果。特別是在語音識別和圖像識別兩個領(lǐng)域,這幾年的提升非??臁9雀柙?014年將語音識別的精準(zhǔn)度從2012年的84%提升到98%,而臉書的人臉識別精度在短短幾年里甚至超過人類肉眼的水平。

  與此同時,各大企業(yè)開始了一場搶奪人工智能人才的大戰(zhàn),比如谷歌設(shè)立了“谷歌大腦計劃”,并在2014初斥資5億美元收購了人工智能創(chuàng)業(yè)公司DeepMind。國內(nèi)的搜索巨頭百度也不甘示弱,高薪從谷歌挖來了斯坦福大學(xué)人工智能專家吳恩達(dá)負(fù)責(zé)“百度大腦計劃”。那么,人工智能到底是什么?其經(jīng)過了什么樣的發(fā)展歷程?未來的人工智能到底會是什么樣子?就此,科技日報記者采訪了日本KDDI研究所研究員、通訊與網(wǎng)絡(luò)專家吳劍明博士。

  人工智能是如何出現(xiàn)的?

  吳劍明博士稱,人工智能的概念早在大約60年前就出現(xiàn)了。在1956年美國達(dá)特茅斯大學(xué)召開的世界第一次人工智能會議上,由當(dāng)時就職于麻省理工學(xué)院的約翰·麥卡錫教授提議并推動后,人工智能概念就成為了一個熱門話題。不過在這60年里,人工智能的發(fā)展幾度起起伏伏,有過紅紅火火的日子,也有過被打入冷宮受盡白眼的歲月。

  那么到底什么是人工智能呢?為什么人工智能之路會如此的滄桑坎坷呢?吳劍明說,顧名思義,人工智能就是讓機器擁有學(xué)習(xí)能力,甚至能夠像人類一樣去思考工作。在人工智能的早期,有些科學(xué)家非常樂觀地認(rèn)為,隨著計算機的普及和CPU計算能力的提高,人工智能的實現(xiàn)指日可待。不少早年的科幻電影描述,到了2000年,機器人幾乎無所不能。但事實證明,人工智能的發(fā)展沒有預(yù)期的那么美好和順利,因為人類對人腦機制的理解還是有道邁不過去的坎兒。

  一般人看來,人工智能屬于計算機科學(xué)的范疇,但實際上人工智能覆蓋了計算機科學(xué)、數(shù)學(xué)、心理學(xué)、哲學(xué)和語言學(xué)等幾乎所有自然科學(xué)和社會科學(xué)學(xué)科,要想有所突破,僅僅靠精通計算機的專家學(xué)者和技術(shù)人員是遠(yuǎn)遠(yuǎn)不夠的。幸運的是,強攻不果,迂回之戰(zhàn)卻有了突破,近年來隨著機器學(xué)習(xí)以及深度學(xué)習(xí)技術(shù)的成熟,人類離人工智能的夢想實現(xiàn)還是實實在在地邁出了一大步。

  發(fā)展歷程:從經(jīng)典數(shù)理邏輯到專家系統(tǒng)

  人工智能從出現(xiàn)發(fā)展到現(xiàn)在,經(jīng)歷了一個比較曲折的過程。

  吳劍明指出,人工智能從1956年概念建立至今,最初的30年是邏輯學(xué)派占主導(dǎo)地位,主要是因為邏輯推理和啟發(fā)式搜索在智能模擬中避開了當(dāng)時知之甚少的大腦思維規(guī)律中深層次的復(fù)雜問題,利用了比較成熟有效的邏輯學(xué)方法。這在當(dāng)時計算機性能不高、普及率也很低的條件下顯得簡單靈活、見效快,是一個捷徑。通過計算機實現(xiàn)的人工智能很快在定理證明、問題求解、模式識別等關(guān)鍵領(lǐng)域取得了重大突破,嶄露頭角。于是早年的科學(xué)家們樂觀地認(rèn)為,人工智能與傳統(tǒng)計算機程序的本質(zhì)差別在于它能夠進(jìn)行邏輯推理,依靠邏輯推理定理的完善和計算機的高性能CPU以及大容量存儲設(shè)備的普及,可以在不久的將來完全解決智能模擬問題。

  吳劍明說,邏輯學(xué)派撇開大腦的微觀結(jié)構(gòu)和智能的進(jìn)化過程,單純利用程序或是邏輯學(xué)對問題求解的過程來模擬人類的思維過程,所以也被分類為弱人工智能。這種方法專注于建立被解問題的數(shù)學(xué)模型,即找到該問題輸入和輸出之間的數(shù)量關(guān)系,把它轉(zhuǎn)化為一個數(shù)學(xué)問題,然后找到用計算機實現(xiàn)該數(shù)學(xué)問題的解決算法。然而經(jīng)過對經(jīng)典數(shù)理邏輯理論解決智能模擬問題進(jìn)行深入研究后,科學(xué)家們才發(fā)現(xiàn)這條路是走不通的。主要原因在于,人工智能中的推理和搜索存在組合爆炸問題。也就是說,計算時間與問題的復(fù)雜度成幾何級數(shù)正比,絕大部分人類的思維過程僅僅靠計算機的高速計算能力是無法模擬和解決的。吳劍明舉了個通俗的例子來解釋組合爆炸的嚴(yán)重性:一張紙折疊 50 次的厚度是多少?很多人直覺會認(rèn)為就是黃頁電話號簿的厚度。錯了,答案是地球到太陽之間距離!這就是數(shù)學(xué)上幾何級數(shù)的恐怖之處。此外,人類思維中的絕大部分問題都無法轉(zhuǎn)化為一個數(shù)學(xué)問題,原因在于人類思維過程中充滿了不確定性、矛盾和演化。而科學(xué)家們長期的實驗也證明,人類在解決問題時并沒有使用數(shù)理邏輯運算,人類思考的過程是無法用經(jīng)典數(shù)理邏輯理論進(jìn)行描述的。

  吳劍明稱,事實證明,通過經(jīng)典數(shù)理邏輯的方法是實現(xiàn)不了真正的人工智能的,科學(xué)家需要找到其他辦法來解決所遇到的難題。

  他說,在此之后的10多年,也就是80年代開始,人工智能進(jìn)入了專家系統(tǒng)發(fā)展的黃金時代。科學(xué)家們發(fā)現(xiàn),人類之所以能快速高效地解決各種復(fù)雜問題,不僅是由于人有邏輯推理能力,更由于人具有知識,特別是有關(guān)領(lǐng)域的專門知識。這時期盡管也屬于前面提到的弱人工智能時代,但確定了基于知識的邏輯推理在智能模擬中的重要地位,人工智能開始從實驗室走向?qū)嶋H應(yīng)用。

  但在這個時期,專家系統(tǒng)的瓶頸問題也顯現(xiàn)了,那就是知識獲取的途徑一直沒有得到良好的解決,主要原因在于不像現(xiàn)在有互聯(lián)網(wǎng),有云計算,有無處不在的智能手機,那個時代專家知識庫的構(gòu)建常常是沒有完備性和可靠性保證的經(jīng)驗知識,專家學(xué)者和技術(shù)人員不得不依靠各種經(jīng)驗性的非精確推理模型。而且,人類思維面臨的實際問題中,只有很少一部分是可以確切定義的確定性問題,大部分是帶有不確定性的問題。所以當(dāng)知識工程深入到這些問題時,經(jīng)典數(shù)理邏輯的局限性不可避免地暴露出來了。盡管弱人工智能時代使人工智能理論有了長足的發(fā)展和進(jìn)步,但離實用還有比較大的距離,一直到2000年后機器學(xué)習(xí)和深度學(xué)習(xí)的出現(xiàn),科學(xué)家們才發(fā)現(xiàn)終于找對了方向。

  機器學(xué)習(xí):其實是“舊瓶裝新酒”

  吳劍明指出,如果2000年前是弱人工智能時代,那么2000年之后就可以稱為強人工智能時代。

  吳劍明說,與弱人工智能相比,強人工智能在最近的十多年里慢慢成為主流。強人工智能又稱仿生方法,這個方法認(rèn)為,人工智能應(yīng)該專注于模擬人腦的結(jié)構(gòu)機制,也就是說通過計算機模擬人的思維過程,應(yīng)該通過研究神經(jīng)元的互相合作機制,而不是邏輯學(xué)運算過程。這一學(xué)派重視對人腦模型的研究,谷歌就是強人工智能技術(shù)的推土機之一。

  吳劍明說,在傳統(tǒng)上,如果我們想讓計算機工作或是按照弱人工智能的方式運作,我們會給它編好一段段的指令,然后計算機就會遵照這個指令忠實地一步步執(zhí)行下去,或是按照事先制定好的知識邏輯公式推導(dǎo)下去。有前因才會有后果。但這樣的方式仍然只屬于機器的范疇而不是人工智能。強人工智能和弱人工智能的區(qū)別就在于,它們不是接受事先安排好的指令或是邏輯推論,而是從輸入的數(shù)據(jù)里自己發(fā)現(xiàn)事物的規(guī)律。

  吳劍明所說的推動強人工智能迅速發(fā)展的機器學(xué)習(xí)技術(shù)。

  他認(rèn)為,近年來大放異彩的機器學(xué)習(xí)其實是“舊瓶裝新酒”。早在1956年人工智能概念出現(xiàn)后不久,就有了對機器學(xué)習(xí)的研究,但之后遲遲沒有進(jìn)展。和前面提到的專家系統(tǒng)類似,原因在于那個時代知識或是數(shù)據(jù)獲得的途徑非常少,難度以及成本又非常大。

  機器學(xué)習(xí)的思想并不復(fù)雜,它模擬人類在生活中學(xué)習(xí)成長的過程,從數(shù)據(jù)中自動分析獲得規(guī)律,并利用規(guī)律對未知數(shù)據(jù)進(jìn)行預(yù)測。因為機器學(xué)習(xí)算法中涉及了大量的統(tǒng)計學(xué)理論,所以也被稱為統(tǒng)計學(xué)習(xí)理論。

  換句話說,機器學(xué)習(xí)的本質(zhì)就是將人的操作/思維過程的輸入與輸出記錄下來,然后統(tǒng)計(又叫做訓(xùn)練)出一個模型用來對新的數(shù)據(jù)進(jìn)行預(yù)測,使得這個模型對輸入輸出達(dá)到和同人類相似的表現(xiàn),這種方式也慢慢成了現(xiàn)代強人工智能最基本的核心理念。

  大家直觀地想象一下人和機器的區(qū)別在哪里?其實不在于弱人工智能強調(diào)的計算能力、存儲能力,或是推理能力,任何人和機器最大的區(qū)別在于,人類在成長、生活過程中積累了很多的歷史與經(jīng)驗,人類會定期對這些經(jīng)驗進(jìn)行“歸納”,獲得生活的“規(guī)律”。當(dāng)遇到未知問題時,人類會使用這些“規(guī)律”對未來進(jìn)行“推測”,從而指導(dǎo)自己的生活和工作,甚至于去創(chuàng)造新的東西出來。我們老祖宗說得好,“以史為鑒,可以知興替;以人為鑒,可以明得失”,這與機器學(xué)習(xí)的思想是極為接近的。機器學(xué)習(xí)中的“訓(xùn)練”與“預(yù)測”過程,也可以分別精確地一一對應(yīng)到人類的“歸納”和“推測”過程。

  吳劍明說,隨著現(xiàn)代互聯(lián)網(wǎng)和個人計算機的普及,以及智能手機的崛起,海量數(shù)據(jù)和知識的獲得變得非常容易和低成本了,這也直接促進(jìn)了機器學(xué)習(xí)的飛速發(fā)展和實用性的迅速提高。當(dāng)訓(xùn)練數(shù)據(jù)的樣本足夠大,學(xué)習(xí)算法方向?qū)︻^的話,就有望接近極限,達(dá)到甚至超過人類的能力。比如前幾年“谷歌大腦”通過從網(wǎng)絡(luò)上的上千萬張圖片學(xué)習(xí)建立各種各樣的貓的品種、顏色、姿勢和拍攝角度等特征量,然后對于任意一張圖片,它就可以從中把“貓”準(zhǔn)確地識別出來。

  深度學(xué)習(xí):技術(shù)進(jìn)步使之終有用武之地

  吳劍明指出,現(xiàn)在除了機器學(xué)習(xí),人工智能還出現(xiàn)了一個叫“深度學(xué)習(xí)”的概念。深度學(xué)習(xí)是機器學(xué)習(xí)研究中的一個新的領(lǐng)域,和機器學(xué)習(xí)相比,它讓人工智能又前進(jìn)了一步。深度學(xué)習(xí)在機器學(xué)習(xí)的基礎(chǔ)上進(jìn)一步深入模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機制來訓(xùn)練和預(yù)測數(shù)據(jù),例如圖像、聲音和文本。

  2012年6月,《紐約時報》披露了應(yīng)用深度學(xué)習(xí)的“谷歌大腦計劃”,吸引了公眾的廣泛關(guān)注。這個項目的主導(dǎo)之一就是斯坦福大學(xué)人工智能專家吳恩達(dá)。這一項目用16000個CPU Core的并行計算平臺,訓(xùn)練一種稱為“深度神經(jīng)網(wǎng)絡(luò)”(DNN)的機器學(xué)習(xí)模型(內(nèi)部共有10億個節(jié)點),在語音識別和圖像識別領(lǐng)域獲得了巨大的成功。

  吳劍明介紹,和大多數(shù)機器學(xué)習(xí)技術(shù)需要事先給訓(xùn)練數(shù)據(jù)提取特征做標(biāo)注不同,深度學(xué)習(xí)直接把海量數(shù)據(jù)投放到算法中,系統(tǒng)會自動從數(shù)據(jù)中學(xué)習(xí)。比如“谷歌大腦”識別貓的算法,在訓(xùn)練數(shù)據(jù)的時候不用告訴機器“這是一只貓”,深度學(xué)習(xí)系統(tǒng)自己找到了什么是“貓”這個分類。

  機器學(xué)習(xí)所需要的提取特征做標(biāo)注,其實需要人工的專業(yè)知識和經(jīng)驗,有的時候能不能選好甚至于需要一定的運氣。由于這部分人工操作對最終算法的準(zhǔn)確性起到非常關(guān)鍵的作用,不但非常消耗時間和精力,且如混入一些模棱兩可或是錯誤的數(shù)據(jù),那么很可能會前功盡棄,事倍功半。

  既然手工選取特征不太好,人類也不可避免的有主觀偏差,那么能不能自動地學(xué)習(xí)一些特征呢?吳劍明指出,深度學(xué)習(xí)就是用來干這個事情的,它的一個別名Unsupervised Feature Learning,顧名思義,Unsupervised的意思就是不要人參與特征的選取過程。

  吳劍明介紹說,這類研究最早起步的契機是,研究瞳孔與大腦皮層神經(jīng)元的對應(yīng)關(guān)系的科學(xué)家們發(fā)現(xiàn)了一些有趣的現(xiàn)象,人眼和大腦合作識別看到物體時,通過神經(jīng)元互相合作很可能有一個分層次識別過程。具體的講,從原始信號攝入開始(瞳孔攝入像素 Pixels),接著做初步處理(大腦皮層某些細(xì)胞發(fā)現(xiàn)像素色塊間邊緣的局部變化特征),然后下一步抽象(大腦皮層判定眼前的物體的形狀、顏色、質(zhì)地等),最后再進(jìn)一步抽象(從周圍的場景、物體和物體間的空間位置關(guān)系等等)確定識別的物體。

  深度學(xué)習(xí)正是運用了類似的分層次抽象思想,更高層次的概念從低層次的概念學(xué)習(xí)得到,而每一層都自底向上,對沒有人工標(biāo)注的數(shù)據(jù)進(jìn)行學(xué)習(xí),最后再用人工監(jiān)督自頂向下反向進(jìn)行調(diào)優(yōu)。這一點也為深度學(xué)習(xí)贏得了重要的優(yōu)勢。

  吳劍明表示,現(xiàn)在歐美、日本,包括我們中國的學(xué)術(shù)界都對深度學(xué)習(xí)非常關(guān)注,深度學(xué)習(xí)的威力目前在語音識別和圖像識別上得到了很好的驗證。不過在自然對話、自我進(jìn)化機器人等人工智能更高深的領(lǐng)域里,它的效果還有待進(jìn)一步考察。有意思的是,深度學(xué)習(xí)也是“舊瓶裝新酒”,它的思想其實來自于上世紀(jì)80年代成熟的人工神經(jīng)網(wǎng)絡(luò)技術(shù)(ANN)。人工神經(jīng)網(wǎng)絡(luò)同樣包含輸入層、輸出層以及中間的若干隱層,每層都有若干結(jié)點及連接這些點的邊,在訓(xùn)練數(shù)據(jù)集上會學(xué)習(xí)區(qū)分超平面,從而建立模型。但后來科學(xué)家們發(fā)現(xiàn),當(dāng)時科學(xué)家們發(fā)現(xiàn)的人工神經(jīng)網(wǎng)絡(luò)實用性很差,究其原因,是由于巨大的計算量使得人工神經(jīng)網(wǎng)絡(luò)只能包含少許隱層,從而限制了性能?;ㄙM了大量人力物力之后,科學(xué)家們發(fā)現(xiàn),只有少數(shù)幾個特殊場景可以成功應(yīng)用。所以到上世紀(jì)90年代開始,人工神經(jīng)網(wǎng)絡(luò)失去了關(guān)注和經(jīng)費,成為了食之無味、棄之可惜的雞肋行業(yè)。

  但為什么一個上世紀(jì)90年代被放棄的技術(shù)又重新回到了萬眾矚目的地位呢?因為80年代雖然理論基礎(chǔ)完備,但真正到達(dá)實用所需要的數(shù)據(jù)和計算能力都不具備。近年來,隨著互聯(lián)網(wǎng)的發(fā)展,計算機硬件的價格下降,以及谷歌這樣“怪物級”高科技公司的存在,以前高不可及的困難也終于有了解決的可能性。另外,功夫不負(fù)有心人,深度學(xué)習(xí)領(lǐng)域最重要的科學(xué)家、多倫多大學(xué)的辛頓教授帶領(lǐng)的團(tuán)隊一直沒有放棄對人工神經(jīng)網(wǎng)絡(luò)技術(shù)的研究,2006年他在《科學(xué)》上發(fā)表了一篇文章,解決了神經(jīng)網(wǎng)絡(luò)在計算上的難題,同時也說明了深層神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)上的優(yōu)異性。辛頓教授提出的新理論大幅度降低了多層神經(jīng)網(wǎng)絡(luò)訓(xùn)練上的計算量,減少了訓(xùn)練偏差,和傳統(tǒng)機器學(xué)習(xí)相比,優(yōu)勢明顯。從此,神經(jīng)網(wǎng)絡(luò)重新成為了機器學(xué)習(xí)界中的主流學(xué)習(xí)技術(shù)。神經(jīng)網(wǎng)絡(luò)改頭換面,為深度學(xué)習(xí)開啟了學(xué)術(shù)界和工業(yè)界的新浪潮。

  吳劍明指出,深度學(xué)習(xí)的實質(zhì),是通過構(gòu)建具有很多隱層的機器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測的準(zhǔn)確性。區(qū)別于傳統(tǒng)的機器學(xué)習(xí),深度學(xué)習(xí)的不同在于:首先,強調(diào)了模型結(jié)構(gòu)的深度,通常有5層、6層甚至10多層的隱層節(jié)點;其次,明確突出了無監(jiān)督特征學(xué)習(xí)的重要性,也就是說,通過逐層特征變換,將樣本在原空間的特征表示變換到一個新特征空間,從而使分類或預(yù)測更加容易。與機器學(xué)習(xí)所需要的依靠人工建立特征的方法相比,利用大數(shù)據(jù)來自動提取學(xué)習(xí)特征,是我們朝著真正的人工智能邁進(jìn)的又一步。

  在另一方面,和傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)的迭代訓(xùn)練需要過于復(fù)雜的計算量不同,深度學(xué)習(xí)并不同時訓(xùn)練所有層,辛頓教授提出了更為有效的降低訓(xùn)練上的計算量和減少訓(xùn)練偏差的方法。簡單的說,就是自底向上每次只訓(xùn)練一層網(wǎng)絡(luò),通過非監(jiān)督學(xué)習(xí)“逐層初始化”(layer-wise pre-training)網(wǎng)絡(luò),當(dāng)所有層訓(xùn)練完之后,再自頂向下反向調(diào)教(back propagation)優(yōu)化。打個比方,人類的大腦發(fā)育初期,大腦每一部分的職責(zé)分工并不是明確的,我們對外界事物的理解由淺到深也是出自于本能或是實踐,而去了學(xué)校學(xué)習(xí)后則可以通過后期教育來糾正自己錯誤的認(rèn)識,進(jìn)而對事物有更為體系和深入的理解。

  即使這樣,深度學(xué)習(xí)也是需要很大的計算量的,好在近年來,得益于計算機速度的提升、大規(guī)模集群技術(shù)的興起、GPU的應(yīng)用以及眾多優(yōu)化算法的出現(xiàn),耗時數(shù)月的訓(xùn)練過程可縮短為數(shù)天甚至數(shù)小時,深度學(xué)習(xí)終于在實踐中有了用武之地。

  未來發(fā)展:通過仿生學(xué)思路實現(xiàn)突破

  吳劍明指出,目前世界各科技發(fā)達(dá)國家人工智能的發(fā)展路線不盡相同。和其他科技領(lǐng)域有些相像,在人工智能行業(yè),一直是歐美在帶頭創(chuàng)造新理論,而日本則是在改良和應(yīng)用上下工夫。相對來說,日本在硬件方面,比如機器人的精密機器制造、機器人仿人運動方面有優(yōu)勢,但在關(guān)鍵的人工智能理論方面,新創(chuàng)或是原創(chuàng)的理論很少,所以不管在學(xué)術(shù)界還是在產(chǎn)業(yè)界,目前看來還不如歐美,特別是美國那么活躍。此外,可能和日本經(jīng)濟(jì)的長期不景氣有關(guān),近年來一些日本大公司對研發(fā)投入的決心和長期眼光還不夠。比如在語音識別領(lǐng)域,由于谷歌走在了前面,一些日本大公司干脆就放棄了自家的語音識別技術(shù)轉(zhuǎn)而使用谷歌的技術(shù)。但這樣一來,人工智能的關(guān)鍵入口和背后的大數(shù)據(jù)就被谷歌給奪走了,這也導(dǎo)致在人工智能領(lǐng)域很難再翻身超越。

  至于哪個路線的未來性更大,吳劍明表示,盡管機器學(xué)習(xí)和深度學(xué)習(xí)在語音、圖像、文本識別上有了長足的進(jìn)步,也讓計算機變得聰明智能了很多,但和人類所具有的智能相比,仍然有本質(zhì)區(qū)別。比如計算機能精確識別人臉、物體,但是卻無法識別如張三闖紅燈、李四喝醉了這樣更為抽象的場景。

  人類具有豐富的聯(lián)想能力、理解能力、創(chuàng)造能力,要實現(xiàn)這些能力而又不通過建立人腦類似的機制,就會繞很大的彎路,幾乎是不可能的。要真正實現(xiàn)強人工智能,必須借鑒人腦先進(jìn)結(jié)構(gòu)和學(xué)習(xí)思維的機制,再通過深度學(xué)習(xí)這樣的方法進(jìn)行規(guī)模、結(jié)構(gòu)和機理上的模擬,通過仿生學(xué)思路實現(xiàn)人工智能的突破。

  當(dāng)然,人類是從低等生物經(jīng)歷幾十億年、在地球生態(tài)圈這么龐大的空間中進(jìn)化而來,要獲得人類這樣充足的進(jìn)化時空環(huán)境幾乎是不可能的。在沒有完全弄清大腦原理之前,通過模仿部分人腦原理來逐步漸進(jìn),可能是比較現(xiàn)實的辦法。比如谷歌在收購DeepMind之后明確表示,不會首先將其應(yīng)用在機器人部門,而是先從基礎(chǔ)的語義識別開始。而百度也是將深度學(xué)習(xí)技術(shù)應(yīng)用在具體的用戶服務(wù)方面,比如說提高中文語音識別率、完善圖像識別能力。所謂循序漸進(jìn),按部就班,就像人類一樣有五感才會有思考,把人工神經(jīng)網(wǎng)絡(luò)低層的學(xué)習(xí)水平給完善了,才會有更抽象的高層的學(xué)習(xí)水平的突破。從這點來看,應(yīng)該對深度學(xué)習(xí)未來進(jìn)一步的理論發(fā)展充滿希望。

  吳劍明表示,深度學(xué)習(xí)運用在各個單獨領(lǐng)域比如聲音識別、圖像識別時已經(jīng)得到了很好的效果,當(dāng)計算機不需要被事先告知明確數(shù)據(jù)含義,下一步能夠融合吸收和理解各個部分的數(shù)據(jù),起到1+1>2的作用時,人工智能也許將會被真正兌現(xiàn)。

熱圖一覽

  • 股票名稱 最新價 漲跌幅