中文字幕在线观看,亚洲а∨天堂久久精品9966,亚洲成a人片在线观看你懂的,亚洲av成人片无码网站,亚洲国产精品无码久久久五月天

到底什么成就了今天的人工智能?(上)

2019-01-10    來源:raincent

容器云強(qiáng)勢上線!快速搭建集群,上萬Linux鏡像隨意使用

維基百科對智能有如下定義:

智能是一種能夠感知或推斷信息,并將其作為知識留存下來,自適應(yīng)地用于某種環(huán)境或上下文的能力。

人工智能(Artificial Intelligence)

雖然我們很難對人工智能做一個確切的解釋,但可以從查爾斯巴貝奇的分析機(jī)講起。它雖然沒有任何特殊的“自適應(yīng)”能力,但卻非常靈活。遺憾的是,理論上雖然完美,但卻沒有得以實現(xiàn)。

 

 

巴貝奇分析機(jī)早圖靈機(jī)50年左右出現(xiàn)。從理論上講,它能夠?qū)⑷魏慰捎嬎愕暮瘮?shù)作為輸入,并在完全機(jī)械的情況下產(chǎn)生輸出。

復(fù)雜性理論(complexity theory)由此得以發(fā)展,同時人們也意識到構(gòu)建通用計算機(jī)其實相對簡單。此外,算法的實現(xiàn)也越發(fā)多樣。盡管還存在一些技術(shù)上的挑戰(zhàn),但在過去的70年中,相同價格可購買到的計算量大約每兩年翻一番。

也就是說,構(gòu)建計算力強(qiáng)大的人工智能系統(tǒng)越發(fā)容易。然而,這受到了所提供或輸入的數(shù)據(jù),以及處理時間的限制?梢宰鋈缦滤伎迹喝绻颗_計算機(jī)的能力都受到數(shù)據(jù)和時間的限制,我們還能稱之為智能計算機(jī)么?

下面我們簡單回顧一下人工智能的發(fā)展史。人類的智能主要包括歸納總結(jié)和邏輯演繹,對應(yīng)著人工智能中的聯(lián)結(jié)主義(如人工神經(jīng)網(wǎng)絡(luò))和符號主義(如吳文俊方法)。符號主義認(rèn)為智能是基于邏輯規(guī)則的符號操作;聯(lián)結(jié)主義認(rèn)為智能是由神經(jīng)元構(gòu)成的信息處理系統(tǒng)。其發(fā)展軌跡如下圖所示:

 

 

聯(lián)結(jié)主義,即“橙色陣營”在一開始處于領(lǐng)先地位,得益于其與神經(jīng)科學(xué)和人類大腦之間的關(guān)系。人類大腦被視為“強(qiáng)AI(Strong Artificial Intelligence)”和“通用人工智能(Artificial General Intelligence,AGI)”唯一的成功應(yīng)用。然而,第一代神經(jīng)網(wǎng)絡(luò)在處理實際問題時屢屢受挫。因為神經(jīng)網(wǎng)絡(luò)多數(shù)是線性的,并且能力十分有限,深受外界質(zhì)疑。與此同時,符號主義,即“藍(lán)色陣營”利用嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)理論創(chuàng)造出了更多有用的東西。

隨著手工知識的積累,輸入或輸出數(shù)據(jù)量急速增長,系統(tǒng)的性能無法適應(yīng)需求,聯(lián)結(jié)主義逐漸衰敗。就好比法律,專家制定出再完備的規(guī)則都有可能相互沖突,此時便需要越來越多的“法官”來解決這些問題。這減緩了聯(lián)結(jié)主義的發(fā)展。

后來,“橙色陣營”獲取了足夠的標(biāo)簽數(shù)據(jù)和計算資源,能夠在可接受的時間內(nèi)對網(wǎng)絡(luò)進(jìn)行“訓(xùn)練”,世界各地的研究學(xué)者開始進(jìn)行大量試驗。盡管如此,聯(lián)結(jié)主義仍花費了大量的時間使大眾重新信任神經(jīng)網(wǎng)絡(luò),開發(fā)人員也花了較長才適應(yīng)了模糊邏輯和統(tǒng)計的概念。

在對人工神經(jīng)網(wǎng)絡(luò)進(jìn)行詳細(xì)討論前,本文將先介紹一些其它方法:決策樹、概率模型、進(jìn)化算法。

 

 

決策樹(Decision Tree)是最簡單有效的算法之一。其“學(xué)習(xí)”是通過順序地遍歷數(shù)據(jù)的每個屬性并找到對特定輸出具有最大預(yù)測能力的屬性來執(zhí)行的。像隨機(jī)森林這樣的高級變體使用了更復(fù)雜的學(xué)習(xí)技術(shù),并在同一個模型中組合多個樹,它們的輸出是通過“投票”得到的,這與人類的“直覺”類似。

概率模型(Probabilistic models)是統(tǒng)計方法的代表。概率模型與神經(jīng)網(wǎng)絡(luò)常共享架構(gòu)、學(xué)習(xí)/優(yōu)化過程甚至符號。但是概率模型大多受概率邏輯(通常是貝葉斯)的約束,而神經(jīng)網(wǎng)絡(luò)則無此約束。

進(jìn)化算法(Evolutionary computation)最初是受到生物進(jìn)化的啟發(fā),且以隨機(jī)突變和適應(yīng)度為主。由于修改通常是隨機(jī)的,其限制噪聲的效果突出。進(jìn)化算法是一種引導(dǎo)式搜索,許多方面與退火過程類似。

 

 

上述方法有一個共同點:它們從較差的策略開始,逐漸對其改善,以期在某種性能評估方法中取得更好的分?jǐn)?shù)。

如今,機(jī)器學(xué)習(xí)技術(shù),尤其是深度學(xué)習(xí)正在主導(dǎo)人工智能的發(fā)展。與大多數(shù)使用1到2個中間抽象層(所謂的淺模型)機(jī)器學(xué)習(xí)方法不同,深度學(xué)習(xí)可能包含數(shù)百甚至數(shù)千個堆疊的可訓(xùn)練層。

 

 

研究學(xué)者認(rèn)為對這樣的深度網(wǎng)絡(luò)進(jìn)行訓(xùn)練,需要全新的優(yōu)化程序。事實證明,使用梯度下降的逆向傳播(即鏈?zhǔn)椒▌t)即可很好的進(jìn)行訓(xùn)練,也可使用Adam或RMSProp。

神經(jīng)網(wǎng)絡(luò)訓(xùn)練流程如下:

1、 獲取輸入

2、 計算輸出

3、 評估性能

4、 調(diào)節(jié)參數(shù)

5、 重復(fù)訓(xùn)練,至性能最優(yōu)

梯度下降法只需調(diào)整參數(shù)使誤差最小。但該方法容易使網(wǎng)絡(luò)陷入局部最優(yōu),而沒有獲得最優(yōu)性能。然而,最新研究表明許多神經(jīng)網(wǎng)絡(luò)已經(jīng)能夠獲取全局最優(yōu)解。

 

 

深度學(xué)習(xí)實現(xiàn)了訓(xùn)練的并行化,即分布式學(xué)習(xí)。能在同一時間跨多臺機(jī)器訓(xùn)練相同的體系結(jié)構(gòu),同時實現(xiàn)梯度交換,加速超過1000倍。

此外,經(jīng)過訓(xùn)練的網(wǎng)絡(luò)可以處理相似的任務(wù),即遷移學(xué)習(xí),這也是人工神經(jīng)網(wǎng)絡(luò)廣泛流行的重要原因。例如,經(jīng)過圖像分類訓(xùn)練的網(wǎng)絡(luò)可以用于其他計算機(jī)視覺任務(wù),自然語言處理和其他領(lǐng)域。更重要的是,同一個網(wǎng)絡(luò)還可以用來解決不同模式的問題。

強(qiáng)化學(xué)習(xí)(Reinforcement Learning,RL)則將它們結(jié)合在了一起。RL的最初想法來自行為心理學(xué),科研人員探究了在行為心理學(xué)中獎勵如何影響學(xué)習(xí)和塑造動物的行為。

RL并不需要出現(xiàn)正確的輸入/輸出對,也不需要精確校正次優(yōu)化的行為。舉個例子,我們并不需要教會機(jī)器人如何精確移動,只需根據(jù)它走多遠(yuǎn)或多快對其進(jìn)行獎勵,它會自己找出正確的路線。然而,這種訓(xùn)練模式在實踐中也是最具挑戰(zhàn)性的,即使是相對簡單的任務(wù),通常也需要付出大量的努力才能正確設(shè)置。

 

 

在實際問題中,通常很難在環(huán)境中指定獎勵,研究人員目前更多地關(guān)注內(nèi)部獎勵模型。

與RL并行的是逆向強(qiáng)化學(xué)習(xí)(Inverse Reinforcement Learning):當(dāng)完成復(fù)雜的任務(wù)時,強(qiáng)化學(xué)習(xí)的回報函數(shù)很難指定,我們希望有一種方法能夠找到高效且可靠的回報函數(shù),這種方法就是逆向強(qiáng)化學(xué)習(xí)。

通用人工智能中一些框架來自于嚴(yán)格的數(shù)學(xué)理論,一些受神經(jīng)元回路的啟發(fā),還有一些基于心理模型。本文將以HTM、AIXI、ACT-R和SOAR為例進(jìn)行介紹。

層級實時記憶算法 (Hierarchical Temporal Memory,HTM),HTM算法旨在模擬新大腦皮層的工作原理,將復(fù)雜的問題轉(zhuǎn)化為模式匹配與預(yù)測。它強(qiáng)調(diào)對“神經(jīng)元”進(jìn)行分層級,以及信息模式的空間特性與時間特性。

稀疏分布表示(Sparse Distributed Representation, SDR)是HTM算法中的一個重要概念。實際上,它只是擁有幾千個元素的位數(shù)組。就像大腦中的信息總是通過億萬神經(jīng)細(xì)胞中的小部分活躍細(xì)胞來表示一樣,HTM使用稀疏分布表示語義相關(guān)的輸入。

 

 

HTM算法中的抑制(Inhibition)類似于批規(guī)范化和其他一些正則化技術(shù),提升(Boosting)在機(jī)器學(xué)習(xí)中已經(jīng)是一個相對較老的概念,層次結(jié)構(gòu)(Hierarchical Structure)并沒有真正的大腦皮層的結(jié)構(gòu)靈活。HTM對物體間關(guān)系的重視程度低,甚至連稀疏分布表示也可以用普通神經(jīng)網(wǎng)絡(luò)構(gòu)建?傮w來說,HTM需要進(jìn)行大量調(diào)整才能獲取與其它機(jī)器學(xué)習(xí)算法相當(dāng)?shù)男阅堋?/p>

接下來介紹AIXI,它是一個對通用人工智能的理論上的數(shù)學(xué)形式化表示。然而,它有一個顯著的缺點——無法計算。事實上,許多機(jī)器學(xué)習(xí)算法均不能精確計算,只能做近似處理。AIXI表示如下:

 

 

AIXI的核心是一個強(qiáng)化學(xué)習(xí)智能體,在諸多方面與Schmidhuber開發(fā)的Godel Machine類似。然而,它們都是AGI的描述性模型,復(fù)雜程度高,無法執(zhí)行,但不可否認(rèn),它們都是人工智能研究人員的靈感源泉。

相反,ACT-R,即理性思維的自適應(yīng)控制系統(tǒng) (AdaptiveControl of Thought—Rational),它不僅是一種理論,而且是一種用LISP編寫的軟件框架。

ACT-R主要關(guān)注不同類型的內(nèi)存,較少關(guān)注其中數(shù)據(jù)的轉(zhuǎn)換。該理論試圖理解人類如何獲得和組織知識以及如何產(chǎn)生智力活動,其研究進(jìn)展基于神經(jīng)生物學(xué)研究成果并從中得以驗證,且已成功地為許多不同認(rèn)知現(xiàn)象建立起合理的模型。然而,它在實際應(yīng)用中并未取得成功,最終只作為研究人員的工具。SOAR與ACT-R有著相似的根源和基本假設(shè),但它更關(guān)注于實現(xiàn)AGI,而不是建立人類認(rèn)知的模型。

ACT-R和SOAR是人工智能符號主義的經(jīng)典代表,在認(rèn)知科學(xué)的發(fā)展中起到了重要作用,但是應(yīng)用它們相比現(xiàn)代聯(lián)結(jié)主義需要更多的配置和先驗知識。此外,神經(jīng)影像和其他用于心智研究的工具越發(fā)詳細(xì)和準(zhǔn)確,而且ACT-R和SOAR在某一定程度上過于僵化,無法保持相關(guān)性。

 

 

作者信息

Egor Dezhic

文章原標(biāo)題《What is Intelligence?》,譯者:Elaine

標(biāo)簽: isp 搜索 網(wǎng)絡(luò)

版權(quán)申明:本站文章部分自網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系:west999com@outlook.com
特別注意:本站所有轉(zhuǎn)載文章言論不代表本站觀點!
本站所提供的圖片等素材,版權(quán)歸原作者所有,如需使用,請與原作者聯(lián)系。

上一篇:揭秘人工智能:人工智能帶來的網(wǎng)絡(luò)安全威脅

下一篇:AI/機(jī)器學(xué)習(xí)2018年度進(jìn)展綜述