到目前為止(2015),人工智慧領域有哪些面向強智能(完整的,通用的智能)的模型?

不是特別嚴謹的也算,比如《On Intelligence》里提出的記憶-預測模型。


哈哈,這個問題我來答。
目前強AI在學術界一般指通用人工智慧(artificial general intelligence/universal artificial intelligence)。即通過一個通用的數學模型,能夠最大限度概括智能的本質。那麼,什麼是智能的本質?目前比較主流的看法,是系統能夠具有通用效用最大化能力:即系統擁有通用歸納能力,能夠逼近任意可逼近的模式,並能利用所識別到的模式取得一個效用函數的最大化效益。這個模型現在已經有了,叫做AIXI,由澳大利亞國立大學的marcus hutter所提出:

只用這一個公式,就概括出了智能的本質!用這個一個模型,就可以概括深度學習、SVM、傳統邏輯、強化學習等各種理論!
那麼,目前是否根據這個公式就可以直接做出通用人工智慧了呢?很遺憾,可以證明,這個模型的計算複雜度是δ(4)。也就是不僅這個模型是不可計算的,而且它的不可計算等級為4(一般的停機問題為δ(1))!也即是說只能採用可計算的模型來逼近AIXI,目前熱門的deepmind,就是這個方法的先行者(deepmind的創始人是marcus hutter的博士)。

此外,還有一些通用智能模型,包括AIXI的變種G??del machine,但是總體思想上來說,並沒有超越AIXI的框架範疇(民科的就算了)。

通用人工智慧這一塊非常冷門,也就那麼幾個人在搞,在知乎上就看到一個人有真正了解過這塊。終於有人問這個問題了,很好!

-----------------------------------------------------------------------
有人問這個模型的解釋,簡單說下吧:

首先,AIXI假設這個世界是可計算逼近的,也就是對任意pattern,對於這個pattern存在的任意誤差psi 存在一個值	heta 與演算法f(x),當x&>	heta f(x)能逼近這個pattern到小於誤差psi 的範圍。

AIXI的核心目的是能逼近任意可逼近的模式,並能利用所識別到的模式取得一個效用函數的最大化效益。 在這個目的下,首先需要一個能夠逼近任意模式的方法,solomonff所提出的通用歸納是最合適的。通用歸納把歸納問題轉化為序列預測問題來解決,也就是根據前面的經驗來預測以後的結果。為了解決序列預測問題Solomonoff使用了「複雜性」與「概率」這兩種工具,概率可以通過貝葉斯統計進行定義,量化「複雜性」則首先要界定什麼是「模式」,圖靈通過圖靈機概念清楚界定了所有可能的「模式」,柯爾莫哥洛夫在此基礎上給出了「複雜性」的客觀定義。綜合以上成果,Solomonoff定義了演算法概率的概念:
M(x):=sum_{p:U(p)=x*}^{}{2^{-l(p)} }
其中x為一序列,p為對x的一種編碼方式,U是通用前綴圖靈機,U(p)=x*表示p輸出x後未必停機,可以繼續輸出下去。

可以證明,在任何確定性的世界裡,即世界的後續狀態由其先前歷史完全唯一的決定,那麼使用演算法概率來預測未來就是一個很有效的方法,僅僅通過很有限的幾個錯誤,演算法概率就能幫助我們準確的預測未來。即使對於不確定性的環境,只要它仍然是「有規律的」,或可以看作某種可計算的測度,那麼仍然僅需有限幾個錯誤,演算法概率就能幫我們準確的逼近真實的分布概率分布。

而且,這種逼近的快慢取決於真實環境的複雜性,越簡單的環境越容易估計,越複雜的環境則需要更多的錯誤才能逼近,但不管怎麼樣,只要環境是「有規律的」,總可以用有限個錯誤去逼近。我們深信現實世界是「有規律」的,雖然我們不知道它的複雜性有多高,也就不知道什麼時候才能真正精確的進行預測,但我們知道,只要堅持用演算法概率估測未來,肯定在某個時候,在經歷了足夠多的試錯之後,我們可以逼近現實世界背後真實的運行機制。

但是,通用歸納模型僅僅是一種預測模型,預測的行為本身並不構成對環境的任何影響。雖然主體對環境作出了預測,但不會採取任何行為去改變環境。但現實生活中,我們都是世界的一份子,我們的每一個行為都有意無意的影響著環境,而且,最重要的不是解釋世界而是改造世界。比如我們研究股市的模式,然後根據自己發現的模式預測股票隨後的走勢,然後根據預測結果決定買進還是賣出,但無論是買進還是賣出,我們的交易行為都反過來影響著股市的波動。這個過程可以看作「主體」與「環境」的交互過程。

考慮一個面對未知環境的主體,它與環境不斷交互,在每一個回合中,主體p都對環境作出某種動作,然後這個動作激發環境q作出某種反應,反過來給主體一些反饋,主體感知到這種反饋,同時從中體會到某種正面(幸福)或負面(悲傷)的效用,然後計划下一回合的交互該採取那種動作,主體的所有信息都來自過去與環境交互的歷史,它對未知環境的評估也主要依賴於這些信息。

如圖所示,p的輸入帶是q的輸出帶,p的輸出帶是q的輸入帶。在第k個回合,主體p輸出(做動作)ak,環境q讀取ak,然後輸出ok,伴隨著ok還反饋給主體p某種「效用」rk,主體p讀取(感知到)ok和rk,然後進行下一個(第k + 1個)回合. . .生活是一系列選擇的總和,如果你選擇了做ak,你就可能面對ok、品嘗rk,要想收穫更多,就需要慎重選擇,需要立足當下、評估未來。如何立足當下,評估未來呢?這裡我們用演算法概率來估測可能的未來歷史,評估主體與所有可能的環境q交互出的所有可能的歷史,類似霍夫曼編碼那樣,對於簡單的環境賦予高的權重,對於複雜的環境賦予低的權重,然後用綜合權衡後的演算法概率來評估可能的歷史o_{1}r_{1}...o_{m}r_{m}:
sum_{q:U(q,a_{1},a_{2}...a_{m})=o_{1}r_{1}...o_{m}r_{m}}{2^{-l(q)} }

最智能的主體就是在這種不確定的環境中最大化未來的期望累積效用的主體AIXI,也
就是說,在主體與環境交互的第t個回合,主體最優的行為方式是:

通用智能模型AIXI可以看做最大化期望累積效用的決策過程與Solomonoff序列預測的通用歸納模型的結合,或者可以看作以「演算法概率」尋求期望累積效用最大化的決策。即使對於不確定的環境,只要它是有規律的,那麼跟通用歸納時的情形一樣,演算法概率仍然可以很好的逼近真實的環境,上面定義的智能主體AIXI仍然可以很好的適應。而且可以證明,AIXI是帕累托最優的,即不存在某個主體,它在所有可能的環境中表現都不比AIXI差,並且能在某個環境中表現比AIXI嚴格的好。

AIXI依然有一些問題,例如它的複雜性過高,它的有效需要對環境做比較嚴格的假設,但目前為止它確實是通用模型中說服力最強的之一。現實世界是一個高複雜度的環境,雖然在不計計算資源的情況下,AIXI可以達到理論上的最優智能決策,但是要在可計算、可實現的範圍中尋求AIXI的可計算的高效的逼近還是非常困難的。

這次更新下對AIXI的介紹,借鑒了朋友的一些東西,各位將就看看吧。。
-------------------------------------------------------------------------------------------------------------------------------------------
哎,目前看來我們的道路是正確的,exciting!
順著這幾天的東風更一下~~分幾次更吧,最近事比較多。

首先為李世石以及一眾圍棋選手默一下哀,我們都沒想到這次的DQN改進型會這麼強,居然碾壓了圍棋界的世界第三。目前DeepMind打算把之前的人類棋譜全部丟掉然後用玩Atari的方式去玩,希望能學出一些之前人類沒有發現的局勢,照這麼個玩法以及之後的資源傾斜及技術發展,基本上一段時間後柯潔以及其他棋手再去挑戰的勝率估計不大了......

先介紹一下相關的會議及期刊:

關於AGI,目前會議方面相關的當然首推Artificial General Intelligence,這個是最正宗的AGI會議!Hutter,Ben這些大牛都是這個會議的扛鼎人,裡面討論的基本都是通用AI的內容,不過也因此往往距離實用比較遠。2013年的AGI會議是在北京召開的,雖然那一屆據說是歷屆裡面最爛的...2015AGI論文集:http://vdisk.weibo.com/s/u7vYNt5l2OYjh

其次就是搞機器學習或者模式識別的同學比較熟悉的IJCAI和AAAI了,這兩個上面也有一些AGI相關的內容。不過因為這是綜合性的會議,所以只要和人工智慧沾點邊的都算在裡面,比如知識庫,NLP,圖像識別,語音識別這些都有。這兩類也是人工智慧領域綜合分量最高的兩個會。

在往下就是人工智慧各個領域的會議和期刊了,這兩個介紹可以看看:
科學網—[轉載]AI會議排名
CCF推薦排名

-----------------------------------------------------------------------------------------------------------------------------------------
繼續更新,這次介紹下AIXI的相關研究

定義AIXI涉及的效用函數一般假定為外部給定的,Schmidhuber定義了一種有趣的內部效用,它完全由主體內在驅動,純粹為了追求某種「好奇」。與此相關的,Orseau等人定義了「尋求知識」的效用函數,這種主體純為探索「模式」而生,所以對它來說不存在傳統的勘探/開發(exploration/exploitation)兩難,勘探就是開發,這使得它是「弱漸進最優的」。其他的效用定義還有例如「生存優先」,「平等優先」,「效率優先」等諸多效用。通過定義這些內在效用,相當於定義了AI對世界的根本性價值觀,因此,這是現在AIXI系統研究的主要方向之一,同時也是deepmind的主攻方向之一。

在AIXI的框架中,主體和環境可以看作兩個完全獨立的「主體」在交互,但這是一種為了易於處理問題進行的簡化,現實世界往往複雜的多,主體並不具有遊離環境之外的超越地位,主體也是環境的一部分,為了刻畫這種情形,Orseau等人從環境能否讀取/修改主體的源代碼/內存等角度研究了AIXI的幾個變種。比如,Ring和Orseau從環境能否讀取主體的「源代碼」、主體能否「修改自身源代碼」、是否會「自我欺騙」等角度研究主體的表現,其中對於「尋求知識」的AIXI變種,即使環境可以修改它的代碼、即使允許它可以修改「觀測數據」,它也不會進行「自我欺騙」。Orseau和Ring定義的「內嵌於時空」中的AIXI變種則完全是環境的一部分,主體就在環境中,主體的計算資源受到環境的時空限制,環境可以修改主體的任何部分,環境執行主體的代碼。下面提到的「哥德爾機(G??del machine)」可以看作這種「內嵌於時空」的AIXI變種的一個例子。

而如果允許AIXI修改自己的框架,也可能會導致一些很好玩的效果,例如,AIXI可能會學會直接修改自己的效用定義從而實現自我欺騙,就如同人類的「逃避現實」或者「自我封閉」....

通用智能模型AIXI繼承了通用歸納模型的不可計算性,所以它不能直接應用。因此各種可計算的逼近不斷被提出並研究。不管最終的人工智慧以何種方式呈現,抽象的看,一個智能體也無非是由某一個程序控制,所以不妨設計某種「元程序」負責搜索整個「程序空間」、自動尋找「聰明」的程序,然後通過經驗學習尋找更「聰明」的程序。Hutter在定義這種「元程序」時借鑒了Levin的通用搜索思想,給出了AIXI的變種AIXItl,它在時間t、空間l界內理論上優於任何其它在時間t、空間l界內的智能主體。Schmidhuber把這種「元學習」的思想進一步推進,定義了「哥德爾機」,「哥德爾機」包含兩個平行運行的部分——「Solver」和「Searcher」,初始的Solver負責與環境交互,而Searcher可以對「哥德爾機」自身各部分(包括Solver和Searcher)代碼進行徹底的修改——只要它內嵌的形式系統能證明這種修改將帶來更大的期望累積效用,這樣Solver和Searcher都可以相對安全的不斷自我進化升級、趨向全局最優。
但以上所有這些都仍然只是理論上的最優,不具有實用價值,需要另想辦法進行容易實現的逼近。
其中一種方式就是通過限制可能的環境類通過蒙特卡洛方法和上下文樹加權方法而作出的逼近近MC-AIXI-CTW,它可以在事先不知道遊戲規則的情況下,通過試錯法玩好Cheese Maze,TicTacToe, Pacman, Kuhn Poker 等各種稍微複雜的遊戲。deepmind使用了deep learing+reinforce learing的方式來尋找AIXI的逼近,目前來看取得了很好的效果,這次的alphago可以說是這個方法的一個改進升級版。

AIXI的每一步決策都依賴於其整個的過去歷史,現實世界雖然複雜但也沒有那麼複雜,其中存在很多相對獨立的模式,只依賴它們就可以進行很好的預測,因此,Hutter提出了「特徵加強學習」的逼近方法,通過一種類似「極小描述長度原則」的思想,可以將主體的「歷史」自動映射到合適的「狀態」上,然後將難處理的逼近問題劃歸到相對簡單的馬爾科夫決策過程上。如果處理的現實問題是簡單的,那麼通過這種方法就能自動找到一個簡單的馬爾科夫決策過程去刻畫它。在一些遊戲上這種方法可以取得不遜於MC-AIXI-CTW的實驗效果。

--------------------------------------------------------------------------------------------------

通用AI的其他方向介紹放在另一個答案里,先這樣吧。
待續


可以去了解下王培博士的NARS,全稱Non-Axiomatic Reasoning System


有個GAI community建議樓主可以關注下


Weston J, Bordes A, Chopra S, et al. Towards AI-complete question answering: a set of prerequisite toy tasks[J]. arXiv preprint arXiv:1502.05698, 2015.

Graves A, Wayne G, Danihelka I. Neural Turing Machines[J]. arXiv preprint arXiv:1410.5401, 2014.


鳩佔鵲巢。

機器學習的崛起跟這幫鼓吹AGI的哥們有關係嗎?


推薦閱讀:

在日本學造機器人是怎樣的經歷?
在剛剛結束的東京國際機器人展上,有哪些值得研究的機器人?
遺傳演算法能不能優化演算法?
RoboMaster和Battlebots這兩種機器人比賽,哪個技術含量更高,對機器人發展更有意義?
自動駕駛汽車涉及哪些技術?

TAG:機器人 | 人工智慧 | 自然語言處理 | 認知科學 | 神經心理學 |