最害怕媒體報道科技成果中出現的『全球最大』『世界首個』之類的辭彙了。
浙江大學類腦計算機的研製,貌似從很早就開始做了,2016年就發布了類腦晶元『達爾文』,號稱是『首款支持脈衝神經網路』的類腦晶元;2019年浙大的腦機介面相關研究被報道,貌似也與此有關。
不過,關於『脈衝神經網路』(SNN)相關研究,IBM、斯坦福大學、arm等貌似進展更勝一籌。感覺浙大這次類腦計算機,也是圍繞支持SNN的產物——達爾文晶元就是瞄準支持SNN開發的,恐怕這也是為何其能耗可以做得這麼低的原因?
我專業非常有限,只能做以上粗淺的理解,求知乎大神或當事人出來說說,這個類腦計算機到底什麼成色?類腦計算時代來了嗎?
附上浙大新聞鏈接:
重磅!我國科學家成功研製全球神經元規模最大的類腦計算機?mp.weixin.qq.com
謝題主邀請,我認為「類腦計算時代」 遠遠沒有到來。我覺得媒體也不要總是要想搞一個大新聞。不管是神經網路模型,還是TPU/NPU這種神經網路專用處理器,都是由神經科學/認知科學啟發,但是其本質都是由計算機科學/電子工程推動的一項具體計算技術。一味上升到哲學高度,而忽視腳踏實地的技術,只會讓AI泡沫面臨再次破裂的風險。
就拿深度學習來說,神經科學在其中起到的作用僅僅是給出一個靈感,但最終要落實到具體的技術上。確實,深度學習研究者比起其他機器學習領域(貝葉斯,核方法等)更可能引用大腦作為參考,但基礎的推動力仍然是應用數學如線性代數,概率論,資訊理論和數值優化。
對於類腦計算,具體的推動力仍然是計算機體系結構的發展。而只要計算機科學底層基座沒有變動(如量子計算投入使用),從多核CPU,到GPU,到FPGA/TPU/NPU,不管是不是非馮結構,本質上都是人類對於摩爾定律終結的最後的反抗,而最終體系結構的發展總有一個天花板,或者是速度或者是功耗。就目前的體系結構而言,而想達到能夠模擬大腦的計算能力遠遠不夠。
GoodFellow在他的著作《Deep Learning》中就談到腦科學/神經科學和深度學習的關係。他認為「如今神經科學在深度學習的研究中作用被削弱,主要原因是我們根本沒有足夠關於大腦的信息做為指導去使用它。要獲得對被大腦使用的演算法的深刻理解,我們需要有能力同時監測(至少是)數千相連的神經元的活動。我們不能夠做到這一點,我們甚至連大腦最簡單、最深入研究的部分都還遠遠沒有理解」。
與之矛盾的是,我國的很多媒體(包括高校的很多專家)經常過分渲染人工智慧與腦科學或認知科學的關係,總喜歡提及「類腦智能」「類腦計算機」。在腦科學沒有得到足夠的發展的情況下,我不認為深度學習模型亦或是TPU/NPU這種專用晶元是在完全模擬大腦,至多算是一種局部的模仿,就像啟發式優化中的智能演算法,或是無人機領域引入仿生學研究,本質上是人類受到智能的啟發,來完成其他的計算目的。
我相信GPU,TPU,NPU,DSP等新型計算機體系結構的發展會加速神經網路模型的訓練和推理,對於工業界的應用無疑是一個福音,但是過分渲染「類腦」「神經元規模最大」只會起到適得其反的效果。我們可以從哲學意義上去欣賞AI,但同樣也需要腳踏實地和實事求是,距離真正的「類腦智能」還有很長的路要走。
參考文獻:
[1]John L.Hermessy. 計算機體系結構:量化研究方法[M]. 北京:機械工業出版社,2012
[2]Ian Goodfellow. 深度學習[M]. 北京:人民郵電出版社,2017
重要結論放前面:給我感覺,業界和這個「類腦」最接近的一個研究方向是存內計算(In-memory computing)
至於題主補充的」首款支持脈衝神經網路(SNN)「的類腦晶元,原文提到用了「792顆浙江大學研製的達爾文2代類腦晶元」,所有我猜這個:
這是個可以跑SNN的採用存內計算結構(或者借鑒了存內計算模式)的計算機。
看到這種新聞,『全球最大』『世界首個』,就感覺有點水深,有點不敢趟。如果有當事人出來答那就好了。我猜測可能寫稿的人和研發的人不一樣,所以稿子寫得有點玄乎其玄了。那麼在當事人出來前,就文中提到的內容,我來分析和猜想下,如果錯誤與遺漏,歡迎指正,大家一起研究與學習。如果報道沒有虛假的成分,那麼這個架構的計算機有幾個討論的點:
存內計算
雖然原文中沒直接提到「存內計算」這個詞,只是說「類腦」,但從他的描述(什麼內存牆限制bla bla bla的),這就是存內計算。原文不直接提這個詞,是否技術上有不一樣的設計?或者只是純粹避開別人造的名詞?(評論區有個補充了達爾文晶元的文獻,感覺並不是簡單的存內計算)
不過稿子里也很誠實,沒有把功勞把自己身上攬
全球科學家們再次將目光瞄準到模仿生物大腦這個最初的夢想,通過模擬人腦結構與運算機制來發展新的計算技術,以期實現高能效與高智能水平的計算。
是「全球科學家」而非「浙大研究員」,說明這個研究還是跟隨著全球研究的方向,並非首創的。
看到這裡應該還有讀者沒懂,存內計算到底是什麼?那就要從我們目前的計算機結構說起。
我們使用的計算機多數是馮諾伊曼架構。馮諾伊曼架構在構建之初的假設就是處理器和內存的速度很接近。