AI研究院 | 對話臉書LeCun:如何讓FB機器人學會思考?

編者按:《AI研究院》由網易智能頻道發起,網易杭州研究院等機構共同參與打造,每周五篇,專註AI行業研究與深度分析,並提供技術應用交流。轉載請聯繫我們獲得授權,公號smartman163。

【網易智能訊 4月21日消息】在距離Facebook美國門洛帕克市總部近5000公里的曼哈頓市中心一棟古老的米色辦公大樓里,一群公司員工正在研究幾個項目,它們看起來似乎與社交網路關係不大,而更像科幻小說中的場景。這就是Facebook的人工智慧研究團隊,簡稱FAIR。他們專註於一個獨特的目標,即開發具有與人類同等智能水平的電腦。

儘管距離實現終極目標還很遙遠,但這個團隊正取得十年來幾乎沒有人敢相信的成就:它的人工智慧程序繪製的畫作幾乎與人類藝術家無分軒輊,從維基百科上挑選的主題測驗罕縫敵手,它還能玩《星際爭霸》這樣的高端視頻遊戲。慢慢地,它們變得越來越聰明。將來,它們可能會改變Facebook,讓你與朋友之間互動的平台成為你的知心好友。

正是出於這些原因,FAIR顯然不是典型的Facebook團隊。這個團隊的成員並不直接參与這家價值4100億美元大公司的熱門產品開發工作,比如Instagram、WhatsApp、Messenger和Facebook。它的最終目標可能需要幾十年時間才能實現,而且可能永遠無法實現。

它並非由典型的矽谷成功人士領導的,而是一位56歲的學者Yann LeCun(雅恩·樂昆),他在人生中經歷了真正的失敗,並成功地恢復過來。他曾經被拒絕的關於人工智慧的理論如今被認為是世界上最先進的,Facebook給出的高額薪酬便是他個人價值的最佳證明。

LeCun表示:「你與數字世界(包括手機、電腦等)的互動將會發生改變。」 FAIR正在提高電腦的視覺、聽覺以及通訊能力,它的發現已經滲透到Facebook的各種產品中,從新聞推送到相機再到圖片過濾器等。

Facebook正在進行大規模投資,這不僅是因為人工智慧很有趣,還因為它非常重要。在當今科技的各個角落,公司都在以人工智慧為基礎進行競爭。Uber由AI支持的無人駕駛汽車成為其專車戰略的核心。谷歌依賴AI的Google Home智能揚聲器正在回答用戶在搜索欄輸入的任何問題(在此之前,谷歌還需要查閱百科全書)。

為了破解價值6740億美元的食品雜貨市場,亞馬遜正在用人工智慧收銀員創建便利店。在Facebook,人工智慧幾乎無處不在。例如,它的人工智慧照片過濾器可以幫助抵禦來自Snapchat的挑戰。它的人工智慧可以識別圖片,看看裡面有什麼,並決定在它的信息流中顯示什麼,這將幫助公司提供令人信服的體驗,讓你重新追溯過去。類似的技術還在監視騷擾、恐怖主義和色情內容,並將其標記出來以刪除。

Facebook應用機器學習(AML)團隊負責人傑奎因·奎諾內羅·坎德拉(Joaquin Qui·onero Candela)說:「人們對整個Facebook產品的體驗都是基於人工智慧的。 如今,如果沒有人工智慧支持,Facebook就不可能存在。」

隨著這個領域不斷取得進步,Facebook將依靠LeCun和他的團隊來幫助其領先於競爭對手,儘管後者很可能也會擁抱這種技術。經歷了多年的批評和邊緣化之後,LeCun終於擁有了夢想中的所有:80名研究人員、Facebook龐大的金融資源支持以及對他工作的主流信仰。他現在所要做的就是交付成果。

視覺

從很小的時候起,LeCun就相信他能讓電腦擁有視覺。面部識別和圖像檢測如今已經很常見,但是當LeCun20世紀80年代早期在巴黎上大學時,計算機實際上是個「盲人」,它們無法理解圖像中的任何東西,也無法弄清楚相機鏡頭裡出現了什麼。

從上世紀60年代起,LeCun就在大學裡尋找一種方法,這種方法在很大程度上還未被探索過,但他認為這種方法有可能「讓機器學習許多任務,包括感知。」這種方法被稱為人工神經網路,它是由相互連接的小型感測器組成的系統,並可以將內容分解成微小的部分,然後進入識別模式,並根據它們的共同輸入來決定它們所看到的內容。

在閱讀了反對神經網路的論點,也就是它們很難訓練,而且不是特彆強大後,勒恩決定不管怎樣都要繼續前進。他在攻讀博士學位的時候,儘管存在疑慮,但依然軍心專註於此。對於當時受到的批評,LeCun說:「我就是不相信它們。」

人工智慧領域的艱難時期有自己特殊的名字:人工智慧寒冬。這些時期主要是因為研究人員的研究成果不符合他們的預期,使得研究成果似乎顯得不夠科學,導致資金和興趣枯竭,阻礙技術持續進步。

LeCun同樣遭遇過人工智慧寒冬。上世紀90年代中期,在貝爾實驗室的一項人工智慧研究工作結束後,AT&T的內部紛爭讓他的團隊分崩離析,當時他們正在推出自動讀取ATM機,即如今仍在使用的神經網路技術,就像LeCun認為它正在取得明顯進展一樣。LeCun說:「整個項目在取得真正成功的那天就被解散了,這真的很令人沮喪。」

與此同時,其他方法獲得主流研究人員的青睞。這些方法後來不再受歡迎,但它們的崛起足以讓神經網路以及其長期以來的支持者LeCun被擠入邊緣。21世紀初,其他學者甚至不允許LeCun在他們的會議上發表論文。

神經網路先驅、谷歌高級工程師、多倫多大學教授傑夫·辛頓(Geoff Hinton)表示:「基本上,計算機視覺社區已經拒絕了他,而他的觀點是自己正在做80年代非常有前途的事情,但他現在應該已經完成了。然而,這已經不再是我們的觀點了!」

其他神經網路研究人員當時也遇到了類似的問題。人工智慧領域先驅、蒙特利爾大學教授約書亞·本吉奧(Yoshua Bengio)當時甚至很難找到願意與他合作的研究生。他說:「許多學生不願意從事這類研究,因為他們害怕在完成博士學業後找不到工作。」

2003年,LeCun為自己獲得救贖奠定了基礎。那一年,他加入了紐約大學的教師隊伍,並與辛頓和本吉奧一起,以非正式聯盟的形式重新恢復了神經網路。LeCun微笑著說:「我們開始了我所謂的深度學習陰謀。」

「深度學習陰謀」在這個領域發揮了關鍵作用,主要是因為他們堅持自己的信念,即為每一種你想要探測的對象建立專門的神經網路,你可以用同樣的模板來構建一個可以檢測圖像、視頻和語音的神經網路。所以,與其分別建立能夠發現企鵝和貓的神經網路,還不如建立單獨的神經網路來檢測兩者,並區分它們。

這些新的神經網路也可以用於其他任務,比如通過查看音頻波來檢測語音模式。這個陰謀的研究得到了兩個重要外部因素的支持:第一是計算能力增加,這使得它的神經網路運行速度足夠快,也更加實用。第二,由於互聯網的廣泛應用,可用數據(圖片、文本等)呈指數增長,而且可用的數據可以通過網路進行大量處理,從而使它們變得更智能化。

最終,這個結果成為了一種敏捷、快速、準確的方法,為該領域開闢了新的可能性。在LeCun和同行們建立的基礎之上,計算機視覺在21世紀初出現了爆炸式增長。計算機開始能夠識別圖像中的物體,然後識別視頻中的物體,最後甚至可以識別攝像頭中的目標。現在,只要你把攝像頭對準籃球,AI就能理解它在看什麼。

LeCun很快從「場外人」成為這個領域的領袖。他說:「在1年時間內,它從無人問津變成人人都在研究的東西,「這簡直太瘋狂了!」

2013年12月,LeCun加入了Facebook,對於想要將人工智慧研究應用於照片的人來說,這是個理想環境。Facebook的平台上有數十億張圖片,讓LeCun和他的研究人員可以用大範圍的畫布來實現新的想法。

FAIR經常與AML合作,將其在Facebook上的研究付諸實施。這兩個團隊建立了新的系統,推動公司的技術不斷進步。目前,AML正在利用FAIR的研究來幫助確定新聞推送內容中應該向你顯示的內容,並將其翻譯為Facebook內部的內容。這種技術還被應用到Facebook的攝像頭中,以產生對你的動作做出反應的特殊效果。

圖:FAIR團隊的計算機視覺工具SharpMark

思維

教授計算機去看是教授它們理解世界如何運作的基本步驟。人類理解這個世界是如何運作的,因為我們會反覆觀察各種情景,並對它們的表現產生理解。當一輛汽車從我們所處的道路上疾馳而過時,我們預測它可能會撞上我們,所以我們就會讓開道路。當天黑時,我們預測開燈會讓它再次亮起來,所以我們就會去開燈。

FAIR試圖教會計算機預測結果,就像人類那樣,並使用類似的方法。LeCun解釋說,這支團隊正在向其人工智慧播放大量相關視頻,然後在某個時間點暫停,然後讓機器預測接下來會發生什麼。舉個例子,如果你反覆地向人工智慧系統展示水瓶從人的頭部頂上翻轉的視頻,那麼它就有可能預測到這個動作會讓人淋濕。

LeCun解釋稱:「從某種程度上說,智力的本質就是預測能力。如果你能預測到你的行為會產生什麼樣的後果,那麼你就可以提前計划了。為了實現特定目標,你可以計劃一系列的行動。」

教授人工智慧預測是當今領域最棘手的挑戰之一,這在很大程度上是因為在許多情況下,多個可能的結果在理論上都是正確的。LeCun說:「想像一下,在桌子上豎起一支筆,然後放手。 如果你問電腦,1秒之後筆在哪裡,可能沒有正確答案。機器知道筆會倒下,但它不知道會落在哪裡。所以你需要告訴系統,有很多正確的答案,而實際上發生的只是某些替代方案中的一種。這就是在不確定的情況下學會預測的問題。」

幫助人工智慧理解和擁抱不確定性是人工智慧「無監督學習」領域的重要組成部分,也是目前AI領域的前沿。當人工智慧通過觀察足夠了解世界的運作方式,並預測接下來會發生什麼時,它就會開始像人類那樣思考,獲得一種常識。LeCun認為,這是讓機器變得更聰明的關鍵。

LeCun和他的研究人員認為,人工智慧很可能需要數年時間才能完全欣賞到「灰色地帶」,但他們相信最終能夠實現這個目標。LeCun團隊的研究經理拉里·茲特尼克(Larry Zitnick)說:「這個目標肯定能實現。 但我想說的是,可能還需要10年時間。」

圖:這是扎克伯格與人工智慧「賈維斯」互動的視頻

語音

2016年12月份,馬克·扎克伯格(Mark Zuckerberg)發表了一段引人注目的視頻,展示了他的「人工智慧管家」賈維斯(Jarvis)。它由Facebook創始人親自編寫代碼,賈維斯為扎克伯格製作吐司,在識別出父母的臉後允許他們進入他的房子,甚至教他的寶貝女兒麥克斯上中文課。

賈維斯真的很酷。但對LeCun來說,這沒什麼特別的。他說:「這基本上是腳本化的,而且相對簡單,從某種程度上來說,這種智能依然是相當膚淺的。」他的眼光顯然更高。

LeCun也想要開發助理,但他希望這些智能助理能夠真正理解你告訴他們的事情。他說:「這些機器能夠進行對話,能夠提前制定計劃,你不會因為它們愚蠢而生氣。」目前還沒有這樣的機器藍圖,但FAIR正在研究可能的建築模塊。

讓AI對這個世界有個初步的了解,並對它進行訓練,以預測其內部可能發生的情況。教它閱讀和寫作也是如此,FAIR正使用神經網路實現這個目標。對計算機來說,圖像就是一組數字,但一個口語句子也可以被表示成一組數字,就像文本那樣。因此,像LeCun這樣的人可以使用神經網路體系結構來識別圖像中的對象、句子中的單詞或文本中的主題。

人工智慧仍然無法像理解圖像的方式理解文字,但是LeCun已經有了一個關於終極賈維斯可能是什麼樣的設想。他的理想智能助理應該具有常識,並可與其他助理進行溝通。比如,如果你想和朋友一起去聽音樂會,你會告訴你的助手進行協調,它們會比較你們的音樂品味、日曆和方便時間,然後給出建議。

LeCun談及面臨的挑戰時稱:「這種機器必須了解某種形式的世界狀態。比如,人們不能同時住在兩個地方,人們不能在短時間內從紐約到舊金山,考慮到旅行的費用,你需要知道很多事情才能安排好一個人的生活。」

Facebook目前正在試驗簡單版本的數字助手M,由其Messenger團隊管理,並依賴於FAIR的某些研究。Facebook Messenger最近發布了「M建議」,在它認為可以提供幫助的時候,M會參與到對話中。

當有人問「你在哪裡?」Messenger可以彈出對話,並讓你可以點擊分享自己的位置。Facebook很可能會將這個功能擴展到更高級的用途中。

Messenger是Facebook努力使用人工智慧理解含義的一種應用,但該公司正在考慮以其他方式使用這種技術。它甚至可能會投入到工作中,努力打破最近被指責幫助建立起來的障礙。

甚至在2016年大選之前,人們就開始關注Facebook上的兩極分化和虛假新聞,LeCun團隊的成員Y-Lan Boureau正致力於利用人工智慧在Facebook上打造更具建設性的對話。Boureau同時研究神經學和人工智慧,在用了一個夏天時間看她的朋友們在Facebook上互毆,雙方几乎沒有興趣聽對方的觀點後,她決定發起這個項目。

Boureau解釋說:「如果我們能更好地理解是什麼驅使人們處於當前的思想狀態下,他們的觀點是如何形成的,為何陷入僵化,以及如何最終讓兩個人無法相互交談,這將是非常好的事情。」Boureau想要創造這樣一個世界:在人們付諸行動之前,可以看到儘可能多的不同意見,直到我們開始把它們調整為我們的觀點。

人工智慧可以通過在文本中繪製模式,理解某些東西在哪裡偏離了軌道,並可能找到一種改變對話流的方式來阻止糟糕的轉變,從而幫助解決這個問題。Boureau說:「如果我們更加了解學習過程,以及這些信念是如何從數據中獲得的,那麼就更容易理解如何獲得更有建設性的對話。」

在2016年大選之後,LeCun曾公開表示,Facebook擁有使用人工智慧過濾虛假新聞的技術能力。有些人認為,他的聲明是解決美國普遍存在的兩極分化問題的解決方案之一。但LeCun表示,這項任務最好留給第三方,而不是那些能夠引入偏見的機器。他說:「人工智慧可以在這個過程中發揮作用,但這是一個非常困難的產品設計問題,而不是技術問題。你不想讓別人產生某種特別的意見,你想在這方面保持中立。」

圖: FAIR的SharpMark示例

現實

對人工智慧領域來說,炒作周期可能是危險的,LeCun非常清楚這一點。而今天,我們似乎已經置身其中。在2013年第一季度,六家公司在財報電話會議上提到了人工智慧。據彭博社報道,在2017年第一季度,這個數字增加到244個。

在討論未來時,LeCun非常謹慎地表達自己的觀點。他說:「AI距離我們想要的目標還很遠, 「這些東西的效果不像我們希望的那麼好。」事實上,正如LeCun警告的那樣,人工智慧還遠未達到人類的智能水平,即所謂的通用人工智慧。

儘管如此,LeCun還是無法抑制他對AI的熱情。他對對抗訓練特別感興趣,這是一種相對較新的人工智慧研究,可以幫助解決目前該領域面臨的預測和不確定性挑戰。這種技術讓兩個人工智慧系統相互對抗,以便讓它們了解真實的世界。

例如,在FAIR的實驗中,一個研究人員使用人工智慧系統繪製圖片,試圖欺騙另一個人工智慧系統,讓後者以為它們是由人類繪製的。而前者可利用後者的反饋來學習如何更好地繪畫。

在今年早些時候的一次會議上,LeCun展示了一種更為先進的技術:讓AI根據一段視頻,腦補出一段後續的視頻,還得騙過另一個AI的法眼。LeCun說,對抗訓練「是過去10年或20年機器學習研究中最棒、最酷的想法。」因此,勒恩將繼續進行對抗性訓練,並再一次將這個領域推到極限。

對於20年前就聽不懂他在搞什麼的人來說,LeCun已經走得越來越遠。雖然LeCun將是第一個告訴你工作還遠未結束的人,而且距離成功依然很遙遠,但他並不是坐視時光流逝的人。他說:「我不能說這感覺很糟糕, 而是棒極了!」

(英文來源/Buzzfeed,作者/Alex Kantrowitz,編譯/機器小易,校對/小小)

2017年4月21日

推薦閱讀:

打敗DOTA2頂級人類玩家,馬斯克的機器人到底強在哪?
波士頓動力的 SpotMini 機器人,顯然比一隻哈士奇有用
Bronco vs Minotaur:究竟是什麼出了問題?
為什麼兩輪自行車在騎行的時候更容易掌握平衡,靜止的時候卻很難?

TAG:Facebook | 机器人 | 人工智能 |