神經翻譯入門筆記1:n元語法簡介

神經翻譯入門筆記1:n元語法簡介

來自專欄 機器學習演算法與NLP學習筆記

這一階段,我準備閱讀以下三篇關於神經翻譯的tutorial,並做一些筆記。這些tutorial包括

  • [Koehn2017], Philipp Koehn,Statistical Machine Translation, Draft of Chapter 13: Neural Machine Translation, 2017.09
  • [Neubig2017], Graham Neubig,Neural Machine Translation and Sequence-to-Sequence Models: A Tutorial, 2017.03
  • [Luong2016], Thang Luong, Kyunghyun Cho and Christopher Manning,NMT Tutorial, ACL 2016

第一篇筆記主要來自於[Neubig2017]的第一章,對傳統的n元語法模型做了一個簡單介紹。由於不加任何修改的原始n元語法演算法會將大部分n元組出現的概率判斷為0,為了避免這樣的現象出現,需要加入一些平滑。本文同時對插值平滑法做了簡介,並給出了一些文獻作為拓展。最後,簡介了如何評估語言模型(語言模型的任務,可以理解為給定上文的情況下,求出接下來出現某個單詞的概率)。

詳細內容戳我


本部分內容雖然主要來自於三個NMT的tutorial,不過按照目前的預想,還是涵蓋了CS224n的大部分內容。同時,我個人也會補充一些細節。現在構想的內容包括

  • n元語法簡介
  • log-linear語言模型簡介 x
  • 神經網路簡介 xx
  • 詞向量
  • RNN
  • 編碼器-解碼器體系結構
  • 注意力機制
  • 其它NMT高級內容簡介

在Neubig的tutorial中,打「x」的一章介紹了若干優化方法,包括rmsprop,adam優化器等內容。現在的變數就是,我沒有考慮好是否把第二部分(打「x」的部分)擴充成深度學習優化方法相關的內容,同時把第三部分(打「xx」的部分)加入神經網路正則化的內容。這兩部分應該很重要,但是寫深了可能需要花些功夫


這篇筆記其實在3月6號就寫完發在了我的博客上,但是那天我比較不幸地受了一些外傷,這段時間只能卧床靜養,所以耽誤了專欄這邊的發表。我從今天(3月20號)開始才能偶爾用一用電腦,因此這段時間專欄更新會很慢,請保持耐心

推薦閱讀:

Python3 環境下的 NLTK學習(第一章)
採用Graphviz繪製Stanford CoreNLP Parser的成分分析結果
Learning Explanatory Rules from Noisy Data 閱讀筆記4
我為什麼從技術角度不看好中國的智能音箱

TAG:自然語言處理 |