2017年神經機器翻譯(NMT)的一些重要資源匯總?

2017年神經機器翻譯(NMT)的一些重要資源匯總


關於神經機器翻譯比較全的一套資料匯總,分享給大家。

教程:

· 由Thang Luong編寫的NMT教程 -這是一個簡短的教程,循序漸進的介紹神經機器翻譯的原理。但稍微令人感到失望的是,沒有詳細記錄基礎實驗的運行和評估情況。當然,解決這些問題很簡單,但這確實需要花一點時間。

· 原始的Tensorflow seq2seq教程 -第一個Seq2Seq實驗。現在我們討論的是WMT15 set。

· tf-seq2seq (博客地址:這裡)

· Graham Neubig的教程

· Nematus

· OpenNMT

· NeuralMonkey(基於Tensorflow)

有一點很特別:Tensor2Tensor採用新穎的架構,而原始基於RNN / CNN解碼/編碼架構。它的提出,產生了驚人的收益。因此,使得NNMT有可能成為未來翻譯技術發展的趨勢。

重要的論文:

· Learning Phrase Representations using RNN

Encoder–Decoder for Statistical Machine Translation by Cho Et al. (link) - Kyunghyun Cho發表的,非常創新和非常有智慧的一篇論文,還引入了GRU。

· Sequence to Sequence Learning with Neural

Networks by Ilya Sutskever (link) - 由谷歌的研究人員提出,首次顯示NMT系統可以獲得與傳統的技術相似的效果。

· Google』s Neural Machine Translation System:

Bridging the Gap between Human and Machine Translation (link)

· Neural Machine Translation by Joint Learning to Align and

Translate by Dzmitry Bahdanau (link) - 提出Attention機制的論文

· Neural Machine Translation by

Min-Thuong Luong (link)

· Effective Approaches to Attention-based Neural

Machine Translation by Min-Thuong Luong (link) – 提出如何基於local Attention去提升Attention效果。

· Massive

Exploration of Neural Machine Translation Architectures by Britz et al (link)

· Recurrent Convolutional Neural Networks for

Discourse Compositionality by Kalchbrenner and Blunsom (link)

重要博客文章/網頁:

· 注意機制和增強化的循環神經網路:僅與基於注意力機制的RNN部分相關,但Olah"的文章是非常值得閱讀的。

· 斯坦福大學NMT實驗室頁面:涉及Luong,See和Manning在NMT上的工作。非常有趣看看最近的技術。教程/代碼/模型可用。

其他:(未排序)

· JayPark的Github https://github.com/JayParks/tf-seq2seq

· https://github.com/ematvey/tensorflow-seq2seq-tutorials

· https://indico.io/blog/the-good-bad-ugly-of-tensorflow/

· https://www.reddit.com/r/MachineLearning/comments/43fw8s/simple_seq2seq_example_in_tensorflow/

· https://r2rt.com/recurrent-neural-networks-in-tensorflow-iii-variable-length-sequences.html

· http://forums.fast.ai/t/the-wonders-of-the-new-version-of-tensorflow-1-2rc0/3491

· http://monik.in/a-noobs-guide-to-implementing-rnn-lstm-using-tensorflow/

· http://suriyadeepan.github.io/2016-12-31-practical-seq2seq/

在Chatbot和Summarization中使用(未排序)

· https://tutorials.botsfloor.com/how-to-build-your-first-chatbot-c84495d4622d

· https://medium.com/towards-data-science/text-summarization-with-amazon-reviews-41801c2210b

· http://pavel.surmenok.com/2016/10/15/how-to-run-text-summarization-with-tensorflow/

往期精彩內容分享:

麻省理工學院-2017年-深度學習與自動駕駛視頻課程分享

模型匯總22 機器學習相關基礎數學理論、概念、模型思維導圖分享

深度學習在自然語言處理中的應用綜述

深度學習與NLP 深度學習|機器學習|人工智慧 精品視頻教程合集分享

深度學習/機器學習的處理器列表(最全_中文版)

純乾貨14 2017年-李宏毅-最新深度學習/機器學習中文視頻教程分享_後篇

純乾貨10 強化學習視頻教程分享(從入門到精通)

純乾貨7 Domain Adaptation視頻教程(附PPT)及經典論文分享


補充幾篇最新的論文,2017年上半年的三國演義,感覺在掐架,很有意思

Facebook:Convolutional Sequence to Sequence Learning

谷歌:Attention Is All You Need

微軟:Neural Phrase-based Machine Translation


推薦閱讀:

只有達到 state of the art精度的方法才能發文章嗎?
如何評價谷歌剛推出的Cloud AutoML?
人工智慧和人類智能的本質區別是什麼?
中科院的「寒武紀1號」晶元和IBM 的「真北」晶元有什麼不同?
如何看待《The Landscape of Deep Learning Algorithms》?

TAG:人工智慧 | 機器學習 | 神經網路 | 機器翻譯 | 深度學習DeepLearning |