最全整理!清华大学发布机器翻译学习资料清单
作者|清华大学自然语言处理组
译者|Vincent
编辑|Debra
AI 前线导读:2018 年即将结束,在 18 年的最后一个工作日,清华大学自然语言处理组整理了一份机器翻译论文的阅读清单。
更多干货内容请关注微信公众号“AI 前线”(ID:ai-front)
过去三十年见证了机器翻译的快速发展,尤其是数据驱动方法,如统计机器翻译(SMT)和神经机器翻译(NMT)。由于目前 NMT 占主导地位,因此我们优先收集重要且最新的 NMT 文献。该列表仍然不完整,分类可能不合适。我们将继续增加论文并改进清单。欢迎任何建议!——清华大学自然语言处理组
清单地址:
https://github.com/THUNLP-MT/MT-Reading-List
清单简单分为这样三个大的部分:十篇必读文献、统计机器翻译 以及 神经网络机器翻译。
清单回顾了统计机器翻译(SMT)时代的亮点论文,并概括了近期神经机器翻译(NMT)方向下的各个子领域,其中包括:
模型架构、注意力机制、开放词表问题与字符级别神经机器翻译、训练准则与框架、解码机制、低资源语言翻译、多语种机器翻译、先验知识融合、文档级别机器翻译、机器翻译中的鲁棒性、可视化与可解释性、公正性与多样性、机器翻译效率问题、语音翻译与同传翻译、多模态翻译、预训练方法、领域适配问题、质量估计、自动后处理、推导双语词典以及诗歌翻译。
总之这份清单内容十分丰富,可以收藏之后慢慢研究,同时也感谢清华大学同学们的付出!
附完整目录:
10 篇必读
统计机器翻译
教程
基于单词的模型
基于短语的模型
基于语法的模型
判别训练
系统组合
评估
神经机器翻译
教程
模型架构
注意机制
开放的词汇和基于字符的 NMT
训练目标和框架
解码
低 资源(Low-resource)语言翻译
半监督方法
无监督方法
基于数据透视(Pivot-based)的方法
数据增强方法
数据选择方法
迁移 学习与多任务学习方法
元学习方法
多语言翻译
先验知识整合
单词/短语约束
句法/语义约束
覆盖范围限制
文档级翻译
稳健性
可视化和可解释性
公平与 多样性
效率
语音翻译与同声翻译
多模态
预训练
域适应
质量评估
自动后编(Automatic Post-Editing)
词汇翻译与双语词汇归纳
诗歌翻译
原文链接:
https://github.com/THUNLP-MT/MT-Reading-List
如果你喜欢这篇文章,或希望看到更多类似优质报道,记得给我留言和点赞哦!
阅读原文
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设、网站改版、域名注册、主机空间、手机网站建设、网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。 项目经理在线