文档名:基于联合注意力机制的篇章级机器翻译
近年来,神经机器翻译(Neuralmachinetranslation,NMT)表现出极大的优越性,然而如何在翻译一个文档时考虑篇章上下文信息仍然是一个值得探讨的问题.传统的注意力机制对源端的所有词语进行计算,而在翻译当前句子时篇章中大量的信息中只有小部分是与之相关的.在篇章级机器翻译中,采用传统的注意力机制建模篇章信息存在着信息冗余的问题.该文提出了一种联合注意力机制,结合“硬关注”和“软关注”的机制对篇章上下文的信息进行建模.关键思想是通过“硬关注”筛选出与翻译当前句子相关的源端历史词语,然后采用“软关注”的方法进一步抽取翻译中所需的上下文信息.实验表明,相比于基线系统,该方法能使翻译性能获得明显提升.
作者:李京谕冯洋
作者单位:中国科学院计算技术研究所智能信息处理重点实验室,北京100190;中国科学院大学,北京100049
母体文献:第十八届中国计算语言学大会暨中国中文信息学会2019学术年会论文集
会议名称:第十八届中国计算语言学大会暨中国中文信息学会2019学术年会
会议时间:2019年10月18日
会议地点:昆明
主办单位:中国中文信息学会
语种:chi
分类号:
关键词:篇章信息 神经机器翻译 注意力机制 硬关注方式 软关注方式
在线出版日期:2021年8月24日
基金项目:
相似文献
相关博文
- 文件大小:
- 692.01 KB
- 下载次数:
- 60
-
高速下载
|
|