返回列表 发布新帖

基于联合注意力机制的篇章级机器翻译

5 0
admin 发表于 2024-12-10 14:49 | 查看全部 阅读模式

文档名:基于联合注意力机制的篇章级机器翻译
近年来,神经机器翻译(Neuralmachinetranslation,NMT)表现出极大的优越性,然而如何在翻译一个文档时考虑篇章上下文信息仍然是一个值得探讨的问题.传统的注意力机制对源端的所有词语进行计算,而在翻译当前句子时篇章中大量的信息中只有小部分是与之相关的.在篇章级机器翻译中,采用传统的注意力机制建模篇章信息存在着信息冗余的问题.该文提出了一种联合注意力机制,结合“硬关注”和“软关注”的机制对篇章上下文的信息进行建模.关键思想是通过“硬关注”筛选出与翻译当前句子相关的源端历史词语,然后采用“软关注”的方法进一步抽取翻译中所需的上下文信息.实验表明,相比于基线系统,该方法能使翻译性能获得明显提升.
作者:李京谕冯洋
作者单位:中国科学院计算技术研究所智能信息处理重点实验室,北京100190;中国科学院大学,北京100049
母体文献:第十八届中国计算语言学大会暨中国中文信息学会2019学术年会论文集
会议名称:第十八届中国计算语言学大会暨中国中文信息学会2019学术年会  
会议时间:2019年10月18日
会议地点:昆明
主办单位:中国中文信息学会
语种:chi
分类号:
关键词:篇章信息  神经机器翻译  注意力机制  硬关注方式  软关注方式
在线出版日期:2021年8月24日
基金项目:
相似文献
相关博文
2024-12-10 14:49 上传
文件大小:
692.01 KB
下载次数:
60
高速下载
【温馨提示】 您好!以下是下载说明,请您仔细阅读:
1、推荐使用360安全浏览器访问本站,选择您所需的PDF文档,点击页面下方“本地下载”按钮。
2、耐心等待两秒钟,系统将自动开始下载,本站文件均为高速下载。
3、下载完成后,请查看您浏览器的下载文件夹,找到对应的PDF文件。
4、使用PDF阅读器打开文档,开始阅读学习。
5、使用过程中遇到问题,请联系QQ客服。

本站提供的所有PDF文档、软件、资料等均为网友上传或网络收集,仅供学习和研究使用,不得用于任何商业用途。
本站尊重知识产权,若本站内容侵犯了您的权益,请及时通知我们,我们将尽快予以删除。
  • 手机访问
    微信扫一扫
  • 联系QQ客服
    QQ扫一扫
2022-2025 新资汇 - 参考资料免费下载网站 最近更新浙ICP备2024084428号
关灯 返回顶部
快速回复 返回顶部 返回列表