返回列表 发布新帖

结合预训练模型和语言知识库的文本匹配方法

12 0
admin 发表于 2024-12-11 00:04 | 查看全部 阅读模式

文档名:结合预训练模型和语言知识库的文本匹配方法
针对文本相似性匹配任务,该文提出了一种大规模预训练模型融合外部知识库的方法.该方法分为三阶段:基础语言模型预训练阶段、外部知识库学习任务生成及联合训练阶段、下游任务微调阶段.在该文中探讨了方法的设计原理和原则.面向第二阶段,利用WordNet语言知识库生成学习任务,提升了现有BERT模型的性能.在第三阶段,针对相似度匹配任务进行微调.该文还试验了对知识库生成的学习任务和引入的外部任务进行联合训练,通过在微软公司提出的MT-DNN模型基础上取得进一步的性能提升,证明了知识库学习任务联合强化的可行性.此外,该文还探讨和验证了生成学习任务时结合下游任务任务特定知识,以在下游任务无法微调时改进模型性能的方法.
作者:周烨恒石嘉晗徐睿峰
作者单位:哈尔滨工业大学(深圳)计算机科学与技术学院,广东省深圳市518055
母体文献:第十八届中国计算语言学大会暨中国中文信息学会2019学术年会论文集
会议名称:第十八届中国计算语言学大会暨中国中文信息学会2019学术年会  
会议时间:2019年10月18日
会议地点:昆明
主办单位:中国中文信息学会
语种:chi
分类号:
关键词:文本匹配  预训练模型  语言知识库
在线出版日期:2021年8月24日
基金项目:
相似文献
相关博文
2024-12-11 00:04 上传
文件大小:
696.26 KB
下载次数:
60
高速下载
【温馨提示】 您好!以下是下载说明,请您仔细阅读:
1、推荐使用360安全浏览器访问本站,选择您所需的PDF文档,点击页面下方“本地下载”按钮。
2、耐心等待两秒钟,系统将自动开始下载,本站文件均为高速下载。
3、下载完成后,请查看您浏览器的下载文件夹,找到对应的PDF文件。
4、使用PDF阅读器打开文档,开始阅读学习。
5、使用过程中遇到问题,请联系QQ客服。

本站提供的所有PDF文档、软件、资料等均为网友上传或网络收集,仅供学习和研究使用,不得用于任何商业用途。
本站尊重知识产权,若本站内容侵犯了您的权益,请及时通知我们,我们将尽快予以删除。
  • 手机访问
    微信扫一扫
  • 联系QQ客服
    QQ扫一扫
2022-2025 新资汇 - 参考资料免费下载网站 最近更新浙ICP备2024084428号
关灯 返回顶部
快速回复 返回顶部 返回列表