返回列表 发布新帖

ThLU激活函数

6 0
admin 发表于 2024-12-9 13:28 | 查看全部 阅读模式

ThLU激活函数.pdf
激活函数在深度学习中具有重要作用,深度学习在人工智能领域取得瞩目成绩的部分原因在于其激活函数的改进.但是目前的激活函数仍存在着神经元死亡现象严重、梯度消失等缺点.为了解决以上问题,本文基于tanh函数的负半轴可以减轻梯度消失,和ReLU函数正半轴不存在神经元死亡现象,提出了一个新的激活函数:ThLU函数.ThLU函数的正半轴来自于ReLU函数的正半轴,负半轴来自于tanh函数的负半轴.为了验证ThLU函数的性能,本文基于VggNet-16神经网络架构,分别在CIFAR-10和CIFAR-100数据集上进行了试验验证.试验结果表明:基于ThLU函数训练得到的神经网络模型比基于ReLU,LReLU和ELU函数训练得到的神经网络模型具有更高的准确率、更低的损失.即:ThLU函数可以减轻神经元死亡和梯度消失现象,是一个高效的激活函数.
作者:刘坤华钟佩思郑义杨凯歌刘梅曾庆良
作者单位:山东科技大学先进制造技术研究中心,山东青岛266590
母体文献:第五届全国现代制造集成技术学术会议论文集
会议名称:第五届全国现代制造集成技术学术会议  
会议时间:2018年11月17日
会议地点:上海
主办单位:《计算机集成制造系统》编辑部
语种:chi
分类号:
关键词:深度学习  ThLU函数  正半轴  负半轴  神经网络模型
在线出版日期:2021年9月26日
基金项目:
相似文献
相关博文
2024-12-9 13:28 上传
文件大小:
615.6 KB
下载次数:
60
高速下载
【温馨提示】 您好!以下是下载说明,请您仔细阅读:
1、推荐使用360安全浏览器访问本站,选择您所需的PDF文档,点击页面下方“本地下载”按钮。
2、耐心等待两秒钟,系统将自动开始下载,本站文件均为高速下载。
3、下载完成后,请查看您浏览器的下载文件夹,找到对应的PDF文件。
4、使用PDF阅读器打开文档,开始阅读学习。
5、使用过程中遇到问题,请联系QQ客服。

本站提供的所有PDF文档、软件、资料等均为网友上传或网络收集,仅供学习和研究使用,不得用于任何商业用途。
本站尊重知识产权,若本站内容侵犯了您的权益,请及时通知我们,我们将尽快予以删除。
  • 手机访问
    微信扫一扫
  • 联系QQ客服
    QQ扫一扫
2022-2025 新资汇 - 参考资料免费下载网站 最近更新浙ICP备2024084428号
关灯 返回顶部
快速回复 返回顶部 返回列表