全国免费咨询:

13245491521

VR图标白色 VR图标黑色
X

中高端软件定制开发服务商

与我们取得联系

13245491521     13245491521

2019-11-14_如何发现「将死」的ReLu?可视化工具TensorBoard助你一臂之力

您的位置:首页 >> 新闻 >> 行业资讯

如何发现「将死」的ReLu?可视化工具TensorBoard助你一臂之力 选自Medium 作者:Jithin Jayan机器之心编译参与:魔王、张倩深度学习模型训练中会出现各种各样的问题,比如梯度消失、梯度爆炸,以及 Dying ReLU。那么如何及时发现这些问题并找出解决方案呢?本文以 Dying ReLU 问题为例,介绍了如何使用可视化工具 TensorBoard 发现该问题,并提供了不同解决思路。 本文介绍了如何利用可视化工具 TensorBoard 发现「Dying ReLU 问题」。 什么是 ReLU? ReLU 即修正线性单元(Rectified Linear Unit),是人工神经网络中的一种激活函数。通常情况下,ReLU 是最常使用的激活函数。其主要原因在于 ReLU 不会遇到梯度消失问题。ReLU 的数学公式为: 另外一种表达式为: 其函数图像如下所示: 注意,该函数并非线性,其输出是非线性的。 ReLU 的导数是: 当 x=0 时,ReLU 的导数是未定义的。 什么是 Dying ReLU 问题? ReLU 的主要优势在于:其输出为 0 和 1,(无需在反向传播过程中乘以非常小的值,)从而解决了梯度消失问题。然而,它也存在缺陷。由于它对每个负值的输出均为 0,ReLU 神经元可能陷入负值中,持续输出 0,且无法恢复。这叫做 Dying ReLU 问题。这个问题非常严重,因为一旦神经元死亡,它基本上学不到任何信息,从而导致网络的大部分无法工作。 利用 TensorBoard 检测 Dying ReLU 问题 使用以下代码创建随机样本: x 表示大小为 200k x 4 的数组,其数值均从 (-1,0) 区间内均匀采样得到。该数组内绝大部分数值为负,是 ReLU 最不喜欢的一类输入。将该数据按照 7:3 的比例分割为训练集和测试集。 使用一个具备 ReLU 激活函数的一层简单网络。随机初始化权重,将偏差初始化为 0。 现在,初始化 TensorBoard 变量。每个 epoch 都需要梯度,因此将 write_grads 初始化为 True。 最后拟合模型,在 callbacks 参数中使用 TensorBoard 变量。 绘制训练损失和验证损失的图像。 所有 epoch 的验证损失(上)和训练损失(下)。 从上图中,我们可以清晰地看到模型损失没有降低,这意味着模型停止了学习。现在使用 TensorBoard 对密集层的梯度和输出进行可视化。 密集层输出(左)和密集层梯度(右)。 从上图中我们可以看到,对于所有 epoch,密集层梯度都为 0,输出也均为 0。梯度图显示出,一旦梯度变成 0,模型试图挣脱这种情况,但它已经完全死亡,这从损失图中也能看出,因为损失没有随时间发生变化,说明模型停止学习或者学不到任何信息。 添加层 现在,使用具备同样 ReLU 函数的三层网络,看看上述问题是否解决。本文使用如下网络: 这是一个三层网络,所有层的激活函数均为 ReLU。 现在,通过 TensorBoard 观察所有层的梯度: Dense_3 梯度(左)、Dense_2 梯度(中)、Dense_1 梯度(右)。 从上图中可以看到,添加层并没有解决 dying ReLU 问题,所有层的梯度仍然为 0,这些梯度被反向传播至模型其他层,从而影响模型的性能。 解决方案 1. 增加数据规模会有帮助吗? 不会!如果新数据与原有数据属于同一分布,则在训练集中添加这些新数据是无用的。不过,为同样的问题收集一个新数据集可能是一种解决方案。 2. 添加 Dropout 会有帮助吗? Dropout 与 ReLU 的输出没有任何关系,因此添加或者更改 Dropout 对 dying ReLU 没有影响。 3. 添加层会有帮助吗? 不会。如上所述,添加层对解决 dying ReLU 问题没有帮助。 4. 增加训练 epoch 会有帮助吗? 不会,虽然每个 epoch 结束后都会更新权重,但是由于神经元死亡,梯度为 0,使得权重无法得到更新。权重一直不变,使用相同的权重计算梯度只能得到 0,因此这对解决 dying ReLU 问题没有帮助。 5. 改变权重初始化会有帮助吗? 我们先来尝试不同的权重初始化器,并绘制其梯度和输出。下图是为使用 ReLU 激活函数的密集层梯度绘制的图,这四个网络使用的权重初始化器分别是:he_normal、he_uniform、ecun_normal 和 random_uniform。 he_normal(左)和 he_uniform(右)。 lecun_uniform(左)和 random_uniform(右)。 从上图中我们可以看到,权重初始化对解决 dying ReLU 问题没有帮助。从 he_normal、he_uniform 和 lecun_normal 的图示中可以看到,在初始化阶段有轻微的改善,但是随着 epoch 数量的增加,导数趋向于 0。 由于输入多为负值,我们使用以下代码将权重初始化为负值: 分配给权重的值均从 (-1,0) 区间内随机均匀采样得到,这与输入的分布相同。该网络的梯度和输出如下图所示: dense_1 输出(左)、dense_1 梯度(右)。 从上图中同样可以观察到,随着 epoch 数量的增加,梯度变为 0,输出也集中于 0。因此我们可以认为改变初始权重是解决 dying ReLU 问题的一种办法,但是需要确保模型不要运行太多 epoch,因为这又会导致 dying ReLU 问题。事实上,从这些图中可以看出,改变初始权重对解决 dying ReLU 问题并没有太大帮助。 6. 改变激活函数会有帮助吗? 可能会。那么要用哪种函数替代 ReLU 呢?我们可以使用 tanh 和 Sigmoid 函数。使用 ReLU 的变体 Leaky ReLU 也可以避开该问题。但是,在为该实验创建的示例中,以上所有函数均失败了,因为它们都遭遇了梯度消失问题。当我们需要在梯度消失和 Dying ReLU 中进行权衡时,有动静总比没有好。遇到梯度消失问题后,模型仍在学习,而在 Dying ReLU 中没有学习,学习过程被中断了。 这时候,Leaky ReLU 的加强版 SELU (Scaled Exponential Linear Units) 就派上用场了。SELU 激活函数可以自行归一化神经网络,即归一化后网络权重和偏差的均值为 0,方差为 1。SELU 的主要优势是不会遭遇梯度消失和梯度爆炸,同时也不会出现激活函数死亡现象。关于 SELU 的更多信息,参见论文《Self-Normalizing Neural Networks》。 注意:SELU 必须与 lecun_normal 初始化一起使用,且将 AlphaDropout 作为 dropout。对于以上数据集,我们可以使用以下网络: 该网络密集层的梯度和输出如下图所示: 从梯度图中可以看出,梯度有所改善,逐渐远离 0。从输出图中可以看出,具备 SELU 激活函数的密集层输出值很小,但也不像之前示例那样输出为 0。因此,即使在最糟糕的情况下,SELU 也比 ReLU 效果好。 结论 训练和使用深度神经网络时,实时监控损失和梯度情况是一种不错的做法,有助于发现深度学习模型训练过程中的大部分问题。如果你不知道如何发现和解决问题,那么写深度网络是没有意义的。本文只涉及了众多问题的冰山一角。每个使用深度学习和人工神经网络的人总会遇到激活函数死亡问题,一着不慎就要浪费数个小时重新训练模型,因为这时只改变模型参数已经没用了。由于 ReLU 是大部分深度学习问题中最常用的激活函数,因此大家一定要谨慎地避免该问题。而有了 TensorBoard 之后,你可以轻松发现该问题。 原文链接:https://medium.com/@jithinjayan1993/is-relu-dead-27943b50102 机器之心「SOTA模型」:22大领域、127个任务,机器学习 SOTA 研究一网打尽。阅读原文

上一篇:2025-10-01_达芬奇调色必备,3种复杂情况跟踪技巧 下一篇:2025-07-09_读博士,去哪找那么多创新点?水水得了

TAG标签:

16
网站开发网络凭借多年的网站建设经验,坚持以“帮助中小企业实现网络营销化”为宗旨,累计为4000多家客户提供品质建站服务,得到了客户的一致好评。如果您有网站建设网站改版域名注册主机空间手机网站建设网站备案等方面的需求...
请立即点击咨询我们或拨打咨询热线:13245491521 13245491521 ,我们会详细为你一一解答你心中的疑难。
项目经理在线

相关阅读 更多>>

猜您喜欢更多>>

我们已经准备好了,你呢?
2022我们与您携手共赢,为您的企业营销保驾护航!

不达标就退款

高性价比建站

免费网站代备案

1对1原创设计服务

7×24小时售后支持

 

全国免费咨询:

13245491521

业务咨询:13245491521 / 13245491521

节假值班:13245491521()

联系地址:

Copyright © 2019-2025      ICP备案:沪ICP备19027192号-6 法律顾问:律师XXX支持

在线
客服

技术在线服务时间:9:00-20:00

在网站开发,您对接的直接是技术员,而非客服传话!

电话
咨询

13245491521
7*24小时客服热线

13245491521
项目经理手机

微信
咨询

加微信获取报价