常见的激励函数:sigmoid函数、tanh函数、ReLu函数、SoftMax函数等等。为什么要用relu激活功能?使用sigmod函数会导致将近一半的神经元被激活,和relu函数在这方面类似,它自动引入稀疏性,相当于无监督的预练习,k做二进制分类,激活函数非常适合作为输出层的激活函数,其他单元都用ReLU函数。1、梯度消失问题与如何选择激活函数本文结构:梯度消失,这种现象经常发生在基于梯度训练神经网络的过程中。当我们做反向传播,计算损失函数对权重的梯度时,梯度随着反向传播越来越小,这意味着网络前一层的神...
更新时间:2025-01-26标签: 函数relu激活sigmoidtanh 全文阅读