神经网络学习-激活函数

如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。 正因为上面的原因,a56爆大奖在线娱乐们决定引入非线性函数作为激励函数,这
posted @ 2020-04-16 14:20  hhwblogs  阅读(269)  评论(0编辑  收藏  举报