神经网络中的偏置项b到底是什么?

  • Post author:
  • Post category:其他



前言

很多人不明白为什么要在神经网络、逻辑回归中要在样本X的最前面加一个1,使得

X=[x1,x2,…,xn]

变成 X=[1,x1,x2,…,xn] 。因此可能会犯各种错误,比如漏了这个1,或者错误的将这个1加到W·X的结果上,导致模型出各种bug甚至无法收敛。究其原因,还是没有理解这个偏置项的作用啦。

在文章

《逻辑回归》



《从逻辑回归到神经网络》<



版权声明:本文为Uwr44UOuQcNsUQb60zk2原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。