yoyoyohamapi/mit-ml

神经网络前馈计算的疑问

clpl opened this issue · 2 comments

clpl commented

在神经网络代码中前馈函数fp(Thetas, X)中

有一项是a[l] = np.concatenate((np.ones((1, a[l].shape[1])), a[l])),注释是“添加偏置”

我对这一个操作有疑问,神经网络的每一层前馈不应该是WX + B吗?
应该有一个加操作,为什么这里没有体现?

@clpl 感谢反馈,最近被工作压得透不过气,空了我看看。Thx.

clpl commented

辛苦了