/DeepLearningNote

Deep Learning 学习笔记

Primary LanguageHTML

DeepLearningNote

Deep Learning 学习笔记

2017/2/1 创建第一个神经网络

2017/2/3 关于tanh和sigmoid和softmax


tanh相比sigmoid:

①输出与输入的关系能保持非线性单调上升和下降关系;

②该函数连续,可以微分求出函数关系,符合BP网络的梯度求解;

③具有非线性超平面(wtf?),柔和光滑有利于优化搜索;

④对神经网络容错性好;

⑤比sigmoid延迟了饱和期.

对于softmax函数:

相当于多分类时的sigmoid.

2017/2/5 避免梯度下降陷入局部极小值的方法


http://sebastianruder.com/optimizing-gradient-descent/index.html#momentum

2017/2/8 project1 预测自行车使用情况