改进深度神经网络 36
- 35 TensorFlow 基础与自动微分机制
- 34 深度学习框架(Deep Learning Frameworks)的价值与选择标准
- 33 训练一个使用了 Softmax 的分类器
- 32 Softmax 回归
- 31 测试时的 Batch Normalization(Batch Norm at Test Time)
- 30 Batch Normalization 为何有效?
- 29 将 Batch Norm 拟合进神经网络(Fitting Batch Norm into a Neural Network)
- 28 归一化网络的激活函数(Normalizing activations in a network)
- 27 超参数调优的两种策略 —— “熊猫方式” vs. “鱼子酱方式”
- 26 为超参数选择合适的采样尺度(Scale)
- 25 超参数调试(Hyperparameter Tuning)
- 24 深度学习中的优化挑战 —— 局部最优 vs 鞍点 vs 平稳段
- 23 学习率衰减(Learning Rate Decay)
- 22 Adam 优化算法(Adam Optimization Algorithm)
- 21 RMSprop(Root Mean Square Propagation) 优化算法
- 20 动量梯度下降法(Gradient Descent with Momentum)
- 19 指数加权平均中的偏差修正(Bias Correction in Exponentially Weighted Averages)
- 18 了解指数加权平均
- 17 指数加权平均(Exponentially Weighted Averages)
- 16 了解小批量梯度下降法
- 15 优化算法 —— Mini-batch Gradient Descent(小批量梯度下降)
- 约书亚·本吉奥访谈
- 14 梯度检查(Gradient Checking)实现要点
- 13 梯度检查(Gradient Checking)
- 12 梯度的数值近似(Numerical Approximation of Gradients)
- 11 深度神经网络的权重初始化(Weight Initialization for Deep Networks)
- 10 梯度消失与梯度爆炸问题(Vanishing / Exploding Gradients)
- 09 输入归一化(Normalizing Inputs)
- 08 神经网络中的其他正则化方法
- 07 了解 Drop out
- 06 Dropout 正则化
- 05 为什么正则化能减少过拟合?
- 04 神经网络中的正则化(Regularization in Neural Networks)
- 03 机器学习基本配方(Basic Recipe for Machine Learning)
- 02 Bias(偏差)与 Variance(方差)
- 01 训练集(Train)、开发集(Dev)和测试集(Test)