Leon Yi

23 学习率衰减(Learning Rate Decay)

一、为什么要使用学习率衰减?   在使用 Mini-batch 梯度下降法 时: Mini-batch 的样本数量较小(如 64 或 128),导致梯度估计存在 噪声(noise) ; 若使用 固定学习率 $\alpha$,优化过程会在最优值附近 持续震荡,无法精确收敛; 如果 随训练进程逐渐减小学习率,初期快速下降,后期精细调整,可使参数更稳定地收敛到最小值附近。 ...

22 Adam 优化算法(Adam Optimization Algorithm)

✅ 简介   在深度学习的发展历程中,许多研究人员提出了新的优化算法,但大多数仅在特定问题上表现良好,缺乏泛化能力。因此,社区对新优化算法持谨慎态度。   而 Adam(Adaptive Moment Estimation) 是少数被广泛验证、适用于多种神经网络架构的有效优化算法之一。它结合了: 动量法(Momentum) RMSProp   从而实现了快速且稳定的训练...

21 RMSprop(Root Mean Square Propagation) 优化算法

🧠 RMSprop 算法详解总结 一、问题背景:梯度下降中的震荡问题   在标准(小批量)梯度下降中,若损失函数在某些参数方向上曲率大(如垂直方向),而在另一些方向上曲率小(如水平方向),会导致: 垂直方向:梯度大 → 更新步长过大 → 出现剧烈震荡; 水平方向:梯度小 → 更新缓慢 → 收敛速度慢。   目标:抑制震荡方向的更新幅度,加速平缓方向的学习。 二、RM...

20 动量梯度下降法(Gradient Descent with Momentum)

🧠 一、动机:为什么需要动量?   标准梯度下降在优化具有“狭长椭圆”等高线的损失函数时,会出现剧烈振荡(尤其在垂直方向),导致: 收敛速度慢; 无法使用较大的学习率(否则会发散)。 目标:希望在垂直方向减速(抑制振荡),在水平方向加速(快速逼近最小值)。 ⚙️ 二、动量法的核心思想 对梯度进行指数加权平均(Exponentially Weighted...