Leon Yi

14 梯度检查(Gradient Checking)实现要点

🧪 梯度检查(Gradient Checking)实现要点总结   梯度检查是验证神经网络反向传播(Backpropagation)实现是否正确的关键调试工具。它通过数值微分近似计算梯度,并与反向传播得到的解析梯度进行比较。以下是实际应用中的核心注意事项: 1️⃣ 仅用于调试,不要在训练中使用 原因:数值梯度计算非常耗时。 对于参数向量 $\theta$ ...

13 梯度检查(Gradient Checking)

一、目的与意义   梯度检查是一种验证反向传播(Backpropagation)实现是否正确的重要调试技术。 在手动推导或编码计算梯度时,极易引入细微错误。 梯度检查通过数值微分近似真实梯度,并与反向传播计算出的解析梯度进行比对,从而发现 bug。 吴恩达强调: “它帮我节省了大量时间,多次发现反向传播中的错误。” 二、基本思想   神经网络的参数包括所有权重 $...

12 梯度的数值近似(Numerical Approximation of Gradients)

🎯 课程核心目标   本节旨在讲解如何通过数值方法近似计算梯度,为后续的 梯度检验(Gradient Checking) 打下基础。梯度检验是一种验证反向传播(Backpropagation)实现是否正确的关键技术。 🔢 1. 背景:为什么需要数值近似梯度? 在实现反向传播时,容易因索引错误、符号错误或链式法则应用不当而引入 bug。 数值近似提供了一种独立于解析梯度的...

11 深度神经网络的权重初始化(Weight Initialization for Deep Networks)

🧠 课程核心目标   解决深度神经网络训练中的 梯度消失(vanishing gradients) 和 梯度爆炸(exploding gradients) 问题。 虽然权重初始化不能完全消除该问题,但合理的初始化策略能显著缓解,从而提升训练稳定性和收敛速度。 🔍 1. 单神经元示例分析   考虑一个单神经元模型: 输入:$x_1, x_2, \dots, x_n$(共 ...

10 梯度消失与梯度爆炸问题(Vanishing / Exploding Gradients)

🔍 1. 问题背景   在训练非常深的神经网络(如 L = 100+ 层)时,会出现以下现象: 梯度爆炸(Exploding Gradients) :梯度值变得极大(甚至趋于无穷),导致参数更新剧烈、训练不稳定。 梯度消失(Vanishing Gradients) :梯度值变得极小(接近 0),导致参数几乎不更新,训练停滞。 这两类问题统称为 “梯度不稳定” ,是早...