Leon Yi

36 深度神经网络构建模块(Building Blocks of Deep Neural Networks)

一、核心思想   深度神经网络的训练依赖于两个关键过程: 前向传播(Forward Propagation) :从输入到输出逐层计算激活值。 反向传播(Backward Propagation) :从输出误差出发,逐层计算梯度,用于参数更新。   每一层都可视为一个“计算单元”,包含独立的前向函数和反向函数,并通过缓存(cache) 传递中间变量(尤其是 $z^{[l]}$...

35 为什么深度表示(Deep Representations)有效?

一、核心观点 深度神经网络之所以在许多任务中表现优异,关键不在于参数总量大,而在于网络“深”——即具有多层隐藏层。这种“深度”使得网络能够以层次化、组合式的方式学习从简单到复杂的特征表示。 二、直观理解:层次化特征学习(Hierarchical Feature Learning) 1. 图像识别中的例子(如人脸识别) 第1层(浅层) :检测边缘(edges...

31 神经网络中的随机初始化(Random Initialization)

一、为什么不能将权重初始化为零?   在逻辑回归(Logistic Regression)中,将权重 $\mathbf{w}$ 初始化为零是可以接受的。 但在神经网络中,如果将所有权重初始化为零,会导致一个严重问题:对称性问题(Symmetry Problem) 。 1. 对称性问题的产生   考虑一个简单的神经网络结构: 输入特征数:$n^{(0)} = 2$ 隐藏层单元...