Leon Yi

31 神经网络中的随机初始化(Random Initialization)

一、为什么不能将权重初始化为零?   在逻辑回归(Logistic Regression)中,将权重 $\mathbf{w}$ 初始化为零是可以接受的。 但在神经网络中,如果将所有权重初始化为零,会导致一个严重问题:对称性问题(Symmetry Problem) 。 1. 对称性问题的产生   考虑一个简单的神经网络结构: 输入特征数:$n^{(0)} = 2$ 隐藏层单元...

29 单隐藏层神经网络的梯度下降(Gradient Descent for Neural Networks)

🧠 课程主题:   本课程讲解如何对具有一个隐藏层的神经网络实现梯度下降(Gradient Descent),核心在于前向传播(Forward Propagation)和反向传播(Backpropagation)的计算流程。 🔢 网络结构与参数维度   假设: 输入特征维度:$n^{(0)} = n_x$ 隐藏层单元数:$n^{(1)} = n_1$ 输出层单元数(...

27 为什么神经网络必须使用非线性激活函数?

🧠 课程核心问题 为什么神经网络必须使用非线性激活函数?   简短回答:如果所有层都使用线性激活函数(即恒等函数),那么无论网络有多少隐藏层,整个网络等价于一个单层线性模型,无法学习复杂的非线性关系。 🔍 详细解释 1. 假设使用线性激活函数   考虑一个含一个隐藏层的简单神经网络: 输入:$\mathbf{x} \in \mathbb{R}^{n_x}$ ...

26 神经网络中的激活函数(Activation Functions)

在构建神经网络时,一个非常重要的设计选择是隐藏层和输出层应使用哪种激活函数。激活函数决定了神经元如何将加权输入 $z$ 转换为输出激活值 $a$。 1. 激活函数的作用 引入非线性,使神经网络能够拟合复杂函数。 若没有非线性激活函数,多层网络等价于单层线性模型,无法表达复杂模式。 2. 常见激活函数详解 (1) Sigmoid 函数(逻辑函数) 公式...