10 计算图(Computation Graph)
1. 背景与动机 在深度学习中,神经网络的计算通常分为两个阶段: 前向传播(Forward Propagation) :从输入开始,逐层计算,最终得到输出(例如损失函数 $J$)。 反向传播(Backward Propagation) :从输出 $J$ 出发,利用链式法则计算梯度(即偏导数),用于参数更新。 计算图 正是用来清晰地表示这两个过程的工具。它将复杂的函数...
1. 背景与动机 在深度学习中,神经网络的计算通常分为两个阶段: 前向传播(Forward Propagation) :从输入开始,逐层计算,最终得到输出(例如损失函数 $J$)。 反向传播(Backward Propagation) :从输出 $J$ 出发,利用链式法则计算梯度(即偏导数),用于参数更新。 计算图 正是用来清晰地表示这两个过程的工具。它将复杂的函数...
一、导数的本质:函数在某一点的“斜率” 导数(Derivative)描述的是函数在某一点处的瞬时变化率,也就是该点处切线的斜率。 对于函数 $f(a)$,其在点 $a$ 处的导数记作: \[\frac{d}{da} f(a)\] 或简写为 $f’(a)$。 ✅ 关键理解:导数不是固定值(除非函数是直线),它会随着输入 $a$ 的不同而变化。 ...
1. 为什么需要理解导数? 在深度学习中,不需要精通微积分也能有效应用神经网络。 但具备对导数的直观理解有助于: 理解反向传播(Backpropagation) 调试和设计模型 理解优化算法(如梯度下降) 后续课程(如第4周)会将微积分封装在 forward 和 backward 函数中,使用者无需手动...
1. 背景回顾:逻辑回归与目标 在逻辑回归中,我们希望学习参数 权重向量 $\mathbf{w}$ 和 偏置 $b$,使得模型对训练数据的预测尽可能准确。 对于第 $i$ 个样本,模型输出为: \[\hat{y}^{(i)} = \sigma(\mathbf{w}^\top \mathbf{x}^{(i)} + b)\] 其中 $\sigma(z) = \...
1. 回顾:逻辑回归模型 逻辑回归用于二分类问题。 对于输入样本 $x^{(i)}$,模型预测输出为: \[\hat{y}^{(i)} = \sigma(w^\top x^{(i)} + b)\] 其中 $\sigma(z) = \frac{1}{1 + e^{-z}}$ 是 Sigmoid 函数。 $w$ 和 $b$ 是需要学习的参数。 ...
一、课程内容详解 1. 逻辑回归(Logistic Regression)简介 适用场景:监督学习中的二分类问题,即标签 $y \in {0, 1}$。 目标:给定输入特征向量 $\mathbf{x} \in \mathbb{R}^{n_x}$,模型输出预测值 $\hat{y}$,表示: \[\hat{y} = P(y = 1 \mid \mathbf{x})\] ...
一、课程概述 本节课是深度学习入门系列的第一部分,重点介绍神经网络编程的基本范式,并通过逻辑回归(Logistic Regression) 这一简单但核心的模型,讲解以下关键思想: 向量化(Vectorization) :避免使用显式的 for 循环遍历训练样本,而是通过矩阵运算一次性处理整个训练集。 前向传播(Forward Propagation)与反向传播(Back...
一、个人学术历程:从哲学到神经网络 阶段 经历 关键转折 高中时期(1966年左右) 同学提及“大脑使用全息图存储记忆” → 受Lashley大鼠实验启发 对分布式记忆产生兴趣 剑桥大学本科 先学生理+物理 → 转哲学(认为缺...
📌 核心观点总结 1. 技术基础早已存在 深度学习的核心思想(如神经网络)早在几十年前就已提出。 但直到最近十年才大规模成功应用。 2. 三大驱动力推动深度学习崛起 ✅ 驱动因素一:数据规模(Scale of Data) 数字化社会带来海量数据: 用户行为(网页、App、搜索等) 传感器数据(手机摄像头、IoT设备、加...
📌 核心观点总结 1. 技术基础早已存在 深度学习的核心思想(如神经网络)早在几十年前就已提出。 但直到最近十年才大规模成功应用。 2. 三大驱动力推动深度学习崛起 ✅ 驱动因素一:数据规模(Scale of Data) 数字化社会带来海量数据: 用户行为(网页、App、搜索等) 传感器数据(手机摄像头、IoT设备、加...