神经网络与深度学习 42
- 39 神经网络与大脑关系
- 38 参数(Parameters)与超参数(Hyperparameters)
- 37 前向传播与反向传播
- 36 深度神经网络构建模块(Building Blocks of Deep Neural Networks)
- 35 为什么深度表示(Deep Representations)有效?
- 34 正确设置矩阵维度
- 33 深度神经网络中的前向传播(Forward Propagation in a Deep Network)
- 32 深度L层神经网络
- 伊恩·古德费洛访谈
- 31 神经网络中的随机初始化(Random Initialization)
- 30 反向传播直觉(Backpropagation Intuition)
- 29 单隐藏层神经网络的梯度下降(Gradient Descent for Neural Networks)
- 28 神经网络中激活函数的导数(Derivatives of Activation Functions)
- 27 为什么神经网络必须使用非线性激活函数?
- 26 神经网络中的激活函数(Activation Functions)
- 25 神经网络中的向量化实现(Vectorized Implementation)
- 24 多样本向量化(Vectorizing Across Multiple Examples)
- 23 计算神经网络的输出
- 22 神经网络结构概述
- 21 神经网络概述
- 20 逻辑回归代价函数详解
- 19 避免 NumPy 中的“秩1数组”(Rank-1 Array)陷阱
- 18 Python 中的广播机制(Broadcasting in Python)
- 17 向量化逻辑回归的梯度计算(Vectorizing Logistic Regression's Gradient Computation)
- 16 向量化逻辑回归(Vectorizing Logistic Regression)
- 15 更多向量化示例(More Vectorization Examples)
- 14 向量化(Vectorization)
- dL/dz 的推导
- 13 在 m 个样本上执行梯度下降(Gradient Descent on m Examples)
- 12 逻辑回归的梯度下降(Gradient Descent for Logistic Regression)
- 11 使用计算图求导(Derivatives with a Computation Graph)
- 10 计算图(Computation Graph)
- 09 导数(Derivatives)的直观理解与实例
- 08 导数的直观理解(Intuition about Derivatives)
- 07 梯度下降(Gradient Descent)
- 06 逻辑回归成本函数
- 05 逻辑回归
- 04 神经网络编程基础 — 二元分类(Binary Classification)
- 03 为什么深度学习现在才真正起飞?
- 03 为什么深度学习现在才真正起飞?
- 02 监督学习与神经网络
- 01 什么是神经网络?