Leon Yi

05 谷歌 Inception 网络简介(Inception network motivation)

05 谷歌 Inception 网络简介(Inception network motivation) Inception网络核心思想与架构解析 Inception网络(也称GoogLeNet)的核心动机在于解决传统卷积神经网络设计中的一个核心难题:人工选择卷积核尺寸(1×1, 3×3, 5×5)或池化层的决策困境。Inception模块通过一种巧妙的并行架构,让网络自行决定在每一层需要什...

03 残差网络(ResNets)——深度神经网络的突破

03 残差网络(ResNets)——深度神经网络的突破 🌟 课程核心目标 本节旨在解决深度神经网络训练中的梯度消失与梯度爆炸问题,通过引入“跳跃连接”(Skip Connection)构建残差网络(Residual Networks, ResNets) ,使得网络可以训练得更深、更稳定、性能更强。 🔍 一、传统神经网络的局限性 ❌ 问题:深度网络难以训练 随着网络层数增加,会出...

02 经典神经网络(Classic Networks)

02 经典神经网络(Classic Networks) 课程总结 本节课程介绍了深度学习发展史中三个具有里程碑意义的经典卷积神经网络(CNN)结构:LeNet-5、AlexNet 和 VGG-16。这些模型为现代计算机视觉奠定了基础,理解它们的结构、设计思想和历史背景对于深入掌握深度学习至关重要。 🎯 课程目标 理解 LeNet-5、AlexNet、VGG-16 的整体架构...

01 为什么要进行实例探究?(Why look at case studies?)

01 为什么要进行实例探究?(Why look at case studies?) 一、为什么要研究 CNN 实例?(Why Look at Case Studies?) 核心目的: 从实践中学习架构设计思想:虽然我们已经掌握了 CNN 的基本构件(卷积层、池化层、全连接层等),但如何将它们有效组合以解决实际问题,才是关键。 迁移能力:在计算机视觉任务中表现优异的网络架构(如...

10 卷积神经网络(CNN)示例

10 卷积神经网络(CNN)示例 卷积神经网络(CNN)课程总结 —— 吴恩达《深度学习》系列课程精讲 🎯 课程目标 本节课程旨在通过一个典型卷积神经网络结构示例,帮助理解 CNN 的基本构建模块、各层的参数计算方法以及整体网络设计逻辑。该模型受经典 LeNet-5 启发,适用于手写数字识别任务(如 MNIST 数据集),是计算机视觉中非常典型的架构。 🔧 网络结构概览 ...

09 池化层(Pooling Layers)

09 池化层(Pooling Layers) 池化层的作用 缩减模型大小:通过减少特征图的空间维度,使得后续计算更加高效。 提高计算速度:减少了需要处理的数据量,加快了训练和推理过程。 增加特征的鲁棒性:通过提取区域内的重要信息(如最大值或平均值),使网络对输入的小幅度变化更不敏感。 最大池化(Max Pooling) 工作原理:将输入拆分为多个区域,并从每个区...

08 简单卷积网络示例

08 简单卷积网络示例 概述 本节课主要介绍了如何构建一个简单的卷积神经网络(CNN),用于图像分类任务,比如识别图片中是否有猫。通过这个过程,我们学习了如何计算各层的输出尺寸,并且了解了随着网络深度加深时,特征图的高度和宽度逐渐减小,而通道数逐渐增加的趋势。 卷积层设计与计算 输入层: 输入图像尺寸为 $39 \times 39 \times...

07 单层卷积神经网络

07 单层卷积神经网络 🎯 单层卷积网络(One Layer of a Convolutional Network) 本节课讲解了卷积神经网络中单个卷积层的工作原理,包括输入输出维度推导、过滤器参数计算、激活函数应用以及标准符号体系。我们通过一个具体例子深入理解了从输入图像到输出特征图的完整前向传播过程。 ✅ 一、核心概念回顾 1. 卷积层的基本作用 使用一组过滤器(fi...