Leon Yi

02 使用词嵌入(Using Word Embeddings)

这一节在讲什么   这节课讲的是: 词嵌入不是只拿来“看着很高级”,而是真的能帮助下游 NLP 任务泛化。   课程重点用命名实体识别(NER)说明这一点,并把它解释成一种迁移学习。 课程里的任务例子:识别人名   句子: [\text{Sally Johnson is an orange farmer.}]   模型需要判断 Sally Johnson 是不是人名。 ...

01 词汇表征(Word Representation)

这一节在讲什么   这节课回答的是一个最基础的问题: 计算机到底怎么表示一个单词?   课程先讲了传统的 one-hot 表示为什么不够好,再引出更强的表示方法:词嵌入(word embedding)。 传统方法:one-hot 向量   假设词表有 10000 个词。   如果 man 在词表中的编号是 5391,那么它可以表示成: [O_{5391}]   如果 ...

12 深层循环神经网络(Deep RNNs)

1. 构建深层 RNN 的动机   标准的 RNN(单层隐藏层)在处理非常复杂的函数时能力有限。类似于深度前馈神经网络通过堆叠多个隐藏层来提取更高级的特征,RNN 也可以通过在时间步上堆叠多个循环层来构建深层 RNN,以学习更复杂的序列模式。 2. 符号定义与结构   在深层 RNN 中,激活值不仅随时间 $t$ 变化,还随层数 $l$ 变化。 符号表示:用 $a^{[l]\l...

05 不同类型的循环神经网络(Different types of RNNs)

这份笔记总结了吴恩达深度学习课程中关于不同类型的循环神经网络(RNN)结构的核心内容。根据输入序列长度($T_x$)与输出序列长度($T_y$)的关系,RNN 可以分为以下五种主要架构: 1. 一对一 (One-to-One) 结构特点:输入数量等于输出数量,且通常为单个值($T_x = 1, T_y = 1$)。 描述:这是最标准的传统神经网络结构,不涉及序列处理。 示意...