Leon Yi

为什么 Agent 能不能跑稳,关键不只是模型:从 Prompt、Context 到 Harness Engineering

这两年,AI 圈很喜欢造新词。 先是 Prompt Engineering,后来是 Context Engineering,现在又轮到 Harness Engineering。如果你只是远远看着,很容易觉得这不过是换个术语继续包装旧东西。 但如果你真的做过一点 AI 应用,尤其是做过 Agent,很快就会发现:这几个词不是在争流行度,它们对应的是三类完全不同的问题。 最开始,大家在解决...

11 结论和致谢(Conclusion and Thank You)

这一节在讲什么   这一节没有新公式,重点是回顾整门课的主线,并强调深度学习能做什么。 课程回顾   吴恩达在这里回顾了整个专项课程已经覆盖的内容: 神经网络和深度学习 深层网络的优化与改进 机器学习项目的结构化方法 卷积神经网络 序列模型   也就是说,到这一节为止,你已经把深度学习里最核心的一批基础模块都走过一遍了。 对序列模型这门课的回顾   这门...

10 触发字检测(Trigger Word Detection)

这一节在讲什么   这一节讲的是触发字检测,也叫唤醒词检测。   典型例子: Alexa Hey Siri Okay Google 小度你好   任务目标不是完整转写整段语音,而是判断: 这一段音频里,什么时候刚刚说完了触发词? 为什么这个任务更简单   和完整语音识别相比,触发字检测只关心一个固定短语。   所以: 输出空间小得多 数...

08 注意力模型(Attention Model)

这一节在讲什么   这一节把上一节的直觉正式写成公式,说明注意力模型到底怎么算。 第一步:先用双向 RNN 编码输入   假设输入句子长度是 $T_x$。   对每个输入位置 $t’$,双向 RNN 会得到一个表示向量: [a^{\langle t’ \rangle}]   你可以把它理解成: 第 $t’$ 个词在结合了左边和右边上下文之后的“上下文特征”。   所以...

07 注意力模型直观理解(Attention Model Intuition)

这一节在讲什么   这一节先不急着上公式,而是讲一个核心直觉: 人在翻译长句子时,不会先把整句死记硬背下来,再一次性吐出来;人是看一部分,翻一部分。   注意力模型就是把这个想法交给神经网络。 为什么基础 seq2seq 对长句子吃力   基础编码器-解码器的做法是: 编码器把整句都读完 把整句信息压成一个固定长度向量 解码器再靠这个向量生成整句翻译  ...

06 BLEU 得分(Bleu Score)

这一节在讲什么   机器翻译有一个麻烦: 同一句法语,可能有好几种都正确的英文翻译。   所以不能像分类任务那样,只看“是否完全等于标准答案”。   BLEU 就是为了解决这个问题而设计的自动评价指标。 为什么机器翻译不好评估   课程里的例子:   法语句子: [\text{Le chat est sur le tapis}]   参考翻译 1: [\text{...