Leon Yi

设计 Agent 在设计什么

这两年大家都在讲 Agent,但真正把 Agent 跑进业务里之后,很多团队都会遇到同一个问题:Demo 很惊艳,落地却不稳定。 原因通常不在模型本身,而在设计方法。很多项目一上来就想做“全自动智能体”,结果把流程、权限、工具、记忆、评测全堆在一起,最后既不稳定,也不便宜,还很难解释为什么成功或失败。 如果只看业务结果,Agent 的价值其实很朴素:让一部分原本需要人反复切换上下文、查资...

为什么 Agent 能不能跑稳,关键不只是模型:从 Prompt、Context 到 Harness Engineering

这两年,AI 圈很喜欢造新词。 先是 Prompt Engineering,后来是 Context Engineering,现在又轮到 Harness Engineering。如果你只是远远看着,很容易觉得这不过是换个术语继续包装旧东西。 但如果你真的做过一点 AI 应用,尤其是做过 Agent,很快就会发现:这几个词不是在争流行度,它们对应的是三类完全不同的问题。 最开始,大家在解决...

11 结论和致谢(Conclusion and Thank You)

这一节在讲什么   这一节没有新公式,重点是回顾整门课的主线,并强调深度学习能做什么。 课程回顾   吴恩达在这里回顾了整个专项课程已经覆盖的内容: 神经网络和深度学习 深层网络的优化与改进 机器学习项目的结构化方法 卷积神经网络 序列模型   也就是说,到这一节为止,你已经把深度学习里最核心的一批基础模块都走过一遍了。 对序列模型这门课的回顾   这门...

10 触发字检测(Trigger Word Detection)

这一节在讲什么   这一节讲的是触发字检测,也叫唤醒词检测。   典型例子: Alexa Hey Siri Okay Google 小度你好   任务目标不是完整转写整段语音,而是判断: 这一段音频里,什么时候刚刚说完了触发词? 为什么这个任务更简单   和完整语音识别相比,触发字检测只关心一个固定短语。   所以: 输出空间小得多 数...

08 注意力模型(Attention Model)

这一节在讲什么   这一节把上一节的直觉正式写成公式,说明注意力模型到底怎么算。 第一步:先用双向 RNN 编码输入   假设输入句子长度是 $T_x$。   对每个输入位置 $t’$,双向 RNN 会得到一个表示向量: [a^{\langle t’ \rangle}]   你可以把它理解成: 第 $t’$ 个词在结合了左边和右边上下文之后的“上下文特征”。   所以...