归档
- 18 / 03 当我输入 hello 后,Agent 做了什么?
- 17 / 03 11 结论和致谢(Conclusion and Thank You)
- 17 / 03 10 触发字检测(Trigger Word Detection)
- 17 / 03 09 语音识别(Speech Recognition)
- 17 / 03 08 注意力模型(Attention Model)
- 17 / 03 07 注意力模型直观理解(Attention Model Intuition)
- 17 / 03 06 BLEU 得分(Bleu Score)
- 17 / 03 05 集束搜索误差分析
- 17 / 03 04 改进集束搜索(Refinements to Beam Search)
- 17 / 03 03 集束搜索(Beam Search)
- 17 / 03 02 选择最可能的句子(Picking the Most Likely Sentence)
- 17 / 03 01 基础模型(Basic Models)
- 17 / 03 10 词嵌入除偏(Debiasing Word Embeddings)
- 17 / 03 09 情感分类(Sentiment Classification)
- 17 / 03 08 GloVe 词向量(GloVe Word Vectors)
- 17 / 03 07 负采样(Negative Sampling)
- 17 / 03 06 Word2Vec
- 17 / 03 05 学习词嵌入(Learning Word Embeddings)
- 17 / 03 04 嵌入矩阵(Embedding Matrix)
- 17 / 03 03 词嵌入的特性(Properties of Word Embeddings)
- 17 / 03 02 使用词嵌入(Using Word Embeddings)
- 17 / 03 01 词汇表征(Word Representation)
- 08 / 03 12 深层循环神经网络(Deep RNNs)
- 08 / 03 11双向循环神经网络(Bidirectional RNN, Bi-RNN)
- 08 / 03 10 长短期记忆网络(LSTM)
- 08 / 03 09 GRU(门控循环单元,Gated Recurrent Unit)
- 08 / 03 08 循环神经网络(RNN)梯度消失问题
- 08 / 03 07 新序列采样(Sampling novel sequences)
- 08 / 03 06 使用循环神经网络(RNN)构建语言模型
- 08 / 03 05 不同类型的循环神经网络(Different types of RNNs)
- 08 / 03 04 通过时间的反向传播(Backpropagation Through Time, BPTT)
- 08 / 03 03 循环神经网络模型(Recurrent Neural Network Model)
- 08 / 03 02 数学符号(Notation)
- 08 / 03 01 为什么选择序列模型?(Why Sequence Models?)
- 01 / 03 揭秘微信“快捷登录”:为什么你不用扫码就能直接登录?
- 08 / 02 11 一维到三维推广(1D and 3D generalizations of models)
- 08 / 02 10 风格损失函数(Style Cost Function)
- 08 / 02 09 内容代价函数(Content Cost Function)
- 08 / 02 08 代价函数(Cost function)
- 08 / 02 07 CNN特征可视化(What are deep ConvNets learning?)
- 08 / 02 06 神经风格迁移
- 08 / 02 05 人脸验证与二分类
- 08 / 02 04 Triplet 损失
- 08 / 02 03 Siamese 网络(用于人脸识别)
- 08 / 02 02 One-Shot Learning(一次性学习)
- 08 / 02 01 什么是人脸识别?(What is face recognition?)
- 07 / 02 10 候选区域(Region Proposals, Optional)
- 07 / 02 09 YOLO 算法(Putting it together: YOLO algorithm)
- 07 / 02 08 Anchor Boxes(锚框)
- 07 / 02 07 非极大值抑制(Non-Max Suppression, NMS)
- 07 / 02 06 交并比(Intersection over Union, IoU)
- 07 / 02 05 Bounding Box预测(YOLO算法基础)
- 07 / 02 04 滑动窗口的卷积实现(Convolutional Implementation of Sliding Windows)
- 07 / 02 03 目标检测(Object Detection)
- 07 / 02 02 特征点检测
- 06 / 02 01 目标定位(Object Localization)
- 26 / 01 09 计算机视觉现状(The state of computer vision)
- 26 / 01 08 数据增强(Data Augmentation)
- 26 / 01 07 迁移学习(Transfer Learning)
- 26 / 01 06 Inception 网络
- 26 / 01 05 谷歌 Inception 网络简介(Inception network motivation)
- 26 / 01 04 网络中的网络(Network in Network, NiN)
- 21 / 01 03 残差网络(ResNets)——深度神经网络的突破
- 21 / 01 02 经典神经网络(Classic Networks)
- 21 / 01 01 为什么要进行实例探究?(Why look at case studies?)
- 18 / 01 11 为什么使用卷积?(Why Convolutions?)
- 18 / 01 10 卷积神经网络(CNN)示例
- 18 / 01 09 池化层(Pooling Layers)
- 18 / 01 08 简单卷积网络示例
- 18 / 01 07 单层卷积神经网络
- 18 / 01 06 三维卷积(Convolutions over Volumes)
- 18 / 01 05 带步长的卷积(Strided Convolutions)
- 18 / 01 04 卷积操作中的 Padding(填充)
- 18 / 01 03 边缘检测(Edge Detection)
- 18 / 01 02 边缘检测示例(Edge Detection Example)
- 18 / 01 01 计算机视觉(Computer vision)
- 18 / 01 10 是否使用端到端深度学习(Whether to use end-to-end learning?)
- 18 / 01 09 端到端深度学习(End-to-End Deep Learning)
- 18 / 01 08 多任务学习(Multi-task Learning)
- 18 / 01 07 迁移学习(Transfer Learning)
- 18 / 01 06 处理数据不匹配问题(Addressing Data Mismatch)
- 18 / 01 05 数据分布不匹配时的偏差与方差分析(Bias and Variance with Mismatched Data Distributions)
- 18 / 01 04 使用来自不同分布的数据进行训练和测试(Training and testing on different distributions)
- 18 / 01 03 快速搭建你的第一个系统,并进行迭代
- 18 / 01 02 清除标注错误的数据(Cleaning up Incorrectly Labeled Data)
- 18 / 01 01 进行误差分析(Carrying out error analysis)
- 11 / 01 09 可避免偏差(Avoidable Bias)
- 11 / 01 12 改善你的模型的表现(Improving your model performance)
- 11 / 01 11 超越人类水平表现(Surpassing Human-Level Performance)
- 11 / 01 10 理解人类水平表现(Understanding human-level performance)
- 11 / 01 08 为什么关注“人类水平表现”?(Why Human-Level Performance?)
- 11 / 01 07 何时应改变开发、测试集和评估指标(When to change dev、test sets and metrics)
- 11 / 01 06 开发集和测试集的大小(Size of dev and test sets)
- 11 / 01 05 训练集、开发集、测试集划分(Train、Dev、Test Distributions)
- 11 / 01 04 满足指标(Satisficing Metrics)与优化指标(Optimizing Metrics)
- 11 / 01 03 单一数字评估指标(Single Number Evaluation Metric)
- 11 / 01 02 正交化(Orthogonalization)
- 11 / 01 01 为什么是ML策略?(Why ML Strategy?)
- 06 / 01 35 TensorFlow 基础与自动微分机制
- 06 / 01 34 深度学习框架(Deep Learning Frameworks)的价值与选择标准
- 06 / 01 33 训练一个使用了 Softmax 的分类器
- 06 / 01 32 Softmax 回归
- 06 / 01 31 测试时的 Batch Normalization(Batch Norm at Test Time)
- 06 / 01 30 Batch Normalization 为何有效?
- 06 / 01 29 将 Batch Norm 拟合进神经网络(Fitting Batch Norm into a Neural Network)
- 06 / 01 28 归一化网络的激活函数(Normalizing activations in a network)
- 06 / 01 27 超参数调优的两种策略 —— “熊猫方式” vs. “鱼子酱方式”
- 06 / 01 26 为超参数选择合适的采样尺度(Scale)
- 06 / 01 25 超参数调试(Hyperparameter Tuning)
- 06 / 01 24 深度学习中的优化挑战 —— 局部最优 vs 鞍点 vs 平稳段
- 06 / 01 23 学习率衰减(Learning Rate Decay)
- 02 / 01 22 Adam 优化算法(Adam Optimization Algorithm)
- 02 / 01 21 RMSprop(Root Mean Square Propagation) 优化算法
- 02 / 01 20 动量梯度下降法(Gradient Descent with Momentum)
- 02 / 01 19 指数加权平均中的偏差修正(Bias Correction in Exponentially Weighted Averages)
- 02 / 01 18 了解指数加权平均
- 02 / 01 17 指数加权平均(Exponentially Weighted Averages)
- 02 / 01 16 了解小批量梯度下降法
- 02 / 01 15 优化算法 —— Mini-batch Gradient Descent(小批量梯度下降)
- 02 / 01 约书亚·本吉奥访谈
- 02 / 01 14 梯度检查(Gradient Checking)实现要点
- 02 / 01 13 梯度检查(Gradient Checking)
- 02 / 01 12 梯度的数值近似(Numerical Approximation of Gradients)
- 02 / 01 11 深度神经网络的权重初始化(Weight Initialization for Deep Networks)
- 02 / 01 10 梯度消失与梯度爆炸问题(Vanishing / Exploding Gradients)
- 02 / 01 09 输入归一化(Normalizing Inputs)
- 02 / 01 08 神经网络中的其他正则化方法
- 02 / 01 07 了解 Drop out
- 27 / 12 06 Dropout 正则化
- 27 / 12 05 为什么正则化能减少过拟合?
- 27 / 12 04 神经网络中的正则化(Regularization in Neural Networks)
- 27 / 12 03 机器学习基本配方(Basic Recipe for Machine Learning)
- 27 / 12 02 Bias(偏差)与 Variance(方差)
- 26 / 12 01 训练集(Train)、开发集(Dev)和测试集(Test)
- 25 / 12 39 神经网络与大脑关系
- 25 / 12 38 参数(Parameters)与超参数(Hyperparameters)
- 25 / 12 37 前向传播与反向传播
- 25 / 12 36 深度神经网络构建模块(Building Blocks of Deep Neural Networks)
- 25 / 12 35 为什么深度表示(Deep Representations)有效?
- 25 / 12 34 正确设置矩阵维度
- 25 / 12 33 深度神经网络中的前向传播(Forward Propagation in a Deep Network)
- 25 / 12 32 深度L层神经网络
- 25 / 12 伊恩·古德费洛访谈
- 22 / 12 31 神经网络中的随机初始化(Random Initialization)
- 22 / 12 30 反向传播直觉(Backpropagation Intuition)
- 22 / 12 29 单隐藏层神经网络的梯度下降(Gradient Descent for Neural Networks)
- 22 / 12 28 神经网络中激活函数的导数(Derivatives of Activation Functions)
- 22 / 12 27 为什么神经网络必须使用非线性激活函数?
- 22 / 12 26 神经网络中的激活函数(Activation Functions)
- 18 / 12 25 神经网络中的向量化实现(Vectorized Implementation)
- 18 / 12 24 多样本向量化(Vectorizing Across Multiple Examples)
- 18 / 12 23 计算神经网络的输出
- 18 / 12 22 神经网络结构概述
- 18 / 12 21 神经网络概述
- 16 / 12 20 逻辑回归代价函数详解
- 16 / 12 19 避免 NumPy 中的“秩1数组”(Rank-1 Array)陷阱
- 16 / 12 18 Python 中的广播机制(Broadcasting in Python)
- 16 / 12 17 向量化逻辑回归的梯度计算(Vectorizing Logistic Regression's Gradient Computation)
- 09 / 12 16 向量化逻辑回归(Vectorizing Logistic Regression)
- 09 / 12 15 更多向量化示例(More Vectorization Examples)
- 09 / 12 14 向量化(Vectorization)
- 08 / 12 dL/dz 的推导
- 08 / 12 13 在 m 个样本上执行梯度下降(Gradient Descent on m Examples)
- 08 / 12 12 逻辑回归的梯度下降(Gradient Descent for Logistic Regression)
- 08 / 12 11 使用计算图求导(Derivatives with a Computation Graph)
- 08 / 12 10 计算图(Computation Graph)
- 08 / 12 09 导数(Derivatives)的直观理解与实例
- 08 / 12 08 导数的直观理解(Intuition about Derivatives)
- 08 / 12 07 梯度下降(Gradient Descent)
- 03 / 12 06 逻辑回归成本函数
- 03 / 12 05 逻辑回归
- 02 / 12 04 神经网络编程基础 — 二元分类(Binary Classification)
- 02 / 12 杰弗里·辛顿深度访谈
- 02 / 12 03 为什么深度学习现在才真正起飞?
- 02 / 12 03 为什么深度学习现在才真正起飞?
- 02 / 12 02 监督学习与神经网络
- 02 / 12 01 什么是神经网络?
- 01 / 08 JavaScript 引擎基础:Shapes 和 Inline Caches
- 09 / 03 从代码实现方式优化性能
- 01 / 03 复现 musicforprogramming.net 的音乐可视化效果
- 20 / 01 一图搞懂 Unit8Array ImageData Blob
- 30 / 11 逆天!纯CSS实现获取窗口大小
- 22 / 11 包体积超限问题
- 20 / 11 如何实现全局图片监控
- 07 / 11 浅谈SOLID原则在前端的使用
- 18 / 09 如果一个npm包不满足需求,如何修改其部分功能
- 21 / 09 浏览器底层运行原理
- 12 / 09 如何缩小js代码
- 11 / 09 前端路由
- 04 / 09 前端调试通关
- 01 / 09 React typescript cheatsheet
- 31 / 08 四种移除事件监听的方式
- 29 / 08 现代浏览器架构
- 29 / 08 现代浏览器架构
- 27 / 08 React中海量数据加载
- 26 / 08 React Hooks
- 25 / 08 Higher-order component
- 24 / 08 React “Key”
- 24 / 08 React Hook 和 setInterval一起使用的问题
- 23 / 08 React element,children,parents and re-renders
- 22 / 08 高性能的JavaScript
- 22 / 08 材质贴图属性介绍
- 19 / 08 齐次坐标到底是什么
- 19 / 08 齐次坐标到底是什么
- 18 / 08 第十四章:Ray tracing2 加速结构、辐射度量学
- 18 / 08 第十六章:Ray tracing4 蒙特卡洛路径追踪
- 18 / 08 第十八章:高级光线传播
- 18 / 08 第十五章:Ray tracing 3 光线传播和全局光照
- 18 / 08 第十二章:Mesh细分、光线追踪
- 18 / 08 第十九章:相机、透镜、光场
- 18 / 08 第十三章:Ray tracing 1 基础光线追踪算法
- 18 / 08 第十七章:材质与外观
- 18 / 08 第十一章:显示几何,曲线、曲面
- 18 / 08 第二十章:颜色和感知
- 18 / 08 第二十二章:动画和仿真
- 18 / 08 第二十一章:Animation、Simulation
- 16 / 08 第十章:纹理应用、几何
- 10 / 08 第九章:重心坐标、纹理
- 22 / 07 第八章:着色模型
- 16 / 07 第七章:z-buffer和着色
- 01 / 07 第六章:反走样与深度缓冲
- 26 / 05 第五章:光栅化
- 10 / 05 第四章:三维变换
- 03 / 05 性能优化的一般性原则
- 01 / 04 第三章:变换
- 16 / 03 第一、二章:图形学概述、向量与线性代数
- 05 / 03 前端性能优化方法
- 05 / 03 前端性能优化方法
- 22 / 11 设计一个拦截器
- 19 / 09 关于中间件
- 18 / 09 React的diff
- 14 / 09 网络测速
- 09 / 09 前端错误监控
- 09 / 09 React memo lazy
- 09 / 09 React Props Children 混合插槽
- 08 / 09 createObjectURL
- 07 / 09 原型与原型链
- 01 / 09 虚假的洗牌算法
- 08 / 04 requestAnimationFrame思考
- 01 / 04 三次握手和四次挥手
- 30 / 11 better-scroll结合vue遇到图片引起的问题
- 21 / 11 js语法细节
- 30 / 10 关于vue的mixin
- 19 / 10 一些Vue小技巧
- 17 / 07 express三大概念