NLP interview notes and answers
问题来自 NLP 面无不过: km1994 - NLP-Interview-Notes
答案 为 自己编写,不保证正确,仅供参考。
有些问题,提供的答案更多是一种线索,如想深入了解,请自行参考更多资料
- 2023.11 发布:CNN, RNN, Attention
- 3 深度学习算法篇常见面试篇
- CNN 常见面试篇
- 一、动机篇
- 二、CNN 卷积层篇
- 2.1 卷积层的本质是什么?
- 2.2 CNN 卷积层与全连接层的联系?
- 2.3 channel的含义是什么?
- 三、CNN 池化层篇
- 3.1 池化层针对区域是什么?
- 3.2 池化层的种类有哪些?
- 3.3 池化层的作用是什么?
- 3.4 池化层 反向传播 是什么样的?
- 3.5 mean pooling 池化层 反向传播 是什么样的?
- 3.6 max pooling 池化层 反向传播 是什么样的?
- 四、CNN 整体篇
- 4.1 CNN 的流程是什么?
- 4.2 CNN 的特点是什么?
- 4.3 卷积神经网络为什么会具有平移不变性?
- 4.4 卷积神经网络中im2col是如何实现的?
- 4.5 CNN 的局限性是什么?
- 五、Iterated Dilated CNN 篇
- 5.1 什么是 Dilated CNN 空洞卷积?
- 5.2 什么是 Iterated Dilated CNN?
- 六、反卷积 篇
- 6.1 解释反卷积的原理和用途?
- RNN 常见面试篇
- 一、RNN 篇
- 1.2 为什么需要 RNN?
- 1.2 RNN 结构是怎么样的?
- 1.3 RNN 前向计算公式?
- 1.4 RNN 存在什么问题?
- 二、长短时记忆网络(Long Short Term Memory Network, LSTM) 篇
- 2.1 为什么 需要 LSTM?
- 2.2 LSTM 的结构是怎么样的?
- 2.3 LSTM 如何缓解 RNN 梯度消失和梯度爆炸问题?
- 2.3 LSTM 的流程是怎么样的?
- 2.4 LSTM 中激活函数区别?
- 2.5 LSTM的复杂度?
- 2.6 LSTM 存在什么问题?
- 三、GRU (Gated Recurrent Unit)
- 3.1 为什么 需要 GRU?
- 3.2 GRU 的结构是怎么样的?
- 3.3 GRU 的前向计算?
- 3.4 GRU 与其他 RNN系列模型的区别?
- 四、RNN系列模型篇
- 4.1 RNN系列模型 有什么特点?
- 一、RNN 篇
- Attention 常见面试篇
- 一、seq2seq 篇
- 1.1 seq2seq (Encoder-Decoder)是什么?
- 1.2 seq2seq 中 的 Encoder 怎么样?
- 1.3 seq2seq 中 的 Decoder 怎么样?
- 1.4 在 数学角度上 的 seq2seq ,你知道么?
- 1.5 seq2seq 存在 什么 问题?
- 二、Attention 篇
- 2.1 什么是 Attention?
- 2.2 为什么引入 Attention机制?
- 2.3 Attention 有什么作用?
- 2.4 Attention 流程是怎么样?
- 2.5 Attention 的应用领域有哪些?
- 三、Attention 变体篇
- 3.1 Soft Attention 是什么?
- 3.2 Hard Attention 是什么?
- 3.3 Global Attention 是什么?
- 3.4 Local Attention 是什么?
- 3.5 self-attention 是什么?
- 一、seq2seq 篇
- 生成对抗网络 GAN 常见面试篇
- 一、动机
- 二、介绍篇
- 2.1 GAN 的基本**
- 2.2 GAN 基本介绍
- 2.2.1 GAN 的基本结构
- 2.2.2 GAN 的基本**
- 三、训练篇
- 3.1 生成器介绍
- 3.2 判别器介绍
- 3.3 训练过程
- 3.4 训练所涉及相关理论基础
- 四、总结
- CNN 常见面试篇
If this project help you reduce time to develop, you can give me a cup of coffee :)
AliPay(支付宝)
WechatPay(微信)