/awesome_NLP-Interview-Notes

nlp_interview notes and answers: 该仓库主要记录 NLP 算法工程师相关的面试题和参考答案

MIT LicenseMIT

awesome_NLP-Interview-Notes

NLP interview notes and answers

内容说明

问题来自 NLP 面无不过: km1994 - NLP-Interview-Notes

答案 为 自己编写,不保证正确,仅供参考。

有些问题,提供的答案更多是一种线索,如想深入了解,请自行参考更多资料

更新记录

  1. 2023.11 发布:CNN, RNN, Attention

目录

  • 3 深度学习算法篇常见面试篇
    • CNN 常见面试篇
      • 一、动机篇
      • 二、CNN 卷积层篇
        • 2.1 卷积层的本质是什么?
        • 2.2 CNN 卷积层与全连接层的联系?
        • 2.3 channel的含义是什么?
      • 三、CNN 池化层篇
        • 3.1 池化层针对区域是什么?
        • 3.2 池化层的种类有哪些?
        • 3.3 池化层的作用是什么?
        • 3.4 池化层 反向传播 是什么样的?
        • 3.5 mean pooling 池化层 反向传播 是什么样的?
        • 3.6 max pooling 池化层 反向传播 是什么样的?
      • 四、CNN 整体篇
        • 4.1 CNN 的流程是什么?
        • 4.2 CNN 的特点是什么?
        • 4.3 卷积神经网络为什么会具有平移不变性?
        • 4.4 卷积神经网络中im2col是如何实现的?
        • 4.5 CNN 的局限性是什么?
      • 五、Iterated Dilated CNN 篇
        • 5.1 什么是 Dilated CNN 空洞卷积?
        • 5.2 什么是 Iterated Dilated CNN?
      • 六、反卷积 篇
        • 6.1 解释反卷积的原理和用途?
    • RNN 常见面试篇
      • 一、RNN 篇
        • 1.2 为什么需要 RNN?
        • 1.2 RNN 结构是怎么样的?
        • 1.3 RNN 前向计算公式?
        • 1.4 RNN 存在什么问题?
      • 二、长短时记忆网络(Long Short Term Memory Network, LSTM) 篇
        • 2.1 为什么 需要 LSTM?
        • 2.2 LSTM 的结构是怎么样的?
        • 2.3 LSTM 如何缓解 RNN 梯度消失和梯度爆炸问题?
        • 2.3 LSTM 的流程是怎么样的?
        • 2.4 LSTM 中激活函数区别?
        • 2.5 LSTM的复杂度?
        • 2.6 LSTM 存在什么问题?
      • 三、GRU (Gated Recurrent Unit)
        • 3.1 为什么 需要 GRU?
        • 3.2 GRU 的结构是怎么样的?
        • 3.3 GRU 的前向计算?
        • 3.4 GRU 与其他 RNN系列模型的区别?
      • 四、RNN系列模型篇
        • 4.1 RNN系列模型 有什么特点?
    • Attention 常见面试篇
      • 一、seq2seq 篇
        • 1.1 seq2seq (Encoder-Decoder)是什么?
        • 1.2 seq2seq 中 的 Encoder 怎么样?
        • 1.3 seq2seq 中 的 Decoder 怎么样?
        • 1.4 在 数学角度上 的 seq2seq ,你知道么?
        • 1.5 seq2seq 存在 什么 问题?
      • 二、Attention 篇
        • 2.1 什么是 Attention?
        • 2.2 为什么引入 Attention机制?
        • 2.3 Attention 有什么作用?
        • 2.4 Attention 流程是怎么样?
        • 2.5 Attention 的应用领域有哪些?
      • 三、Attention 变体篇
        • 3.1 Soft Attention 是什么?
        • 3.2 Hard Attention 是什么?
        • 3.3 Global Attention 是什么?
        • 3.4 Local Attention 是什么?
        • 3.5 self-attention 是什么?
    • 生成对抗网络 GAN 常见面试篇
      • 一、动机
      • 二、介绍篇
        • 2.1 GAN 的基本**
        • 2.2 GAN 基本介绍
          • 2.2.1 GAN 的基本结构
          • 2.2.2 GAN 的基本**
      • 三、训练篇
        • 3.1 生成器介绍
        • 3.2 判别器介绍
        • 3.3 训练过程
        • 3.4 训练所涉及相关理论基础
      • 四、总结

Star-History

star-history


Donation

If this project help you reduce time to develop, you can give me a cup of coffee :)

AliPay(支付宝)

ali_pay

WechatPay(微信)

wechat_pay