建立这个仓库是为了梳理自然语言处理(NLP)各个方面的知识,提升自己的核心竞争力。我觉得NLP是一个值得深耕的领域,所以希望可以不停的提升自己的段位!
微信公众号:NLP从入门到放弃
- 史上最全Transformer面试题
- 答案解析(1)-史上最全Transformer面试题
- Pytorch代码分析--如何让Bert在finetune小数据集时更“稳”一点
- 解决老大难问题-如何一行代码带你随心所欲重新初始化bert的某些参数(附Pytorch代码详细解读)
- 3分钟从零解读Transformer的Encoder
- 原版Transformer的位置编码究竟有没有包含相对位置信息
- BN踩坑记--谈一下Batch Normalization的优缺点和适用场景
- 谈一下相对位置编码
- NLP任务中-layer-norm比BatchNorm好在哪里
- 谈一谈Decoder模块
- Transformer的并行化
- Transformer全部文章合辑
- FastBERT-CPU推理加速10倍
- Bert如何融入知识(一)-百度和清华ERINE----百分之五十
- Bert如何融入知识二-Bert融合知识图谱---百分之十
- Bert的可视化-Bert每一层都学到了什么---百分之十
- Bert各种后续预训练模型-预训练模型的改进----百分之十
- RoBERTa:更多更大更强
- 什么是知识蒸馏
- 如何让 TextCNN 逼近 Bert
- Bert蒸馏到简单网络lstm
- PKD-Bert基于多层的知识蒸馏方式
- BERT-of-Theseus-模块压缩交替训练
- tinybert-全方位蒸馏
- Word2vec
- Word2vec两种训练模型详细解读-一个词经过模型训练可以获得几个词向量
- Word2vec两种优化方式细节详细解读
- Word2vec-负采样和层序softmax与原模型是否等价
- Word2vec为何需要二次采样以及相关细节详细解读
- Word2vec的负采样
- Word2vec模型究竟是如何获得词向量的
- Word2vec训练参数的选定
- CBOW和skip-gram相较而言,彼此相对适合哪些场景.md
- Fasttext/Glove
- TextCNN论文详细解读
- 只使用标签名称就可以文本分类.md -相应论文在同一个目录
- 半监督入门**之伪标签
- ACL2020-多任务负监督方式增加CLS表达差异性
- Bert在文本分类任务上微调
- UDA-Unsupervised Data Augmentation for Consistency Training-半监督集大成