该项目主要为了 给那些想入门NLP却没找到比较好的入门教程的 New NLPer 提供 一个 学习视频索引、课程笔记分享、课后问题解答 的平台 ,以帮助他们入门 NLP。每个人均可将自己的笔记、感悟、作业。
自然语言处理( NLP )是信息时代最重要的技术之一,也是人工智能的重要组成部分。NLP的应用无处不在,因为人们几乎用语言交流一切:网络搜索、广告、电子邮件、客户服务、语言翻译、医疗报告等。近年来,深度学习方法在许多不同的NLP任务中获得了非常高的性能,使用了不需要传统的、任务特定的特征工程的单个端到端神经模型。在本课程中,学生将全面了解NLP深度学习的前沿研究。通过讲座、作业和最终项目,学生将学习设计、实现和理解他们自己的神经网络模型的必要技能。
- 学习名称:NLP组队学习
- 学习周期:16天
- 学习形式:视频学习+实践
- 人群定位:具备一定编程基础,有学习和梳理自然语言处理算法的需求
- 难度等级:中
- 先修组队学习:无
- 后续推荐组队学习:CS224n (中)
- 编程语言:不限
-
Task 1: Introduction and Word Vectors (3天)
- 理论部分
- 介绍NLP研究的对象
- 如何表示单词的含义
- Word2Vec方法的基本原理
- 视频教程
- 资源
- 优秀作业
- 问题解答区
- 理论部分
-
Task 2: Word Vectors and Word Senses (3天)
- 理论部分
- 回顾 Word2Vec模型
- 介绍 count based global matrix factorization 方法
- 介绍 GloVe 模型
- 视频教程
- 资源
- 优秀作业
- 问题解答区
- 理论部分
-
Task 3: Subword Models (3天)
- 理论部分
- 回顾 word2vec 和 glove,并介绍其所存在问题
- 介绍 n-gram **
- 介绍 FastText 模型
- 视频教程
- 资源
- 优秀作业
- 芙蕖:https://blog.csdn.net/weixin_42691585/article/details/107009195
- 12-Subword Models 读书笔记: 12-Subword Models 读书笔记
- 问题解答区
- 理论部分
-
Task 4: Contextual Word Embeddings (3天)
- 理论部分
- 回顾 Word2Vec, GloVe, fastText 模型
- 介绍contextual word representation
- 介绍 ELMO,GPT与BERT模型
- 视频教程
- 资源
- 优秀作业
- 问题解答区
- 理论部分
-
Task 5: Homework (3天)(组队完成)
可以从以下作业四选一:
-
英文词向量的探索
-
中文词向量的探索
-
FastText 探索
- Bert 探索
-
练习任务
- Bert 做分类
-
优秀作业
- winter:
- fastText_classification
- bert_classification
- 荒:NLP项目Pipeline
- 北尘南风:https://github.com/hu-minghao/my_program/blob/master/NLP-task5%2Bbig%2Bhomework.ipynb
- winter: