/learn-nlp-with-transformers

we want to create a repo to illustrate usage of transformers in chinese

Primary LanguageShell

基于transformers的自然语言处理(NLP)入门

Natural Language Processing with transformers. 本项目面向的对象是:

  • NLP初学者、transformer初学者
  • 有一定的python、pytorch编程基础
  • 对前沿的transformer模型感兴趣
  • 了解和知道简单的深度学习模型

本项目的愿景是:

希望结合形象生动的原理讲解和多个动手实践项目,帮助初学者快速入门深度学习时代的NLP。

本项目的主要参考资料是:

  • Huggingface/Transformers代码库
  • 多个优秀的Transformer讲解和分享

项目成员:

  • erenup(多多笔记),北京大学,负责人
  • 张帆,Datawhale,天津大学,篇章4
  • 张贤,哈尔滨工业大学,篇章2
  • 李泺秋,浙江大学,篇章3
  • 蔡杰,北京大学,篇章4
  • hlzhang,麦吉尔大学,篇章4
  • 台运鹏 篇章2
  • 张红旭 篇章2

本项目总结和学习了多篇优秀文档和分享,在各个章节均有标注来源,如有侵权,请及时联系项目成员,谢谢。去Github点完Star再学习事半功倍哦😄,谢谢。

项目内容

篇章1-前言

篇章2-Transformer相关原理

篇章3-编写一个Transformer模型:BERT

篇章4-使用Transformers解决NLP任务