datawhalechina/DOPMC

awesome-compression

Opened this issue · 4 comments

你是否已经阅读并同意《Datawhale开源项目指南》?

你是否已经阅读并同意《Datawhale开源项目行为准则》?

项目简介

随着ChatGPT的出圈,大语言模型层出不穷,并展现出非凡的能力,可以有效地解决各种复杂问题。然而,这些模型通常需要大量的计算资源和内存,导致运行时资源消耗较高,限制了其在某些场景下的应用,让很多研究者望而却步。本项目使用通俗易懂的语言介绍模型的剪枝、量化、知识蒸馏等压缩方法,让更多的小白能更快了解到模型压缩技术。
项目地址:https://github.com/bupt-ai-club/awesome-compression

立项理由

目前网上关于模型压缩的相关资料比较驳杂,初学者很难找到一个简单优质的的中文入门教程来学习。本项目借鉴MIT 6.5940 TinyML and Efficient Deep Learning Computing,提供模型压缩的入门教程,降低模型压缩的学习门槛。在教程中,您将了解不同的压缩方法,通过实践和示例,学习如何应用这些方法来压缩深度学习模型,以满足实际应用需求。

项目受众

本项目适合以下学习者:

  • 深度学习研究人员;
  • 嵌入式系统和移动应用开发者;
  • 对AI硬件加速和部署感兴趣的开发者;
  • 对模型压缩技术感兴趣的学生群体。

项目亮点

  • 提供通俗易懂的理论内容来科普模型压缩技术;
  • 提供实践代码,结合实际场景帮助学习者更好地理解理论内容。

项目规划

  • 第1章 介绍
  • 第2章 深度学习基础
  • 第3章 模型剪枝
  • 第4章 模型量化
  • 第5章 神经架构搜索
  • 第6章 知识蒸馏
  • 第7章 MCUNet
  • 第8章 TinyEngine
  • 第9章 Transformer and LLM
  • 第10章 Vision Transformer
  • 第11章 GAN, Video, and Point Cloud
  • 第12章 扩散模型
  • 第13章 分布式训练
  • 第14章 设备训练
  • 第15章 量子计算基础
  • 第16章 Noise Robust Quantum ML
  • 第17章 项目实践

各章节负责人

  • 陈玉立 (Datawhale成员-北京邮电大学研究生)
  • 姜蔚蔚 (北京邮电大学助理教授)
  • 施怡惠(北京邮电大学研究生)

项目负责人

负责人:陈玉立 邮箱:chenyuli@bupt.edu.cn

备注:发起立项申请后DOPMC成员将会在7天内给出审核意见,若7天内无反对意见则默认立项通过~

  • 我已知悉上述备注

同意

同意

同意

7天内无反对意见则默认立项通过