/llm_interview_note

主要记录大语言大模型(LLMs) 算法(应用)工程师相关的知识及面试题

Primary LanguageHTML

LLMs 相关知识及面试题

简介

本仓库为大模型面试相关概念,由本人参考网络资源整理,欢迎阅读,如果对你有用,麻烦点一下 🌟 star,谢谢!

为了在低资源情况下,学习大模型,进行动手实践,创建 tiny-llm-zh仓库,旨在构建一个小参数量的中文大语言模型,该项目已部署,可以在如下网站上体验:ModeScope Tiny LLM

在线阅读

在线阅读链接:LLMs Interview Note

注意:

相关答案为自己撰写,若有不合理地方,请指出修正,谢谢!

欢迎关注微信公众号,会不定期更新LLM内容,以及一些面试经验:

weixin

目录

更新记录

  • 2024.05.05 :清华大学LLM课程
  • 2024.05.04 : 使用 docsify 构建在线版本
  • 2024.05.01 : 解码参数,策略
  • 2024.04.15 : BERT细节
  • 2024.03.19 : 推理参数
  • 2024.03.17 : 强化学习部分,PG,PPO,RLHF,DPO
  • 2024.03.13 : 强化学习题目
  • 2024.03.10 : LLMs相关课程
  • 2024.03.08 : RAG技术
  • 2024.03.05 :大模型评估,幻觉
  • 2024.01.26 :语言模型简介
  • 2023.12.15 : llama,chatglm 架构
  • 2023.12.02 :LLM推理优化技术
  • 2023.12.01 :调整目录
  • 2023.11.30 :18.Layer-Normalization,21.Attention升级
  • 2023.11.29 : 19.激活函数,22.幻觉,23.思维链
  • 2023.11.28 : 17.位置编码
  • 2023.11.27 : 15.token及模型参数, 16.tokenize分词
  • 2023.11.25 : 13.分布式训练
  • 2023.11.23 : 6.推理, 7.预训练, 8.评测,9.强化学习, 11.训练数据集,12.显存问题,14.agent
  • 2023.11.22 : 5.高效微调
  • 2023.11.10 : 4.LangChain
  • 2023.11.08 : 建立仓库;1.基础,2.进阶,3.微调