handy-ollama
Opened this issue · 2 comments
AXYZdong commented
你是否已经阅读并同意《Datawhale开源项目指南》?
- 我已阅读并同意《Datawhale开源项目指南》
你是否已经阅读并同意《Datawhale开源项目行为准则》?
- 我已阅读并同意《Datawhale开源项目行为准则》
项目简介
动手学Ollama,实现大模型本地化部署,快速在本地管理以及运行大模型,让CPU也可以玩转大模型部署!
立项理由
随着大模型的飞速发展,市面上出现了越来越多的开源大模型,但是许多模型的部署需要利用GPU资源,如何让大模型时代的红利普惠到每一个人,让每一个人都可以部署属于自己的大模型。Ollama是一个开源的大语言部署服务工具,只需CPU即可部署大模型。我们希望通过动手学Ollama这一开源教程,帮助学习者快速上手Ollama,让每一位大模型爱好者、学习者以及开发者都能在本地部署自己的大模型,进而开发一些大模型应用,让大模型赋能千行百业!
项目受众
- 希望不受GPU资源限制,在本地运行大模型;
- 希望在本地部署大模型,开发大模型应用;
- 希望在本地管理大模型,让本地模型安全可靠。
项目亮点
本项目旨在使用CPU部署本地大模型,虽然目前已经有很多LLM相关的教程,但是这些教程中模型基本上都需要GPU资源,这对于很多资源受限的学习者不是很友好。因此,本项目通过动手学Ollama,帮助学习者快速上手本地CPU部署大模型。
项目规划
目录(持续更新中...)
- 1 Ollama 介绍 @友东
- 2 Ollama 安装与配置
- 3 自定义导入模型 @杨卓
- 4 Ollama REST API
- 5 Ollama 在 LangChain 中的使用
- 6 Ollama 可视化界面部署
- 7 应用案例
- 搭建本地的 AI Copilot 编程助手
- Dify 接入 Ollama 部署的本地模型
- 使用 LangChain 搭建本地 RAG 应用 @舒凡
项目负责人
项目负责人:AXYZdong
仓库地址:https://github.com/AXYZdong/handy-ollama
VX:zyd62360056
备注:发起立项申请后DOPMC成员将会在7天内给出审核意见,若7天内无反对意见则默认立项通过~
- 我已知悉上述备注
KMnO4-zx commented
同意🙆
Sm1les commented
7天内无反对意见则默认立项通过