本项目魔改自 https://github.com/imClumsyPanda/langchain-ChatGLM,原理和概念用法请看原文,这里只说下为什么在 MacBook 上部署大模型以及如何做?
项目默认加载 chatyuan2 模型,但效果比较好的大模型肯定是 ChatGLM-6B,没有 N 卡的情况下太慢,尽管可以用 mps 给 AMD GPU 加速,在 Mac 上一次计算有两三分钟才返回。这里选择入门级 ChatYuan2。如果机器可以,最好还是用 chatglm-6b。
我的机器:
- CPU:2.6 GHz 六核Intel Core i7
- 内存:32 GB 2667 MHz DDR4
- 显卡:AMD Radeon RX 6600 8 GB
- OS:MacOS 12.6
python 3.8 及以上
git clone git@github.com:jayli/langchain-ChatGLM.git
cd langchain-ChatGLM
pip install -r requirements.txt
本地知识库路径是项目根目录下的 local_content.txt
两个启动方式
- 命令行方式启动:
python cli_chatyuan.py
- 服务方式启动:
python server.py
启动服务后默认开启本机 8899 端口,这样访问
curl -d "ask=helloworld1" \
-H "Content-Type: application/x-www-form-urlencoded" \
-X POST http://127.0.0.1:8899/ai/langchain/
返回结果:
{"content":"\u60a8\u9700\u8981\u9884\u5b9a\u673a\u7968\u5417?","status":200}
注意:
- curl 命令中传参数不要有空格,如果需要测试最好用 postman 之类的工具
- server 启动用的 flask,如果需要其他机器访问,修改
server.py
中服务启动加上本地 host:app.run(debug=False, port=8899, host="192.168.0.11")
回到langchain-ChatGLM
所在的目录,参照这里的第一步 download 步骤操作
修改 cli_chatyuan.py
里的 LLM_MODEL="chatglm-6b"