施工中.....
-
高扩展性,基于 LangChain 和 Koishi,我们提供了一套扩展 API,让第三方插件开发者可以轻松的扩展或调用此项目的服务。如 调用模型,对接新模型等
-
预设系统,可设置对话的预设,调教模型。
-
黑名单系统,全局冷却时间和模型并发请求限制,以及按小时的模型的调用额度限制,轻松管理模型的调用限额等。
-
支持以 语音/文字/图片/图文混合 渲染模型回复,也支持解析返回的 markdown,实现比较自然的分割成多条消息来发送
-
上下文对话,长期记忆的支持 (需要适配器支持)
-
三种聊天模式:
chat
,browsing
,plugin
后两种模式可让模型调用外部工具,使得模型能获取到外部信息,执行相关操作等。
-
内容安全过滤,基于 Koishi 的 censor 服务, 防止模型返回不良内容
- 基于房间的对话系统
- 回复内容审核 (基于其他插件提供的 censor 服务)
- 语音输出支持(即文字转语音,基于 initialencounter 佬的 vits服务)
- 图片渲染回复
- 接入更多模型/平台
- 预设系统
-
导入或导出会话记录(实际未完成,已放弃支持) - 重构到 v1 版本
- 流式响应支持
-
i18n 本地化支持
我们可在 Koishi 下直接安装本插件使用基础功能而无需额外配置。
阅读 此文档 了解更多。
我们目前支持以下模型/平台:
模型/平台 | 接入方式 | 特性 | 注意事项 |
---|---|---|---|
OpenAI | 本地 Client,官方 API 接入 | 可自定义人格,支持插件/浏览模式等聊天模式 | API 接入需要付费 |
Google Gemini | 本地 Client,官方 API 接入 | 速度快,性能超越 GPT-3.5 | 需要有 Gemini 访问权限账号,可能收费 |
New Bing | 本地 Client,逆向 API 接入 | 自带网络搜索,强时效性,可无需登录使用 | 需要代理,需要过验证码(无需 Cookie 也可用) |
Google Bard | 本地 Client,逆向 API 接入 | 和 New Bing 一样可以网络搜索,强时效性 | 需要有 Bard 访问权限账号 |
Claude API | 本地 Client,官方 API 接入 | 超大上下文,大部分情况下能超过 GPT 3.5,需要 API KEY,收费 | 可能较贵,不支持 Function Call |
Claude 2 | 本地 Client,逆向 API 接入 | 超大上下文,大部分情况下能超过 GPT 3.5,类似 New Bing 有账号就行,免费 | 需要有 Claude 2 访问权限账号。后续可能会有限流 |
智谱 | 本地 Client,官方 API 接入 | ChatGLM,新人注册可获取免费 Token 额度 | 实测效果比讯飞星火略好 |
通义千问 | 本地 Client,官方 API 接入 | 阿里出品国产模型,有免费额度 | 实测效果约等于 讯飞星火 |
讯飞星火 | 本地 Client,官方 API 接入 | 国产模型,新人注册可获取免费 Token 额度 | 实测效果约等于 GPT 3.5 |
文心一言 | 本地 Client,官方 API 接入 | 百度经典模型 | 实测效果约等于通义千问 |
Ollama | 本地 Client,自搭建 API 接入 | 知名开源模型合集,支持 CPU / GPU 混合部署,可本地搭建 | 需要自己搭建后端 API,要求一定的配置 |
GPT Free | 本地 Client,官方 API 接入 | 本地转发使用其他网站的 GPT 模型,项目自动配置网站等配置,无需手动注册 | 可能随时失效,不稳定 |
ChatGLM | 本地 Client,自搭建后端 API 接入 | 可本地搭建,四舍五入不要钱 | 需要自己搭建后端 API,要求一定的配置,模型参数不够大导致聊天效果不够好 |
RWKV | 本地 Client,自搭建 API 接入 | 知名开源模型,可本地搭建 | 需要自己搭建后端 API,要求一定的配置 |
为模型提供网络搜索能力 我们支持:
- Google (API)
- Bing (API)
- DuckDuckGO (Lite & Web)
从 1.0.0-alpha.10
版本开始,我们使用更加可定制化的预设。新的人格预设使用 yaml 做为配置文件。
你可以点这里来查看我们默认附带的人格文件:catgirl.yml
我们默认的预设文件夹路径为 你当前运行插件的 koishi 目录的路径+/data/chathub/presets
。
所有的预设文件都是从上面的文件夹上加载的。因此你可以自由添加和编辑预设文件在这个文件夹下,然后使用命令来切换人格预设。
如需了解更多,可查看此文档。
在任意 Koishi 模版项目上运行下列指令来克隆 ChatLuna:
# yarn
yarn clone ChatLunaLab/chatluna
# npm
npm run clone ChatLunaLab/chatluna
可将上面 ChatLunaLab/chatluna-koishi
替换成你自己 Fork 后的项目地址。
然后编辑模版项目根目录下的 tsconfig.json
文件,在 compilerOptions.paths
中添加 ChatLuna 项目路径。
{
"extends": "./tsconfig.base",
"compilerOptions": {
"baseUrl": ".",
"paths": {
"koishi-plugin-chatluna-*": ["external/chatluna/packages/*/src"]
}
}
}
由于项目本身比较复杂,初始使用必须构建一次。
# yarn
yarn workspace @root/chatluna-koishi build
# npm
npm run build -w @root/chatluna-koishi
完成!现在即可在根项目中使用 yarn dev
或 npm run dev
启动模版项目并二次开发 ChatLuna。
虽然 Koishi 支持模块热替换(hmr),但本项目可能并未完全兼容。
如果你在使用 hmr 二次开发本项目时出现了 Bug,请在 Issue 中提出,并按上面步骤重新构建项目并重启 Koishi 以尝试修复。
目前 ChatLuna 项目组产能极为稀缺,没有更多产能来完成下面的目标:
- Web UI
- Http Server
- Project Documentation
欢迎提交 Pull Request 或进行讨论,我们非常欢迎您的贡献!
本项目由ChatLunaLab 开发。
ChatLuna(下称本项目) 是一个基于大型语言模型的对话机器人框架。我们致力于与开源社区合作,推动大模型技术的发展。我们强烈呼吁开发者和其他使用者遵守开源协议,确保不将本项目(以及社区推动的基于本项目的其他衍生产品)的框架和代码以及相关衍生物用于可能对国家和社会造成危害的任何目的,以及未经过安全评估和备案的服务。
本项目不直接提供任何生成式人工智能服务的支持,需要使用者自行从提供了生产式人工智能服务的组织或个人获取使用的算法 API。
如果您使用了本项目,请您遵循当地地区的法律法规,使用在当地地区内可用的生产式人工智能服务算法。
本项目不对算法生成的结果负责,所有结果和操作均由使用者自行负责。
本项目的相关信息存储均由用户自行配置来源,项目本身不提供直接的信息存储。
本项目不承担使用者导致的数据安全、舆情风险或发生任何模型被误导、滥用、传播、不当利用而产生的风险和责任。
本项目在编写时也参考了其他的开源项目,特别感谢以下项目: