Gomoon 是一个开源项目,目前处于初始阶段,还有很多功能有待完善。如果你想一起把 Gomoon 做得更好,欢迎加入我们!
未来,Gomoon 还将实现炫酷的主题功能,更加自定义的 Prompt 模板功能,在线获取好用的助手和知识库功能,以及第三方接入和万能的插件...
如果你也想要参与进来,欢迎加入 Gomoon 开发群:758015092。
要使用 Gomoon,你只需要在 Gomoon 上配置好你的模型引擎,就可以快速让你的助手帮你回答问题,提高工作和学习效率。又或者...只是给你讲个笑话😋。
它同时支持:
- 创建属于自己的助手,选择多种大模型引擎(支持实时切换)
- 快速问答和连续的对话以及存取对话历史
- 对话可以复制,暂停 ⏸,以及重新生成,方便你的使用。更厉害的是你还可以直接编辑答案,让后续的对话更加的智能
- 快速唤起,快捷键,置顶等功能,例如你可以使用
Ctrl + G
快速唤起 Gomoon,双击复制(Command + C +C
)快速问答 - 发送文件,图片和URL解析,联网查询,朗读等快捷功能
- 使用记忆胶囊储存你的本地知识库,更加安全可靠,最重要的是完全免费
- 下载对话记录,助手一键导入导出, 把你觉得实用的助手分享给你的朋友
- 划选一段文本,可以快速的在对话中进行查找和朗读
更多实用的功能可以询问 Gomoon 中自带的『Gomoon使用指南』 记忆胶囊来探索!
模型类型 | 模型名称 |
---|---|
ChatGPT | GPT3,GPT4,支持 OpenAI API 模式的模型。 |
文心 | 文心3.5,文心4.0,文心128k |
千问 | 千问Turbo,千问Plus,千问Max |
Gemini | Gemini Pro |
Kimi | Kimi 8k,Kimi 32k,Kimi 128k |
Llama | node-llama-cpp 支持的所有模型 |
Ollama | ollama 支持的所有模型 |
由于 ChatGPT 国内访问不易,这里推荐一下 ChatAnywhere,价格十分实惠的国内 ChatGPT 提供商。
Tips:mac 用户由于没有上架 mac 应用市场,需要在『访达→应用』中找到 Gomoon 右键打开并二次确认才可以使用。『Command + C +C 双击复制』和『发送文件』功能需要用户允许 Gomoon 的权限请求,并且重启应用。
使用过很多大模型应用,但是他们总是局限于一个网页端,我想让他离我近一些,更好用一些。
寻找了很多应用,我还是没有找到适合自己的,于是我选择做一个。Gomoon 就诞生了。
Gomoon 的名字来源于 赛博朋克:边缘行者 的中 Lucy 的愿望:『去月球』。希望 Gomoon 能够帮助你去往那颗属于自己的月球。
如果你有任何问题或者想交流一下使用体验,分享自己的助手,欢迎加入QQ群:758015092(后续 Gomoon 更新通知也会发布在群内)。
感谢以下开发者的支持:
贡献者 | 贡献内容 |
---|---|
协助完成 mac 端 x86_64 架构的适配 | |
支持通义千问模型 |
项目本身还有很多新功能需要开发,非常欢迎大家加入项目组,一起来贡献代码。
node 版本要求:v20.11.1 及以上 (开启Corepack) yarn 版本要求:v3.2.0
由于仓库大小限制,默认的资源没有上传到 Github,开发者可以在本地安装的 Gomoon 中找到resources
文件夹(mac用户可以通过 Finder,右键点击应用,选择“显示包内容”来浏览到Contents
目录,resource
文件夹存储于Contents/Resource/app.asar.unpacked/resources
; windows系统中,这个路径通常是在用户数据资源内,例如 C:\Users\Lenovo\AppData\Local\Programs\gomoon\resources\app.asar.unpacked\resources
),将里面的资源文件复制到项目根目录的resources
文件夹中。
resources
文件夹结构如下:
resources/
├── assistants.json # 默认助手配置文件
├── eventTracker # 事件追踪文件,根据系统不同也可能为 `eventTracker.exe` 或者 `eventTracker-x86`
├── icon.png # 应用图标
├── icon@20.png # 应用图标
├── lines.json # 默认标题栏配置文件
├── memories.json # 默认记忆文件
└── models # 模型配置文件
└── Xenova
└── jina-embeddings-v2-base-zh
└── ....
同时也可以使用云盘下载
后续就可以正常启动项目进行开发了。
- 确保你的显卡支持 CUDA,并且已经安装了 CUDA 驱动和 CUDA Toolkit(版本12以上)
- 克隆该项目,获取 resource 文件,并放在项目根目录
- 在根目录执行
yarn
(确保电脑已经安装 node 和 全局依赖 yarn),安装项目所需依赖 - 在根目录执行
npx --no node-llama-cpp download --cuda
安装node-llama-cpp
CUDA 支持依赖 - 如需修改显卡使用大小,可以修改
src/lib/utils.ts
中ChatLlamaCpp
的gpuLayers
参数 - 执行
yarn dev
测试效果没有问题后,执行yarn build
打包项目,在 dist 目录可以看到setup.exe
软件安装文件