Gemini反向代理教程
Closed this issue · 0 comments
需要反复强调的部分
在填写配置项时,windows整合包用户打开launcher,在设置页面就能看到,不要自己去直接修改文件,在你不清楚格式要求的情况下,贸然修改本地文件容易出现格式错误,最终将导致bot无法运行。
你自己用 设定#模型名 指令的优先级高于你在配置文件填写的模型,所以不要再问“为什么我修改了配置文件模型还是没反应”的问题了。
一旦你用了 设定#模型名 的指令,配置文件设置的模型将不再对你生效。
为了避免还是有人看不懂,我再说明白一点:
设定#模型名 设置的模型只对设定者个人生效;
而配置文件中设置的模型,是对所有人(除了用过 设定#模型名 的人)生效的
如果你还是看不懂上面说的是什么意思,那就记住不要用 设定#模型名 这样的指令。
下面是配置文件设置模型的相关内容
最下方有比较详细的配置方式
模型(settings.yaml中的model设置) | 介绍 | 配置项(api.yaml对应) | 评价 |
---|---|---|---|
characterglm | 智谱的超拟人大模型,在这里申请 | chatGLM | 付费api,群少/自用可选择 |
讯飞星火 | 讯飞星火的模型,免费申请 ,教程详见下方【讯飞星火配置方式】 | sparkAI下属的appkey和appsecret | lite版免费,响应快,无代理首选 |
文心一言 | 文心的模型,免费,配置详见下方【文心模型配置方式】 | wenxinAI下属的appkey和appsecret | 免费,响应快,无代理可选 |
Gemini | 谷歌Gemini,在这里申请apikey,需配置proxy或GeminiRevProxy | gemini proxy或GeminiRevProxy |
免费,稳定,推荐 |
腾讯元器 | QQ智能体同款模型,教程 | 腾讯元器下属的 智能体id 和 token | 送1e的限额,应该够用好久了 |
random | 免费,免费模型均收集自网络,不保证稳定性。配置random&PriorityModel以调整优先级 | 【无需配置】 | 免费,无需代理,全局代理模式下无法使用,学着用规则代理/pac吧哥 |
gpt3.5 | 官方gpt3.5,你也可以使用自己的中转。 | openaiSettings下属的openai-keys和openai-transit | 你知道自己在干啥就行。不用中转的话,需要配置proxy |
Cozi | (注意,coze方案当前已被弃用)GPT4,基于coze-discord,教程请查看Here,最好配置代理 | cozi proxy(建议) |
不推荐。很麻烦,并且相关支持将在未来的版本中移除。 需要discord小号,每个账号每天都有次数限制(gpt4 100次/天),可配置多个小号 |
文心一言配置方式
参照 创建应用,并保存apikey和apiSecret,填入api.yaml中wenxinAI部分
(如果你没有实名认证,需要先实名一下)
开通对应模型,这里建议开通ERNIE-Speed-128K,不用担心,这是免费的。
然后把Manyana/settings.yaml中chatGLM.model修改为 文心一言 并保存,重启bot即可。
此时你的api.yaml相关部分应该是这样:
wenxinAI:
apiKey: 你的key
secretKey: 你的secretkey
wenxin-model: ernie-speed-128k #一般不用动
settings.yaml相关部分应该是这样:
chatGLM: #对话模型通用设置
aiReplyCore: False #ai回复核心,开不开都行
model: 文心一言
讯飞星火配置方式
参照 找到spark lite,并保存apikey和apiSecret,填入api.yaml中sparkAI部分
(如果你没有实名认证,需要先实名一下)
然后把Manyana/settings.yaml中chatGLM.model修改为 讯飞星火 并保存,重启bot即可。
此时你的api.yaml相关部分应该是这样:
sparkAI: #讯飞星火
apiKey: 你的apikey #在https://console.xfyun.cn/services/cbm申请,并复制对应key和secret,注意,免费的是lite版
apiSecret: 你的apisecret
spark-model: general #讯飞星火的模型设置,general是免费无限制的,一般不建议修改
settings.yaml相关部分应该是这样:
chatGLM: #对话模型通用设置
aiReplyCore: False #ai回复核心,开不开都行
model: 讯飞星火
使用Gemini
搭建完成后,本地环境无代理可调用Gemini。
本文档用于无域名搭建Gemini反代。
1、修改默认模型
settings.yaml相关部分应该是这样:
chatGLM: #对话模型通用设置
aiReplyCore: False #ai回复核心,开不开都行
model: Gemini #这样ai回复才会使用Gemini进行回复
2、获取Gemini apikey
获取Gemini apikey (获取过程需要开启代理)
gemini:
- AIxxxxxxx #在api.yaml填写你申请到的apikey
如果你申请了多个apikey
gemini:
- AIxxxxxxx1 #填写你申请到的apikey
- AIxxxxxxx2 #填写你申请到的apikey
3、配置代理
在获取到Gemini apikey后,由于gemini不支持cn用户使用,我们需要配置代理,依然是api.yaml,配置proxy或GeminiRevProxy,这两个代理任一配置完成即可使用(推荐GeminiRevProxy,因为有现成的。)
proxy: 你自己的http代理地址 #如果你不知道这是什么,就别填,去配置GeminiRevProxy
GeminiRevProxy: ""
别折腾了用这个吧
你可以直接使用以下任一反代地址
https://fbsvilli.netlify.app
https://mellifluous-cupcake-ea08ad.netlify.app
https://fsadfafsfdsafsa.netlify.app
https://voluble-frangipane-db8db1.netlify.app
GeminiRevProxy: "https://mellifluous-cupcake-ea08ad.netlify.app" #在api.yaml
好的,恭喜你,在填写完gemini的apikey,以及GeminiRevProxy之后,你已经可以在无代理环境下使用Gemini了。
后面的不用看了,你只需要把settings.yaml的模型设置为Gemini即可。
至于 设定#模型名 这是只对发送指令者个人生效的指令,设定#模型 的优先级高于settings.yaml中填写的模型。
如果还是想要自己折腾个反代服务器
进入页面https://github.com/antergone/palm-netlify-proxy
你应该会被跳转至,点击connect to github
Repository name随意填写,然后点击 save and deploy
点击这个链接
出现上图即为成功,此时的链接就是反代链接,把此链接填入反代链接即可,注意格式
如下
https://xxxx.netlify.app
前要用https后不能有斜杠。
对接gpt中转(自定义模型)
大多数模型都是支持使用openai的sdk的,我们可以轻松对接像kimi这些支持openaiSDK的模型。
我们以kimi为例
通过[阅读kimi官方文档](基本信息 - Moonshot AI 开放平台),我们得到以下关键信息
看不懂也没关系,这说明它支持openai的sdk,我们只需要填写api.yaml即可调用它
接下来,在kimi官网申请apikey。
此时你的api.yaml相关部分应该是这样:
openaiSettings:
openai-keys:
- 你申请的apikey #从kimi官网申请的api
openai-model: moonshot-v1-8k #此时,我们使用kimi的模型
openai-transit: 'https://api.moonshot.cn/v1' #中转站,即连接到kimi api,而非openai
settings.yaml相关部分应该是这样:
chatGLM: #对话模型通用设置
aiReplyCore: False #ai回复核心,开不开都行
model: gpt3.5 #因为本质上用的还是openai sdk,所以模型这里仍然需要填gpt3.5,但因为上面中转站的设置,已经是kimi了。如果需要更改人设,也是更改下方的gpt3.5,不要自己创建新的。