avilliai/Manyana

Gemini反向代理教程

Closed this issue · 0 comments

需要反复强调的部分

在填写配置项时,windows整合包用户打开launcher,在设置页面就能看到,不要自己去直接修改文件,在你不清楚格式要求的情况下,贸然修改本地文件容易出现格式错误,最终将导致bot无法运行。

你自己用 设定#模型名 指令的优先级高于你在配置文件填写的模型,所以不要再问“为什么我修改了配置文件模型还是没反应”的问题了。

一旦你用了 设定#模型名 的指令,配置文件设置的模型将不再对你生效。

为了避免还是有人看不懂,我再说明白一点:
设定#模型名 设置的模型只对设定者个人生效;
而配置文件中设置的模型,是对所有人(除了用过 设定#模型名 的人)生效的

如果你还是看不懂上面说的是什么意思,那就记住不要用 设定#模型名 这样的指令。

下面是配置文件设置模型的相关内容

最下方有比较详细的配置方式

模型(settings.yaml中的model设置) 介绍 配置项(api.yaml对应) 评价
characterglm 智谱的超拟人大模型,在这里申请 chatGLM 付费api,群少/自用可选择
讯飞星火 讯飞星火的模型,免费申请 ,教程详见下方【讯飞星火配置方式】 sparkAI下属的appkey和appsecret lite版免费,响应快,无代理首选
文心一言 文心的模型,免费,配置详见下方【文心模型配置方式】 wenxinAI下属的appkey和appsecret 免费,响应快,无代理可选
Gemini 谷歌Gemini,在这里申请apikey,需配置proxy或GeminiRevProxy gemini
proxy或GeminiRevProxy
免费,稳定,推荐
腾讯元器 QQ智能体同款模型,教程 腾讯元器下属的 智能体id 和 token 送1e的限额,应该够用好久了
random 免费,免费模型均收集自网络,不保证稳定性。配置random&PriorityModel以调整优先级 【无需配置】 免费,无需代理,全局代理模式下无法使用,学着用规则代理/pac吧哥
gpt3.5 官方gpt3.5,你也可以使用自己的中转。 openaiSettings下属的openai-keys和openai-transit 你知道自己在干啥就行。不用中转的话,需要配置proxy
Cozi (注意,coze方案当前已被弃用)GPT4,基于coze-discord,教程请查看Here,最好配置代理 cozi
proxy(建议)
不推荐。很麻烦,并且相关支持将在未来的版本中移除。
需要discord小号,每个账号每天都有次数限制(gpt4 100次/天),可配置多个小号

文心一言配置方式

参照 创建应用,并保存apikey和apiSecret,填入api.yaml中wenxinAI部分

(如果你没有实名认证,需要先实名一下)

开通对应模型,这里建议开通ERNIE-Speed-128K,不用担心,这是免费的。

然后把Manyana/settings.yaml中chatGLM.model修改为 文心一言 并保存,重启bot即可

此时你的api.yaml相关部分应该是这样:

wenxinAI:                
  apiKey: 你的key
  secretKey: 你的secretkey  
  wenxin-model: ernie-speed-128k       #一般不用动

settings.yaml相关部分应该是这样:

chatGLM:                   #对话模型通用设置  
  aiReplyCore: False  #ai回复核心,开不开都行
  model: 文心一言

讯飞星火配置方式

参照 找到spark lite,并保存apikey和apiSecret,填入api.yaml中sparkAI部分

(如果你没有实名认证,需要先实名一下)

然后把Manyana/settings.yaml中chatGLM.model修改为 讯飞星火 并保存,重启bot即可

此时你的api.yaml相关部分应该是这样:

sparkAI:                         #讯飞星火  
  apiKey: 你的apikey #在https://console.xfyun.cn/services/cbm申请,并复制对应key和secret,注意,免费的是lite版  
  apiSecret: 你的apisecret  
  spark-model: general           #讯飞星火的模型设置,general是免费无限制的,一般不建议修改

settings.yaml相关部分应该是这样:

chatGLM:                   #对话模型通用设置  
  aiReplyCore: False  #ai回复核心,开不开都行
  model: 讯飞星火

使用Gemini

搭建完成后,本地环境无代理可调用Gemini
本文档用于无域名搭建Gemini反代。

1、修改默认模型

settings.yaml相关部分应该是这样:

chatGLM:                   #对话模型通用设置  
  aiReplyCore: False  #ai回复核心,开不开都行
  model: Gemini       #这样ai回复才会使用Gemini进行回复

2、获取Gemini apikey

获取Gemini apikey (获取过程需要开启代理)

gemini:                         
  - AIxxxxxxx                 #在api.yaml填写你申请到的apikey

如果你申请了多个apikey

gemini:                         
  - AIxxxxxxx1                 #填写你申请到的apikey
  - AIxxxxxxx2                 #填写你申请到的apikey

3、配置代理

在获取到Gemini apikey后,由于gemini不支持cn用户使用,我们需要配置代理,依然是api.yaml,配置proxy或GeminiRevProxy,这两个代理任一配置完成即可使用(推荐GeminiRevProxy,因为有现成的。)

proxy: 你自己的http代理地址                     #如果你不知道这是什么,就别填,去配置GeminiRevProxy
GeminiRevProxy: ""  

别折腾了用这个吧

你可以直接使用以下任一反代地址
https://fbsvilli.netlify.app
https://mellifluous-cupcake-ea08ad.netlify.app
https://fsadfafsfdsafsa.netlify.app
https://voluble-frangipane-db8db1.netlify.app

GeminiRevProxy: "https://mellifluous-cupcake-ea08ad.netlify.app"        #在api.yaml

好的,恭喜你,在填写完gemini的apikey,以及GeminiRevProxy之后,你已经可以在无代理环境下使用Gemini了。
后面的不用看了,你只需要把settings.yaml的模型设置为Gemini即可。
至于 设定#模型名 这是只对发送指令者个人生效的指令,设定#模型 的优先级高于settings.yaml中填写的模型。

如果还是想要自己折腾个反代服务器

进入页面https://github.com/antergone/palm-netlify-proxy
image

点击Deploy to Netlify
image

你应该会被跳转至,点击connect to github

image

完成授权后你会跳转到
image

Repository name随意填写,然后点击 save and deploy
image

稍作等待
image

即为部署成功。
image

点击这个链接
image
出现上图即为成功,此时的链接就是反代链接,把此链接填入反代链接即可,注意格式
如下
https://xxxx.netlify.app
前要用https后不能有斜杠。

对接gpt中转(自定义模型)

大多数模型都是支持使用openai的sdk的,我们可以轻松对接像kimi这些支持openaiSDK的模型。
我们以kimi为例

通过[阅读kimi官方文档](基本信息 - Moonshot AI 开放平台),我们得到以下关键信息
image.png
看不懂也没关系,这说明它支持openai的sdk,我们只需要填写api.yaml即可调用它

接下来,在kimi官网申请apikey。
此时你的api.yaml相关部分应该是这样:

openaiSettings:                  
  openai-keys:                   
  - 你申请的apikey                                #从kimi官网申请的api
  openai-model: moonshot-v1-8k                    #此时,我们使用kimi的模型
  openai-transit: 'https://api.moonshot.cn/v1'    #中转站,即连接到kimi api,而非openai

settings.yaml相关部分应该是这样:

chatGLM:                   #对话模型通用设置  
  aiReplyCore: False  #ai回复核心,开不开都行
  model: gpt3.5            #因为本质上用的还是openai sdk,所以模型这里仍然需要填gpt3.5,但因为上面中转站的设置,已经是kimi了。如果需要更改人设,也是更改下方的gpt3.5,不要自己创建新的。