由于上游项目已经归档,本一键部署脚本将不在继续维护更新
OpenAI提供了两种访问方式,一种是直接在ChatGPT网页端使用的Access Token方式,这种方式可以免费使用GPT-3.5模型,只需要登录即可使用。但缺点是不稳定,且无法扩展。另一种是使用API,注册用户可以获得5美元的赠送额度,但使用完之后就需要付费。这种方式相对更稳定,但缺点是赠送额度较少且存在限流,目前是3条/分钟。
因此,对于那些希望免费使用OpenAI GPT-3.5模型的用户来说,选择Access Token方式是比较好的选择。但是需要解决的问题是不稳定以及可能IP被封禁的问题。为了解决这些问题,我们可以自建反向代理服务来提高稳定性,并保护我们的IP地址不被OpenAI封禁。也有一些公共的反向代理服务可以选择使用,但是很不稳定,因为它们是免费共享的。所以自建反向代理服务是一个不错的选择
机场推荐 | 🔗链接 | 📌机场概况 |
---|---|---|
✅魔戒 | 🔗官网 | 按量不限时、不限速、不限设备,解锁ChatGPT |
✅Teacat | 🔗官网 | 按周期、不限速、不限设备、IEPL专线,解锁ChatGPT |
✅八戒 | 🔗官网 | 按量不限时、IEPL专线、不限速、不限设备、低延迟,高网速,解锁ChatGPT |
✅acyun | 🔗官网 | 按量不限时(3T只需40RMB)、高速中转线路、不限速、不限制客户端数量,解锁ChatGPT |
如果自己安装觉得麻烦,可以使用我提供的一键部署脚本! 脚本目前已实现基础环境安装、所需组件依赖部署、镜像版本自动更新、403|401|429、ERROR检测邮箱告警、uptime-kuma监控等功能!脚本支持arm架构一键部署,但是注意 warp 不支持arm架构!
🔔 说明:目前脚本适用于CentOS 7\8\9、RHEL-8\9、Ubuntu、debian以及opencloudos系统;运行脚本需要确保网络环境稳定(确保系统所需组件可以正常下载)。
🚀 重要:ninja项目:目前GPT4需要Arkose Token作为参数发送,所以你需要一个Arkose Toke端点或者去官方发送会话消息获取HAR日志记录文件,ninja项目可以使用启动参数--arkose-token-endpoint
指定端点获取token 或者使用参数--arkose-chat-har-file
指定HAR文件路径使用;或者部署完成之后通过WEB界面上传更新HAR,请求路径:/har/upload
🔔 下载HAR文件方法:登入官网,浏览器打开 F12
选择网络,然后发送一次会话消息,下载 https://tcr9i.chat.openai.com/fc/gt2/public_key/35536E1E-65B4-4D96-9D97-6ADB7EFF8147
接口的HAR日志记录文件(GPT3.5和4的文件名称不一样,但是格式一样,这里列举的是GPT4)
近日,
OpenAI
取消对GPT-3.5
进行Arkose
验证,可以不上传HAR特征文件使用(已上传的不影响),兼容后续可能会再次开启Arkose
验证,需要加上启动参数--arkose-gpt3-experiment
进行开启GPT-3.5
模型Arkose
验证处理(使用方法与GPT4一样),WebUI不受影响.
bash -c "$(curl -fsSL https://raw.githubusercontent.com/dqzboy/ChatGPT-Proxy/main/install/chatgpt-proxy.sh)"
- 一台VPS,规格最低配 1C1G;注意:warp不支持arm架构的机器
- VPS可以正常访问 chatgpt;或者国内服务器实现科学上网也可以
- 参考文章国内服务器实现科学上网
- 部署docker和docker-compose
特别说明:目前这个项目,经过多个版本迭代之后比较稳定;目前可以一个服务多人共用
- 设置一个yum源,下面两个都可用
# **仓库
yum-config-manager --add-repo http://download.docker.com/linux/centos/docker-ce.repo
# 阿里仓库
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
# 安装docker
yum -y install docker-ce
# 启动并设置开机自启
systemctl start docker
systemctl enable docker
systemctl status docker
(1)定义Docker-Compose版本变量
export composeVer=v2.16.0
(2)下载最新版本的 docker-compose 到 /usr/bin 目录下
curl -L https://github.com/docker/compose/releases/download/${composeVer}/docker-compose-`uname -s`-`uname -m` -o /usr/bin/docker-compose
(3)给 docker-compose 授权
chmod +x /usr/bin/docker-compose
(4)检查docker-compose安装情况
docker-compose -v
ChatGPT反代项目:gngpp/ninja
mkdir -p /data/go-chatgpt-api && cd $_
目前GPT3.5和GPT-4 相关模型目前需要验证 arkose_token,自行搭建arkose_token端点可参考项目:xyhelper-arkose-v2
免费服务:https://chatarkose.xyhelper.cn/token
- 如果你的VPS IP稳定,或者你使用的科学上网地址稳定,那就首选这种方式
~]# vim docker-compose.yml
version: '3'
services:
ninja:
image: gngpp/ninja:latest # ghcr.io/gngpp/ninja:latest
#国内VPS无法下载镜像的使用镜像代理:ghcr.dockerproxy.com/gngpp/ninja:latest
container_name: ninja
restart: unless-stopped
environment:
- TZ=Asia/Shanghai
- PROXIES= # PROXIES=:可配置科学上网代理地址,例如:http://clash_vpsIP:7890;注释掉或者留空则不启用
command: run # --enable-direct开启本地直连(默认关闭) --disable-webui关闭自带WEB --arkose-gpt3-experiment开启GPT-3.5模型Arkose验证
ports:
- 8080:7999 # 容器端口映射到宿主机8080端口;宿主机监听端口可按需改为其它端口
- 解决IP被Ban,提示Access denied之类的报错
- 如果使用此模式还是提示Access denied,大概率是你机器IP不干净或者用的国内服务器导致验证码过不去
- Cloudflare WARP官网文档:https://developers.cloudflare.com/warp-client/get-started/linux
~]# vim docker-compose.yml
version: '3'
services:
ninja:
image: gngpp/ninja:latest # ghcr.io/gngpp/ninja:latest
#国内VPS无法下载镜像的使用镜像代理:ghcr.dockerproxy.com/gngpp/ninja:latest
container_name: ninja
restart: unless-stopped
environment:
- TZ=Asia/Shanghai
- PROXIES=socks5://warp:10000
command: run # --enable-direct开启本地直连(默认关闭) --disable-webui关闭自带WEB --arkose-gpt3-experiment开启GPT-3.5模型Arkose验证
ports:
- 8080:7999 # 容器端口映射到宿主机8080端口;宿主机监听端口可按需改为其它端口
depends_on:
- warp
warp:
container_name: warp
image: ghcr.io/gngpp/warp:latest
restart: unless-stopped
watchtower:
container_name: watchtower
image: containrrr/watchtower
volumes:
- /var/run/docker.sock:/var/run/docker.sock
command: --interval 3600 --cleanup
restart: unless-stopped
ChatGPT反代项目:linweiyuan/go-chatgpt-api
- 目前已经支持多次对话
mkdir -p /data/go-chatgpt-api && cd $_
目前GPT3.5和GPT-4 相关模型目前需要验证 arkose_token,自行搭建arkose_token端点可参考项目:xyhelper-arkose-v2
免费服务:https://chatarkose.xyhelper.cn/token
- 如果你的VPS IP稳定,或者你使用的科学上网地址稳定,那就首选这种方式
~]# vim docker-compose.yml
version: "3"
services:
go-chatgpt-api:
container_name: go-chatgpt-api
image: linweiyuan/go-chatgpt-api
ports:
- 8080:8080 # 容器端口映射到宿主机8080端口;宿主机监听端口可按需改为其它端口
#network_mode: host # 可选,将容器加入主机网络模式,即与主机共享网络命名空间;上面的端口映射将失效
volumes:
- /var/run/docker.sock:/var/run/docker.sock:ro
environment:
- TZ=Asia/Shanghai
- PROXY= # GO_CHATGPT_API_PROXY=:可配置科学上网代理地址,例如:http://clash_vpsIP:7890;注释掉或者留空则不启用
- ARKOSE_TOKEN_URL=
- BX=
- BX_URL=
- OPENAI_EMAIL=
- OPENAI_PASSWORD=
- CONTINUE_SIGNAL= # CONTINUE_SIGNAL=1,开启/imitate接口自动继续会话功能,留空关闭,默认关闭
restart: unless-stopped
- 解决IP被Ban,提示Access denied之类的报错
- 如果使用此模式还是提示Access denied,大概率是你机器IP不干净或者用的国内服务器导致验证码过不去
- Cloudflare WARP官网文档:https://developers.cloudflare.com/warp-client/get-started/linux
~]# vim docker-compose.yml
version: "3"
services:
go-chatgpt-api:
container_name: go-chatgpt-api
image: linweiyuan/go-chatgpt-api
ports:
- 8080:8080 # 容器端口映射到宿主机8080端口;宿主机监听端口可按需改为其它端口
#network_mode: host # 可选,将容器加入主机网络模式,即与主机共享网络命名空间;上面的端口映射将失效
volumes:
- /var/run/docker.sock:/var/run/docker.sock:ro
environment:
- TZ=Asia/Shanghai
- PROXY=socks5://chatgpt-proxy-server-warp:65535
- BX=
- BX_URL=
- OPENAI_EMAIL=
- OPENAI_PASSWORD=
- CONTINUE_SIGNAL=
depends_on:
- chatgpt-proxy-server-warp
restart: unless-stopped
chatgpt-proxy-server-warp:
container_name: chatgpt-proxy-server-warp
image: linweiyuan/chatgpt-proxy-server-warp
environment:
- LOG_LEVEL=OFF
restart: unless-stopped
docker-compose up -d
# 检查运行的容器;确保容器状态为UP
docker ps
# 检测容器映射到宿主机的监听端口是否监听
ss -tnlp|grep 8080
# 查看容器日志是否运行正常
docker logs -f ninja
# 查看容器日志是否运行正常
docker logs -f go-chatgpt-api
- 出现下图中
Service go-chatgpt-api is ready.
则表示服务可正常使用了
# 停止
docker-compose down
# 拉取新镜像
docker-compose pull
# 启动
docker-compose up -d
接口使用, * 表示任意URL后缀
- backend-api, http(s)://host:port/backend-api/*
- public-api, http(s)://host:port/public-api/*
- platform-api, http(s)://host:port/dashboard/*
- chatgpt-to-api, http(s)://host:port/v1/chat/completions
关于关于ChatGPT转API使用,直接拿AceessToken当API Key使用,接口路径:/v1/chat/completions
- 原接口: http://go-chatgpt-api:8080/chatgpt/conversation
- 更新后: http://go-chatgpt-api:8080/chatgpt/backend-api/conversation
-
现在我们可以找一个项目,使用access token模式,并使用我们自建的代理地址进行访问;
- 自建IP的访问地址为http://vps-ip:8080/chatgpt/backend-api/conversation
- 如果前端项目是直接跑的并且与反代服务同在一台VPS上,则反代地址可写成:http://127.0.0.1:8080/chatgpt/backend-api/conversation
- 如果你前端项目是容器启的并且与反代服务同在一台VPS上,则反代地址可写成:http://go-chatgpt-api:8080/chatgpt/backend-api/conversation
-
access token获取:https://chat.openai.com/api/auth/session
# ninja-chatgpt-api
API_REVERSE_PROXY=http(s)://host:port/backend-api/conversation
# go-chatgpt-api
API_REVERSE_PROXY=http://127.0.0.1:8080/chatgpt/backend-api/conversation
- 现在我们访问chatgpt-web,查看是否可以正常使用
- 同样日志返回请求结果正常
- 使用ChatGPTAPI模式,并使用我们自建的代理地址进行访问;
- 自建IP的访问地址为http://vps-ip:8080/platform
- 如果前端项目是直接跑的并且与反代服务同在一台VPS上,则反代地址可写成:http://127.0.0.1:8080/platform
- 如果你前端项目是容器启的并且与反代服务同在一台VPS上,则反代地址可写成:http://go-chatgpt-api:8080/platform
OPENAI_API_BASE_URL=http://127.0.0.1:8080/platform
## ninja-chatgpt-api
# ==== OpenAI 部分开始
[openai]
# OpenAI 相关设置
# 自定义 ChatGPT 的 browserless 接入点
# 自 3月9日 开始,不设置此项将无法正常使用 browserless 模式下的网页版 ChatGPT
browserless_endpoint = "http(s)://你的服务地址或者IP/backend-api/"
## go-chatgpt-api
# ==== OpenAI 部分开始
[openai]
# OpenAI 相关设置
# 自定义 ChatGPT 的 browserless 接入点
# 自 3月9日 开始,不设置此项将无法正常使用 browserless 模式下的网页版 ChatGPT
browserless_endpoint = "http(s)://你的服务地址或者IP/chatgpt/backend-api/"
CHATGPT_BASE_URL = "http(s)://你的服务地址或者IP/chatgpt/backend-api/"
- 接口:http://go-chatgpt-api:8080/imitate/v1/chat/completions 利用 accessToken 模拟 apiKey,实现伪免费使用 API ,从而支持仅支持 apiKey 调用的第三方客户端项目
- 注意: 下面的接口地址可以直接在浏览器打开访问才可以正常被Next-Web使用
# go-chatgpt-api
http://IP:8080/imitate
# ninja
http://IP:8080
目前使用发现,只要确保节点稳定或者国内服务器配置的代理地址稳定(没有被opeai封锁),那么就可以正常使用。
- 问题描述:按照步骤部署起来了,但是查看go-chatgpt-api日志提示ERRO[0015] Access denied
- 问题原因:大概率你的VPS IP不干净或者使用的国内服务器;如果使用的代理,那么进入到容器查看下IP是啥或者更换个代理节点
docker exec chatgpt-proxy-server curl -x socks5://代理 ipinfo.io
- 问题原因:这个错误就是处理不了验证码
- 解决方法:重启 api 恢复正常;先 down 再 up,不能 restart
- 问题原因:是由于 Docker 容器的安全限制导致的,container内的root只是外部的一个普通用户权限,所以会出现这个问题
- 问题解决:
docker-compose.yml
添加参数privileged: true
- 问题原因:如果你更新到了新版本,那么接口需要进行更改
- 解决方法:
http://127.0.0.1:8080/chatgpt/backend-api/conversation
- 问题原因:accesstoken过期或者账号被封禁
- 问题解决:重启获取新的accesstoken,或者注册新账号
6、ChatGPTUnofficialProxyAPI.sendMessage: conversationId and parentMessageId must both be set or both be undefined
- 问题原因:有可能你是api和token同时使用,并且在同一个会话
- 问题解决:切换新的会话;或者把会话清除掉
- 问题原因:字面意思,你的VPS或者节点IP被openai封锁了,无法访问;ping通不代表就可以正常访问
- 问题解决:(1)更换IP;(2)使用warp
- 问题原因:(1)节点IP完成被openai拉黑了;(2)由于现在GPT3.5和GPT4都需要验证Arkose Token
- 问题解决:(1)换一个可用的节点;(2)延迟0ms,那就需要配置Arkose Token端点或先上传HAR文件之后,在进行访问chatgpt
9、OpenAI: {"detail":{"message":"Client challenge required","code":"challenge_required"}} (code: 418),然后代理状态码200,请求耗时0 ms
- 问题原因:使用的是AccessToekn,节点IP问题,出码了;还有可能是AccessToekn过期
- 问题解决:换一个可用的IP,或者更新AccessToekn试试