fruitbars/simple-one-api

智谱清言报错

Closed this issue · 4 comments

使用glm-4-0520,glm-4-flash、glm-4-air会报错
"error": "ChatCompletionStream error: error, status code: 400, message: API 调用参数有误,请检查文档。"
e6998073-4124-482e-bf6a-bc5ff6070919

使用glm-4-alltools、glm-4v正常
批注 2024-06-27 211927

另外glm-4v输入图片会报错
"error": "ChatCompletionStream error: error, status code: 400, message: 图片输入格式/解析错误"
批注 2024-06-27 212105

charglm-3这个模型则会提示 empty response from server
批注 2024-06-27 212638

我的相关配置文件如图
20240627213356
我所使用的simple-one-api为Releases的最新版,客户端使用的是ChatGPT-Next-Web

ChatGPT-Next-Web 默认的top好像是1,glm系列的参数是:

top_p取值说明

用温度取样的另一种方法,称为核取样
取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7
模型考虑具有 top_p 概率质量 tokens 的结果
例如:0.1 意味着模型解码器只考虑从前 10% 的概率的候选集中取 tokens
建议您根据应用场景调整 top_p 或 temperature 参数,但不要同时调整两个参数

但是设置为1 ,glm-4v能正常返回,而glm-4等其他系列不可以。

目前可以通过设置ChatGPT-Next-Web到小于1试试

ChatGPT-Next-Web 默认的top类似是1,glm系列的参数是:

top_p取值说明

用温度取样的另一种方法,称为核取样
取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7
模型考虑具有 top_p 概率质量 token 的结果
例如:0.1 这意味着模型存储库只考虑从前 10% 的概率候选集中取样 token 并
根据应用场景调整 top_p 或temperature 参数,但不要同时调整两个参数

但是设置为1,glm-4v能正常返回,而glm-4等其他系列不可以。

目前可以通过设置ChatGPT-Next-Web到小于1试试

试了一下top_p改到1以下确实可以正常使用,但是4v还是不能发图片,不知道是不是ChatGPT-Next-Web的问题,另外charglm-3这个模型依旧提示empty response from server

因为智谱的图片和openai的图片格式有差异,这周更新版本v0.9,抹平差异

ChatGPT-Next-Web 默认的top类似是1,glm系列的参数是:
top_p取值说明

用温度取样的另一种方法,称为核取样
取值范围是:(0.0, 1.0) 开区间,不能等于 0 或 1,默认值为 0.7
模型考虑具有 top_p 概率质量 token 的结果
例如:0.1 这意味着模型存储库只考虑从前 10% 的概率候选集中取样 token 并
根据应用场景调整 top_p 或temperature 参数,但不要同时调整两个参数

但是设置为1,glm-4v能正常返回,而glm-4等其他系列不可以。
目前可以通过设置ChatGPT-Next-Web到小于1试试

试了一下top_p改到1以下确实可以正常使用,但是4v还是不能发图片,不知道是不是ChatGPT-Next-Web的问题,另外charglm-3这个模型依旧提示empty response from server

新版本v0.9.0发布了,可以试试