bookfere/Ebook-Translator-Calibre-Plugin

建议加入对ollama本地部署大模型的支持

Closed this issue · 2 comments

建议加入对ollama本地部署大模型的支持

事实上可以直接使用chatGPT(openAI)的引擎格式来调用ollama的服务:这是我的配置,我使用的是经过调整的qwen2:7b
image
除此之外还可以看看这个:https://www.53ai.com/news/qianyanjishu/772.html来对本地模型数据和system prompt调整 。

本地大模型的缺点:偶尔还是会出现解释和回答问题的情况,解决方法是手动修改或者忽视
而且我总觉得本地模型翻译性价比还是不如谷歌api翻译。在并发速度、准确性、使用门槛上。