/vs-extension-llmcopilot

visual studio extension LLMCopilot

Primary LanguageC#MIT LicenseMIT

LLMCopilot

English

LLMCopilot现在完全开源了。之前之所以迟迟不开源,主要是因为这个插件是vibecoding的一个玩具,本想着后续再优化,但事实上我并没有太多精力维护这个项目,因此现在基于MIT LISENCE开源,你可以随意修改。也欢迎提交PR,但我可能无法及时处理。

这是一个基于Ollama的Visual Studio扩展。得益于Ollama的本地化部署和强大的LLM(大型语言模型)支持,你可以像使用github copilot一样获得代码提示和建议,但是所有数据都在本地,甚至可以离线运行。

如果此插件对你有帮助,请在marketplace中给我们一个五星评价。

版本记录

版本记录

  • 请注意,接受所有预测的快捷键修改为了Alt+Q,这样可以减少正常输入过程中使用Ctrl+C等组合键被误判为接受预测。详情请查看设置部分。

功能

  • 基于Ollama的本地大模型,所有数据都在本地,即使离线也可使用
  • 基于大模型的能力辅助编程
    • 解释代码
    • 自动补全
    • 代码查错
    • 添加注释
    • 和本地大模型聊天
    • 生成单元测试

设置

  • 支持自定义使用不同的大模型,您可以自行尝试

    • 自定义聊天大模型
    • 自定义自动补全大模型
  • 支持自定义模型"Fill in the middle" token,可兼容更多大模型

  • 代码自动补全开关,默认关闭

    • 按下Alt+Q键接受所有预测
    • 按下数字1-9,接受前N行预测
    • 按下ESC键拒绝预测
  • 注意!默认使用DeepSeek-Coder:6.7b大模型,如果显存低于4G,建议使用DeepSeek-Coder模型,显存8G及以上建议使用DeepSeek-Coder:6.7b

  • 显存低于16G,不建议聊天代码补全使用不同的大模型,这样会导致Ollama服务器频繁加载不同模型导致响应缓慢,影响体验。

  • 支持设置模型响应语言为中文或者英文(需模型支持)

截图

设置 聊天 自动补全

感谢

  • Ollama带来的好用的大模型服务器后端和方便易用的Api接口
  • OllamaSharp用于访问Ollama Api的客户端。
  • MdXaml用于聊天窗口的markdown渲染。
  • privy的提示词模板。

非常感谢他们提供的优秀工具。

FAQ

FAQ