通过continue插件实现vscode接入本地离线部署的deepseek

注:前置条件是自己本地或者服务器上的的ollama已经部署有deepseek

一、vscode安装continue

1、vscode左侧拓展插件中安装continue


2、打开continue的左侧栏,添加模型

3、选择ollama,默认是连接本机里面的ollama,点击连接。

4、返回continue界面可以看到已部署的模型。

5、然后可以愉快地进行对话了。

二、修改模型访问地址,连接服务器上的deepseek

如果模型是部署在服务器上,你需要连接服务器上的大模型,可以通过修改配置文件定义连接ip。

1、打开配置文件。

2、配置文件中增加 apiBase 属性,这样就可以连接到服务器上的大模型了。

### 配置 DeepSeekVSCode 中 为了在 Visual Studio Code (VSCode) 中成功导入并配置 `DeepSeek-Coder-V2-Instruct` 模型,需遵循特定步骤来确保集成顺利。 #### 设置模型参数 当准备使用指定的编码器模型时,应将 `model` 参数设定为 `deepseek-ai/DeepSeek-Coder-V2-Instruct` 并确认已激活相应的功能开关[^1]。这一步骤对于初始化正确的环境至关重要,使得后续操作能够基于此预训练模型执行。 ```json { "model": "deepseek-ai/DeepSeek-Coder-V2-Instruct", "enabled": true } ``` #### 安装必要扩展与工具 考虑到目标是在离线环境中运行该模型,因此推荐采用 LM Studio 结合 CodeGPT 的方式来进行本地部署[^2]。通过这种方式可以实现无需联网即可完成代码生成功能的需求。 #### 创建专属工作区 建议创建一个新的 VSCode 工作区专门用于管理与 DeepSeek 相关的所有文件和设置。这样有助于保持项目结构清晰有序,并简化未来可能涉及的维护流程。 ```bash mkdir deepseek_workspace code deepseek_workspace ``` #### 调整用户或工作区设置 最后,在 VSCode 内调整相关设置以适应新加入的组件。可以通过修改 `.vscode/settings.json` 文件添加自定义配置项,从而优化用户体验。 ```json // .vscode/settings.json { "codegpt.modelPath": "./models/deepseek-coder-v2-instruct", // 假设模型存储路径 "codegpt.enabled": true, "editor.quickSuggestions": { "other": true, "comments": false, "strings": false } } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值