Ollama+Deepseek-R1+Continue本地集成VScode
一、Ollama+Deepseek-R1+Continue本地集成VScode
1)安装前知识点
Continue 介绍
详情可参照官网: continue官网
Continue 是 Visual Studio Code 和 JetBrains 中领先的开源 AI 代码助手。
•在侧边栏中进行聊天以理解和迭代代码。
•自动补全,以便在输入时接收内联代码建议。
•编辑功能可让你无需离开当前文件即可修改代码。
•操作功能用于为常见用例建立快捷方式。
2)安装 VSCode
首先,确保你已经安装了 VS Code 编辑器。如果尚未安装,可以从 VSCode 官网(Download Visual Studio Code - Mac, Linux, Windows )下载并安装。
3)安装conitinue插件
a.打开 VSCode 编辑器。
b.在 VSCode 的插件中心,搜索 “Continue”。
c.找到 “Continue” 插件后,点击 “安装” 按钮进行安装。安装完成后,在 VSCode 左侧侧栏中会增加一个对应的图标,这就是 Continue 的主界面。
安装完成之后,重启下continue,vscode上就会出现continue图标,点击“continue”出现主界面
4)本地集成VScode配置
点击continue输入框的左下角,点击“+ Add Chat model”,然后进行配置
配置Provider为“Ollama”,Modal选择“Autodetect”,点击“Connect”
到这里就配置完成了,让我们测试下成果吧,输入问题“你是什么模型?”
通过以上步骤,你就完成了 Continue 在 VSCode 中的本地集成,能够借助其强大的功能提升编程效率,享受更加智能、便捷的开发体验。
二、总结
成功把 Ollama、Deepseek - R1 和 Continue 集成到 VScode 之后,确实避免了很多问题!先说说数据安全,以前总在网络搜索,心里总有点不踏实,现在都在本地搞定,再也不用担心信息泄露了,做涉及敏感信息的项目,安全感满满,对咱开发者来说,这可太香了。
不过,这集成也不是十全十美的。对电脑硬件要求有点高,如果电脑配置不太给力,模型响应速度就会变慢,有时候等得还挺着急,多少还是会影响点效率。但总体来说,这次集成真的让我学到了不少,绝对是一次超值得尝试的技术实践!强烈推荐大家也试试!