当前位置: 首页 > article >正文

Ollama+Deepseek-R1+Continue本地集成VScode

一、Ollama+Deepseek-R1+Continue本地集成VScode

1)安装前知识点

Continue 介绍

详情可参照官网: continue官网

Continue 是 Visual Studio Code 和 JetBrains 中领先的开源 AI 代码助手。

•在侧边栏中进行聊天以理解和迭代代码。

•自动补全,以便在输入时接收内联代码建议。

•编辑功能可让你无需离开当前文件即可修改代码。

•操作功能用于为常见用例建立快捷方式。

2)安装 VSCode

首先,确保你已经安装了 VS Code 编辑器。如果尚未安装,可以从 VSCode 官网(Download Visual Studio Code - Mac, Linux, Windows )下载并安装。

3)安装conitinue插件

a.打开 VSCode 编辑器。

b.在 VSCode 的插件中心,搜索 “Continue”。

c.找到 “Continue” 插件后,点击 “安装” 按钮进行安装。安装完成后,在 VSCode 左侧侧栏中会增加一个对应的图标,这就是 Continue 的主界面。

安装完成之后,重启下continue,vscode上就会出现continue图标,点击“continue”出现主界面

4)本地集成VScode配置

点击continue输入框的左下角,点击“+ Add Chat model”,然后进行配置

配置Provider为“Ollama”,Modal选择“Autodetect”,点击“Connect”

到这里就配置完成了,让我们测试下成果吧,输入问题“你是什么模型?”

通过以上步骤,你就完成了 Continue 在 VSCode 中的本地集成,能够借助其强大的功能提升编程效率,享受更加智能、便捷的开发体验。

二、总结

成功把 Ollama、Deepseek - R1 和 Continue 集成到 VScode 之后,确实避免了很多问题!先说说数据安全,以前总在网络搜索,心里总有点不踏实,现在都在本地搞定,再也不用担心信息泄露了,做涉及敏感信息的项目,安全感满满,对咱开发者来说,这可太香了。

不过,这集成也不是十全十美的。对电脑硬件要求有点高,如果电脑配置不太给力,模型响应速度就会变慢,有时候等得还挺着急,多少还是会影响点效率。但总体来说,这次集成真的让我学到了不少,绝对是一次超值得尝试的技术实践!强烈推荐大家也试试!


http://www.kler.cn/a/574275.html

相关文章:

  • 什么是全栈?
  • 基于海思soc的智能产品开发(芯片sdk和linux开发关系)
  • Linux安装Redis以及Redis三种启动方式
  • 深入解析 supervision 库:功能、用法与应用案例
  • 基于HAproxy搭建负载均衡
  • 前缀和的利用 前缀和的扩展问题
  • 如何用HTML5 Canvas实现电子签名功能✍️
  • P8707 [蓝桥杯 2020 省 AB1] 走方格
  • 【智能体架构:Agent】LangChain智能体类型ReAct、Self-ASK的区别
  • 鸿蒙Android4个脚有脚线
  • 道可云人工智能每日资讯|亚马逊云业务部门成立智能体人工智能团队
  • Unity3D WebGL内存优化与缓存管理
  • 使用jcodec库,访问网络视频提取封面图片上传至oss
  • [BD青训项目]介绍
  • vue3中子组件获取父组件的name,父组件不做修改动作
  • 算法探秘:盛最多水的容器问题
  • Oracle数据导入导出小工具(主要用于导入导出小批量含大字段的数据)
  • 快速启动 vue 开发环境
  • 特斯拉FSD(全自动驾驶)功能概述
  • 迷你世界脚本文字板接口:Graphics