当前位置: 首页 > article >正文

【AI】DeepSeek本地部署,Ollama + vscode + Continue,实现本地运行LLM大模型,以及代码自动补全

文章目录

  • 相关链接
  • Ollama
      • 安装ollama
      • 配置ollama models下载地址
      • 下载Model
  • Continue接入VsCode
      • 安装continue插件
      • 添加模型
      • 打开配置文件
      • 配置项
  • 预告:RAG,知识库

相关链接

Ollama
Ollama Models
Ollama相关api
VsCode下载

Ollama

安装ollama

Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。
Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。
Ollama 提供对模型量化的支持,可以显著降低显存要求,使得在普通家用计算机上运行大型模型成为可能。

在这里插入图片描述

配置ollama models下载地址

默认会下载到系统盘
在这里插入图片描述

下载Model

ollama官网的models中搜索,只要在上面能搜到的Model都能通过命令下载到本地

# 下载命令和运行命令一样
ollama run xxx

在这里插入图片描述
在这里插入图片描述
Success! 默认端口号为11434
http://localhost:11434
如果要更改端口号,到环境变量中添加或更改OLLAMA_HOST
也可以通过接口访调用,以下为相关api👇
https://ollama.cadn.net.cn/api.html

Continue接入VsCode

安装continue插件

在这里插入图片描述

添加模型

在这里插入图片描述

打开配置文件

在这里插入图片描述
或者直接在设置中配置
在这里插入图片描述

配置项

配置models,如果有代码补全需求,添加tabAutocompleteModel配置
在这里插入图片描述

预告:RAG,知识库

在这里插入图片描述
在这里插入图片描述


print("有一种英雄主义就是当我们看清社会的真相以后,依然选择要热爱生活,珍惜生命。")
print("不让别人烦恼是慈悲,不让自己烦恼是智慧")

http://www.kler.cn/a/567731.html

相关文章:

  • MySQL索引深度剖析:从数据结构到实际应用
  • Spring Boot 流式响应豆包大模型对话能力
  • windows服务器更新jar包脚本
  • 为什么gpt-sovits微调训练轮数最大只能设置为3
  • 进程控制(创建、终止、等待、替换)
  • 【vscode-解决方案】vscode 无法登录远程服务器的两种解决办法
  • 矩阵基本概念
  • 合并两个有序链表:递归与迭代的实现分析
  • 【NLP 30、大模型中的 ”Token“】
  • deepseek+mermaid【自动生成流程图】
  • 汽车免拆诊断案例 | 保时捷车发动机偶发熄火故障 2 例
  • Java中的大数据流处理框架与技术比较
  • 汽车离合器片检具设计
  • java中代理模式 之 jdk动态代理模式
  • 2. 在后端代码中加入日志记录模块
  • 接口测试工具:postman详解
  • 释放你的IDE潜能:Code::Blocks 插件创意开发深度指南
  • 新装的conda 以及pycharm未能正确初始化,或conda环境变量配置错误问题解决!!!
  • esp32串口通信
  • StarRocks 在爱奇艺大数据场景的实践