当前位置: 首页 > article >正文

Ollama+DeepSeek+NatCross内网穿透本地部署外网访问教程

目录

一、Ollama 简介

二、下载Ollama

三、下载并运行 DeepSeek 模型

四、运行 DeepSeek 模型

五、NatCross免费内网穿透

六、配置 ChatBox 连接 Ollama

七、外网使用ChatBox体验


一、Ollama 简介

Ollama 是一个开源的本地大模型部署工具,旨在让用户能够在个人电脑上运行各种开源大型语言模型(如 Llama、DeepSeek 等)。它支持跨平台操作(Windows/macOS/Linux),提供一键式安装和模型管理,优化了内存和计算资源的使用,即使是普通配置的设备也能流畅运行。通过 Ollama,开发者、研究者和爱好者可以快速部署私有化 AI 应用,无需依赖云端服务,同时享受高效、安全的本地 AI 体验。

二、下载Ollama

2.1、首先我们到Ollama官网去下载安装包,此处我们下载的是Windows版本的安装包,如下图所示:
 


2.2、选择windows版本,进行下载,如图:
 


2.3、双击安装程序,按照提示完成安装。
检查安装是否成功:打开命令提示符(cmd)或 PowerShell,输入以下命令:ollama --version
如果正确显示版本号,则安装成功。

三、下载并运行 DeepSeek 模型

3.1、选择MODELS,点击DEEPSEEK_R1 ,如图:
 


3.2、根据你服务器的配置选择模型,本次演示选择1.5b模型,如图:
 


3.3、复制右侧的命令ollama run deepseek-r1,在cmd中进行下载,如图:
 


这个下载过程可能会有点慢,有梯子的话会快一点。

四、运行 DeepSeek 模型

4.1、下载完成后,运行以下命令启动 DeepSeek 模型:ollama run deepseek-r1
此时,您可以通过命令行与 DeepSeek 模型进行交互。如果您想退出对话模式,只需输入“/bye”。
 


4.2、此时ollama访问地址为http://localhost:11434 ,无法通过chartbox实现外网访问,需要借助穿透工具实现。

五、NatCross免费内网穿透

5.1、访问官网https://www.natcross.com,点击登录或者注册,使用免费的内网穿透服务,如图:
 


5.2、登录后,选择左侧菜单内网穿透菜单,如图:
 


5.3、下载穿透客户端到本地,选择windows版本,如图:
 


5.4、选择免费内网穿透,添加映射,如图:
 


选择常规应用,TCP协议
内网主机:127.0.0.1
内网端口:11434
点击保存,生成外网访问的域名和端口

六、配置 ChatBox 连接 Ollama

6.1、配置ChatBox,点击设置,如图:
 


6.2、Natcross外网透传地址,如图:

七、外网使用ChatBox体验

7.1、测试聊天:在 ChatBox 输入框内输入问题,例如“你好,介绍一下 Ollama”,确保 ChatBox 正确响应:

到此,Ollama+DeepSeek+NatCross内网穿透本地部署实现简单对话应用就完成了!!!


http://www.kler.cn/a/588511.html

相关文章:

  • Flutter:竖向步骤条,类似查看物流组件
  • 一周学会Flask3 Python Web开发-SQLAlchemy更新数据操作-班级模块
  • Windows 下免安装 PostgreSQL 16、PostGIS 安装
  • Cursor插件市场打不开解决
  • CT重建笔记(四)——三维重建
  • Scheme语言的压力测试
  • 音视频缓存数学模型
  • 计算机视觉--图像数据分析基本操作
  • C# GeneticSharp包
  • 【JavaEE进阶】Spring事务
  • Linux实时内核稳定性案例
  • 精选一百道备赛蓝桥杯——5.空调
  • 鸿蒙(OpenHarmony)开发实现 息屏/亮屏 详情
  • 深度学习 Deep Learning 第1章 深度学习简介
  • 一周热点:法官在人工智能训练版权案中支持版权主张
  • SpringMVC(七)数据校验+VO++脱敏
  • DataWhale 大语言模型 - GPT和DeepSeek模型介绍
  • 弹球小游戏-简单开发版
  • 2.7 滑动窗口专题:串联所有单词的子串
  • Jenkins服务搭建