Ollama+DeepSeek+NatCross内网穿透本地部署外网访问教程
目录
一、Ollama 简介
二、下载Ollama
三、下载并运行 DeepSeek 模型
四、运行 DeepSeek 模型
五、NatCross免费内网穿透
六、配置 ChatBox 连接 Ollama
七、外网使用ChatBox体验
一、Ollama 简介
Ollama 是一个开源的本地大模型部署工具,旨在让用户能够在个人电脑上运行各种开源大型语言模型(如 Llama、DeepSeek 等)。它支持跨平台操作(Windows/macOS/Linux),提供一键式安装和模型管理,优化了内存和计算资源的使用,即使是普通配置的设备也能流畅运行。通过 Ollama,开发者、研究者和爱好者可以快速部署私有化 AI 应用,无需依赖云端服务,同时享受高效、安全的本地 AI 体验。
二、下载Ollama
2.1、首先我们到Ollama官网去下载安装包,此处我们下载的是Windows版本的安装包,如下图所示:
2.2、选择windows版本,进行下载,如图:
2.3、双击安装程序,按照提示完成安装。
检查安装是否成功:打开命令提示符(cmd)或 PowerShell,输入以下命令:ollama --version
如果正确显示版本号,则安装成功。
三、下载并运行 DeepSeek 模型
3.1、选择MODELS,点击DEEPSEEK_R1 ,如图:
3.2、根据你服务器的配置选择模型,本次演示选择1.5b模型,如图:
3.3、复制右侧的命令ollama run deepseek-r1,在cmd中进行下载,如图:
这个下载过程可能会有点慢,有梯子的话会快一点。
四、运行 DeepSeek 模型
4.1、下载完成后,运行以下命令启动 DeepSeek 模型:ollama run deepseek-r1
此时,您可以通过命令行与 DeepSeek 模型进行交互。如果您想退出对话模式,只需输入“/bye”。
4.2、此时ollama访问地址为http://localhost:11434 ,无法通过chartbox实现外网访问,需要借助穿透工具实现。
五、NatCross免费内网穿透
5.1、访问官网https://www.natcross.com,点击登录或者注册,使用免费的内网穿透服务,如图:
5.2、登录后,选择左侧菜单内网穿透菜单,如图:
5.3、下载穿透客户端到本地,选择windows版本,如图:
5.4、选择免费内网穿透,添加映射,如图:
选择常规应用,TCP协议
内网主机:127.0.0.1
内网端口:11434
点击保存,生成外网访问的域名和端口
六、配置 ChatBox 连接 Ollama
6.1、配置ChatBox,点击设置,如图:
6.2、Natcross外网透传地址,如图:
七、外网使用ChatBox体验
7.1、测试聊天:在 ChatBox 输入框内输入问题,例如“你好,介绍一下 Ollama”,确保 ChatBox 正确响应:
到此,Ollama+DeepSeek+NatCross内网穿透本地部署实现简单对话应用就完成了!!!