ChatBox调用Ollama本地部署的DeepseekR1
温馨提示:相关操作涉及一些操作的前提,
如果看到这里0_O
你并没有看过我的上一篇文章,建议你可以先食用一下Deepseek教程(详细!!!)|使用Ollama下载Deepseek,并在Pycharm使用_ollama下载deep seek-CSDN博客https://blog.csdn.net/BlueEstrella/article/details/145400966?spm=1001.2014.3001.5502
1.打开ChatBox网页版
Chatbox (chatboxai.app)https://web.chatboxai.app/
2.切换语言
在左下角找到【设置】一栏,点击第二个——Display,切换为中文,再点击右下的【保存】
3.在 Chatbox 中连接远程 Ollama 服务
再次点击设置,点击第一栏/模型,模型提供方选择【OLLAMA】,点击下方文字中的【参考教程】,按要求配置好。教程|如何将 Chatbox 连接到远程 Ollama 服务:逐步指南https://chatboxai.app/zh/help-center/connect-chatbox-remote-ollama-service-guide
在 Chatbox 中连接远程 Ollama 服务
除了可以轻松连接本地 Ollama 服务,Chatbox 也支持连接到运行在其他机器上的远程 Ollama 服务。
例如,你可以在家中的电脑上运行 Ollama 服务,并在手机或其他电脑上使用 Chatbox 客户端连接到这个服务。
你需要确保远程 Ollama 服务正确配置并暴露在当前网络中,以便 Chatbox 可以访问。默认情况下,需要对远程 Ollama 服务进行简单的配置。
如何配置远程 Ollama 服务?
默认情况下,Ollama 服务仅在本地运行,不对外提供服务。要使 Ollama 服务能够对外提供服务,你需要设置以下两个环境变量:
OLLAMA_HOST=0.0.0.0 OLLAMA_ORIGINS=*
在 Windows 上配置
在 Windows 上,Ollama 会继承你的用户和系统环境变量。
通过任务栏退出 Ollama。
打开设置(Windows 11)或控制面板(Windows 10),并搜索“环境变量”。
点击编辑你账户的环境变量。
为你的用户账户编辑或创建新的变量 OLLAMA_HOST,值为 0.0.0.0; 为你的用户账户编辑或创建新的变量 OLLAMA_ORIGINS,值为 *。
点击确定/应用以保存设置。
从 Windows 开始菜单启动 Ollama 应用程序。
*请确保在本地已经配置好对应模型(详见我的上一篇文章),这时候你就可以看到deepseek-r1的选项。(咳咳,这里插播一下
我已上传了Ollama的安装包,详情链接看这里~
AI模型-Ollama软件安装包(Windows版)https://download.csdn.net/download/BlueEstrella/90329920?spm=1001.2014.3001.5501
4.选择模型
完成上述的操作之后,就可以选择对应模型,保存并使用啦(#^0^#)——
*Chatbox中提供了多样的搭档选择,匹配不同的需求场景;
此外,你也可以自己创新新的AI搭档——
到这里文章就结束啦——
呼呼,(。-ω-)zzz感谢观看~