docker 安装的open-webui链接ollama出现网络错误
# 故事背景
部署完ollama以后,使用谷歌浏览器的插件Page Assist - 本地 AI 模型的 Web UI 可以比较流畅的使用DeepSeek,但是只局限于个人使用,想分享给更多的小伙伴使用,于是打算使用open-webui 来管理用户,经官网推荐使用docker进行安装
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
很顺利的就安装成功,并注册了管理员账户,但是在添加模型的时候总是404
在网上查了很多资料说是用host模式,结果更是用不了,open-webui的页面都进不去了,下面是host模式的代码,知道是网络的原因,暂时没想到怎么解决,
sudo docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
于是认真的想了想docker的相关,发现docker有管理网络的方案于是尝试使用host.docker.internal来创建容器,发现可行,但是open-webui还是网络错误,
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://host.docker.internal:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
于是灵机一动想到是不是open-webui中的ollama API地址是不是也可以这么配置,尝试下发现真的可以,下面是配置的完整url http://host.docker.internal:11434