当前位置: 首页 > article >正文

anythingllm无法获取ollama模型

简单记录一下,本地大模型部署,遇到的一个坑。

ollama:本地可大模型
anythingllm:arg工具,分为docker版本和desktop版本。
desktop版本功能比较少,只限于个人使用。
docker版本可以创建团队。
首先在安装docker版本真的踩了很多坑,因为国内很多镜像都被b了,根本pull不下来。(这个问题去b站搜最新的视频,很多人会给最新的镜像源配置一下就好)

今天要说明的docker版本的anythingllm中一些官方也没有说明的坑!
系统:ubuntu+ollama本地+docker anythingllm
所有的教程在Ollama Base URL这里的时候都是自动获取,然而没有人说明无法自动获取且ollama ip正确时anythingllm也无法加载的问题。
先给出我研究了很久的方法。
下载ollama docker版本

1、下载ollama docker
docker pull ollama/ollama:latest
2、运行docker ollama
docker run -d --name ollama ollama/ollama
3、查看ollama在docker中的ip
docker inspect -f '{{range.NetworkSettings.Networks}}{{.IPAddress}}{{end}}' ollama

然后在浏览器中访问http://:11434。
显示Ollama is running
把http://:11434就可以获取到模型了(前提是docker的ollama先下载好模型)
亲测可以,官方没有说明linux下面无法获取到ollama模型的方法,如果有其他方法欢迎分享。


http://www.kler.cn/a/456884.html

相关文章:

  • 在线学习平台-项目技术点-后台
  • 【计组】复习总结期末
  • 8.Java内置排序算法
  • mybatisplu设置自动填充
  • Chrome被360导航篡改了怎么改回来?
  • 【若依】RuoYi二开 -< 报错 >:com.ruoyi.common.exception.ServiceException: 获取用户信息异常
  • 寄存器控制LED灯亮
  • 前后端分离(前端删除数据库数据)
  • Linux top指令
  • Hadoop的生态系统所包含的组件
  • 物料描述的特殊字符
  • 关于自编译的一些文件
  • 谈谈 Wi-Fi 的 RTS/CTS 设计
  • 冥想的实践
  • QML学习(二) Qt Quick模块及QtQuick.Controls模块基础组件分类说明
  • 高精度算法:加减乘除 (学习笔记)
  • 强大的接口测试可视化工具:Postman Flows
  • JAVA: 子类“覆盖”父类的成员变量
  • React里使用uuid插件--生成随机的id
  • 大型系统中 Redis 的优化与挑战