当前位置: 首页 > article >正文

如何在 LobeChat 中使用 Ollama

image

image

  Ollama 是一款强大的本地运行大型语言模型(LLM)的框架,支持多种语言模型,包括 Llama 2, Mistral 等。现在,LobeChat 已经支持与 Ollama 的集成,这意味着你可以在 LobeChat 中轻松使用 Ollama 提供的语言模型来增强你的应用。

  本文档将指导你如何在 LobeChat 中使用 Ollama:

在 macOS 下使用 Ollama

本地安装 Ollama

  下载 Ollama for macOS 并解压、安装。

配置 Ollama 允许跨域访问

  由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS​。使用 launchctl​ 设置环境变量:

launchctl setenv OLLAMA_ORIGINS "*"

  完成设置后,需要重启 Ollama 应用程序。

在 LobeChat 中与本地大模型对话

  接下来,你就可以使用 LobeChat 与本地 LLM 对话了。

在 LobeChat 中与 llama3 对话

在 windows 下使用 Ollama

本地安装 Ollama

  下载 Ollama for Windows 并安装。

配置 Ollama 允许跨域访问

  由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS​。

  在 Windows 上,Ollama 继承了您的用户和系统环境变量。

  1. 首先通过 Windows 任务栏点击 Ollama 退出程序。
  2. 从控制面板编辑系统环境变量。
  3. 为您的用户账户编辑或新建 Ollama 的环境变量 OLLAMA_ORIGINS​,值设为 *​ 。
  4. 点击 OK/应用​ 保存后重启系统。
  5. 重新运行 Ollama​。

在 LobeChat 中与本地大模型对话

  接下来,你就可以使用 LobeChat 与本地 LLM 对话了。

在 linux 下使用 Ollama

本地安装 Ollama

  通过以下命令安装:

curl -fsSL https://ollama.com/install.sh | sh

  或者,你也可以参考 Linux 手动安装指南。

配置 Ollama 允许跨域访问

  由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS​。如果 Ollama 作为 systemd 服务运行,应该使用 systemctl​设置环境变量:

  1. 通过调用 sudo systemctl edit ollama.service​ 编辑 systemd 服务。
sudo systemctl edit ollama.service
  1. 对于每个环境变量,在 [Service]​ 部分下添加 Environment​:
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
  1. 保存并退出。
  2. 重载 systemd​ 并重启 Ollama:
sudo systemctl daemon-reload
sudo systemctl restart ollama

在 LobeChat 中与本地大模型对话

  接下来,你就可以使用 LobeChat 与本地 LLM 对话了。

使用 docker 部署使用 Ollama

拉取 Ollama 镜像

  如果你更倾向于使用 Docker,Ollama 也提供了官方 Docker 镜像,你可以通过以下命令拉取:

docker pull ollama/ollama

配置 Ollama 允许跨域访问

  由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS​。

  如果 Ollama 作为 Docker 容器运行,你可以将环境变量添加到 docker run​ 命令中。

docker run -d --gpus=all -v ollama:/root/.ollama -e OLLAMA_ORIGINS="*" -p 11434:11434 --name ollama ollama/ollama

在 LobeChat 中与本地大模型对话

  接下来,你就可以使用 LobeChat 与本地 LLM 对话了。

安装 Ollama 模型

  Ollama 支持多种模型,你可以在 Ollama Library 中查看可用的模型列表,并根据需求选择合适的模型。

LobeChat 中安装

  在 LobeChat 中,我们默认开启了一些常用的大语言模型,例如 llama3、 Gemma 、 Mistral 等。当你选中模型进行对话时,我们会提示你需要下载该模型。

LobeChat 提示安装 Ollama 模型

  下载完成后即可开始对话。

用 Ollama 拉取模型到本地

  当然,你也可以通过在终端执行以下命令安装模型,以 llama3 为例:

ollama pull llama3

自定义配置

  你可以在 设置​ -> 语言模型​ 中找到 Ollama 的配置选项,你可以在这里配置 Ollama 的代理、模型名称等。

Ollama 服务商设置

  你可以前往 与 Ollama 集成 了解如何部署 LobeChat ,以满足与 Ollama 的集成需求。


http://www.kler.cn/a/472695.html

相关文章:

  • 加速科技荣获“浙江省企业研究院”认定
  • 《HeadFirst设计模式》笔记(上)
  • 使用JMeter玩转tidb压测
  • 30天开发操作系统 第 12 天 -- 定时器
  • 基于RK3568/RK3588大车360度环视影像主动安全行车辅助系统解决方案,支持ADAS/DMS
  • 【Linux】Linux指令apt、systemctl、软链接、日期时区
  • 《网络安全里的Linux基础:构建安全网络的关键基石》
  • Python爬虫基础——数据清洗
  • python虚拟环境的使用
  • 【2024华为OD-E卷-200分-会议接待】(题目+思路+JavaC++Python解析)
  • Pytorch学习12_最大池化的使用
  • Elastic-Job相关
  • 案例解读 | 香港某多元化综合金融企业基础监控+网管平台建设实践
  • 微信小程序动态更改富文本的css样式
  • Jenkins-持续集成、交付、构建、部署、测试
  • 腾讯云AI代码助手编程挑战赛——贪吃蛇小游戏
  • QT学习二十一天 Quick 应用程序主窗口
  • 了解SQL
  • MongoDB的部署和操作
  • 微服务面试相关
  • Qt之Cannot create children for a parent that is in a different thread问题分析
  • uniapp的两种弹窗方式
  • ffmpeg aac s16 encode_audio.c
  • idea 编辑竖列:alt +shift+insert
  • Python的Matplotlib库应用(超详细教程)
  • C++ ——— 匿名对象