当前位置: 首页 > article >正文

mac下安装Ollama + Open WebUI + Llama3.1

本文介绍mac下安装Ollama + Open WebUI + Llama3.1 8b具体步骤。

目录

    • 推荐配置
    • Ollama Open WebUI Llama3.1简介
    • 安装Ollama
    • 安装Open WebUI

推荐配置

m1以上芯片,16g内存,20g以上硬盘空间

Ollama Open WebUI Llama3.1简介

  • Ollama: 下载,管理和本地调用大模型的软件,支持常见大语言模型如llama, qwen等,官网https://ollama.com/。支持的模型列表:https://ollama.com/search
    在这里插入图片描述
  • Llama3.1: meta开源的大模型: https://github.com/meta-llama/llama-models/tree/main。有8B, 70B and 405B三种规格。8b代表的是模型参数量和模型大小,即llama3.1模型拥有大约800亿(8 billion)个参数。
    参数越大(如: 70B, 405B…),代表模型越大也越复杂,跑起来所需要的硬件成本也越高。因此,对于个人使用/测试,一般都首选8b
  • openweb ui: 有丰富功能的可扩展本地AIweb界面,用户在openweb ui界面上输入问题,和模型交互,也可以自定义prompt,下载其他工具增强模型功能等。
    在这里插入图片描述

安装Ollama

  1. mac下载ollama: https://ollama.com/,下载下来是个zip包,里面就有app程序直接打开。
    在这里插入图片描述2. 使用ollama下载运行llama3.1:8b到本地mac机器:ollama run llama3.1:8b

安装Open WebUI

  1. 最好使用Python 3.11.9,pip对应版本也装好
  2. pip安装Open WebUI: pip3.11 install open-webui
    在这里插入图片描述
  3. mac下起open-webui:/Library/Frameworks/Python.framework/Versions/3.11/bin/open-webui serve,会自动打印日志出来
    在这里插入图片描述
  4. ollama默认在11434起了端口,Open WebUI通过11434端口和Llama交互
    在这里插入图片描述在这里插入图片描述
  5. 打开127.0.0.1:8080 openwebui页面,注册新账号,左上角选择llama3.18b模型并设为默认,开始提问
    在这里插入图片描述6. 也可通过ollama直接和llama 3.1模型交互,提问获得回答
    在这里插入图片描述

http://www.kler.cn/a/417509.html

相关文章:

  • LabVIEW涡轮诊断系统
  • 如何在Window计算机本地部署DeepSeek-r1模型
  • 【数据结构】(4) 线性表 List
  • 深入探索Vue 3组合式API
  • 手写MVVM框架-实现简单的数据代理
  • 安全策略实验报告
  • [高等数学]一元积分学的应用
  • (SAST检测规则-3)固定的 SessionID 缺陷详解
  • unreal engine5中多个摄像机切换
  • Hbase 部署
  • Spring项目中RabbitMq的使用(工作队列模式)
  • 2024.11.29(单链表)
  • International Journal of Medical Informatics投稿经历时间节点
  • Java基础——(三)对象和类
  • Python入门(19)--最终篇
  • Mybatis Plus 增删改查方法(一、增)
  • 09.ES13 10.ES14
  • [ACTF2020 新生赛]BackupFile--详细解析
  • eltable el-table 横向 滚动条常显
  • 05《存储器层次结构与接口》计算机组成与体系结构 系列课
  • STM32的一些知识技巧
  • 关于edu的信息收集的一次笔记分享
  • CEF127 编译指南 Linux篇 - 拉取CEF源码(五)
  • python实现自动计算排工期
  • 如何通过 ADB 安装 xapk
  • 【前端】Vue3+Vite如何进行多环境配置呢