Ollama使用快速入门
一、什么是 Ollama?
Ollama 是一个开源工具,支持在本地运行和部署多种大型语言模型(如 Llama 3、Mistral、Phi-3 等)。特点:支持 macOS、Linux、Windows。通过命令行或 API 调用模型。支持自定义模型微调(需配置)。
二、 安装 Ollama
Linux/macOS
# 一键安装脚本
curl -fsSL https://ollama.com/install.sh | sh
Windows
下载安装包:Ollama Windows 版双击运行安装程序。
三、基础命令
ollama serve # 启动服务(默认端口 11434)
ollama pull <模型名> # 例如:ollama pull llama3
ollama run <模型名> # 进入交互式对话模式
ollama list # 查看已下载的模型
ollama rm <模型名> # 删除模型
ollama help # 查看所有命令
四、通过 API 调用模型
Ollama 提供 REST API,支持编程调用:
curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "为什么天空是蓝色的?",
"stream": false
}'
#Python 调用示例
import requests
response = requests.post(
"http://localhost:11434/api/generate",
json={"model": "llama3", "prompt": "解释量子计算"}
)
print(response.json()["response"])