保姆级! 本地部署DeepSeek-R1大模型 安装Ollama Api 后,Postman本地调用 deepseek
要在Postman中访问Ollama API并调用DeepSeek模型,你需要遵循以下步骤。首先,确保你有一个有效的Ollama服务器实例运行中,并且DeepSeek模型已经被加载。
可以参考我的这篇博客 保姆级!使用Ollama本地部署DeepSeek-R1大模型 并java通过api 调用
使用Postman配置请求
请求类型为 POST
。
在“输入”框中输入Ollama的API URL,通常是 http://localhost:11434/v1/completions
(确保你的Ollama服务正在本地运行,并且使用的是正确的端口)。
在“头”标签页中,添加以下内容:
Key: Content-Type
Value: application/json
编写请求体:
在“Body”标签页中,选择“raw”并设置编码为“JSON (application/json)”。
输入以下JSON格式的请求体:
{
"model": "deepseek-r1:32b",
"prompt": "你好",
"max_tokens": 50,
"temperature": 0.7,
"top_p": 1,
"stream": false
}
model: 指定要使用的模型名称。
prompt: 输入你想要模型生成文本的起始语句。
max_tokens: 生成文本的最大token数。
temperature: 控制输出的随机性。较低的值意味着更确定的输出。
top_p: 核取样参数,用于多样性控制。
stream: 如果设置为true,将流式传输结果。
具体如下图
上面的 http://localhost:11434/v1/completions
是deepseek的api 地址 我们继续访问一下 Ollama Api http://192.168.110.118:7777/api/generate
一样是可以的