当前位置: 首页 > article >正文

保姆级! 本地部署DeepSeek-R1大模型 安装Ollama Api 后,Postman本地调用 deepseek

要在Postman中访问Ollama API并调用DeepSeek模型,你需要遵循以下步骤。首先,确保你有一个有效的Ollama服务器实例运行中,并且DeepSeek模型已经被加载。

可以参考我的这篇博客 保姆级!使用Ollama本地部署DeepSeek-R1大模型 并java通过api 调用

使用Postman配置请求

请求类型为 POST

在“输入”框中输入Ollama的API URL,通常是 http://localhost:11434/v1/completions(确保你的Ollama服务正在本地运行,并且使用的是正确的端口)。

在“头”标签页中,添加以下内容:

Key: Content-Type

Value: application/json

编写请求体:

在“Body”标签页中,选择“raw”并设置编码为“JSON (application/json)”。

输入以下JSON格式的请求体:

{
  "model": "deepseek-r1:32b",
  "prompt": "你好",
  "max_tokens": 50,
  "temperature": 0.7,
  "top_p": 1,
  "stream": false
}

model: 指定要使用的模型名称。

prompt: 输入你想要模型生成文本的起始语句。

max_tokens: 生成文本的最大token数。

temperature: 控制输出的随机性。较低的值意味着更确定的输出。

top_p: 核取样参数,用于多样性控制。

stream: 如果设置为true,将流式传输结果。

具体如下图
在这里插入图片描述

上面的 http://localhost:11434/v1/completions 是deepseek的api 地址 我们继续访问一下 Ollama Api http://192.168.110.118:7777/api/generate

在这里插入图片描述
一样是可以的


http://www.kler.cn/a/554379.html

相关文章:

  • Python C API 深度解析与实战指南
  • 备战蓝桥杯 -牛客
  • 速度分析是怎么做的?叠加速度是波传播速度吗?
  • Node.js高频面试题精选及参考答案
  • 关于重启Pod后,CNI网络插件问题报错
  • 【YOLO11改进trick】Pinwheel-shaped Conv风车状卷积引入YOLO11,含创新点代码,方便发论文
  • 奇安信春招一面面试题
  • 2000-2019年各省农业机械总动力数据
  • Linux搭建Nginx直播流媒体服务RTMP/RTSP转Http-flv视频浏览器在线播放/Vue/Java/ffmpeg
  • 深度学习之迁移学习resnet18模型及调用模型预测
  • 【深度学习】Unet的基础介绍
  • 【个人记录】openEuler安装K3S并配置为GPU节点
  • js数据类型全解析,怎么区分呢?
  • 【算法题】1749. 任意子数组和的绝对值的最大值(LeetCode)
  • XML XML约束 一、XML约束概述
  • 【HeadFirst系列之HeadFirst设计模式】第7天之命令模式:封装请求,轻松实现解耦!
  • 【python】python文件=注释=书写建议,基于pycharm
  • 媒体发稿价格标准是怎样?长期推广怎样控制好成本?
  • langchain系列 - FewShotPromptTemplate 少量示例
  • Linux阿里云服务器安装RocketMQ教程