当前位置: 首页 > article >正文

服务器通过 ollama 运行deepseek r1

1、服务器环境简介

  • 56核 CPU
  • 64G 内存
  • 无显卡
  • 已安装 Ollama

2、下载模型与配置

正常可以通过 ollama pull 或 ollama run 命令直接下载,但通常会遇到连接超时、找不到网址等总理。因此,可以使用国内的模型站进行下载,在这里使用魔塔查找模型。

在这里,我下载了

DeepSeek-R1-Distill-Qwen-1.5B-GGUF

DeepSeek-R1-Distill-Qwen-7B-GGUF

两个版本

下载后,分别创建两个 txt 文件:

deepseek-r1-1.5B.txt,具体参数可依据使用情况修改

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf
PARAMETER temperature 0.7
PARAMETER top_p 0.95
PARAMETER top_k 40
PARAMETER repeat_penalty 1.1
PARAMETER min_p 0.05
PARAMETER num_ctx 8096
PARAMETER num_thread 4
PARAMETER stop "<|begin of sentence|>"
PARAMETER stop "<|end of sentence|>"
PARAMETER stop "<|User|>"
PARAMETER stop "<|Assistant|>"

 deepseek-r1-7B.txt,与1.5B 类似

FROM ./DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf
PARAMETER temperature 0.7
PARAMETER top_p 0.95
PARAMETER top_k 40
PARAMETER repeat_penalty 1.1
PARAMETER min_p 0.05
PARAMETER num_ctx 8096
PARAMETER num_thread 4
PARAMETER stop "<|begin of sentence|>"
PARAMETER stop "<|end of sentence|>"
PARAMETER stop "<|User|>"
PARAMETER stop "<|Assistant|>"

3、运行命令导入至 ollama

ollama create deepseek-r1:1.5B -f ./deepseek-r1-1.5B.txt

ollama create deepseek-r1:7B -f ./deepseek-r1-7B.txt

4、运行模型

ollama run deepseek-r1:7B

5、运行测试结论

1.5B:能够显示思考过程,问答效果不佳,胡编乱造内容较多,运行较流畅。

7B:能够显示思考过程,问答效果略好,有胡编乱选内容,运行响应很慢。

总结,这两个模型在这种配置的服务器上均可运行,但如果想得到较好的体验,这个配置远远不够。


http://www.kler.cn/a/554889.html

相关文章:

  • Unity中可靠的UDP实现
  • 说一下Http中常见的状态码和字段
  • C++数据切片问题,Plus多态
  • WPS 中 Excel 密码取消方法大解密
  • 23种设计模式 - 解释器模式
  • 哈希表(概念)c++
  • 【黑马点评】——相关文章汇总(包括实现,优化,测试和面经总结)
  • 树莓派 4B:AI 物联网完整部署方案
  • AI工具讲解
  • 【YOLO系列】YOLOv8理论
  • 深入解析 sudo -l 命令的输出内容
  • 解锁Linux“故障宝藏”:Core Dump分析秘籍(转)
  • openharmony中HDF驱动框架关键流程说明-观察者模式
  • 芯谷D2761:为扬声器保护而生的音频限幅器
  • 雷龙CS SD NAND(贴片式TF卡)测评体验
  • 利用PHP爬虫精准获取淘宝分类详情:实战案例指南
  • 广西壮族自治区园区投促中心党委书记陶德文率团到访深兰科技
  • conda和conda-forge区别?怎么选用?
  • 第十二届先进制造技术与材料工程国际学术会议 (AMTME 2025)
  • Linux多版本管理工具介绍