当前位置: 首页 > article >正文

DeepSeek-R1,用Ollama跑起来

# DeepSeek-R1横空出世,超越OpenAI-o1,教你用Ollama跑起来

使用Ollama在本地运行DeepSeek-R1的操作指南。

DeepSeek-R1作为第一代推理模型,在数学、代码和推理任务上表现优异,与OpenAI-o1模型不相上下。

将此类模型部署到本地,可为AI应用带来更强隐私保护、定制化和可控性。

今天指导大家如何使用Ollama——一款AI模型管理和运行工具——在本地计算机上部署并运行DeepSeek-R1

2 Ollama:运行助手

对于许多用户来说,如何在普通笔记本电脑上运行强大的AI模型是个难题。Ollama的出现,正是为了解决这一问题。Ollama是专为本地运行大语言模型设计的工具,操作简单,即便没有深厚的技术背景,也能轻松上手。

3 开始操作:环境设置

步骤1:安装Ollama

首先,需要在你的机器上安装并运行Ollama。

操作方法如下:前往Ollama官网(ollama.com),下载与你操作系统匹配的版本。

在这里插入图片描述

步骤2:验证Ollama安装

打开终端或命令提示符,输入:

~ ollama --version 
ollama version is 0.5.7

步骤3:下载 DeepSeek-R1

通过 Ollama 下载 DeepSeek-R1 非常方便,在终端中运行这个命令即可:

~ ollama run deepseek-r1 
pulling manifest
pulling 96c415656d37...  88% ▕█████████████████████████████████████████████████       ▏ 4.1 GB/4.7 GB  6.0 MB/s   1m33s

根据你的网络速度,此过程可能耗时,请耐心等待。

在这里插入图片描述

步骤4:运行DeepSeek R1

下载完成后,就可以启动 DeepSeek-R1。使用这个命令:

~ ollama run deepseek-r1 
>>> Send a message (/? for help)

如此便成功在本地运行该模型!

4 体验DeepSeek-R1功能

完成部署后,接下来就是探索DeepSeek-R1的强大功能。以下是几个典型应用场景:

送礼功能

魔法棒🪄指令:

>>> /
你是一个资深的熟悉电商业务技术系统设计的架构师,请你在一个成熟的电商平台上实现一个送礼功能,即送礼用户下单购买一个商品时,不需要填写地址,送礼用户完成支付后把这个订单分享给另外一个人,比如他的朋友,由他的朋友来填写地址,然后这个订单才算完成,并开始发货履约。

5 常见问题排查

即便使用像 Ollama 这样用户友好的工具,在使用时仍可能遇到一些小问题,以下是一些常见问题的解决方法:

问题:Ollama无法找到DeepSeek-R1

如果你收到Ollama找不到DeepSeek-R1的错误提示,可尝试运行 ollama list 命令。

~ ollama list 
NAME                       ID              SIZE      MODIFIED
deepseek-r1:32b            38056bbcbb2d    19 GB     7 hours ago
deepseek-r1:latest         0a8c26691023    4.7 GB    9 hours ago
ggml-vocab-qwen2:latest    71dd1769087f    5.9 MB    2 days ago

若列表中未显示DeepSeek-R1,说明模型未正确下载。此时可重新拉取模型:

~ ollama pull deepseek-r1 

在这里插入图片描述

6 本地AI的未来:DeepSeek-R1带来的无限可能

通过在本地运行DeepSeek-R1,我们可以深入思考其更深远的意义。将如此强大的AI模型部署到本地,不仅是技术上的突破,更对未来AI发展具有深远的展望价值。

此模式把先进语言模型的强大能力直接赋予用户,为实验和定制化带来了更多可能性,同时也更好地保护了隐私。以下是一些潜在的应用场景

  • 开发者可为特定行业打造高度专业化的AI助手;
  • 研究人员可在本地环境中对AI模型进行实验,无需依赖云服务;
  • 注重隐私的用户可在不共享数据的情况下,享受先进AI带来的便利。

以上列举应用场景只是冰山一角,DeepSeek-R1的潜力远不止于此,其拥有着无限广阔的发展前景,有望为AI领域带来更多创新和变革。

7 使用 Apidog 进行 API 测试

通过Ollama在本地运行DeepSeek-R1,你可以在自己的设备上直接利用强大的AI能力。按照本指南的步骤操作,即可完成模型的部署、运行,并将其轻松集成到你的项目中,完全掌控数据和运行环境。


http://www.kler.cn/a/521370.html

相关文章:

  • 【25考研】人大计算机考研复试该怎么准备?有哪些注意事项?
  • HTML5+SVG+CSS3实现雪中点亮的圣诞树动画效果源码
  • Effective C++ 规则51:编写 new 和 delete 时需固守常规
  • pytorch深度学习模型推理和部署、pytorchONNXtensorRT模型转换以及python和C++版本部署
  • [MILP] Logical Constraints 0-1 (Note1)
  • 人力资源管理HR系统的需求设计和实现
  • 智慧消防营区一体化安全管控 2024 年度深度剖析与展望
  • 高频 SQL 50 题(基础版)_620. 有趣的电影
  • 作业day3
  • Day43:列表元素的统计
  • c++ list
  • 一次端口监听正常,tcpdump无法监听到指定端口报文问题分析
  • 以用户为中心,优化 B 端界面设计
  • this、self、window、top 在 JavaScript 中的区别深入研究
  • 996引擎 - NPC-动态创建NPC
  • “AI质量评估系统:智能守护,让品质无忧
  • 人格分裂(交互问答)-小白想懂Elasticsearch
  • 1.26寒假作业
  • ray.rllib-入门实践-10:自定义环境
  • 【Elasticsearch】聚合分析:管道聚合