只需5步,免费使用Ollama本地运行DeepSeek-R1模型
DeepSeek - R1 在人工智能领域引起了不小的轰动。该模型由中国人工智能公司 DeepSeek 开发,常被拿来与 OpenAI 的顶级模型相提并论。围绕 DeepSeek - R1 的兴奋之情,不仅源于其强大的能力,还因为它是开源的,任何人都可以下载并在本地运行。在这篇博客中,我将指导你如何使用 Ollama 在自己的机器上搭建 DeepSeek - R1。
为什么选择 DeepSeek - R1?
DeepSeek - R1 脱颖而出有几个原因。它不仅比许多其他模型成本更低,而且在解决问题、推理和编码方面表现出色。其内置的思维链推理功能提高了效率,使其成为其他模型的有力竞争者。让我们深入了解如何在本地系统上运行这个模型。
开始使用 Ollama
在开始之前,我们先来谈谈 Ollama。Ollama 是一款免费的开源工具,用户可以用它在本地运行自然语言处理模型。有了 Ollama,你可以轻松下载并运行 DeepSeek - R1 模型。以下是开始使用的步骤:
步骤:
第一步:安装 Ollama
首先,你需要下载并安装 Ollama。访问 Ollama 官网,下载与你操作系统匹配的版本。
按照网站上提供的安装说明进行操作。
第二步:下载 DeepSeek - R1
如你访问 Ollama 官网时所见,你可以运行 DeepSeek - R1 的不同参数版本。你可以在ollama.com/library/deepseek - r1 这里找到具体要求(如上图截图所示)。
你可以运行 15 亿、70 亿、80 亿、140 亿、320 亿、700 亿、6710 亿参数的版本,显然,随着你选择的参数增大,硬件要求也会提高。在本教程中,我使用的是 70 亿参数的版本。
Ollama 安装完成后,选择你需要的参数并复制以下命令来下载 DeepSeek - R1 模型:
ollama run deepseek - r1
这个命令会让 Ollama 下载模型。根据你的网速,这可能需要一些时间。下载过程中不妨喝杯咖啡!
第三步:验证安装
下载完成后,通过运行以下命令验证安装情况:
ollama list
你应该能在可用模型列表中看到 deepseek - r1。如果看到了,那太棒了!你已准备好运行该模型。
第四步:运行 DeepSeek - R1
现在,使用以下命令启动模型:
ollama run deepseek - r1
就这样,你可以在本地与 DeepSeek - R1 进行交互了。就这么简单!
第五步:提出查询
模型进行思维链推理。
该模型在编码任务方面表现也不错。我们也来看看这方面的情况。
上述代码相关查询的详细答案。
通过本指南,你已成功使用 Ollama 在本地机器上搭建了 DeepSeek - R1。
这种设置为人工智能集成提供了强大的解决方案,在应用程序中提供了隐私保护、速度提升以及控制权。尽情尝试使用 DeepSeek - R1,探索本地人工智能模型的潜力吧。
顺便说一句,为你的人工智能 / 机器学习应用程序配备一个强大的数据库是必不可少的。我推荐使用像 SingleStore 这样的一体化数据平台。