使用服务器部署DeepSeek-R1模型【详细版】
文章目录
- 引言
- deepseek-r1
- IDE或者终端工具
- 算力平台
- 体验deepseek-r1模型
- 总结
引言
在现代的机器学习和深度学习应用中,模型部署和服务化是每个开发者面临的重要任务。无论是用于智能推荐、自然语言处理还是图像识别,如何高效、稳定地将深度学习模型部署到生产环境中,都是提升系统性能和用户体验的关键环节。在本文中,我们将详细介绍如何在服务器上成功部署DeepSeek-R1模型,帮助你一步步了解从环境搭建到模型上线的全过程。
deepseek-r1
最近热度十分高的DeepSeek-R1大家相比都听过,它是幻方量化旗下大模型公司 DeepSeek 研发的系列推理模型,于 2025 年 1 月 20 日正式发布并开源权重。它使用强化学习训练,推理时包含大量反思和验证,思维链长,在数学、代码、自然语言推理等复杂任务上表现出色,与 ==OpenAI o1 ==性能相当 ,在 AIME、MATH-500、SWE-Bench Verified 等基准测试中成绩优异,还能自我事实核查降低错误风险。模型参数达 6710 亿,也有 15 亿至 70 亿参数的蒸馏版本,最小版可在普通笔记本运行。
目前,DeepSeek-R1 已在多个平台接入部署,如数码视讯、天翼云、联通云、青云科技基石智算 CoresHub 等
下图是模型出处
https://www.modelscope.cn/models/deepseek-ai/DeepSeek-R1/summary
IDE或者终端工具
这里我们选择IDE(VScode或Pycharm)或者终端工具,都可以,这里我选择使用Pycharm,当然别的也行,这里可以自行选择
算力平台
算力平台,我这里选择蓝耕云智算
我们选择一个3090的显卡试试水
体验deepseek-r1模型
在体验之前,我们需要下载必要的文件,这里我给大家一个网址
https://github.com/1692775560/deepseek_project
我们只需要将其放到服务器上面,就可以完成体验了
根据我们之前下载好的IDE,我们现在连接一下,然后就可以开心愉快的使用喽~下面的具体的链接过程
第一步
复制账户密码
第二步
粘贴下图所示的位置,进行连接等待本地文件传输到服务器
备注:username填写root即可,host,填写@后面的即可
这样就是成功了,当然我们还有配置一下环境,这里参考我下面的三小步即可
第三步
接下来,我们只需要在终端输入代码进行体验,但是进入我们要记得进入那个文件夹里面哦,下图是进入终端的方法
在进入到对应文件夹内,我们记得下载库啊,pip install -r requirements.txt
下载完之后,运行python run_model.py即可
总结
大模型发展速度是真的很快,过去可能国外更加领先一点,但是如今我国的deepseek-r1模型甚至可以挤进了世界前三,对于我们大部分人来说,自己构建一个大模型可能需要庞大的算力,数据等等,但是若我们学会如何使用,如何部署那么对我们日常工作学习也是起到了一个 促进作用,希望我的视频对你有帮助~~~
文末附上服务器的注册地址https://cloud.lanyun.net//#/registerPage?promoterCode=0131