【AI大模型】DeepSeek API大模型接口实现
目录
一、DeepSeek发展历程
2023 年:创立与核心技术突破
2024 年:开源生态与行业落地
2025 年:多模态与全球化布局
性能对齐 OpenAI-o1 正式版
二、API接口调用
1.DeepSeek-V3模型调用
2.DeepSeek-R1模型调用
三、本地化部署接口调用
1.ollama本地化安装(略)
2.DeepSeek-R1本地化安装
3.本地ollama接口调用
一、DeepSeek发展历程
2023 年:创立与核心技术突破
-
7 月:DeepSeek 由幻方量化支持成立,总部位于杭州。
-
11 月:发布首个开源代码大模型 DeepSeek Coder,支持多种编程语言,在 HumanEval 任务中甚至超越了 GPT-3.5-turbo。
-
11 月 29 日:推出参数规模达 670 亿的通用大模型 DeepSeek LLM,致力于自然语言处理、知识问答等任务。
2024 年:开源生态与行业落地
-
5 月:发布第二代开源混合专家(MoE)模型 DeepSeek - V2,总参数达 2360 亿,支持 128K 长上下文,API 定价极具性价比。
-
12 月:发布 DeepSeek - V3,总参数达 6710 亿,训练成本仅为 557.6 万美元,在百科知识、数学、编程等任务中全面超越了 Qwen2.5 - 72B 和 Llama - 3.1 - 405B。
2025 年:多模态与全球化布局
-
1 月 20 日:发布新一代推理模型 DeepSeek - R1,性能与 OpenAI 的 o1 正式版持平,并开源。其 API 服务定价为每百万输入 tokens 1 元(缓存命中)/4 元(缓存未命中),每百万输出 tokens 16 元。
-
1 月 26 日:DeepSeek 登顶美区 App Store 免费榜第六,超越 Google Gemini 和 Microsoft Copilot。
性能对齐 OpenAI-o1 正式版
- DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。
二、API接口调用
1.DeepSeek-V3模型调用
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
response = client.chat.completions.create(
model="deepseek-chat",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False
)
print(response.choices[0].message.content)
2.DeepSeek-R1模型调用
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com")
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False
)
print(response.choices[0].message.content)
三、本地化部署接口调用
1.ollama本地化安装(略)
2.DeepSeek-R1本地化安装
ollama run deepseek-r1:1.5b
3.本地ollama接口调用
# Please install OpenAI SDK first: `pip3 install openai`
from openai import OpenAI
client = OpenAI(api_key="ollama",
base_url="https://localhost:11434/v1/")
response = client.chat.completions.create(
model="deepseek-r1:1.5b",
messages=[
{"role": "system", "content": "You are a helpful assistant"},
{"role": "user", "content": "Hello"},
],
stream=False
)
print(response.choices[0].message.content)