大模型的应用与微调:如何调用 LLM?从 OpenAI API 到本地部署
本篇文章将详细介绍如何调用大语言模型(LLM),涵盖 OpenAI API、DeepSeek、Manus、通义千问等模型的调用方式,并探讨如何在本地部署 LLM 进行推理。
1. 调用 OpenAI API(GPT 系列)
OpenAI 提供了 RESTful API 供开发者调用 GPT 系列模型。
示例:使用 Python 调用 OpenAI API
import openai
openai.api_key = "your_api_key"
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "给我写一段Python代码,实现冒泡排序。"}]
)
print(response["choices"][0]["message"]["content"])
2. 调用 DeepSeek API
DeepSeek 提供了 LLM 及代码生成模型 Deep