国内大模型API
国内大模型API在中文场景、成本控制和数据合规方面有独特优势。本节介绍如何使用国内主流大模型API。
主流模型一览
| 厂商 | 模型 | 特点 | 价格 |
|---|---|---|---|
| 阿里云 | 通义千问 | 中文能力强,免费额度多 | 低 |
| 百度 | 文心一言 | 百度生态集成 | 低 |
| 讯飞 | 星火 | 语音交互支持 | 低 |
| 智谱 | GLM | 开源版本可用 | 中 |
| 字节 | 豆包 | 免费使用 | 免费 |
通义千问 API
安装SDK
bash
pip install dashscope基本调用
python
import dashscope
from dashscope import Generation
dashscope.api_key = "your-api-key"
response = Generation.call(
model="qwen-turbo",
messages=[
{"role": "user", "content": "你好!"}
]
)
print(response.output.choices[0].message.content)模型选择
| 模型 | 说明 | 适用场景 |
|---|---|---|
| qwen-turbo | 快速 | 简单对话 |
| qwen-plus | 平衡 | 日常任务 |
| qwen-max | 最强 | 复杂任务 |
智谱 GLM API
安装SDK
bash
pip install zhipuai基本调用
python
from zhipuai import ZhipuAI
client = ZhipuAI(api_key="your-api-key")
response = client.chat.completions.create(
model="glm-4",
messages=[
{"role": "user", "content": "你好!"}
]
)
print(response.choices[0].message.content)统一封装方案
使用统一的接口调用不同模型:
python
from abc import ABC, abstractmethod
class LLMProvider(ABC):
@abstractmethod
def chat(self, messages: list) -> str:
pass
class OpenAIProvider(LLMProvider):
def __init__(self, api_key: str):
from openai import OpenAI
self.client = OpenAI(api_key=api_key)
def chat(self, messages: list) -> str:
response = self.client.chat.completions.create(
model="gpt-4o",
messages=messages
)
return response.choices[0].message.content
class ClaudeProvider(LLMProvider):
def __init__(self, api_key: str):
import anthropic
self.client = anthropic.Anthropic(api_key=api_key)
def chat(self, messages: list) -> str:
response = self.client.messages.create(
model="claude-sonnet-4-20250514",
max_tokens=1024,
messages=messages
)
return response.content[0].text
class QwenProvider(LLMProvider):
def __init__(self, api_key: str):
import dashscope
dashscope.api_key = api_key
self.generation = dashscope.Generation
def chat(self, messages: list) -> str:
response = self.generation.call(
model="qwen-turbo",
messages=messages
)
return response.output.choices[0].message.content
# 使用示例
def get_llm(provider: str, api_key: str) -> LLMProvider:
providers = {
"openai": OpenAIProvider,
"claude": ClaudeProvider,
"qwen": QwenProvider
}
return providers[provider](api_key)
# 统一调用
llm = get_llm("qwen", "your-api-key")
response = llm.chat([{"role": "user", "content": "你好!"}])国内模型的优势
中文能力
测试:请写一首关于春天的七言绝句
通义千问输出:
春风送暖入屠苏,柳絮飞时花满湖。
燕舞莺啼春意闹,一江碧水向东流。成本优势
| 模型 | 每百万Token价格 | 免费额度 |
|---|---|---|
| GPT-4o | $2.5/$10 | 无 |
| Claude Sonnet | $3/$15 | 无 |
| 通义千问 | ¥0.3/¥0.6 | 100万Token/月 |
| 智谱GLM | ¥0.5/¥0.5 | 25万Token |
合规优势
- 数据存储在国内
- 符合国内法规要求
- 企业版支持私有化部署
小结
国内大模型API的核心要点:
| 要点 | 说明 |
|---|---|
| 中文能力 | 国内模型中文处理更自然 |
| 成本优势 | 大部分提供免费额度 |
| 合规要求 | 适合有数据本地化需求的项目 |
| 统一封装 | 建议封装统一接口,方便切换 |
下一步
继续学习 LangChain框架基础,了解如何构建复杂的AI应用。