Skip to content

国内大模型API

国内大模型API在中文场景、成本控制和数据合规方面有独特优势。本节介绍如何使用国内主流大模型API。

主流模型一览

厂商模型特点价格
阿里云通义千问中文能力强,免费额度多
百度文心一言百度生态集成
讯飞星火语音交互支持
智谱GLM开源版本可用
字节豆包免费使用免费

通义千问 API

安装SDK

bash
pip install dashscope

基本调用

python
import dashscope
from dashscope import Generation

dashscope.api_key = "your-api-key"

response = Generation.call(
    model="qwen-turbo",
    messages=[
        {"role": "user", "content": "你好!"}
    ]
)

print(response.output.choices[0].message.content)

模型选择

模型说明适用场景
qwen-turbo快速简单对话
qwen-plus平衡日常任务
qwen-max最强复杂任务

智谱 GLM API

安装SDK

bash
pip install zhipuai

基本调用

python
from zhipuai import ZhipuAI

client = ZhipuAI(api_key="your-api-key")

response = client.chat.completions.create(
    model="glm-4",
    messages=[
        {"role": "user", "content": "你好!"}
    ]
)

print(response.choices[0].message.content)

统一封装方案

使用统一的接口调用不同模型:

python
from abc import ABC, abstractmethod

class LLMProvider(ABC):
    @abstractmethod
    def chat(self, messages: list) -> str:
        pass

class OpenAIProvider(LLMProvider):
    def __init__(self, api_key: str):
        from openai import OpenAI
        self.client = OpenAI(api_key=api_key)
    
    def chat(self, messages: list) -> str:
        response = self.client.chat.completions.create(
            model="gpt-4o",
            messages=messages
        )
        return response.choices[0].message.content

class ClaudeProvider(LLMProvider):
    def __init__(self, api_key: str):
        import anthropic
        self.client = anthropic.Anthropic(api_key=api_key)
    
    def chat(self, messages: list) -> str:
        response = self.client.messages.create(
            model="claude-sonnet-4-20250514",
            max_tokens=1024,
            messages=messages
        )
        return response.content[0].text

class QwenProvider(LLMProvider):
    def __init__(self, api_key: str):
        import dashscope
        dashscope.api_key = api_key
        self.generation = dashscope.Generation
    
    def chat(self, messages: list) -> str:
        response = self.generation.call(
            model="qwen-turbo",
            messages=messages
        )
        return response.output.choices[0].message.content

# 使用示例
def get_llm(provider: str, api_key: str) -> LLMProvider:
    providers = {
        "openai": OpenAIProvider,
        "claude": ClaudeProvider,
        "qwen": QwenProvider
    }
    return providers[provider](api_key)

# 统一调用
llm = get_llm("qwen", "your-api-key")
response = llm.chat([{"role": "user", "content": "你好!"}])

国内模型的优势

中文能力

测试:请写一首关于春天的七言绝句

通义千问输出:
春风送暖入屠苏,柳絮飞时花满湖。
燕舞莺啼春意闹,一江碧水向东流。

成本优势

模型每百万Token价格免费额度
GPT-4o$2.5/$10
Claude Sonnet$3/$15
通义千问¥0.3/¥0.6100万Token/月
智谱GLM¥0.5/¥0.525万Token

合规优势

  • 数据存储在国内
  • 符合国内法规要求
  • 企业版支持私有化部署

小结

国内大模型API的核心要点:

要点说明
中文能力国内模型中文处理更自然
成本优势大部分提供免费额度
合规要求适合有数据本地化需求的项目
统一封装建议封装统一接口,方便切换

下一步

继续学习 LangChain框架基础,了解如何构建复杂的AI应用。