大语言模型(LLM)和嵌入模型的统一调用接口

server/2025/3/6 20:17:30/

ChatModelFactory、EmbeddingModelFactory

python">讲解代码:import os
from dotenv import load_dotenv, find_dotenv_ = load_dotenv(find_dotenv())from langchain_openai import ChatOpenAI, OpenAIEmbeddings, AzureChatOpenAI, AzureOpenAIEmbeddingsclass ChatModelFactory:model_params = {"temperature": 0,"seed": 42,}@classmethoddef get_model(cls, model_name: str, use_azure: bool = False):if "gpt" in model_name:if not use_azure:return ChatOpenAI(model=model_name, **cls.model_params)else:return AzureChatOpenAI(azure_deployment=model_name,api_version="2024-05-01-preview",**cls.model_params)elif model_name == "deepseek":# 换成开源模型试试# https://siliconflow.cn/# 一个 Model-as-a-Service 平台# 可以通过与 OpenAI API 兼容的方式调用各种开源语言模型。return ChatOpenAI(model="deepseek-ai/DeepSeek-V2-Chat",  # 模型名称openai_api_key=os.getenv("SILICONFLOW_API_KEY"),  # 在平台注册账号后获取openai_api_base="https://api.siliconflow.cn/v1",  # 平台 API 地址**cls.model_params,)@classmethoddef get_default_model(cls):return cls.get_model("gpt-3.5-turbo")class EmbeddingModelFactory:@classmethoddef get_model(cls, model_name: str, use_azure: bool = False):if model_name.startswith("text-embedding"):if not use_azure:return OpenAIEmbeddings(model=model_name)else:return AzureOpenAIEmbeddings(azure_deployment=model_name,openai_api_version="2024-05-01-preview",)else:raise NotImplementedError(f"Model {model_name} not implemented.")@classmethoddef get_default_model(cls):return cls.get_model("text-embedding-ada-002")

以下是这段代码的逐层解析,该代码实现了大语言模型(LLM)和嵌入模型的统一调用接口,支持多种云服务和开源模型:


一、环境初始化

python">import os
from dotenv import load_dotenv, find_dotenv# 加载.env文件中的环境变量
_ = load_dotenv(find_dotenv())
  • 关键技术
    • dotenv库自动寻找项目根目录下的.env文件(包括上级目录)
    • 将环境变量(如API Key)注入系统环境变量
  • 典型.env内容
    OPENAI_API_KEY = "sk-xxx"
    AZURE_OPENAI_KEY = "azure-xxx"
    SILICONFLOW_API_KEY = "sf-xxx"
    

二、聊天模型工厂(ChatModelFactory)

1. 基础配置
python">class ChatModelFactory:model_params = {"temperature": 0,  # 控制生成随机性(0=确定性最高)"seed": 42,        # 固定随机种子保证可复现性}
  • 核心参数
    • temperature: 影响生成多样性(0为最保守,1为最随机)
    • seed: 确保相同输入得到相同输出(对测试和调试至关重要)
2. 模型选择逻辑
python">@classmethod
def get_model(cls, model_name: str, use_azure: bool = False):# OpenAI官方服务if "gpt" in model_name:if not use_azure:return ChatOpenAI(model=model_name, **cls.model_params)else:return AzureChatOpenAI(azure_deployment=model_name,  # Azure部署名称api_version="2024-05-01-preview",  # 最新API版本**cls.model_params)# 第三方开源模型平台elif model_name == "deepseek":return ChatOpenAI(model="deepseek-ai/DeepSeek-V2-Chat",openai_api_key=os.getenv("SILICONFLOW_API_KEY"),openai_api_base="https://api.siliconflow.cn/v1",**cls.model_params,)
  • 多服务支持

    服务类型适用场景关键参数
    OpenAI官方直接使用OpenAI的APImodel="gpt-3.5-turbo"
    Azure OpenAI企业级Azure云服务azure_deployment
    SiliconFlow平台调用DeepSeek等国产开源模型自定义API Base URL
  • 设计亮点

    • 统一接口:不同服务使用相同调用方式(均继承自BaseChatModel
    • 无缝切换:通过use_azure布尔参数切换云服务商
    • 开箱即用:预置最新API版本(2024-05-01-preview
3. 默认模型配置
python">@classmethod
def get_default_model(cls):return cls.get_model("gpt-3.5-turbo")
  • 最佳实践:将gpt-3.5-turbo设为默认模型(性价比与性能平衡)

三、嵌入模型工厂(EmbeddingModelFactory)

1. 模型分发逻辑
python">class EmbeddingModelFactory:@classmethoddef get_model(cls, model_name: str, use_azure: bool = False):if model_name.startswith("text-embedding"):if not use_azure:return OpenAIEmbeddings(model=model_name)else:return AzureOpenAIEmbeddings(azure_deployment=model_name,openai_api_version="2024-05-01-preview",)else:raise NotImplementedError(f"Model {model_name} not implemented.")
  • 模型识别:通过text-embedding前缀判断为嵌入模型
  • 服务兼容性
    • OpenAI:直接指定模型名称(如text-embedding-ada-002
    • Azure:使用部署名称(需与Azure门户中的部署名一致)
2. 默认配置
python">@classmethod
def get_default_model(cls):return cls.get_model("text-embedding-ada-002")
  • 行业标准text-embedding-ada-002是OpenAI最常用的嵌入模型

四、关键技术点解析

1. 环境变量管理
  • 安全实践:通过.env文件隔离敏感信息
  • 多平台支持
    python"># SiliconFlow示例
    openai_api_key=os.getenv("SILICONFLOW_API_KEY")
    openai_api_base="https://api.siliconflow.cn/v1" 
    
    即使使用非OpenAI服务,也复用openai_前缀的参数名,保持接口统一
2. 工厂模式优势
优势具体体现
解耦合业务代码无需关心模型初始化细节
扩展性新增模型只需修改工厂类
配置集中化所有模型参数在单个类中管理
3. 多云服务兼容
python"># Azure的特殊参数
AzureChatOpenAI(azure_deployment="gpt-35-turbo",  # 部署名称(可能与模型名不同)api_version="2024-05-01-preview"   # 必须指定
)
  • 注意差异:Azure的部署名称可能与OpenAI模型名称不同(如gpt-35-turbo对应OpenAI的gpt-3.5-turbo

五、使用示例

1. 基础调用
python"># 获取默认聊天模型
chat_model = ChatModelFactory.get_default_model()# 获取Azure版嵌入模型
embed_model = EmbeddingModelFactory.get_model("text-embedding-ada-002", use_azure=True
)
2. 完整工作流
python">from langchain.schema import HumanMessage# 初始化模型
model = ChatModelFactory.get_model("gpt-4", use_azure=False)# 执行对话
messages = [HumanMessage(content="你好!")]
response = model.invoke(messages)
print(response.content)

六、扩展建议

1. 添加新模型支持
python"># 在ChatModelFactory中添加
elif model_name == "moonshot":return ChatOpenAI(model="moonshot-v1",openai_api_key=os.getenv("MOONSHOT_API_KEY"),openai_api_base="https://api.moonshot.cn/v1",**cls.model_params)
2. 动态参数配置
python"># 允许运行时修改参数
@classmethod
def get_model(cls, model_name: str, **kwargs):params = {**cls.model_params, **kwargs}return ChatOpenAI(model=model_name, **params)
3. 错误处理增强
python">try:return AzureChatOpenAI(...)
except AuthenticationError as e:print("Azure认证失败,请检查API Key和部署名称")

七、架构图示

User Code
ChatModelFactory
EmbeddingModelFactory
OpenAI
Azure
SiliconFlow
text-embedding-ada-002
Azure Embedding

该代码为构建多模型AI应用提供了标准化基础设施,开发者可以通过简单的参数切换实现:

  • 不同云服务商之间的迁移
  • 开源模型与商业模型的混合使用
  • 嵌入模型与对话模型的协同工作

@Classmethod

@classmethod 是 Python 中一个重要的装饰器,用于定义类方法。它的核心作用是为类提供一种不依赖实例却能操作类本身或类层级数据的途径。以下是逐层解析:


一、核心特性

1. 方法签名
python">class MyClass:@classmethoddef my_method(cls, arg1, arg2):  # 第一个参数必须是类本身(惯例命名为`cls`)pass
  • cls参数:自动接收当前类(而非实例)作为第一个参数
  • 调用方式:可通过类名.方法名()实例.方法名()调用
2. 与普通实例方法的对比
方法类型第一个参数可访问内容典型用途
实例方法self实例属性/方法操作实例级数据
类方法cls类属性/其他类方法工厂模式、类配置操作

二、核心应用场景

1. *工厂模式(核心代码中的用法)
python">class ChatModelFactory:@classmethoddef get_model(cls, model_name: str):  # 不创建实例即可获取模型if model_name == "gpt":return cls._create_openai_model()else:return cls._create_custom_model()# 直接通过类调用
model = ChatModelFactory.get_model("gpt")
  • 优势:无需实例化工厂类即可创建目标对象
  • 扩展性:子类可重写方法改变创建逻辑
2. 替代构造函数
python">class Date:def __init__(self, year, month, day):self.year = year@classmethoddef from_string(cls, date_str):  # 接受不同格式的输入year, month, day = map(int, date_str.split("-"))return cls(year, month, day)  # 调用主构造函数# 使用示例
date = Date.from_string("2023-08-01")
3. 类状态管理
python">class Counter:_count = 0@classmethoddef increment(cls):cls._count += 1  # 修改类属性@classmethoddef get_count(cls):return cls._count  # 读取类属性Counter.increment()
print(Counter.get_count())  # 输出: 1

三、继承场景下的行为

python">class Animal:@classmethoddef identify(cls):print(f"I am {cls.__name__}")class Dog(Animal):passAnimal.identify()  # 输出: I am Animal
Dog.identify()     # 输出: I am Dog  🐛 cls自动指向实际调用类
  • 多态性:子类调用父类方法时,cls指向子类
  • 应用价值:实现继承链中的工厂方法

四、与 @staticmethod 的对比

特性@classmethod@staticmethod
第一个参数自动传入类 (cls)无自动参数
访问类属性✅ 可直接通过cls访问❌ 需通过类名硬编码访问
调用其他类方法✅ 可通过cls.method()❌ 需硬编码类名
典型应用场景需要类引用的操作工具函数
代码示例对比
python">class Utilities:@classmethoddef class_util(cls):print(f"Called from {cls.__name__}")@staticmethoddef static_util():print("Generic utility")class SubUtilities(Utilities):passSubUtilities.class_util()  # 输出: Called from SubUtilities
SubUtilities.static_util() # 输出: Generic utility

五、在示例代码中的作用

python">class ChatModelFactory:model_params = {"temperature": 0}  # 类属性@classmethoddef get_model(cls, model_name: str):return ChatOpenAI(**cls.model_params)  # 通过cls访问类属性
  1. 统一配置管理:通过cls.model_params确保所有方法使用相同配置
  2. 无需实例化:直接ChatModelFactory.get_model()调用
  3. 扩展性:子类可重写model_params改变默认参数

六、最佳实践原则

  1. 优先用于工厂方法:当需要创建类实例但需封装复杂逻辑时
  2. 避免滥用:不需要访问类状态时使用@staticmethod
  3. 命名规范:始终将第一个参数命名为cls(非强制但强烈建议)
  4. 继承友好设计:通过cls实现多态,而非硬编码类名

掌握 @classmethod 的使用,能大幅提升面向对象代码的灵活性和可维护性,尤其在需要类层级操作而非实例层级操作的场景下表现出色。


http://www.ppmy.cn/server/172956.html

相关文章

厦门大学:《DeepSeek大模型赋能高校教学和科研报告》(120页PPT,建议收藏)

《DeepSeek大模型赋能高校教学和科研》是由厦门大学大数据教学团队林子雨副教授领衔撰写的系统性报告,旨在探讨大模型技术(以国产开源模型DeepSeek为核心)在高等教育与科研领域的应用实践及未来潜力。该书结合理论解析与案例实证,…

实验二:VLAN间三层通信实验

目录 1.学习目的 2.拓扑图 3.实验原理 1.VLAN原理 2.DNS原理 3.ACL原理 4.实验对实际网络工作的启示 5.场景 实验步骤: 6.学习任务 1. 基础配置与IP编址 2 多臂路由 3 单臂路由 4 三层交换 7.实验步骤回顾 1.IP地址配置 2.VLAN划分 3.DNS服务器…

xinference docker 部署方式

文章目录 简绍docker 安装方式访问地址对应官网在 dify 中 添加 xinference 容器内置大语言模型嵌入模型图像模型音频模型重排序模型视频模型 简绍 Xorbits Inference (Xinference) 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助 Xinference,…

解决git add . + git commit之后文件状态还是M 问题

在每次 git add . 和 git commit -m "" 之后,都会有很多文件依旧保持M状态。 原因是每次我使用了huskycommitlint,我的pre-commit里面运行了代码格式化工具, #!/usr/bin/env sh . "$(dirname -- "$0")/_/husky.sh…

Trae 是一款由 AI 驱动的 IDE,让编程更加愉悦和高效。国际版集成了 GPT-4 和 Claude 3.5,国内版集成了DeepSeek-r1

Trae 是一款由 AI 驱动的 IDE,让编程更加愉悦和高效。国际版集成了 GPT-4 和 Claude 3.5,国内版继承了DeepSeek-r1,支持实时代码建议和无缝 GitHub 集成。 当前国内和国际版的AI都是免费的。 安装 国际版安装 国际版下载:下载…

每日一题——接雨水

接雨水问题详解 问题描述 给定一个非负整数数组 height,表示每个宽度为 1 的柱子的高度图。计算按此排列的柱子,下雨之后能接多少雨水。 示例 示例 1: 输入:height [0,1,0,2,1,0,1,3,2,1,2,1] 输出:6 解释&#…

Excel 豆知识 - XLOOKUP 为啥会出 #N/A 错误

XLOOKUP有的时候会出 #VALUE! 这个错误。 因为这个XLOOUP有个参数叫 找不到时的返回值,那么为啥还会返回 #VALUE! 呢? 可能还有别的原因,但是主要原因应该就是 检索范围 和 返回范围 不同。 比如这里检索范围在 B列,是 4-21&…

3.6V-30V宽压输入降压同步IC内置MOS,电流4A/5A/6A,可以满足汽车应急电源,BMS电池,电池组USB口输出等储能应用

今天给大家介绍一下这三款产品,分别是CJ92340,输入电压4.5V-30V,输出可调,电流负载能力可达4A,频率350KHZ。CJ92350,输入电压3.6V-30V,输出可调,频率可调,带载能力达5A。CJ92360,输入电压3.6V-3…