欢迎关注【AI技术开发者】
上文中,我们成功搭建了FastGPT服务和New-api服务
我们现在需要配置New-api服务,使用New-api来同时使用多个厂商的大模型服务,如豆包、通义千问、混元、文心一言、Kimi等模型
首先,我们需要修改FastGPT容器的环境变量
OPENAI_BASE_URL = // New-api的服务地址,容器地址或外网地址都行
CHAT_API_KEY = // 访问Token
Token生成地址:
注意修改额度,以防不够用
然后修改FastGPT容器的config.json文件中的llmModels字段
这个是语言模型和视觉模型,按以下格式修改后放在这个文件里面
{"provider": "OpenAI", // 模型提供商,主要用于分类展示,目前已经内置提供商包括:https://github.com/labring/FastGPT/blob/main/packages/global/core/ai/provider.ts, 可 pr 提供新的提供商,或直接填写 Other"model": "gpt-4o-mini", // 模型名(对应OneAPI中渠道的模型名)"name": "gpt-4o-mini", // 模型别名"maxContext": 125000, // 最大上下文"maxResponse": 16000, // 最大回复"quoteMaxToken": 120000, // 最大引用内容"maxTemperature": 1.2, // 最大温度"charsPointsPrice": 0, // n积分/1k token(商业版)"censor": false, // 是否开启敏感校验(商业版)"vision": true, // 是否支持图片输入"datasetProcess": true, // 是否设置为文本理解模型(QA),务必保证至少有一个为true,否则知识库会报错"usedInClassify": true, // 是否用于问题分类(务必保证至少有一个为true)"usedInExtractFields": true, // 是否用于内容提取(务必保证至少有一个为true)"usedInToolCall": true, // 是否用于工具调用(务必保证至少有一个为true)"usedInQueryExtension": true, // 是否用于问题优化(务必保证至少有一个为true)"toolChoice": true, // 是否支持工具选择(分类,内容提取,工具调用会用到。)"functionCall": false, // 是否支持函数调用(分类,内容提取,工具调用会用到。会优先使用 toolChoice,如果为false,则使用 functionCall,如果仍为 false,则使用提示词模式)"customCQPrompt": "", // 自定义文本分类提示词(不支持工具和函数调用的模型"customExtractPrompt": "", // 自定义内容提取提示词"defaultSystemChatPrompt": "", // 对话默认携带的系统提示词"defaultConfig": {}, // 请求API时,挟带一些默认配置(比如 GLM4 的 top_p)"fieldMap": {} // 字段映射(o1 模型需要把 max_tokens 映射为 max_completion_tokens)},
model为New-api中的模型名称
name为自定义名称,自己认识就行
vision注意语言模型不支持图片输入
下面修改vectorModels字段,部署向量模型(解析知识库需要用到)
按以下格式:
{"provider": "通义千问","model": "qwen-multimodal-embedding-v1", // 模型名(与OneAPI对应)"name": "通义千问-多模态向量", // 模型展示名"charsPointsPrice": 0, // n积分/1k token"defaultToken": 700, // 默认文本分割时候的 token"maxToken": 3000, // 最大 token"weight": 100, // 优先训练权重"defaultConfig": {}, // 自定义额外参数。例如,如果希望使用 embedding3-large 的话,可以传入 dimensions:1024,来返回1024维度的向量。(目前必须小于1536维度)"dbConfig": {}, // 存储时的额外参数(非对称向量模型时候需要用到)"queryConfig": {} // 参训时的额外参数}
下面部署重排模型,对知识库搜索结果进行排序,这个用处不大
修改reRankModels字段,按以下格式:
{"model": "qwen-gte-rerank", // 模型名称"name": "通义千问-重排", // 随意"charsPointsPrice": 0,"requestUrl": "new-api/v1/rerank","requestAuth": "安全凭证,已自动补 Bearer"}
全部修改完毕后,重启容器
进入web页面,看到
即为接入成功
现在 我们创建一个应用 测试一下模型是否可用
欢迎关注【AI技术开发者】