一年多前接触到Langchain-chatchat的0.2版本,对0.2版本进行了本地部署和大量更新,但0.2版本对最新的大模型支持不够好,部署框架支持也不好且不太稳定,特别是多模态大模型,因此本次主要介绍0.3版本的源码部署,希望对大家有所帮助。Langchain-chatchat从0.3版本开始,支持更多的部署框架,如xinference、Ollama和FastChat,较多的是xinference框架,因此本文也是基于该框架进行模型部署。开始时参考了提供的开发指南进行部署,感觉步骤较多且麻烦,因此我就采用直接修改源码方式进行部署,作者提供的前端没有用,主要使用的是libs下面的后端接口和默认基于Streamlit提供的前端测试功能。另外,我更新完善了本地知识库加载的多种文件格式解析模块,增加了验证和路由过滤模块、返回数据格式等等,这里不详细介绍。
一、源码下载
直接去github上找Langchain-chatchat,进行下载,最后下载master线。
二、服务器环境准备
我的环境是Linux Redhat7.5,配置两种gpu显卡,合计96G
安装conda和python3.10环境
上述两步可参考相关文档,相对简单,这里不细说。
三、虚拟环境准备
conda create -n xinferenc