Langchain构建聊天机器人
安装依赖
pip install langchain_community
Chat History:它允许聊天机器人"记住"过去的互动,并在回应后续问题时考虑他们
代码
# 创建模型
from langchain_core.messages import HumanMessage
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_core.runnables import RunnableWithMessageHistory
from langchain_openai import ChatOpenAI
from langchain_community.chat_message_histories import ChatMessageHistorymodel = ChatOpenAI(model='gpt-4-turbo', api_key='your_api_key')# 定义提示模版
prompt_template = ChatPromptTemplate.from_messages([('system', '你是一个乐于助人的助手,用{language}尽你所能回答问题'),MessagesPlaceholder(variable_name='my_mes')] # 没有这个每次会话就会变成单独的
)# 得到链
chain = prompt_template | model# 保存聊天的历史记录
store = {} # 所有用户的聊天记录都保存到store key:session_id,value:聊天记录# 从聊天记录中获取当前用户的聊天内容
def get_session_history(session_id):if session_id not in store:store[session_id] = ChatMessageHistory()else:return store[session_id]do_message = RunnableWithMessageHistory(chain,get_session_history,input_messages_key='my_mes' # 每次聊天时候发送消息得key
)
config = {'configurable': {'session_id': "xxx"}} # 给当前会话定义session_id
# 第一轮聊天,发送的信息
response = do_message.invoke({'key': [HumanMessage(content='你好,我是XXX')],'language': '中文'},config=config
)
# 第一轮结果
print(response.content)# 第二轮
response = do_message.invoke({'key': [HumanMessage(content='请问我的名字是什么')],'language': '中文'},config=config
)
print(response.content)
流式返回
# 创建模型
from langchain_core.messages import HumanMessage
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_core.runnables import RunnableWithMessageHistory
from langchain_openai import ChatOpenAI
from langchain_community.chat_message_histories import ChatMessageHistorymodel = ChatOpenAI(model='gpt-4-turbo', api_key='your_api_key')# 定义提示模版
prompt_template = ChatPromptTemplate.from_messages([('system', '你是一个乐于助人的助手,用{language}尽你所能回答问题'),MessagesPlaceholder(variable_name='my_mes')] # 没有这个每次会话就会变成单独的
)# 得到链
chain = prompt_template | model# 保存聊天的历史记录
store = {} # 所有用户的聊天记录都保存到store key:session_id,value:聊天记录# 从聊天记录中获取当前用户的聊天内容
def get_session_history(session_id):if session_id not in store:store[session_id] = ChatMessageHistory()else:return store[session_id]do_message = RunnableWithMessageHistory(chain,get_session_history,input_messages_key='my_mes' # 每次聊天时候发送消息得key
)
config = {'configurable': {'session_id': "xxx"}} # 给当前会话定义session_id
# 第一轮聊天,发送的信息
response = do_message.stream({'key': [HumanMessage(content='你好,我是XXX')],'language': '中文'},config=config
)
# 第一轮结果,使用stream 就是流式输出,就是要一个生成器,我们可以通过for循环取值或者next取值
for res in response:# 每一次res 都是一个tokenprint(res.content)# 第二轮
response = do_message.stream({'key': [HumanMessage(content='请问我的名字是什么')],'language': '中文'},config=config
)
for res in response:print(res.content)
Langchain构建向量数据库和检索器
支持从向量数据库和其他来源检索数据,以便与LLM工作流程集成,她们对于应用程序来说非常重要,这些应用程序需要获取数据以作为模型推理的一部分进行推理
安装
构建向量空间
from langchain_chroma import Chroma
from langchain_core.documents import Document
from langchain_core.runnables import RunnableLambda
from langchain_openai import OpenAIEmbeddings
from langchain_openai import ChatOpenAImodel = ChatOpenAI(model='gpt-4-turbo', api_key='your_api_key')
# 测试数据,假设文档数据如下
documents = [Document(page_content='狗是伟大的伴侣,以其忠诚和友好而闻名', # 文本内容metadata={'source': '哺乳动物宠物文档'} # 文档摘要/作者/来源),Document(page_content='猫是独立的宠物,通常喜欢自己的空间',metadata={'source': '哺乳动物宠物文档'})
]# 向量化,存储向量数据库
"""def from_documents(cls: Type[Chroma],documents: List[Document],embedding: Optional[Embeddings] = None,ids: Optional[List[str]] = None,collection_name: str = _LANGCHAIN_DEFAULT_COLLECTION_NAME,persist_directory: Optional[str] = None,client_settings: Optional[chromadb.config.Settings] = None,client: Optional[chromadb.ClientAPI] = None, # Add this linecollection_metadata: Optional[Dict] = None,**kwargs: Any,) -> Chroma:
"""
vector_store = Chroma.from_documents(documents, embedding=OpenAIEmbeddings())
# 相似度查询:返回相似的分数:分数越低相似度越高
# 不看分值直接调用similarity_search
print(vector_store.similarity_search_with_score('咖啡猫'))# 检索器 k=1 返回相似度最高的第一个
retriever = RunnableLambda(vector_store.similarity_search).bind(k=1)print(retriever.batch(['咖啡猫']))
结合大模型
from langchain_chroma import Chroma
from langchain_core.documents import Document
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnableLambda, RunnablePassthrough
from langchain_openai import OpenAIEmbeddings
from langchain_openai import ChatOpenAI
"""
Chroma:用于创建和管理向量数据库。
Document:用于表示文档对象,包含文本内容和元数据。
ChatPromptTemplate:用于定义聊天提示模板。
RunnableLambda 和 RunnablePassthrough:用于构建可运行的组件。
OpenAIEmbeddings:用于将文本转换为向量表示。
ChatOpenAI:用于调用 OpenAI 的聊天模型
"""model = ChatOpenAI(model='gpt-4-turbo', api_key='your_api_key')
# 测试数据,假设文档数据如下
documents = [Document(page_content='狗是伟大的伴侣,以其忠诚和友好而闻名', # 文本内容metadata={'source': '哺乳动物宠物文档'} # 文档摘要/作者/来源),Document(page_content='猫是独立的宠物,通常喜欢自己的空间',metadata={'source': '哺乳动物宠物文档'})
]# 向量化,存储向量数据库
"""def from_documents(cls: Type[Chroma],documents: List[Document],embedding: Optional[Embeddings] = None,ids: Optional[List[str]] = None,collection_name: str = _LANGCHAIN_DEFAULT_COLLECTION_NAME,persist_directory: Optional[str] = None,client_settings: Optional[chromadb.config.Settings] = None,client: Optional[chromadb.ClientAPI] = None, # Add this linecollection_metadata: Optional[Dict] = None,**kwargs: Any,) -> Chroma:
"""
vector_store = Chroma.from_documents(documents, embedding=OpenAIEmbeddings())
"""
使用 OpenAIEmbeddings 将文档文本转换为向量表示。
使用 Chroma.from_documents 方法将文档及其向量表示存储到 Chroma 向量数据库中
"""
# 相似度查询:返回相似的分数:分数越低相似度越高
# 不看分值直接调用similarity_search
# print(vector_store.similarity_search_with_score('咖啡猫'))# 检索器 bind(k=1) 表示在调用 similarity_search 时,只返回相似度最高的一个文档
retriever = RunnableLambda(vector_store.similarity_search).bind(k=1)# 提示模版
message = """
使用提供的上下文仅回答这个问题:{question}
上下文{context}
"""
prompt_template = ChatPromptTemplate.from_messages([('human', message)]
)
# RunnablePassthrough允许我们将用户的问题之后传递给prompt和model
chain = {'question': RunnablePassthrough(), 'context': retriever} | prompt_template | model
"""
RunnablePassthrough() 用于直接传递用户的问题。
{'question': RunnablePassthrough(), 'context': retriever} 表示将用户的问题直接传递给 question 键,同时通过 retriever 检索与问题相关的上下文,并将其传递给 context 键。
| 操作符用于将多个可运行的组件连接起来,形成一个链式调用。
最终的 chain 表示先将用户的问题和检索到的上下文传递给提示模板,然后将填充好的提示传递给 OpenAI 模型进行推理
"""
result = chain.invoke('请介绍一下猫')