大模型的菜鸟初学习
- 一、问题记录
- 1、库的版本问题
- 二、实例记录
- 1、公司名生成
- 2、提示模板的使用
- 3、LLM Chain
- 4、LLMMemory
- 5、聊天语言API
- 参考资料
一、问题记录
1、库的版本问题
openai.error.APIConnectionError: Error communicating with OpenAI: HTTPSConnectionPool(host='api.openai.com', port=443): Max retries exceeded with url: /v1/completions (Caused by SSLError(SSLEOFError(8, 'EOF occurred in violation of protocol (_ssl.c:1129)')))
解决办法
降低urllib3的版本 <= 1.25.11pip install urllib3==1.25.11
二、实例记录
1、公司名生成
# 来源于LangChain中文网
#-*- coding:utf-8 -*-
# 实例1:构建一个基于公司产品生成公司名称的服务
import os
os.environ["OPENAI_API_KEY"] = "……"
from langchain.llms import OpenAIllm = OpenAI(temperature=0.9)
text = "What would be a good company name for a company that makes colorful socks?"
print(llm(text))# 输出:Rainbow Rascals Socks.
我的第一个调用实例,感觉还是很神奇的
“temperature” : OpenAI的API有效载荷中,"temperature"选项是一个控制语言模型输出的随机性或创造性的参数。当使用语言模型生成文本时,它通常会输出根据输入和先前训练数据确定为最可能的单词或词序列。然而,增加输出的随机性可以帮助模型创建更具创意和有趣的输出。"temperature"选项实际上控制着随机性的程度。将温度设置为较低的值将导致输出更可预测和重复,而较高的温度会导致更多种类和不可预测的输出。例如,将温度设置为0.5将导致较保守的输出,而温度为1将创建更富创意和自发的输出。需要注意的是,理想的温度值将取决于具体的任务和上下文,因此可能需要一些实验来找到适合您需要的正确值。
2、提示模板的使用
# 实例2:提示模板的使用
prompt = PromptTemplate(input_variables=["product"],template="What is a good name for a company that makes {product}?",
)
print(prompt.format(product="colorful socks"))# 输出:What is a good name for a company that makes colorful socks?
3、LLM Chain
# 实例3:在多步骤的工作流中组合 LLM 和提示
import os
os.environ["OPENAI_API_KEY"] = "……"
from langchain.llms import OpenAI
from langchain.prompts import PromptTemplate
from langchain.chains import LLMChainllm = OpenAI(temperature=0.9)prompt = PromptTemplate(input_variables=["product"],template="What is a good name for a company that makes {product}?",
)chain = LLMChain(llm=llm, prompt=prompt)print(chain.run("colorful socks"))# 输出:Sock Pop!
4、LLMMemory
实例4:带记忆的多轮会话import os
os.environ["OPENAI_API_KEY"] = "……"from langchain import OpenAI, ConversationChain
llm = OpenAI(temperature=0)
conversation = ConversationChain(llm=llm, verbose=True)#verbose=True 这样我们就可以看到提示符HumanSent=""while HumanSent!= "q":HumanSent = input("input:")output = conversation.predict(input=HumanSent)print(output)
默认情况下, ConversationChain 有一个简单的内存类型,它记住所有以前的输入/输出,并将它们添加到传递的上下文中。
5、聊天语言API
import os
os.environ["OPENAI_API_KEY"] = "……"from langchain.chat_models import ChatOpenAI
from langchain.schema import (AIMessage,HumanMessage,SystemMessage
)
chat = ChatOpenAI(temperature=0)batch_messages = [[SystemMessage(content="You are a helpful assistant that translates English to Chinese."),HumanMessage(content="Translate this sentence from English to Chinese. I love programming.")],[SystemMessage(content="You are a helpful assistant that translates English to Chinese."),HumanMessage(content="Translate this sentence from English to Chinese. I love artificial intelligence.")],
]
result = chat.generate(batch_messages)print(result)
result.llm_output['token_usage']'''
generations=[[ChatGeneration(text='我喜欢编程。', generation_info={'finish_reason': 'stop'}, message=AIMessage(content='我喜欢编程。', additional_kwargs={}, example=False))],[ChatGeneration(text='我喜欢人工智能。',generation_info={'finish_reason': 'stop'},message=AIMessage(content='我喜欢人工智能。', additional_kwargs={}, example=False))]]
llm_output={'token_usage': {'prompt_tokens': 69, 'completion_tokens': 19, 'total_tokens': 88},'model_name': 'gpt-3.5-turbo'}
run=[RunInfo(run_id=UUID('5a2161dd-d623-4d0c-8c0a-0c95df966ca1')),RunInfo(run_id=UUID('e42fad23-306a-437f-868c-7e5783bedc4b'))]
'''
参考资料
1、LangChain中文网
2、python 关于Caused by SSLError(SSLEOFError(8, ‘EOF occurred in violation of protocol (_ssl.c:1131)‘)