快速上手大模型
from zhipuai import ZhipuAI
client = ZhipuAI(api_key="") # 填写您自己的APIKey
response = client.chat.completions.create(model="glm-4-plus", # 填写需要调用的模型编码messages=[{"role": "system", "content": "你是一个乐于解答各种问题的助手,你的任务是为用户提供专业、准确、有见地的建议。"},{"role": "user", "content": "农夫需要把狼、羊和白菜都带过河,但每次只能带一样物品,而且狼和羊不能单独相处,羊和白菜也不能单独相处,问农夫该如何过河。"}],
)
print(response.choices[0].message)
泛化能力的增强使得模型能够处理和理解多种未知任务,而指令跟随能力的提升则确保了模型能够准确响应人类的指令。两种> 能力的结合,使得我们能够通过精心编写的指令输入,即Prompt,来引导模型适应各种下游任务,从而避免了传统微调方法所带来的高昂计算成本。Prompt工程,作为一门专注于如何编写这些有效指令的技术,成为了连接模型与任务需求之间的桥梁
Prompt 是指用于指导生成式人工智能模型执行特定任务的输入指令 ,这些指令通常以自然语言文本的形式出现。Prompt 的核心目的是清晰地描述模型应该执行的任务,以引导模型生成特定的文本、图像、音频等内容
Prompt 工程(Prompt Engineering),又称提示工程,是指设计和优化用于与生
成式人工智能模型交互的 Prompt 的过程
Prompt 工程包括多种技巧和技术,如 3.2上下文学习(In-Context Learning)和 3.3思维链(Chain of Thought)等。这些技巧和技术的结合使用,可以显著提升 Prompt 的质量,进而有效地引导模型生成更符合特定任务需求的输出。
在 Prompt 进入大模型之前,需要 将它拆分成一个 Token 的序列,其中 Token 是承载语义的最小单元,标识具体某个词,并且每个 Token 由 Token ID 唯一标识。将文本转化为 Token 的过程称之为分 词(Tokenization)
为实现有效分词,首先需构建一个包含大语言模型所能识别的所有 Token 的词表,在构建词表时,需在涵盖广泛词汇与保持语义精细度之间找到恰当的平衡点,每个大语言模型都有自己的分词器
Prompt 工程的意义:能够激发大型语言模型的内在潜力,使其在垂域任务、数据增强、智能代理等多个领域发挥出卓越的性能