文章目录
- 大模型应用 -- Generative AI Projects
- 🌊 大模型应用的时效优势
- 🌊 大模型应用的方式 - Technology Options
- 应用方式一 🐟 Prompting:最简单快速
- 应用方式二🐟 Retrieval augmented generation (RAG):外部数据 📂 赋能大模型
- 应用方式三🐟 Fine-tune models:调整大模型适配目标任务
大模型应用 – Generative AI Projects
🌊 大模型应用的时效优势
🌊 大模型应用的方式 - Technology Options
-
应用方式一 🐟 Prompting:最简单快速
-
动手试试情感判断任务吧 👉 Prompting an LLM in code 在线尝试指路
- 输入给大模型的提示词:“Classify the following review as having either a positive or negative sentiment:
The banana pudding was really tasty!” - 大模型输出的结果:“Positive sentiment”
import openai import os# 本地运行的话,需要替换自己的 key openai.api_key = os.getenv("OPENAI_API_KEY")def llm_response(prompt):response = openai.ChatCompletion.create(model='gpt-3.5-turbo',messages=[{'role':'user','content':prompt}],temperature=0)return response.choices[0].message['content']prompt = '''Classify the following review as having either a positive ornegative sentiment:The banana pudding was really tasty! ''' response = llm_response(prompt) print(response) # 会得到结果:Positive sentiment
- 输入给大模型的提示词:“Classify the following review as having either a positive or negative sentiment:
-
Tips: 可以通过 call 外部程序,辅助大模型完成特定任务:例如可以通过调用外部计算器程序来辅助大模型进行精确计算
-
-
应用方式二🐟 Retrieval augmented generation (RAG):外部数据 📂 赋能大模型
- 具体步骤如下:
- 【查阅提供的文件 📂】Given question, search relevant documents for answer
- 【融合文件 📂 中找到的有关信息更新 prompt】Incorporate retrieved text into an updated prompt
- 【根据新 prompt 生成答案】Generate answer from the new prompt with additional context
- 具体步骤如下:
-
应用方式三🐟 Fine-tune models:调整大模型适配目标任务
-
To carry out a task that isn’t easy to define in a prompt or to help LLM gain specific knowledge.
-
例如下面的例子,通过 fine-tuning 使得大模型输出乐观风格的回答
-
也可以通过引入 Reinforcement learning from human feedback (RLHF) 的方式来微调
Step 1: Train an answer quality (reward) model
Step 2: Further train LLM to generate more responses that get high scores.
-
参考资料:面向每个人的生成式AI