ChatGPT简要解读(三) - ChatGPT发展历程及模型训练机制

news/2025/2/13 21:04:29/
  • 💂 个人主页: 同学来啦
  • 🤟 版权: 本文由【同学来啦】原创、在CSDN首发、需要转载请联系博主
  • 💬 如果文章对你有帮助,欢迎关注、点赞、收藏和订阅专栏哦

文章目录

  • 🐣 一、发展历程
    • 🔴 1、基本概念
    • 🟠 2、演化过程
  • 🐤 二、模型训练机制

🐣 一、发展历程

🔴 1、基本概念

ChatGPT是一个采用基于GPT-3.5(Generative Pre-trained Transformer 3.5)架构开发的大型语言模型,与InstructGPT模型是姊妹模型(sibling model),使用了RLHF(Reinforcement Learning from Human Feedback,人类反馈强化学习)技术来更好地让语言模型与人类指令保持一致。

而GPT(Generative Pre-Trained Transformer)是一系列基于Transformer的深度学习语言模型,利用机器学习算法来分析和理解文本输入的含义,然后根据该输入生成响应。该模型在大量文本数据上进行训练,使其能够学习自然语言的模式和结构。
在这里插入图片描述

🟠 2、演化过程

  • 🦐 GPT-1发布
    2018年6月,OpenAl 在题为《Improving Language Understanding by Generative Pre-Training》的论文中提出了第一个GPT 模型GPT-1。从这篇论文中得出的关键结论是,Transformer 架构与无监督预训练的结合产生了可喜的结果。GPT-1 以无监督预训练+有监督微调的方式,针对特定任务进行训练,实现了 “强大的自然语言理解”。

  • 🦞 GPT-2发布
    2019年2月,OpenAI发表了第二篇论文《Language Models are Unsupervised Multitask Learners》,其中介绍了由GPT-1演变的GPT-2。尽管GPT-2 大了一个数量级,但它们在其他方面非常相似。两者之间只有一个区别:GPT-2 可以完成多任务处理。OpenAI成功地证明了半监督语言模型可以在“无需特定任务训练”的情况下,在多项任务上表现出色。该模型在零样本任务转移设置中取得了显著效果。

  • 🦑 GPT-3发布
    2020年5月,OpenAI发表《Language Models are Few-Shot Learners》,呈现GPT-3。GPT-3 比GPT-2 大100 倍,它拥有1750 亿个参数。然而,它与其他GPT 并没有本质不同,基本原则大体一致。尽管GPT 模型之间的相似性很高,但GPT-3 的性能仍超出了所有可能的预期。

  • 🦀 GPT-3.5 & ChatGPT发布
    2022年11月底,OpenAI进行了两次更新。11月29日,OpenAI发布了一个命名为“text-davinci-003”(文本-达芬奇-003”,通常称为GPT3.5)的新模式。11月30日,发布了它的第二个新功能:“对话”模式。它以对话方式进行交互,既能够做到回答问题,也能承认错误、质疑不正确的前提以及拒绝不恰当的请求。ChatGPT由效果更强大的GPT-3.5系列模型提供支持,可以用更接近人类的思考方式参与用户的查询过程。
    在这里插入图片描述

🐤 二、模型训练机制

  • 第1️⃣步:使用有监督的微调训练初始模型:人类训练师之间提供对话,其中一个扮演用户,另一个扮演ChatGPT中的Al助手。为了创建强化学习的奖励模型,需要收集比较数据,并使用收集到的数据调整GPT-3.5模型;

  • 第2️⃣步:模型会根据提示生成多个输出,训练师将ChatGPT编写的回复与人类的回答进行比较,并对它们的质量进行排名,以帮助强化机器的类人对话风格。奖励模型将自动执行最后一个训练阶段,使用排名后的数据训练;

  • 第3️⃣步:在最后一步使用近端策略优化进一步调整,这是OpenAl广泛使用的强化学习技术。
    在这里插入图片描述

请添加图片描述


http://www.ppmy.cn/news/950271.html

相关文章

Chatgpt训练使用的模拟人脑神经元网络

目前模拟人脑神经元的网络主要有以下几种: 人工神经网络(Artificial Neural Network,ANN):ANN是一种基于人脑神经元结构和功能的计算模型,包括前馈神经网络、反馈神经网络、自组织神经网络等。 脉冲神经网…

S级秘术!指导ChatGPT训练一个神经网络的超详细「指令」来啦!

文|Posibilitee知乎编|CVer 这个话题有点超乎大多数人的理解。 步骤是这样的: 1.先让它伪装成Ubuntu 18.04,给它说你安装了Python 3.9, Pytorch 1.8, CUDA 11.3和其他训练一个pytorch模型所需要的库。 让ChatGPT伪装成Linux终端,这…

如何用chatGPT训练出一个自己的量化交易模型呢,具体如何操作请给出示例代码

使用ChatGPT训练量化交易模型需要进行以下步骤: 数据预处理:准备量化交易所需的历史数据和相关金融新闻等数据,并将其转换为适当的格式进行处理和清洗。 模型训练:使用ChatGPT等机器学习工具对处理后的数据进行训练,…

chatgpt的模型训练和微调

chatgpt的模型训练和微调 ChatGPT的模型训练和微调是构建基本对话系统的关键步骤。下面将详细介绍ChatGPT模型训练和微调的内容。 1. 数据准备:首先,需要准备好用于模型训练和微调的对话数据集。这些数据集可以是从真实对话中收集的数据,经过清洗、标注和格式转换后得到的…

训练自己的ChatGPT-OpenAI 微调模型

OpenAI终于下定决心——正式开放ChatGPT API! ChatGPT API地址:https://platform.openai.com/docs/guides/chat gpt-3.5-turbo的新模型 OpenAI正式打开了官方的ChatGPT API,为广大开发者打开了新的大门。 微调(Fine-tuning&…

Chatgpt使用指南[Chatgpt训练师必看]2——科研方向

本文为Chatgpt使用指南[Chatgpt训练师必看]2,第一集可见 Chatgpt使用指南[Chatgpt训练师必看] 主要为科研方向的应用与提问技巧,提供中文和英语版本,不过在使用Chatgp时优先推荐英文提问,准确率相对会更高。 中英文翻译及论文润色…

Chatgpt训练过程使用的是什么平台和技术

在ChatGPT的训练过程中,使用了Docker等容器技术来支持实现训练过程中不同组件之间的隔离,并且使部署和运行更加快速和可靠。 Docker是一种开源的容器化平台,可以创建、部署和运行应用程序的容器。使用Docker技术,可以先将训练任务…

ChatGPT客服系统产品-利用chatgpt训练企业知识开发个性化客服系统

打造最前沿的AI智能客服系统,基于自有数据语料,充分运用ChatGPT的大模型自然语言生成能力,定制化客服系统为企业提供自主性的客服服务能力。 ChatGPT如何革新智能客服? 根据当前ChatGPT的使用情况,我们发现未来中短期内…