AIGC、ChatGPT、GPT系列?我的认识

news/2024/11/17 1:50:32/

AIGC(AI generated content),新型内容生产方式。AIGC是利用人工智能技术来生成内容,也就是,它可以用输入数据生成相同或不同类型的内容,比如输入文字、生成文字,输入文字、生成图像等。

GPT-3是生成型的预训练变换模型,是一个自回归语言模型,神经网络包括1750亿个参数,在2020年5月发布论文。最新的GPT-3.5是GPT-3微调出来的版本。ChatGPT建立在GPT-3.5基础上,使用人类反馈强化学习去训练,所以能根据对话调整,带来更为复杂的互动效果,达到更逼近真人的效果。

而ChatGPT就是AIGC技术展示的成果。实际上ChatGPT就是一个大型的预训练语言生成模型,它使用了Transformer神经网络架构,也是GPT-3.5架构。

ChatGPT学习的四阶段:

1.学习文字接龙

2.人类老师引导文字接龙的方向

3.模仿人类老师的喜好(特征)

4.用增强式学习向模拟老师学习

1.让不完整的句子通过现有的数据预测下面的文字,从而达到文字接龙。

2.人工筛选哪些是好的、对的、应该被期望的答案,打高分。(训练一个打分模型)(人工标注的数据集:问题、答案、人类打的分)(第一个打分的数据集是基线。后面每次再做其他人工标注的数据集)

3.人类希望获得的答案就会被赋予更高分数。(引导GPT输出(说)人类要它说的)。(让打分模型根据排序进行打分)

4.每次将GPT得到的答案再丢给人类判断,是人类希望的回答就给高分,不是就给低分,这种模式称为增强式学习中的Reward模块。(每次让基线模型和打分模型就行对抗,不断优化)

ChatGPT并不完美,只要问些没人问过的问题(冷门问题不涵盖在数据集中),它就会给出错误的答案。另外,找文献的时候有概率是瞎编的。

GPT-3的社会负面影响:它可能被拿来生成假新闻、垃圾邮件,以及论文造假。由于GPT-3 的训练数据来自网络,其中包含了一些性别、宗教、种族歧视的信息,导致GPT-3 的生成文本也有同样的问题。

在某一个特定的任务上,某些利用带标号的文本数据的算法表现可能会超过GPT-3。但GPT-3的强大之处在于它的泛化能力。不需要微调,只需要在输入序列里用自然语言表述任务要求,就可以让网络执行不同的子任务,这是GPT-3令人惊艳的地方。

一、GPT系列发展介绍:

1.GPT-1(已开源)

首个GPT系列模型GPT-1诞生于2018年,也就是我们常说的NLP预训练模型元年。性能方面,GPT-1有着一定的泛化能力,能够用于和监督任务无关的NLP任务中。其常用任务包括:

  • 自然语言推理:判断两个句子的关系(包含、矛盾、中立)

  • 问答与常识推理:输入文章及若干答案,输出答案的准确率

  • 语义相似度识别:判断两个句子语义是否相关

  • 分类:判断输入文本是指定的哪个类别

虽然GPT-1在未经调试的任务上有一些效果,但其泛化能力远低于经过微调的有监督任务,因此GPT-1只能算得上一个还算不错的语言理解工具而非对话式AI。

2.GPT-2(已开源)

于2019年如期而至。相比于GPT-1,GPT-2并没有对原有的网络进行过多的结构创新与设计,只使用了更多的网络参数与更大的数据集:最大模型共计48层,参数量达15亿,学习目标则使用无监督预训练模型做有监督任务。

在性能方面,OpenAI的大力似乎真的带来了一些奇迹。除了理解能力外,GPT-2在生成方面第一次表现出了强大的天赋:阅读摘要、聊天、续写、编故事,甚至生成假新闻、钓鱼邮件或在网上扮演他人通通不在话下。在“变得更大”之后,GPT-2的确展现出了一些列普适而强大的能力,并在多个特定的语言建模任务上实现了彼时的最佳性能。

3.GPT-3(未开源)

自GPT-2取得成功以来,OpenAI对“大力神教”的信仰愈发坚定,2020年放出的GPT-3继续沿用微创新、猛扩大的发展思路。除了GPT-3中的Transformer应用了Sparse结构外,GPT-3与GPT-2的结构几乎没有区别。而在“大力”方面,GPT-3的模型上到了96层,训练参数则是达到了1750亿个(GPT-2的10倍以上)。

而GPT-3也再次证明了OpenAI的眼光,由于GPT-3更强的性能和明显更多的参数,它包含了更多的主题文本,显然优于前代的GPT-2。作为目前最大的密集型神经网络,GPT-3能够将网页描述转换为相应代码、模仿人类叙事、创作定制诗歌、生成游戏剧本,甚至模仿已故的各位哲学家——预测生命的真谛。且GPT-3不需要微调,在处理语法难题方面,它只需要一些输出类型的样本(少量学习)。可以说GPT-3似乎已经满足了我们对于语言专家的一切想象。

4.GPT-3.5(未开源)

GPT-3的微调版本,比如ChatGPT就用了这个。

5.GPT-4预测(OpenAI已经在训练GPT-4,并计划于12月-2月间发布

GPT-4将很有可能不仅只是一个语言模型。OpenAI首席科学家Ilya Sutskever曾在其撰写的多模态相关文章中暗示过这一点——“文字本身即可表达关于这个世界的大量信息,但毕竟是不完整的,因为我们也生活在视觉世界之中。”因此,业界部分专家认为GPT-4将会是多模态的,可以接受音频、文本、图像甚至是视频输入,并预测OpenAI的Whisper的音频数据集将用于创建GPT-4所需的文本数据。这也意味着GPT-4对于外界信息的接收与处理将不会再有任何局限性。

工业界关注GPT-4的原因,则很有可能是由于GPT-4的实际商用门槛将比传统GPT-3更低。此前由于巨额费用和基础设施原因而未能使用相关技术的企业也将有望使用GPT-4。目前GPT-4已进入上市的最后阶段,将于今年12月至明年2月期间发布。剑桥AI研究公司分析师Alberto Garcia通发表了博客并预测:“GPT-4将更专注于优化数据处理,因此GPT-4的学习成本预计将低于GPT-3。GPT-4的每集学习成本将可能由GPT-3的数百万美元将至100万美元左右”。

二、GPT-1模型结构介绍:

1.GPT介绍

  • GPT是OpenAI公司提出的一种语言预训练模型.

  • 正是因为训练方法上的区别, 使得GPT更擅长处理自然语言生成任务(NLG), 而BERT更擅长处理自然语言理解任务(NLU).

2.GPT的架构

  • GPT采用了Transformer架构中的解码器模块.

  • 将传统的3层Decoder Block变成了2层Block, 删除了encoder-decoder attention子层, 只保留Masked Multi-Head Attention子层和Feed Forward子层.

  • 由12个改造后的Decoder Block组成的.

3.GPT训练过程

GPT的训练也是典型的两阶段过程:

  • 第一阶段: 无监督的预训练语言模型. 只利用单词前面的信息来预测当前单词.

  • 第二阶段: 有监督的下游任务fine-tunning.

二、GPT2模型介绍

1.GPT2的架构

  • GPT2只采用了Transformer架构中的Decoder模块.

  • GPT2是在GPT基础上发展处的更强大的语言预训练模型.

2.GPT2的工作细节:

  • GPT2可以处理最长1024个单词的序列.

  • 每个单词都会和它的前序路径一起"流经"所有的解码器模块.

  • GPT2本质上也是自回归模型.

  • 输入张量要经历词嵌入矩阵和位置编码矩阵的加和后, 才能输入进transformer模块中.

3.GPT2自注意力机制的细节:

  • 首先, GPT2的自注意力是Masked self-attention, 只能看见左侧的序列, 不能看见右侧的信息.

  • Query, Key, Value这三个张量之间的形象化的例子, 生动的说明了各自的作用和运算方式.

  • 最后的输出可以采用多个方法, 贪心方案, 概率分布方案, 或者top-k方案等.


http://www.ppmy.cn/news/956486.html

相关文章

什么是chatGPT, AIGC

AIGC AIGC 即 AI Generated Content,利用人工智能技术来生成内容,它被认为是继PGC、UGC之后的新型内容创作方式。2022年AIGC高速发展,这其中深度学习模型不断完善、开源模式的推动、大模型探索商业化的可能,成为AIGC发展的“加速度…

上海亚商投顾:A股三大指数涨跌不一 ChatGPT、机器人概念齐掀涨停潮

上海亚商投顾前言:无惧大盘涨跌,解密龙虎榜资金,跟踪一线游资和机构资金动向,识别短期热点和强势个股。 市场情绪 沪指今日震荡反弹,创业板指走势稍弱,黄白二线大幅分化,概念题材继续活跃。Chat…

不是,现在造车都得ChatGPT一下了吗?

金磊 梦晨 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT的火,让全球概念股开启狂飙模式。 单是在国内资本市场,像百度、科大讯飞、云从等一众AI企业,可谓是一路“大写”的涨涨涨。 甚至是像搞手写识别、OCR的汉王科技都能连拉5个涨停板&#x…

ChatGPT出圈背后,生成式AI的春天到了?

配图来自Canva可画 2022年底,由人工智能实验室openAI发布的对话式大型语言模型ChatGPT一夜爆火,该产品以强大的文字处理和人机交互功能迅速成为炙手可热的新一代人工智能产品。相关数据显示,其在发布后五天之内用户量就达到了100万&#xff…

ChatGPT“狂飙”:风浪越大,鱼越贵

2022 年 11 月 30 日,OpenAI 研发的聊天机器人程序 ChatGPT 发布。在中国用户无法访问的前提下,推出仅仅 5 天就获得了 100 万用户。 2023 年 2 月 2 日,微软宣布其旗下所有产品将全线整合 ChatGPT。随即,中国掀起了一场围绕 Chat…

ChatGPT炸裂升级,百度文心一言背水迎战!股票动荡!

昨天百度文心一言发布会后,百度港股涨逾12% 又绿了。。。。 那为什么会跌这么狠呢?百度发布文心一言之后,为何中国的股市不升反降,反而是有一种消息落地,股价大跌的趋势呢? 首先, 文心一言发布…

Alibaba Cloud Toolkit部署操作

一、后端部署: 第一步 第二步: 第三步: 二、前端部署 第一步: 第二步: 第三步:

太火了!ChatGPT原人马成立的公司,被谷歌急投4亿美元!现在改行学AI还来得及不?...

机器之心报道 机器之心编辑部 自研要上,收购也要上,不容有失。 神仙打架,科技巨头之间的 AI 竞赛,正在不断升温。 在微软与 ChatGPT 创建者 OpenAI 绑定在一起之后,谷歌选择转向一家由前 OpenAI 员工创立的公司&#x…