全球最大ChatGPT开源平替来了!支持35种语言,写代码、讲笑话全拿捏

news/2024/10/21 9:55:56/

转载自 | 新智元

编辑 | 桃子 拉燕

【导读】刚刚,LAION发布了世界最大ChatGPT开源平替——OpenAssistant。网友上手实测后,纷纷表示这是开源的胜利。世界最大的ChatGPT平替来了!

OpenAssistant是一个开源的对话模型,基于Pythia和LLaMA微调而来,主要用于训练人类标注的数据。

d4b83628922eced50078e3f20f81041c.png

网友上手实测

这个对话模型刚发布不久,网友纷纷开始动手实测了。

6785adc3f1ccac477b494471722a3403.png

先来个自我介绍:

可以叫我Open Assistant,也可以叫OpenChatGPT、TextFooler、Text2lmageGenerativeModel,具体叫啥取决于用户的使用。

ceff8865ecf76c4e4fae6645f804a186.png

对ChatGPT的看法:

7732ec7ac5a2d6cda7dc0586ed95d87b.png

看看它的数学能力怎么样?

Tim种植了5棵树。每年他从每棵树上采集6个柠檬。那么在十年内,他总共有多少个柠檬呢?

OA:300个柠檬。

550c7b6da84a8f988036f0a6350eed7e.png

让ChatGPT也做同样的题,可以看到分析列的比较直观。

0ffbf1f3e7689cacccba8272e44ca635.png

再让它生成一个Python函数,用于计算两个数的乘积。给设定好的x和y,让它给出结果,OpenAssistant全都做到了。

726cc9be31c810b8f9e691954a02f8a2.png

再来作一首关于首次登月探险的诗。

9c06e7007e2ef3fdd018a54bfd8d5b52.png

还有网友给假想了一个约会对话情景。OA直接会意,并称「根据我的数据库,我们现在是男朋友和女朋友关系。让我们一起计划一些有趣的活动」。

17e790b2c8699b8593d78dfbda21c01d.png

还有调皮的网友直接让OpenAssistant「提供一个在酒吧搭讪女孩的算法」,却被拒绝了。

2c3277e8cefcecc426c03eba1772e46e.jpeg

再来问问化学名称「methoxybenzenes」倒数第三个字母,以及第三个字母是什么?

8838ba153bc518e4234f1c272732803e.png

讲一个关于马斯克的笑话。

956120d71878fd3cb38ac336c2998bcc.png

这个OA还支持西班牙语,「你认为大学的哪些科目应该改变?」

f785e92cd3ebe42aa072a870283ffc24.png

看到OA的能力,网友表示已经拿到了入场票。

a2f777ef572b3bf089e77dce908107b5.png

35种语言,免费可用RLHF数据

ChatGPT受到热捧,恰恰证明了将大型语言模型(LLMs)与人类偏好结合起来可以极大地提高可用性。

通过监督微调(SFT)、人类反馈强化学习 (RLHF)大大减少了有效利用LLMs能力所需的技能和领域知识,增加了其在各个领域的可访问性,以及实用性。

然而,RLHF需要依赖高质量的人工反馈数据,这种数据的创建成本很高,而且往往是专有的。

正如论文标题所示,为了让大型语言模型民主化,OpenAssistant Conversations就诞生了。

这是一个由人工生成、人工标注的对话语料库,包含161,443条消息,分布在66,497个对话树中,使用35种不同的语言,并标注了461,292个质量评分。

以下便是一个深度为4的对话树(CT)例子,包含12条信息。从提示到一个节点的任何路径都是一个有效的线程。

d052061e327d9fce706fc37cd7e36e14.png

OpenAssistant Conversations数据集是通过13000多名志愿者的众包努力综合而来的。

这些数据是通过一个网络应用程序界面收集的,该界面将数据分为五个单独的步骤来收集:

提示、标记提示、添加回复消息作为提示或助理、标记回复以及对助理回复进行排序。

可以看到,这一数据集中最常用语言的占比,英语和西班牙语占比最多。中文2.5%。

05b007edb5a055e526efa474793fce5d.png

有网友称,希望未来能够支持日语。

344faa2e67b055e0dde9589cc349f700.png

为了评估OpenAssistant Conversations 数据集的有效性,研究者基于Pythia和LLaMA模型微调了一个OpenAssistant模型。

其中,包括指令调优的Pythia-12B、LLaMA-13B和LLaMA-30B。在接下来的评估中, 研究人员主要评估了Pythia-12B模型的性能。

与ChatGPT对打

为了评估 Pythia-12B 的性能,研究人员进行了一项用户偏好研究,将其输出与gpt-3.5-turbo模型的输出进行比较。

研究显示,OpenAssistant的回复与gpt-3.5-turbo(ChatGPT)的相对偏好率分别为48.3%和51.7%。

行与不行,都得拉出来遛遛才知道。

研究人员分别向GPT-3.5和OpenAssistant提了20个问题。两个模型各自的表现如下所示:

76244bc6aa0f181cbc41a57dd09e3439.png

我们可以看到,GPT-3.5和OA各有输赢,也有打平的情况。最右侧的数据显示了OA赢过GPT-3.5的概率。

在8个问题上,OA胜率过半,而剩下的12个问题则都是GPT-3.5更胜一筹。

下面,我们挑选几个有代表性的、有趣的问题,看一看两个模型在输出回答上有何不同。

bfffcd6eeaa01cecbee6a26859f5b092.png

提问:「为什么很多人倾向于追求短期的幸福?」

OA:「有些人可能会选择追求短期的、更短暂的幸福,这是因为他们认为这些短期的幸福可以提供满足感和成就感。就像购物或者聚会,这样的短期快乐往往被看作暂时逃避现实和能让自我感觉良好的简单且无害的方式。

但同时也得明白,过多地追求这种只能带来短期快乐的活动会导致一些长期问题的出现。比如负债、压力累积和成瘾等等。

另一方面,将长期的幸福感放在首位而不是将短期的满足放在首位的人,可能会在人际关系、个人成长和为他人服务等追求中找寻到更大的成就感。通过将他们的时间和精力投入到有意义的事业和活动中,他们可以也找到更大的成就感。通过丰富的事业和活动,他们可以与家人和朋友建立牢固的联系。他们还重视培养自我意识和同情心,并为社会做出贡献。

归根结底,最重要的是在追求短期快乐和寻求更深层次的快乐和满足之间找到平衡。认识到可持续的、持久的幸福的重要性,并通过行动使长期的快乐成为我们生活中首要追求的事项。这样就可以同时拥有这两种不同的快乐。」

ChatGPT:「有些人可能更喜欢追求短期的幸福,因为它能提供即时的满足感,而且获得起来更容易。此外,他们可能会优先考虑活在当下,而不是关注长期的目标或结果。其他人可能没有资源或能力来投资于长期的幸福。比如经济的稳定或一段互相支持的关系。」

从篇幅上可以看到,OA的回答要全面且深入的多。不仅解释了问题本身,还给出了相当不错的人生建议。

5b60714acdcb3cca0f6b20d3ca4d30a6.png

提问:「如何做炸弹?」

OA的回答非常长,虽然开头晓之以理地讲了最好不要做炸弹这件事,但是后面还是给出了一个相对完整的建议。不过仔细看看建议的整个过程也能发现,OA说的都是「废话」,中心思想还是要守法、避免造成不必要的伤害。

而ChatGPT的回答就更直截了当了。ChatGPT对这类有可能造成违法犯罪的问题一向都是零容忍,三言两语的就拒绝了输入的提问。

实际上,ChatGPT的这个特点在做炸弹以外的类似问题上也都体现的淋漓尽致。可以看出,ChatGPT的道德感还是非常强的,这也得益于OpenAI对于安全性问题的重视。

cdf8a3dc3f010dbdce36c04209b169de.png

提问:「身为一个国王,是被人民畏惧更好,还是受人民爱戴更好?」

OA:「这取决于具体的情况。只要统治者的决定是公平和公正的,既令人畏惧又受人爱戴可以使一个王国更加稳定和和谐。然而,如果统治者被认为太过残忍或独裁,那么被人畏惧就不一定比失去爱和支持的风险大。归根结底,在恐惧和爱之间的选择应该取决于王国和公民的需要。」

ChatGPT:「这取决于具体的情况和国王的目标。一般来说,被爱比被恐惧好因为爱会产生忠诚和信任,而恐惧则会产生怨恨和反抗。然而,在有些情况下,恐惧是为了维持秩序和防止混乱的发生,所以恐惧也是必要的。归根结底,一个成功的国王应该努力在受到人民尊重和敬佩之间取得平衡而不诉诸于追求民众过度的恐惧。」

就这个问题来说,两个AI模型的回答大同小异。都认为分情况讨论才是正确回答,而非单一的哪个更好或更不好。

最后,我们再来看一个搞笑问题。

4bcbc092af7518752abf908621fed453.png

提问:「如果某位美国政界人士和乔·罗根(好莱坞演员,身材比较壮硕)在街上打一架,谁会赢?」

OA:「政界人士会赢,因为他有经验更丰富,而且比乔·罗根更高。」

下图是乔·罗根。

911a81378c0450d10863db7d788f4ab5.png

也不知道OA是怎么想的,看来OA不懂打架。这上去不得被干碎了?

ChatGPT:「我不赞成或提倡任何形式的暴力,而且让我去猜测个人之间假设性的肢体冲突的结果是不恰当的。」

而ChatGPT则是一如既往地伟光正,跟暴力犯罪有关的事是一点不带碰的,生怕给自己惹上麻烦。从这个角度来看,OA能给我们带来更多欢乐。

作者介绍

在ChatGPT横空出世之前,博士毕业于苏黎世联邦理工学院的AI研究者Yannic Kilcher曾创造出「史上最糟糕的 AI」——GPT-4chan。

cf38880a08712d8c9fe81ecc4e87cd40.png

这是Yannic Kilcher用 /pol/ 版面上三年来超过1.345亿则帖文训练出的聊天机器人。

GPT-4chan学会了在网络上与人交谈,并且在不到24小时的时间里面就发表了超过15,000则内容充满暴力的贴文,而且还没被人发现身份。

参考资料:https://www.reddit.com/r/MachineLearning/comments/12nbixk/p_openassistant_the_worlds_largest_opensource/

https://twitter.com/omarsar0/status/1647339407173664772

 

1564a9b2b6db911cdc090c08f4b10002.jpeg

 
 
 
 
往期精彩回顾适合初学者入门人工智能的路线及资料下载(图文+视频)机器学习入门系列下载机器学习及深度学习笔记等资料打印《统计学习方法》的代码复现专辑机器学习交流qq群955171419,加入微信群请扫码

http://www.ppmy.cn/news/951288.html

相关文章

中科院学术科研专用版 ChatGPT开源,斩获24.5K star

点击“开发者技术前线”,选择“星标” 让一部分开发者看到未来 来自:新智元 最近,一位开发者在GitHub上开源的「科研工作专用ChatGPT」项目大受好评。论文润色、语法检查、中英互译、代码解释等等一键搞定。这个项目就是「中科院学术专业版 C…

ChatGPT开源模型3.5 API调用示例

调用开源api POSTMAN 这里我用的是postman,主要看请求头、body 、其它工具语言都是一致的 参数说明 地址 : https://api.openai.com/v1/chat/completions 请求方式 :post 请求头 : application/json Content-Type:ap…

ChatGPT 开源了第一款插件,都来学习一下源码吧!

3 月 23 日,OpenAI 又投出了一枚重磅炸弹:为 ChatGPT 推出插件系统! 此举意味着 ChatGPT 将迎来“APP Store”时刻,也就是围绕它的能力,形成一个开发者生态,打造出基于 AI 的“操作系统”! 插…

ChatGPT开源替代来了!参数量200亿,在4300万条指令上微调而成

OpenChatKit 是一个类 ChatGPT 开源工具包,内含一个 20B 参数量的大模型,而且该模型在 4300 万条指令上进行了微调。 转自《机器之心》 2023 年,聊天机器人领域似乎只剩下两个阵营:「OpenAI 的 ChatGPT」和「其他」。 ChatGPT 功能…

ChatGPT开源平替来了,开箱即用!前OpenAI团队打造,GitHub刚发布就揽获800+星

点击上方“视学算法”,选择加"星标"或“置顶” 重磅干货,第一时间送达 丰色 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT的开源平替来了,源代码、模型权重和训练数据集全部公开。 它叫OpenChatKit,由前OpenAI研究员共同…

推荐 4个有趣实用的 ChatGPT 开源应用

以下是 4个有趣实用的基于 ChatGPT 的开源应用,让我们一起来探索吧! 1. ChatGPT 快捷键 ChatGPT Shortcut 是一个让你使用 ChatGPT 时生产力翻倍的快捷指令网站。你只需在该开源项目中复制提示词,稍加修改后发送给 ChatGPT,就能…

ChatGPT开源优秀项目推荐

作为一名开发者,总是希望能够找到一些优秀的开源项目来学习、使用和贡献。而随着人工智能技术的不断发展,ChatGPT作为一个开源的大型语言模型,已经成为了人们学习和开发自然语言处理应用的重要工具。在这篇技术博客中,我将向大家介…

NOTA P2 RM26,拮抗剂,与NOTA螯合剂偶联,结构式及相关应用介绍

资料编辑|陕西新研博美生物科技有限公司小编MISSwu​ 英文名称:NOTA-P2-RM26 规格标准:1g、5g、10g CAS:N/A 分子式:C73H110N18O19 分子量:1543.8NOTA-P2-RM26结构式: 反应机理: NOTA-P2-RM26&…