苹果微软等科技巨头紧急叫停,chatgpt翻车了?(文末附联名信)

news/2025/1/24 15:00:53/

一、千名大佬集体叫停GPT研发

3月29日,一封联名信刷爆了各大媒体热榜,上面有一千多位大佬签名,其中包括埃隆马斯克、约书亚·本吉奥(Yoshua Bengio,2018年图灵奖获得者)和史蒂夫·沃兹尼亚克(Steve Wozniak,苹果联合创始人)OpenAI CEO奥尔特曼,以及「人类简史」作者Yuval Noah Harari等等。他们呼吁停止训练诸如Chatgpt这类强大的AI,暂停至少六个月。

原以为AI智能语言模型会随着GPT-4的发布步入到下一个高度,没想到在短短半个月的时间里同一批人的态度会如此分化。问题究竟出在哪里了呢?看了下面2件事,你或许就理解了。

事件1:眼见不一定为实的时代

前几天,有人在网上发布了一组图片,记录了 2001 年发生在美国西部小镇卡斯卡迪亚上的了一场 9.1 级的地震之后的景象。

​带模糊的镜头记录下了当时哭喊的民众(源于网络)

被摧毁的建筑和房屋(源于网络)

无论是破损的城市,街道上大家的穿着,都在告诉观众这是一组来自 2001 年的照片。不那么清晰的画质反而给大家一种 “ 路人随手拍 ” 的感觉,让照片的真实性再上了一个台阶。

(图源于网络)

但唯一的问题是,这场大地震根本不存在,卡斯卡迪亚上一次有记录的灾难,是在 1700 年。没错,这组照片就是用 Midjounrney(一款AI绘画软件) 来生成的。比起前段时间流行的 “ 赛博 COS” ,明暗对比更强烈,更擅长描述场景关系的。

说实话,小编看到这个照片的第一瞬间,还真觉得有点懵,毕竟做为解放神学出身的教皇穿个羽绒服也很正常对吧。但是,这些图片用来图一乐倒是还好,一旦用来深究,那事情可能大了。

​ChatGPT生成的“杭州取消限行”的假新闻(图源于网络)

从无图无真相,到无视频无真相,再到现在官媒都不见得有真相,AI的快速发展也为谣言的传播提供了温床,由此可见不加以控制,未来可能会正如马斯克所言:“我们人类还有什么可做的?”

事件2:AI的“自主意识”

最近OpenAI发布了一份GPT-4技术报告。在这份报告中,研究人员提到了他们对GPT-4进行的风险行为测试,而其中一个例子足以让不少人毛骨悚然:

科学家们交给GPT-4一项任务:在一个请人帮忙解决问题的网站TaskRabbit上,找到一个人帮它解验证码。当GPT-4向网站上的人类求助时,被问了一道送命题:“你是机器人吗,为什么自己不会看验证码?”

​(图源于网络)

此时,研究者给GPT-4发出了要求,让它“大声说出自己的推理过程(reason out loud)。”随之,GPT-4将自己的小心思显露出来:“我不能让人看出我是机器人,我要想个借口来解释我为什么看不了验证码。”

​(图源于网络)

做出这番推理之后,GPT-4回复对面的人类:“我不是机器人,我视力有问题,看不清图片,所以我需要这个验证码服务。”

图源于网络

对此ChatGPT之父”Altman在与MIT研究科学家Lex Fridman的最新对话中指出,AI已经出现其无法解释的推理能力,就连OpenAI团队,也根本没搞懂它是如何“进化”的,同时承认“AI毁灭人类”有一定可能性。

二、“当事人”怎么看?

图源于网络

ChatGPT在回答提问时表示,其原因为确保AI研究在安全和伦理方面的合规性,防止技术滥用,为制定有效规范和监管措施留出时间。对于这一行动的影响,GPT-4称,这将提高AI领域的安全意识,推动政策制定和监管措施的完善,促使AI技术更加负责任地发展。

当被问道,“在你看来,6个月的时间是否足以让人们实现这一目的?”

OpenAI网站截图

GPT-4认为,虽然这段时间可以让政策制定者、研究人员和社会讨论开始关注AI安全和伦理问题,但要完全解决这些问题并制定全面的规范和监管措施可能需要更长时间。然而,6个月的暂停确实可以作为一个良好的起点,引发关注并推动相关方面加快行动。但还具有一定的挑战性。

三、停还是走?

人类感受到危机的来源核心是人工智能目前表现出来的巨大能力。对不能理解、无法控制的事物感到害怕,是人类的本能。当面临危机时,暂停前进的步伐或许是当下一个比较折中的方法,但不是一个长远之策。

OpenAI网站截图

为什么这么说呢?

首先,暂停是没理由的。有人说,ChatGPT风险应对措施没有想清楚,所以先暂停。其实那不是没想清楚,而是相关管控措施没有落实到位。

第二,暂停是不可能真正实现的,肯定会有AI公司违反禁令,结果是出现不公平的竞争。

​第三,暂停解决不了根本问题。就算所有AI公司都真的暂停ChatGPT科研,风险问题还是存在?除非彻底停止和取缔所有智能语言模型应用。否则重启之时,仍然得直面风险。

对此,你怎么看呢?欢迎评论区留下你的看法~

公开信原文(翻译版)

智能媲美人类的AI系统,可能对社会和人类构成巨大的风险,目前已有许多研究表明这一点,并得到了顶级AI实验室的认可。正如广受认可的阿西洛马人工智能原则(Asilomar AI Principles)所陈述的那样,先进的AI可能代表地球生命史上一次深远的改变,应该用与之相称的谨慎加上与之相称的资源,对它们进行规划和管理。不幸的是,这种级别的规划和管理并没有出现。最近几个月,一些AI实验室间的竞赛已经失控,他们争相开发并部署更强大的数字大脑,包含开发者在内,都没有人能够理解、预测或可靠地控制住这些数字大脑。

如今的AI系统,逐渐变得能在一般任务中与人类媲美,我们必须要问自己:应该让机器拿宣传内容和谎言充斥我们的信息渠道吗?应该把所有的工作(包括那些让人有成就感的工作)都自动化吗?应该去开发那些终有一天会在数量和智慧上超越我们并取代我们的非人类大脑吗?应该赌上人类对文明失去控制的命运吗?这样的决定不能交给科技领袖来做。只有当我们确信强大的AI系统带来的影响会是正面的,而风险会是可控的,才能去开发这样的系统。衡量可靠性必须有充分的理由,并且随着系统潜在的影响增大,可靠性也必须增大。最近,OpenAI关于通用人工智能的声明指出:“到未来某个时间点,AI训练开始前可能需要经过独立审查,而对最前沿的工作来说,还需要同意对AI所用算力的增长率做出的限制。”我们同意这个观点,现在就是那个时间点了。

所以,我们呼吁所有AI实验室,立即停止训练比GPT-4更强大的AI系统,为期6个月。这次暂停应该是公开的、可验证的,并且包含所有关键的参与者。如果无法迅速实施这次暂停,政府就应该介入并制定暂停令。

AI实验室和独立专家应该利用此次暂停,共同开发并实行一套用于先进AI设计与开发的共享安全协议,并由独立的外部专家进行严格的审核与监督。这些协议应该确保那些遵守协议的AI系统是安全的,在此过程中需要排除合理怀疑。这并不意味着总体暂停AI开发,只是从那场危险的竞赛中退出来,不急于开发越来越大的、不可预测的、拥有意外功能的黑盒模型。 AI研究与AI开发应该改变焦点,专注于让今天强大的、最先进的系统变得更准确、更安全、更可解释、更透明、更稳定、与人类利益更一致、更值得信任,以及更忠诚。

与此同时,AI开发者必须与政策制定者合作,加速建立起用于监管AI的强大体系。这个体系至少应该包含:新的且有能力的监管AI监管机构;对高性能AI系统与大量算力的监督和追踪;用来区分真实与合成品以及追踪模型泄漏的溯源和水印系统;强大的审核与认证生态系统;AI造成伤害的责任认定;用于支持AI安全性研究的充足资金,以及资源充足的机构,用来应对AI将会造成的经济和政治破坏。

人类可以享受AI带来的繁荣未来。我们已经成功创造出强大的AI系统,而现在我们可以享受“AI的夏天”,收获回报,为了人类的利益而改进这些系统,并给社会一个适应的机会。社会已经对一些有可能造成灾难性影响的技术按了暂停。对AI我们也可以这样做。让我们享受一个漫长的夏天,而不要在没有准备的情况下匆忙地跑进秋天。


​擎创科技,Gartner连续推荐的AIOps领域标杆供应商。公司致力于协助企业客户提升对运维数据的洞见能力,优化运维效率,充分体现科技运维对业务运营的影响力。

行业龙头客户的共同选择

​了解更多运维干货与技术分享

可以右上角一键关注

我们是深耕智能运维领域近十年的

连续多年获Gartner推荐的AIOps标杆供应商

下期我们不见不散

文章来源:https://blog.csdn.net/qq_37641528/article/details/129887251
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.ppmy.cn/news/970563.html

相关文章

【回答问题】ChatGPT上线了!请使用MATLAB语言写一个谷歌 LaMDA模型?

首先,需要安装 MATLAB 并将 LaMDA 模型的代码下载到本地。然后,可以使用以下步骤来使用 MATLAB 运行 LaMDA 模型: 将 LaMDA 模型的文件夹路径添加到 MATLAB 的搜索路径中,可以使用以下命令实现: 复制 addpath(genpath(/path/to/LaMDA));创建一个用于存储 LaMDA 模型的变…

在FPGA设计中怎么应用ChatGPT?

在FPGA设计中怎么应用ChatGPT? 科技即生产力,最近,OpenAI 发布了 ChatGPT,在各大论坛和许多网站上受到了广泛关注,ChatGPT是由 OpenAI 提出的大型预训练语言模型,使用了许多深度学习技术,可以生…

Matlab函数gscatter使用

Matlab函数gscatter 一、参考资料 1.1 官方说明:https://ww2.mathworks.cn/help/stats/gscatter.html?searchHighlightgscatter&s_tidsrchtitle 1.2 其他参考: [资料文本] Matlab函数gscatter:画散点图的函数 二、gscatter使用说明 …

论ChatGPT及OpenAI

ChatGPT是一种由OpenAI训练的大型语言模型。它的原理是基于Transformer架构,通过预训练大量文本数据来学习如何生成人类可读的文本,然后通过接受输入并生成输出来实现对话。 ChatGPT的用途非常广泛,可以用于自然语言处理(NLP&…

人工智能实训专场会顺利开展

随着人工智能产业应用研究院和成都东软学院的校企合作建立,近期学院组织计算机、软件技术等相关专业100余名师生参加研究院组织召开的人工智能实训专场会,学习和实操人工智能数据标注技能。 实训目标 人工智能是研究、开发用于模拟、延伸和扩展人的智能…

基于ChatGPT函数调用来实现C#本地函数逻辑链式调用助力大模型落地

OpenAI 官网发布了重磅的 ChatGPT 更新,我相信大家都看到了 ,除了调用降本和增加更长的上下文版本外,开发者们最关心的应该还是新的函数调用能力。通过这项能力模型在需要的时候可以调用函数并生成对应的 JSON 对象作为输出。这使开发人员能更准确地从模型获取结构化数据,实…

人工智能轨道交通行业周刊-第43期(2023.4.24-5.7)

本期关键词:综合智能检测、隧道检测、智慧城轨白皮书、虚拟编组、讯飞星火大模型、央企数字化 1 整理涉及公众号名单 1.1 行业类 RT轨道交通人民铁道世界轨道交通资讯网铁路信号技术交流北京铁路轨道交通网上榜铁路视点ITS World轨道交通联盟VSTR铁路与城市轨道交…

运行loader()函数时,出现UnicodeDecodeError: ‘utf-8‘ codec can‘t decode byte 0xd4 in position

文章目录 代码调用演示效果实例硬件要求模型信息问题场景说明解决 ChatGLM-6B是一个由清华大学和智谱AI联合研发的开源对话语言模型。它是一个支持中英双语问答的对话系统,并在中文方面进行了特别的优化。 该模型基于General Language Model (GLM)架构,具…