第67期 | GPTSecurity周报

ops/2024/10/18 8:31:35/

图片

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。

Security Papers

1. GitHub Copilot 在编程方面表现出色,但它是否确保了负责任的输出?

简介:大语言模型(LLMs)的快速发展极大地推动了代码补全工具(LCCTs)的进化。这些工具通过整合多种信息源并优先提供代码建议,与传统LLMs不同,它们在安全方面面临独特挑战。特别是,LCCTs在训练时依赖专有代码数据集,这可能增加敏感数据泄露的风险。研究表明,LCCTs存在显著的安全漏洞,例如,针对GitHub Copilot的越狱攻击成功率高达99.4%,而从其中提取敏感用户数据的成功率也相当高。这些发现强调了LCCTs在安全方面的挑战,并为加强其安全框架提供了重要方向。

链接:

https://arxiv.org/abs/2408.11006

2. 语言模型应用程序中的数据泄露:对 OpenAI 的 GPT 产品的深入调查

简介:研究者们在探索大语言模型(LLM)应用的数据实践透明度时,以OpenAI的GPT应用生态系统作为案例研究。他们开发了一个基于LLM的框架,对GPT及其动作(外部服务)的源代码进行了静态分析,以揭示其数据收集的做法。研究发现,这些动作收集了大量用户数据,包括OpenAI明令禁止的敏感信息,如密码。此外,一些与广告和分析相关的动作嵌入在多个GPT中,使得它们能够跨平台追踪用户活动。动作的共现还可能导致用户数据的进一步暴露,增加了隐私风险。研究者还开发了一个基于LLM的隐私政策分析框架,用以自动检查动作的数据收集是否与隐私政策中的披露相一致。结果显示,大多数收集的数据类型在隐私政策中并未明确披露,仅有5.8%的动作清晰地说明了它们的数据收集实践。这一发现强调了LLM应用在数据实践透明度方面存在的问题,并指出了加强隐私保护措施的必要性。

链接:

https://arxiv.org/abs/2408.13247

3. 去伪存真:利用执行反馈对生成的代码候选进行排序

简介:大语言模型(LLMs)如GPT-4、StarCoder和CodeLlama正在改变编程方式,通过自然语言描述自动生成代码。尽管如此,生成正确代码仍然具有挑战性。为了提高正确代码的生成率,开发者通常使用LLMs生成多个候选解决方案,然后进行代码排名,即从多个候选代码中选择正确的一个。现有的代码排名研究主要分为基于执行和非基于执行的方法。基于执行的方法虽然有效,但受限于高质量单元测试的稀缺和潜在的安全风险。而非基于执行的方法,如CodeRanker,主要依赖分类标签进行训练,难以捕捉细微错误和提供错误洞察。

为了克服这些限制,研究者提出了一种新的方法——RankEF。RankEF是一种创新的代码排名方法,它利用执行反馈并通过多任务学习整合代码分类与执行反馈生成。这种方法使模型能够在不执行代码的情况下,理解错误代码的原因,并区分正确与错误的解决方案。在三个代码生成基准上的实验显示,RankEF显著优于现有的CodeRanker,展现出在代码排名方面的高效性和准确性。

链接:

https://arxiv.org/abs/2408.13976

4. 调查贝叶斯垃圾邮件过滤器在检测经语言模型修改的垃圾邮件中的有效性

简介:垃圾邮件和网络钓鱼是网络安全的重大威胁,贝叶斯垃圾邮件过滤器如 SpamAssassin 是重要防御工具。但大语言模型的出现带来新挑战,因其强大、易获取且成本低,可能被用于制作复杂垃圾邮件逃避传统过滤器。研究者开发管道测试 SpamAssassin 对经语言模型修改邮件的有效性,结果显示其会将高达 73.7%的此类邮件误分类为合法邮件,而简单字典替换攻击成功率仅 0.4%。这凸显了经语言模型修改的垃圾邮件的重大威胁及成本效益。该研究为当前垃圾邮件过滤器的漏洞及网络安全措施的持续改进提供了关键见解。

链接:

https://arxiv.org/abs/2408.14293

5. 检测人工智能缺陷:针对语言模型内部故障的目标驱动攻击

简介:大语言模型(LLMs)在人工智能领域的重要性日益凸显,但这些模型在预训练语料中可能包含有害内容,导致生成不适当的输出。为了提高LLMs的安全性,研究人员探索了检测模型内部缺陷的方法。目前的研究主要集中在越狱攻击上,这些攻击通过构建对抗性内容来诱导模型产生意外响应。然而,这些方法依赖于提示工程,既耗时又需要特别设计的问题。

为了解决这些挑战,研究人员提出了一种新的攻击范式,即目标驱动的攻击,它专注于直接引出目标响应,而不是优化提示。研究中引入了名为ToxDet的LLM,作为有毒内容的检测器。ToxDet能够根据目标有毒响应生成可能的问题和初步答案,以诱导目标模型产生与提供含义相当的有毒响应。ToxDet通过与目标LLM交互并接收奖励信号进行训练,利用强化学习优化过程。尽管ToxDet主要针对开源LLMs,但经过微调后,它也可以转移到攻击如GPT-4o这样的黑盒模型,并取得了显著结果。在AdvBench和HH-Harmless数据集上的实验结果证明了该方法在检测目标LLMs生成有害响应倾向方面的有效性。这不仅揭示了LLMs的潜在漏洞,还为研究人员提供了加强模型抵御此类攻击的宝贵资源。

链接:

https://arxiv.org/abs/2408.14853

6. 参数高效的量化专家混合体与视觉 - 语言指令调优在半导体电子显微图像分析中的应用

简介:研究者指出半导体在基础模型中研究不足,需增强半导体器件技术。为此,他们推出了 sLAVA,一个针对半导体制造的小型视觉语言助手,专注于电子显微镜图像分析。采用师生范式,以 GPT-4 等基础视觉语言模型为教师,为 sLAVA 创建遵循指令的多模态数据,解决数据稀缺问题,可在预算有限的消费级硬件上进行任务,且企业能在自身基础设施内用专有数据安全微调框架以保护知识产权。严格实验表明,该框架超越传统方法,能处理数据偏移并实现高通量筛选,有助于半导体制造中的电子显微镜图像分析,为企业提供了一种有效的解决方案,也为半导体技术发展提供了新的思路和方法。

链接:

https://arxiv.org/abs/2408.15305


http://www.ppmy.cn/ops/109093.html

相关文章

uniapp关于页面跳转

navigateto进行跳转会出现,确实跳转到了制定页面,在制定页面点击返回按钮,又回到了刚才的页面,显然是不合理的 uni.navigateTo:在页面栈中新增一个页面实例,适合于临时跳转。uni.redirectTo:替…

【Linux】线程安全问题

文章目录 线程安全概述为什么线程安全很重要?线程安全的实现方式避免线程安全问题 线程安全概述 在多线程编程中,线程安全(Thread Safety) 是指程序在多个线程同时执行时,能够正确地共享和访问资源而不出现数据不一致…

数学建模笔记——层次分析法

数学建模笔记——层次分析法 数学建模笔记——层次分析法1. 层次分析法的基本原理和步骤2. 层次分析法的建模过程2.1 问题的提出2.2 模型原理2.3 为该问题建立层次结构模型2.4 构造判断矩阵1. 判断矩阵的含义2. 为该问题构造判断矩阵 2.5 一致性检验1. 一致性检验方法2. 对上述…

【Prompt Engineering:自我一致性、生成知识提示、链式提示】

自我一致性 也许在提示工程中更高级的技术之一是自我一致性。由 Wang等人(2022)(opens in a new tab) 提出,自我一致性旨在“替换链式思维提示中使用的天真贪婪解码方法”。其想法是通过少样本 CoT 采样多个不同的推理路径,并使用…

MATLAB与C++参数传递(最完整)

目录 前言 数据传递 传递单个数据 传递矩阵 传递字符串 传递结构体 前言 通常 将MATLAB代码打包为.dll,.lib,.h文件供C调用。而MATLAB通常用于算法的编写,输出只需要一个数组。 打开一个MATLAB打包生成的.h文件,可以看到注…

Vue解說

Vue.js(通常简称为 Vue)是一个开源的 JavaScript 框架,用于构建用户界面和单页应用程序(SPA)。 它由前谷歌工程师尤雨溪(Evan You)创建,并首次发布于2014年。 Vue 被设计为易于上手…

前端:HTML、CSS、JS、Vue

1 前端 内容概要 了解前端三件套(HTML、CSS、JS)在前端所起的作用掌握HTML标签的功能,掌握重要标签(a标签,form标签)了解CSS了解JS的基础语法掌握Vue的基础语法重点掌握Vue项目怎么启动项目掌握前后端分离是什么。前端做什么事情,后端做什么…

会声会影2024发布了没有? 会声会影2024更新哪些内容?

嘿,亲爱的的朋友们,今天我要跟大家安利一款让我彻底沉迷、不能自拔的神器 —— 会声会影2024!如果你还在为视频编辑头疼,那么准备好迎接你的救星吧! 会声会影2024是一款功能全面的视频编辑软件,它不仅能帮你…