梁文锋亲自挂名DeepSeek发布新论文

embedded/2025/2/22 0:48:43/
aidu_pl">

在这里插入图片描述
由 DeepSeek 联合创始人梁文锋亲自挂名的研究团队,在 arXiv 上发表了一篇题为“Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention”的论文,提出了一种全新的注意力机制架构 NSA(Native Sparse Attention,原生稀疏注意力)。

背景

长序列建模对于下一代语言模型至关重要,但传统的注意力机制由于计算复杂度高,面临着显著的计算挑战。稀疏注意力机制被认为是提高效率的有前景的方向。NSA通过动态层次化的稀疏策略,结合粗粒度的令牌压缩和细粒度的令牌选择,既保留了全局上下文感知能力,又保持了局部精度。
熟悉 DeepSeek-R1 的用户都知道,这款模型虽然在许多方面表现出色,但比较遗憾的一点在于,其输入上下文能力方面相对不足。而这次发布的 NSA 架构就主要致力于解决当前大模型长文本处理中的关键瓶颈问题。

NSA的核心创新包括两个方面

硬件对齐的算法优化

通过平衡计算强度的算法设计,实现了显著的加速,并针对现代硬件进行了实现优化。为了最大化利用现代硬件资源,研究团队基于Triton开发了专门的kernel。以下是主要优化点:NSA 的内核设计

  • Group-Centric Data Loading:将同一GQA(Grouped-Query Attention)组内的所有query head同时加载到SRAM中处理,最大化Tensor Core的利用率。
  • 共享KV Fetching:通过连续加载key/value块到SRAM中,减少冗余数据传输。
  • Outer Loop on Grid:利用Triton的grid调度器简化和优化内核,确保高效的内存访问模式。

这些优化设计与现代GPU架构高度契合,实现了接近理论极限的加速效果。

分层稀疏注意力设计

端到端训练能通过高效的算法和反向传播操作符,实现了可训练的稀疏注意力机制,减少了预训练计算成本,同时保持了模型性能。
NSA通过独特的分层稀疏注意力设计,大幅降低了计算复杂度,同时保持了模型的表达能力。具体来说,该架构将输入序列按时间维度划分为连续的block,并通过三条并行的注意力分支进行处理:
在这里插入图片描述

  • 压缩注意力(Compressed Attention):通过可学习的MLP将每个block压缩成单一表示,用于捕获粗粒度的全局信息。
  • 选择性注意力(Selected Attention):保留最重要的fine-grained token信息,确保模型能够聚焦于关键细节。
  • 滑动窗口注意力(Sliding Attention):专注于处理近期的局部上下文,捕捉短距离依赖关系。
    这种分层设计使得模型能够在保持强大表达能力的同时,显著降低计算复杂度。

算法设计关键部分

(1)令牌压缩(Token Compression)

块级聚合:将连续令牌块压缩为单一表示,例如每32个令牌压缩为一个块,降低计算量。
数学形式:在这里插入图片描述
其中 l为块长,d为滑动步长,MLP含块内位置编码。

(2)令牌选择(Token Selection)

  • 块级重要性评分:利用压缩注意力分数生成块级重要性分布,选择Top-n关键块。
  • 硬件友好设计:连续块访问适配GPU内存带宽,支持GQA组内共享索引,减少KV缓存加载。

(3)滑动窗口(Sliding Window)

  • 局部上下文隔离:显式处理最近512个令牌,防止局部模式主导全局学习。
  • 门控融合:通过可学习门控动态加权三路注意力输出。

结果

研究团队对 NSA 进行了全方位的性能验证。实验采用了一个基于 GQA 和 MoE(Mixture-of-Experts)的 27B 参数 backbone,包含 30 层网络结构,隐藏维度为 2560。为确保实验的可比性,研究团队采用了与全量注意力模型完全相同的训练流程,包括在 270B token 的 8K 长度文本上进行预训练,随后使用 YaRN 方法在 32K 长度文本上进行延续训练和监督微调。

在通用能力评测中,NSA 展现出了超出预期的表现。在涵盖知识、推理和编程能力的九项基准测试中,包括 MMLU、MMLU-PRO、CMMLU、BBH、GSM8K、MATH、DROP、MBPP 和 HumanEval,NSA 在七项上超越了全量注意力基线。
尤其值得关注的是在推理相关任务上的显著提升,如在 DROP 任务上提升了 4.2 个百分点,在 GSM8K 上提升了 3.4 个百分点。这一结果表明,稀疏注意力的预训练不仅没有损害模型能力,反而通过过滤无关注意力路径增强了模型的推理性能。
在这里插入图片描述
在长文本处理能力的专项测试上,NSA 的优势更为突出。具体来看,在多跳问答任务 HPQ 和 2Wiki 上分别提升了 8.7 和 5.1 个百分点,在代码理解任务 LCC 上提升了 6.9 个百分点,在段落检索任务 PassR-en 上提升了 7.5 个百分点。
在这里插入图片描述

结论与展望

NSA通过动态分层稀疏策略和硬件对齐优化,为长上下文建模提供了高效且可扩展的解决方案。其核心贡献包括:

  • 端到端可训练性:支持从预训练到微调的完整流程,避免性能损失;

  • 硬件级加速:适配Tensor Core和内存带宽,实现理论计算与实测加速一致;

  • 任务自适应能力:在通用任务、长上下文推理和数学推导中均表现优异。

未来方向包括:探索更灵活的稀疏模式、优化MoE架构下的负载均衡,以及扩展至多模态长序列处理。NSA的代码与模型已开源,为LLM的长上下文应用提供了新的基础设施。


http://www.ppmy.cn/embedded/163484.html

相关文章

matlab下载安装图文教程

【matlab介绍】 MATLAB是一款由美国MathWorks公司开发的专业计算软件,主要应用于数值计算、可视化程序设计、交互式程序设计等高科技计算环境。以下是关于MATLAB的简要介绍: MATLAB是MATrix LABoratory(矩阵实验室)的缩写&#…

【16届蓝桥杯寒假刷题营】第1期DAY4

4.可达岛屿的个数 - 蓝桥云课 题目背景 在一个神奇的魔法世界中,有一座古老的迷幻之城。迷幻之城被分成 n 个鸟屿,编号从 1 到 n,共有 m 座桥。迷幻之城的居民们希望能够建立起紧密的联系,每个岛屿上的居民都想知道自己最多能到…

Linux驱动学习(二)--字符设备

设备分类 字符设备块设备网络设备 内核结构图&#xff1a; 字符设备号 字符设备号是32位的无符号整型值 高12位&#xff1a;主设备号低20位&#xff1a;次设备号 查看设备号 cat /proc/devices 设备号构造 直接使用宏MKDEV #define MKDEV(ma,mi) (((ma) << MINORBITS…

C# ref 和 out 的使用详解

总目录 前言 在 C# 编程中&#xff0c;ref 和 out 是两个非常重要的关键字&#xff0c;它们都用于方法参数的传递&#xff0c;但用途和行为却有所不同。今天&#xff0c;我们就来深入探讨一下这两个关键字的用法和区别&#xff0c;让你在编程中能够得心应手地使用它们。 一、什…

【Spring+MyBatis】_图书管理系统(上篇)

目录 1. MyBatis与MySQL配置 1.1 创建数据库及数据表 1.2 配置MyBatis与数据库 1.2.1 增加MyBatis与MySQL相关依赖 1.2.2 配置application.yml文件 1.3 增加数据表对应实体类 2. 功能1&#xff1a;用户登录 2.1 约定前后端交互接口 2.2 后端接口 2.3 前端页面 2.4 单…

【前端框架】Vue3 面试题深度解析

本文详细讲解了VUE3相关的面试题&#xff0c;从基础到进阶到高级&#xff0c;分别都有涉及&#xff0c;希望对你有所帮助&#xff01; 基础题目 1. 简述 Vue3 与 Vue2 相比有哪些主要变化&#xff1f; 答案&#xff1a; 响应式系统&#xff1a;Vue2 使用 Object.definePrope…

⚡️《静电刺客的猎杀手册:芯片世界里的“千伏惊魂“》⚡️

前言&#xff1a; 在这个电子产品无孔不入的时代&#xff0c;我们每天都在与一群隐形刺客打交道——它们身怀数千伏特的高压绝技&#xff0c;能在0.1秒内让价值百万的芯片灰飞烟灭。这就是静电放电&#xff08;ESD&#xff09;&#xff0c;电子工业界最令人闻风丧胆的"沉默…

基于eBPF的智能诊断平台:实现云原生系统的自愈型运维体系

引言&#xff1a;从被动运维到预测性自愈的进化 当某电商平台通过eBPF实时诊断系统提前48小时预测到MySQL集群的锁竞争风暴时&#xff0c;其核心是千万级指标粒度的内核状态分析与AI驱动的根因定位算法的结合。运维数据显示&#xff0c;该平台将平均故障恢复时间&#xff08;M…