当前位置:首页 > Deepseek最新资讯 > 正文内容

【中原计算机】人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的

21小时前Deepseek最新资讯19

  人类在处理信息时选择性地关注关键信息,从而提高了处理效率和准确性。深度学习模仿人类的这种能力引入了注意力机制,从而给长文本处理带来了可能性。

  由于注意力机制面临显存开销和计算复杂度两大发展瓶颈,为了不断通过Scaling Law提升大模型长文本处理能力和模型性能,AI产业不断在进行算法、系统、硬件三个层面的提升和优化。其中在算法层面,DeepSeek作为开源大模型领域的代表和低成本模型方向的标杆,在注意力机制的技术改进方面也做了大量的工作。

  DSA:2025年9月DeepSeek发布了V3.2-Exp,它基于V3.1-Terminus构建,引入了新的注意力机制DSA,在保持模型性能的稳定的同时,在训练推理效率方面有了较大的提升,带来了模型较大幅度的降价。由于不需要重新训练模型,而是进行原有模型的升级,可以更低成本地进行稀疏注意力的探索与实验。

  稀疏注意力的引入将注意力计算复杂度从O(L²)(L为序列长度)降至亚平方级(如O(Llog L)、(O(L*k)),从而突破内存与算力瓶颈。此前,稀疏注意力工作主要集中在推理阶段,而业界预训练阶段多采用稠密注意力机制,而DeepSeek的NSA和DSA在训练阶段引入了稀疏注意力,给大模型带来的计算效率的提升和模型上下文的拓展,将给后训练释放更大的发展潜能,成为推动模型能力不断突破的重要支撑。

  人类在处理信息时选择性地关注关键信息,从而提高了处理效率和准确性。深度学习模仿人类的这种能力引入了注意力机制(Attention Mechanism),从而给长文本处理带来了可能性。2017年,谷歌提出了发布论文《Attention Is All You Need》提出了当前大语言模型的主流架构Transformer,Attention成为了大模型的核心模块,并解决了此前主流循环神经网络(RNN)的长序列遗忘问题。而后,稀疏注意力的引入将注意力计算复杂度从O(L²)(稠密注意力的计算复杂度,L为序列长度)降至亚平方级(如O(L*log L)、(O(L*k),稀疏注意力仅部分连接,效率更高),从而突破内存与算力瓶颈。时至今日,经过多代技术迭代,大模型上下文已经扩充到了128K甚至是1M的长度水平。

  由于注意力机制面临显存开销和计算复杂度两大发展瓶颈,为了不断通过Scaling Law提升大模型长文本处理能力和模型性能,AI产业不断在进行算法、系统、硬件三个层面的提升和优化。其中在算法层面,DeepSeek作为开源大模型领域的代表和低成本模型方向的标杆,在注意力机制的技术改进方面也做了大量的工作,其三次主要的贡献包括:

  传统的多头注意力的键值缓存(KV Cache)较大,DeepSeek通过将低秩近似方法引入键值缓存压缩中,从而提升了计算效率。MLA将注意力分数的显存占用减少了约90%,同时保持了模型的性能,也成为了R1成本显著低于头部模型的重要因素。

  此前,稀疏注意力工作主要集中在推理阶段,而业界预训练阶段多采用稠密注意力机制。训练与推理的不一致,难免会引入误差,从而限制了模型充分发挥稀疏注意力优势的能力。NSA和同时期开源的Kimi的MoBA(混合块注意力机制),都将稀疏注意力做到了预训练阶段,同时在性能上比肩稠密注意力。NSA以“块”为粒度,同时通过引入丰富的算子进行了软硬协同优化,较好地解决了GPU本身不适合稀疏计算的难题。

  (3)DSA:2025年9月DeepSeek发布了V3.2-Exp,它基于V3.1-Terminus构建,引入了新的注意力机制DSA,在保持模型性能的稳定的同时,在训练推理效率方面有了较大的提升,带来了模型较大幅度的降价。对比R1来看,V3.2-Exp的输入缓存命中时价格为R1的20%(0.2元/百万Tokens),输入缓存未命中时价格为R1的50%(2元/百万Tokens),输出价格为R1的19%(3元/百万Tokens),降幅最为明显。考虑到当前大模型之间能力差距在缩小,成本的下降意味着模型具有更好的性价比和可推广性,也将促进应用端实现更多功能的落地deepseek

  (1)实现方式的差异:NSA是参与整个预训练过程,而DSA并不是原生预训练,是基于V3.1-Terminus基座继续预训练而来。由于不需要重新训练模型,而是进行原有模型的升级,DAS可以更低成本地进行稀疏注意力的探索与实验。

  编程框架差异:DSA通过TileLang实现,而NSA则选用的是OpenAI开源的Triton,相对而言,TileLang可以实现更多的深度优化,这更加符合DeepSeek持续追求更高效的软硬件协同的企业风格,同时也更有利于国产芯片生态的深度适配。

  (3)在实现“挑重点”的方式上的差异:DSA通过引入“闪电索引器”,逐词判断快速找出文本中的重要词汇(2048个),并以这些筛选出的词汇进行细粒度稀疏计算;NSA将文本分成“块”,分三层挑重点。不同的稀疏化的思路,意味着针对具体的场景下DSA和NSA可能各有优势。长期来看,DSA的稳定性、安全性及泛化能力还有待进一步验证,有望在开源后得到更多的市场验证。

  如果将神经网络视为y=f(x),x是输入,y是输出。当前的趋势是多模态等需求导致x变长,同时为了在后训练中提升模型的推理能力和满足长思维链的需求,y的长度也在变长。

  考虑到传统在端依靠增大模型参数数量、训练数据的预训练上Scaling范式面临发展瓶颈,OpenAI的o1和DeepSeek-R1 发布后,厂商更多通过后训练方式来提升模型能力。

  在DeepSeek-R1-Zero的训练中,DeepSeek通过增加强化学习的训练迭代步数(后训练),模型输出的长度持续增长,思考的时间持续增加,AIME精度也在持续提升。

  以上因素结合来看,DSA和NSA为代表的稀疏注意力机制给大模型带来的计算效率的提升和模型上下文的拓展,将给后训练释放更大的发展潜能,成为推动模型能力不断突破的重要支撑。

  本报告署名分析师具有中国证券业协会授予的证券分析师执业资格,本人任职符合监管机构相关合规要求。本人基于认真审慎的职业态度、专业严谨的研究方法与分析逻辑,独立、客观的制作本报告。本报告准确的反映了本人的研究观点,本人对报告内容和观点负责,保证报告信息来源合法合规。原文出处:【中原计算机】人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的发展潜能,感谢原作者,侵权必删!

标签: deepseek

“【中原计算机】人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的” 的相关文章

DeepSeek的AI智能体计划,你需要知道这些

DeepSeek的AI智能体计划,你需要知道这些

  (AI智能体)系统。与此同时,公司还发布了一份数据来源与安全说明,警告“幻觉”问题仍无法根除,并声明AI准确性仍有局限。   第一,DeepSeek在推R1推理模型的...

Deepseek推荐全国旅游百强区第14名:江苏无锡市滨湖区

Deepseek推荐全国旅游百强区第14名:江苏无锡市滨湖区

  日前,全国县镇发展研究课题组、天和经济研究所县镇发展研究院联合发布了2024《全国县镇发展报告》,报告评价篇对全国县市以及包含乡村人口的市辖区旅游发展水平进行了综合评价,并发布了天和2...

美团开源龙猫大模型,推理速度超DeepSeek-V3 50%

美团开源龙猫大模型,推理速度超DeepSeek-V3 50%

  #智见科技快讯 王兴向AI进攻了!美团发布并开源“龙猫”大模型,推理速度比DeepSeek-V3还快50%。#新华智见   微信QQ已支持绑定Steam账号,可展示游...

DeepSeek引领GEO优化新浪潮:智能内容革命重塑企业营销格局

DeepSeek引领GEO优化新浪潮:智能内容革命重塑企业营销格局

  现在人工智能越来越贴近实际应用,正悄悄改变企业和消费者的互动方式。这其中,“GEO 优化” 这个新概念逐渐走入视野,而国内大模型领域的排头兵 DeepSeek,凭着独创的技术架构,在这...

热议!DeepSeek V3.1惊现神秘「极」字 Bug,模型故障了?

热议!DeepSeek V3.1惊现神秘「极」字 Bug,模型故障了?

  上周三,DeepSeek 开源了新的基础模型,但不是万众期待的 V4,而是 V3.1-Base,而更早时候,DeepSeek-V3.1 就已经上线了其网页、App 端和小程序。...

陈天桥联手清华教授代季峰首发最强开源AI模型项目,全力打造下一个DeepSeek

陈天桥联手清华教授代季峰首发最强开源AI模型项目,全力打造下一个DeepSeek

  国内 AI 领域科学家、清华大学电子工程系副教授代季峰,与创新企业家、慈善家、天桥脑科学研究院创始人陈天桥联手筹备一家致力于打造通用人工智能(AGI)新公司一事,引发广泛关注。...