大参考

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 497|回复: 0

格兰:DeepSeek新版本来了!利好什么?

[复制链接]
发表于 2025-8-22 13:25:00 | 显示全部楼层 |阅读模式
  临近收盘,DeepSeek给了市场一个新的惊喜,官宣推出最新的大模型,Deepseek v3.1。

  不同于其他AI公司精心策划的发布会和宣传活动,这次DeepSeek的动作确实比较低调,连媒体通稿都没有,只在开发者社区的核心阵地Hugging Face上发了个贴,顺手发了篇公众号文章。

  有人把这当做大利好,也有人认为这次的更新没有惊喜,到底是怎么回事呢?

  我们慢慢分析。

  DeepSeek V3.1最核心、最具革命性的创新,在于其独特的混合推理架构Hybrid Reasoning Architecture。

  这个架构可以同时支持思考模式和非思考模式,用户可以在使用的过程中自由切换。

  之前DeepSeek的产品线,专业分工是很明确的,V3模型在通用对话能力方面比较擅长,R1模型则更倾向于深度思考。

  这种分离式架构的好处在于,各个模型可以在各自领域达到比较不错的水平,但对于使用者来说,来回切换模式很不方便。

  现在打破传统模型在不同任务能力上的壁垒后,将通用对话、复杂推理和专业编程等多种核心功能,无缝集成在单一的模型里,这样就能为使用者提供前所未有的灵活性和效率。

  除此之外,V3.1在推理效率上也提高了不少。

  根据官方数据显示,V3.1的思考模式在各项任务上的平均表现,与前代顶级的R1-0528模型持平,但其输出的token数量减少了20%到50%。同时,非思考模式下的输出长度,在保持相同性能下也有明显减少。

  这个进步可被称为思维链压缩,也就是在模型训练阶段,在保证答案准确性的前提下,引导大模型学习生成更简洁、更高效的推理路径。

  简单来说,就是算法更聪明了。

  为什么要这样做呢?

  省钱啊!

  长期以来,思维链技术虽然能显著提升模型的推理能力,但冗长中间步骤也会带来高昂的计算成本和API调用费用,费用一高,在大面积商业应用时必然是个阻碍。

  DeepSeek V3.1通过思维链压缩技术,正面解决了高级推理的经济可行性问题。

  它将先进的AI推理能力从一个高成本的、主要用于学术研究的工具,转变成了一种可以规模化、经济实惠的商业实用程序。

  那么在今后的实际应用中,应用端调用复杂的推理能力,就不会再是一项奢侈的选择,对推广业务场景商业化方面,是个关键突破。

  看上去确实还不错,那么这一定代表利好吗?

  仔细想一想,DeepSeek在小版本上做升级,是不是意味着大版本R2又要延后呢?

  这是圈里普遍比较担心的问题。

  另外值得一看的,是DeepSeek公众号里说了一句,UE8M0 FP8是针对即将发布的下一代国产芯片。

  我知道很多同学看到这句又懵了,这串普通人看似天书是的代码,在业内人士眼里,信息量巨大。

  我打个比方大家就懂了。

  我们可以把UE8M0 FP8想象成一个超级省钱的打包方案,专门用来打包和运输AI模型里的海量数字。

  在传统的AI模型里,数字需要很精确的方式储存,我们一般叫它FP16或者BF16,也就是16位浮点数。这就像我们用一个16立方米的箱子去装东西,虽然没有问题,但是效率方面显然就太慢了,并且储存起来也占地方。

  于是我们可以把这个大箱子换成8立方米的小箱子,也就是现在的FP8,8位浮点数,这样既能提高运输速度,同时还能够节省空间。

  但是,这个方法也有个最大的问题,就是箱子太多了,用的时候找不到,导致AI模型精度不够,这显然是不能接受的。

  所以就有了更高级的方法,叫为缩放FP8,而DeepSeek用的UE8M0 FP8,就是这个方案里的智能标签。

  简单来说就是把AI模型里的数字分为每32个一组,每组箱子都按同一比例放大或缩小,最后再用缩放标签做好标记,这样就能快速找到所需要的箱子了。

  那么,谁家芯片能接住DeepSeek呢?

  大概率是华为,更细的说,大概率是华为910d。

  要知道,华为910d新增了FP8处理能力。

  之前我们的算力卡处境尴尬,基本上都只支持 FP16;面对全球范围内 FP8 已成趋势的浪潮,尽管一些厂商付出巨大努力,在软件层面上进行优化,实现对FP8数据兼容,但这个方式更像是翻译,并没有真正把算力卡用起来。

  在实践中,国产硬件不能直接理解FP8,必需由软件进行一次转换,这个过程不仅消耗掉了算力资源,更没法实现FP8加速的初衷。

  华为,正式打破这个局面的胜负手。

  凭借对FP8的原生支持,910D 芯片可能成为第一个有潜力让 DeepSeek 这类国内前沿模型,在国产硬件上实现理论最低成本的平台。

  这也标志着我们的软件算法和硬件算力,终于实现了生态上的对齐。

  另外还有消息说,910D甚至可能支持更激进的FP4精度。

  如果真的实现,那就不只是锦上添花的问题了。

  更低的精度意味着在模型应用环节能实现更低的延迟和耗能,这对于自动驾驶、端侧AI等场景至关重要。

  一旦实现,那就不单纯是解决当下训练成本的问题了,未来AI应用的广阔场景,我们有足够的理由期待一下。

  最后聊几句大盘。

  指数继续创新高,眼看就要逼近 3800 点,尾盘却出现了跳水行情。

  盘面上最大的特点,就是高位票集体崩盘。

  之前提醒过的液冷板块,跌幅居前。

  事实上不止液冷,前期涨幅比较好的科技板块,尤其是海外AI线和机器人线,今天跌幅都比较大。

  这种资金的‘高低切’是今日盘面的核心特征。

  资金从前期爆炒、估值偏高、交易拥挤的高位板块,向估值合理、位置偏低、具备补涨逻辑的低位板块切换。

  在指数越来越高的环境里,居安思危的意识,比闭眼做多的勇气更有价值。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则




QQ|手机版|小黑屋|大参考

GMT+8, 2025-9-16 16:50 , Processed in 0.093783 second(s), 17 queries .

 

Powered by 大参考 X3.4 © 2001-2023 dacankao.com

豫公网安备41010502003328号

  豫ICP备17029791号-1

 
快速回复 返回顶部 返回列表