DeepSeek V3.1 发布,更令人好奇的是UE8M0 FP8

作者 | 董道力邮箱 | dongdaoli@pingwest.com

DeepSeek 推出了 V3.1 版本,简单过一下亮点:混合推理架构:一个模型同时支持思考模式与非思考模式。更高的思考效率:相比 DeepSeek-R1-0528,DeepSeek-V3.1-Think 能在更短时间内给出答案。更强的 Agent 能力:通过 Post-Training 优化,新模型在工具使用与智能体任务中的表现有较大提升。

但更让人好奇的是,DeepSeek 还在置顶留言里强调:UE8M0 FP8是针对即将发布的下一代国产芯片设计。

这句话放在当下的语境里,就显得耐人寻味——毕竟不久前,相关部门才约谈英伟达,要求解释 H20 芯片的安全风险。

也正因如此,几个技术性的名词才变得格外值得关注:参数精度到底是什么?为什么芯片会决定它的形式?

这些改动背后,或许预示着国内 AI 行业正在进入一个软硬件协同的新阶段。

1

看不见的小数点,决定了大模型的命运

在深度学习里,参数就是模型的大脑神经元之间的“权重”,训练时需要不断更新、存储、计算。精度(precision)就是用多少位二进制数来记录这些参数。

在介绍 FP8 之前,先得回到计算机最基本的问题:机器是怎么存数字的?

最简单的方式叫整数(int)。它就像算盘上的珠子,能表示的是一个个精确的格子:1、2、3、4。但整数没法表示 3.14 这样的圆周率,也很难处理科学计算中常见的极大值或极小值。

于是,科学家们发明了浮点数(floating point),也就是 FP8 中的 FP。顾名思义,小数点的位置是“浮动”的,既能写成 3.14159 这样的日常数字,也能写成 6.02×10²³ 这样天文级的指数。浮点数本质上就是把一个数字拆成三部分:符号位、指数、尾数。符号位决定正负,指数决定小数点的位置,尾数决定精度。

浮点数基本可以表示任何数字,代价是,同样的内存位数,用得越多,表示得越精确;用得越少,表示得越粗糙。

在很长一段时间里,FP32(32 位浮点数)是计算机的黄金标准,它精度高,范围广,几乎是科学计算、图像处理、AI 的通用方式。但当大模型的参数量级膨胀到数千亿甚至万亿,FP32 就显得臃肿了。每一条权重都要用 32 位去存,显存根本不够用,训练时间也被拖长。

于是,行业开始尝试降低精度。先是 FP16(16 位浮点数),后来是 FP8(8 位浮点数)。举个不恰当例子,就像把一张 4K 高清照片压缩成 480p 的小图,细节损失在所难免,但能存更多张,还能传输得更快。

用英伟达技术博客里的一张图可以直观的看出来,同样用 H100,FP8 的速度远远高于 FP16。

训练大模型时,最大的瓶颈不是算法,而是算力和显存。NVIDIA 官方博客指出,FP8 在不显著牺牲模型效果的前提下,能让吞吐量翻倍、显存占用减半,这是训练 GPT 级别大模型时极具吸引力的优势。

换句话说,在大模型这种追求“规模胜过精度”的赛道上,FP8 成了必然选择。

暂无介绍....

延伸阅读:

中国智造闪耀欧洲:2026布鲁塞尔车展上的新能源力量

来源:新华网 1月10日,在比利时2026布鲁塞尔车展上,观众参观比亚迪展台。 2026布鲁塞尔车展1月9日在布鲁塞尔会...

娱乐早知道
2026年1月12日
全国首台警用载人无人机入列广州黄埔

来源:广州日报广州日报讯 (全媒体记者何瑞琪摄影报道)“3、2、1,启动!”随着倒计时声落下,广州黄埔公安装备序列的重磅...

摸鱼小能手
2026年1月12日
小米汽车二手市场“雪崩”:首年贬值超十万,昔日“理财神车”为何无人接盘?

据蓝鲸新闻报道,近期小米二手车行情出现大幅下滑,三款车型中SU7价格低至15万,SU7 Ultra 跌幅最大,YU7相对...

摸鱼小能手
2026年1月12日
央视曝光网络“手套代加工”创业骗局

IT之家 1 月 12 日消息,据央视网报道,近期网络上流传一个名为“手套代加工”的创业项目,项目声称“厂家免费提供原材...

娱乐早知道
2026年1月12日
物理AI热潮下的冷思考,警惕“华强北式”AI|CES 2026

在AI的全面进化下,整个消费电子市场的发展和风向也发展了变化。CES 2026期间,物理AI成为大家讨论的热点话题,如何...

娱乐大事件
2026年1月12日