DeepSeek-R2发布在即,参数量翻倍,华为昇腾芯片利用率达82%!科技头条

yc888
yc888
作者
14730
文章
0
粉丝
科技圈子评论1字数 401阅读1分20秒阅读模式
摘要在硬件平台方面,DeepSeek-R2实现了基于华为昇腾 910B(Ascend 910B)芯片集群平台的训练方案,在 FP16 精度下实现了 512 PetaFLOPS 的计算性...

昨日晚间,玩家@deedydas在社交媒体平台爆料了深度求索即将发布的下一代AI大模型DeepSeek-R2的参数信息。

文章源自玩技e族-https://www.playezu.com/938513.html

DeepSeek-R2发布在即,参数量翻倍,华为昇腾芯片利用率达82%!插图文章源自玩技e族-https://www.playezu.com/938513.html

DeepSeek-R2发布在即,参数量翻倍,华为昇腾芯片利用率达82%!插图1文章源自玩技e族-https://www.playezu.com/938513.html

根据爆料信息,DeepSeek-R2大模型将会采用一种更先进的混合专家模型(MoE),结合了更加智能的门控网络层(Gating Network),以优化高负载推理任务的性能。在MoE架构的加持下,DeepSeek-R2的模型总参数量预计将达到1.2万亿,较之DeepSeek-R1(6710亿参数)提升约1倍。从规模上来看,DeepSeek-R2与ChatGPT的GPT-4 Turbo以及谷歌的Gemini 2.0 Pro相当。文章源自玩技e族-https://www.playezu.com/938513.html

DeepSeek-R2发布在即,参数量翻倍,华为昇腾芯片利用率达82%!插图2文章源自玩技e族-https://www.playezu.com/938513.html

在硬件平台方面,DeepSeek-R2实现了基于华为昇腾 910B(Ascend 910B)芯片集群平台的训练方案,在 FP16 精度下实现了 512 PetaFLOPS 的计算性能,芯片资源利用率达到 82%。根据华为实验室的数据,这一算力大约是英伟达上一代A100训练集群的91%。文章源自玩技e族-https://www.playezu.com/938513.html

可能得益于华为昇腾910B训练集群,DeepSeek-R2的单位推理成本较之GPT-4下降了97.4%,DeepSeek-R2的成本约为0.07美元/百万token,而GPT-4则高达0.27美元/百万token。文章源自玩技e族-https://www.playezu.com/938513.html

DeepSeek-R2发布在即,参数量翻倍,华为昇腾芯片利用率达82%!插图3文章源自玩技e族-https://www.playezu.com/938513.html

鉴于目前美国断供英伟达H20芯片,采用华为昇腾910B训练集群无疑可以降低对海外高端AI芯片的依赖。此外,华为全新的昇腾910C芯片也已经逐步开始进入大规模量产阶段,CloudMatrix 384超节点采用384颗昇腾910C芯片,或将成为英伟达NVL72集群的替代方案,有助于进一步提高我国人工智能领域的硬件自主化水平。文章源自玩技e族-https://www.playezu.com/938513.html

文章源自玩技e族-https://www.playezu.com/938513.html
 
匿名

发表评论

匿名网友
:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:
确定

拖动滑块以完成验证