昨日晚间,玩家@deedydas在社交媒体平台爆料了深度求索即将发布的下一代AI大模型DeepSeek-R2的参数信息。
文章源自玩技e族-https://www.playezu.com/938513.html
文章源自玩技e族-https://www.playezu.com/938513.html
文章源自玩技e族-https://www.playezu.com/938513.html
根据爆料信息,DeepSeek-R2大模型将会采用一种更先进的混合专家模型(MoE),结合了更加智能的门控网络层(Gating Network),以优化高负载推理任务的性能。在MoE架构的加持下,DeepSeek-R2的模型总参数量预计将达到1.2万亿,较之DeepSeek-R1(6710亿参数)提升约1倍。从规模上来看,DeepSeek-R2与ChatGPT的GPT-4 Turbo以及谷歌的Gemini 2.0 Pro相当。文章源自玩技e族-https://www.playezu.com/938513.html
文章源自玩技e族-https://www.playezu.com/938513.html
在硬件平台方面,DeepSeek-R2实现了基于华为昇腾 910B(Ascend 910B)芯片集群平台的训练方案,在 FP16 精度下实现了 512 PetaFLOPS 的计算性能,芯片资源利用率达到 82%。根据华为实验室的数据,这一算力大约是英伟达上一代A100训练集群的91%。文章源自玩技e族-https://www.playezu.com/938513.html
可能得益于华为昇腾910B训练集群,DeepSeek-R2的单位推理成本较之GPT-4下降了97.4%,DeepSeek-R2的成本约为0.07美元/百万token,而GPT-4则高达0.27美元/百万token。文章源自玩技e族-https://www.playezu.com/938513.html
文章源自玩技e族-https://www.playezu.com/938513.html
鉴于目前美国断供英伟达H20芯片,采用华为昇腾910B训练集群无疑可以降低对海外高端AI芯片的依赖。此外,华为全新的昇腾910C芯片也已经逐步开始进入大规模量产阶段,CloudMatrix 384超节点采用384颗昇腾910C芯片,或将成为英伟达NVL72集群的替代方案,有助于进一步提高我国人工智能领域的硬件自主化水平。文章源自玩技e族-https://www.playezu.com/938513.html