目前像是长鑫等企业已经可以实现DDR内存的自研自产,市场上也已经出现了大量的自主品牌的内存,不过对于AI计算卡来说,DDR内存或者说GDDR显存的带宽还远远不够,只有像是HBM显存才能提供足够的带宽来让GPU从事AI训练等任务。而像是HBM显存目前被三星、海力士等企业所垄断,当然长鑫等企业也没有放弃对于HBM显存的研发,毕竟现在AI计算卡需要大量的HBM显存,而对于DRAM等芯片厂商来说是一个巨大的机遇。
文章源自玩技e族-https://www.playezu.com/810940.html
文章源自玩技e族-https://www.playezu.com/810940.html
有消息称长鑫已经获得了美国的批准,可以向国外厂商采购制造HBM显存的设备,包括后期的测试以及封装,也就是说长鑫对于HBM显存的设计研发基本完成,已经进入到了生产阶段。这对于厂商来说十分地不同意,毕竟相比较GDDR显存来说,HBM显存的工艺更加复杂,结构也更加繁杂,目前在消费级市场上仅有极少一部分显卡采用了HBM显存,而像是英伟达的计算卡则是大量采用HBM显存,并且伴随着AI训练卡的热销,HBM显存的需求也是水涨船高。文章源自玩技e族-https://www.playezu.com/810940.html
文章源自玩技e族-https://www.playezu.com/810940.html
目前长鑫已经拥有自己的DRAM内存制造厂,预计未来长鑫将会投入更多的资本在新厂房,包括DRAM和HBM显存的研发与生产。目前国际最先进的HBM显存为HBM4,将于2026年投产,单芯片带宽达到了1.2TB/s,预计将会在英伟达B100系列计算卡上使用,而长鑫不知道已经突破到第几代HBM显存,如果是主流的HBM3显存,那也相当不错。未来自主研发的AI训练卡也将越来越多,如果再配合自研HBM显存,自然能够在供应链的选择上更加自主可控。文章源自玩技e族-https://www.playezu.com/810940.html