英伟达H200 AI GPU投入市场,大幅提升AI性能驱动HBM3e内存需求增长,国内外产业链迎来新机遇

近日消息,全球领先的半导体制造商英伟达(Nvidia)证实,其专为人工智能领域设计的高性能图像处理芯片(GPU)H200已经开始全球供货。H200作为H100 GPU的迭代升级产品,基于先进的Hopper架构,首次采用了HBM3e高带宽内存技术,实现了更快的数据传输速度和更大的内存容量,尤其针对大型语言模型应用表现出显著优势。根据英伟达官方发布的数据,在处理诸如Meta公司Llama2这样的复杂大语言模型时,H200相较于H100在生成式AI输出响应速度上最高提升了45%。

回顾去年11月的发布会,H200被定位为英伟达在AI计算领域的又一里程碑式产品,不仅继承了H100的优势,还在内存性能上取得了重大突破。随着H200的商业化应用,对高带宽内存的需求预期将持续攀升,这将进一步带动整个AI算力硬件产业链的发展,特别是HBM3e相关供应商的市场机会。

与此同时,英伟达在3月18日举办的开发者大会上预告了年内即将推出的另一款全新AI半导体——B200,该芯片与CPU协同运作,在最新大语言模型上的推理性能较H100提升了高达30倍,且在成本和能耗效率上取得了革命性改进,仅为H100的四分之一。

中泰证券在分析报告中强调了HBM技术在全球范围内的领先地位及其对相关产业链的影响,并梳理了值得关注的核心投资标的,其中包括国际存储原厂巨头海力士、三星和美光,以及设备供应商如BESI、ASM Pacific Technology和Camtek等。而在国内,涉及HBM产业链的上市公司包括但不限于存储器厂商香农芯创佰维存储雅创电子;设备制造企业赛腾股份精智达新益昌;材料供应商华海诚科雅克科技联瑞新材兴森科技深南电路;以及封装测试领域的通富微电深科技长电科技等。

关键词阅读:英伟达

责任编辑:赵瑞
精彩推荐
加载更多
全部评论
金融界App
金融界微博
金融界公众号