小程序
传感搜
传感圈

美光宣布量产 HBM3e 内存,将应用于英伟达 H200 AI 芯片

2024-02-26
关注

感谢IT之家网友 华南吴彦祖 线索投递!

IT之家 2 月 26 美光科技今天宣布开始批量生产 HBM3E 高带宽内存,它 24GB 8H HBM3E 产品将供应给英伟达并应用于英伟达 NVIDIA H200 Tensor Core GPU(第二季度开始发货)。

IT之家查询官方资料了解, 美光 HBM3e 内存基于 1β 工艺,采用 TSV 封装、2.5D / 3D 堆叠,可提供 1.2 TB / s 性能更高。

美光表示,与竞争对手的产品相比,美光表示 HBM3E 解决方案具有以下三个优点:

  • 卓越性能:美光 HBM3E 拥有超过 9.2 Gb / s 针脚速率,超过 1.2 TB / s 内存带宽可以满足人工智能加速器、超级计算机和数据中心的苛刻需求。

  • 卓越的能效:与竞争产品相比,美光 HBM3E 功耗降低了约 在提供最大吞吐量的前提下,将功耗降至最低,有效提高数据中心的运营支出指标。

  • 无缝扩展: 美光 HBM3E 目前可提供 24GB 容量可以帮助数据中心轻松扩展 AI 应用程序。无论是训练大型神经网络还是加速推理任务,都可以提供必要的内存带宽。

美光科技执行副总裁兼首席商务官 Sumit Sadana 说:“美光科技有这个 HBM3E 里程碑实现了三连胜:上市时间领先、行业性能一流、能效差异化概况。“人工智能的工作负载严重依赖于内存带宽和容量,美光处于有利地位,可以通过我们的行业领先 HBM3E 和 HBM4 我们用于人工智能应用的完整路线图和路线图 DRAM 和 NAND 为了支持未来人工智能的显著增长,解决方案组合。”。

HBM 它是美光科技最赚钱的产品之一,部分原因是其结构所涉及的技术复杂性。该公司此前曾表示,预计 2024 财年 HBM 收入将达到“数亿”美元 2025 年度持续增长。

美光还宣布将在这里 3 月 18 全球人工智能会议将分享更多关于其行业领先的人工智能内存产品组合和路线图。

广告声明:文本中包含的外部跳转链接(包括不限于超链接、二维码、密码等形式)用于传递更多信息,节省选择时间。结果仅供参考。IT之家的所有文章都包括本声明。

您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

提取码
复制提取码
点击跳转至百度网盘