SK海力士开发全最高规格HBM3E并向NVIDIA提供样品

对于一些网上的讨论关于SK海力士开发全最高规格HBM3E并向NVIDIA提供样品和480万巴克奔驰车这样的热门话题,大家是怎么看呢,接下来小编为各位详细讲解


去年6月,有报道称SK海力士收到了NVIDIA的下一代HBM3EDRAM样品请求,当NVIDIA宣布采用改进的HBM3EDRAM的GH200GPU时,这一请求成为了现实。


SK海力士今天宣布,已成功开发出HBM3E,这是目前用于人工智能(AI)应用的下一代最高规格DRAM,客户样品评估正在进行中。


该公司表示,其作为业界唯一大型HBM3供应商的经验有助于HBM3E的成功开发。SK海力士计划凭借其作为业界最大HBM产品供应商的经验和量产准备,在明年上半年量产HBM3E,巩固其在AI内存市场无与伦比的领导地位。


该公司表示,其最新产品不仅满足业界最高速度标准,而且满足包括容量、冷却和用户友好性在内的所有类别。


在速度方面,HBM3E每秒可处理高达115TB的数据,相当于每秒超过230部5GB全高清电影。


此外,该最新产品采用了最新的高品质回流成型底部填充技术,散热性能提高了10倍。此外,向后兼容性允许为HBM3准备的系统采用最新产品,而无需进行设计或架构修改。


MR-MUF是指在将芯片附着到电路并堆叠芯片时,通过在芯片之间填充液体材料而不是堆叠薄膜来提高效率和散热性能的工艺。向后兼容性是指在不修改设计的情况下实现现有系统和新系统之间的互操作性的能力,特别是在信息技术和计算领域。具有向后兼容性的新内存产品允许继续使用现有的CPU和GPU,而无需修改设计。


NVIDIA超大规模和HPC业务部副总裁IanBuck表示“NVIDIA与SKHynix就HBM进行了长期合作,该技术被用于我们最先进的加速计算解决方案中,以展示下一代AI计算。”他说。“我们期待两家公司在HBM3E领域继续合作。”


SK海力士DRAM产品规划副总裁SeongsuYoo表示“通过HBM3E,我们有效提高了HBM市场产品阵容的完整性,该市场因人工智能技术的发展而受到广泛关注。”“随着HBM高附加值产品供应比例不断提高,经营业绩反弹将加速。”他表示。


根据TrendForce研究,为适应AI加速芯片不断变化的需求,各原厂计划于2024年推出新产品HBM3E。HBM3和HBM3E预计将成为明年市场主流。HBM3E堆叠为24Gb单晶,基于8层8Hi,单个HBM3E的容量一次增加到24GB。除了NVIDIA之外,谷歌和AWS也在开发下一代国产AI加速芯片,该芯片将使用HBM3或HBM3E。


HBM3的平均售价较高,预计2024年HBM整体销量将大幅增长。从HBM供需变化来看,2022年供应是安全的,而2023年,由于AI需求爆发式增长,出现客户追加预购,即使原厂扩大产能,仍无法满足需求。充分满足客户需求。展望2024年,TrendForce预计,基于各原厂积极的扩产策略,HBM供需比将有所改善,预计将从2023年的-24变化至2006年。


8月8日,NVIDIA创始人兼CEO黄仁勋在年度计算机图形大会SIGGRAPH上推出了HBM3E内存下一代GH200GraceHopper超级芯片。该芯片被黄仁勋称为“加速计算和生成式AI时代的处理器”,旨在用于任何大规模语言模型,以降低推理成本。


与今年5月发布的GH200不同,新一代GH200芯片搭载全首款HBM3E内存,显着提升内存容量和带宽,专为加速计算和生成式AI时代而设计。


新版本的GH200芯片基于72核GraceCPU,配备480GBECCLPDDR5X内存和GH100计算GPU。它还配备141GBHBM3E内存,分为6个24GB堆栈,并采用6,144位内存接口。可用内存容量为141GB,但Nvidia实际安装了144GB内存。


该芯片采用世界上最快的HBM3E内存,可提供高达141GB的内存容量和每秒5TB的带宽。每个GPU的容量比NVIDIAH100GPU高17倍,带宽比H100高155倍。


Nvidia强调,新版GH200GraceHopper芯片采用与原版相同的GraceCPU和GH100GPU芯片,因此无需发布新的软件版本或步骤。现有的GH200和升级后的GH200将在市场上共存,后者由于更先进的内存技术而提供更高的性能,因此售价更高。


NVIDIA表示,新款GH200旨在处理世界上最复杂的生成式AI工作负载,包括大规模语言模型、推荐系统和矢量数据库,并将提供多种配置。


免责声明本文由原作者撰写。本文内容均为我个人观点。


除非特别注明,本站所有文字均为原创文章,作者:admin

No Comment

留言

电子邮件地址不会被公开。 必填项已用*标注

感谢你的留言。。。