数据新范式—释放AI新动能”的大模型时代华为AI存储新品发布会

AI行业快讯10个月前发布 senki
6,394 0 0
数据新范式—释放AI新动能”的大模型时代华为AI存储新品发布会

华为将举行主题为“数据新范式—释放AI新动能”的大模型时代华为AI存储新品发布会

华为公司副总裁、华为数据存储产品线总裁周跃峰日前已透露,7月份将向全球发布面向大模型的新款存储产品。

数据新范式—释放AI新动能”的大模型时代华为AI存储新品发布会

图|“大模型时代华为AI存储新品发布会”议程

周跃峰表示,在通用大模型与行业大模型的训练推理中面临着诸多数据难题:海量数据跨域归集慢、预处理与训练中数据交互效率低、数据安全流动难。AI大模型对存储带来了新的挑战,比如稳定性相较传统AI更差,同时有大量的数据预处理和准备工作,需要用近存计算来系统性处理这个问题

近存计算是什么?

近存计算属于存算一体,后者也被称为“AI算力的下一极”,方正证券认为其有望成为继CPU、GPU之后的算力架构“第三极”。

近存计算中,计算操作由位于存储区域外部的独立计算芯片/模块完成。这种架构设计的代际设计成本较低,适合传统架构芯片转入。如今近存计算技术早已成熟,被广泛应用在各类CPU和GPU上。

现任中国科学院微电子研究所副所长、研究员曹立强及副研究员侯峰泽在《前瞻科技》的一篇文章中写道,近存计算的算力高、精度高,它是一种基于先进封装的技术途径,通过超短互连技术,可实现存储器和处理器之间数据的近距离搬运。

近存计算的典型代表之一便是AMD Zen系列CPU,而将HBM内存(包括三星的HBM-PIM)与计算模组(裸Die)封装在一起的芯片也属于此类特斯拉、三星、阿里巴巴、英特尔、IBM等均已布局近存计算

其中,三星在今年在CES上展示了支持超大规模AI模型的近存计算技术CXL-PNM。据公司介绍,该技术在更靠近存储器的地方实现数据处理功能,可将人工智能模型的加载速度提高2倍,容量提高4倍

阿里巴巴达摩院也曾定制设计一款近存计算芯片并发布论文,该芯片基于西安紫光国芯SeDRAM平台,对比采用英特尔Xeon Gold 5200@2.20GHz平台的系统,该芯片对特定的人工智能应用场景,性能提升10倍以上,能效则提升超过300倍

AI带动存储需求上行

正如上文所说,AI技术与大模型发展带来了存力硬件需求上行。华西证券认为,随着ChatGPT等应用开启AI新时代,加之相关技术演进,预计全球数据生成、储存、处理量将呈等比级数增长。

并且,由于人工智能服务器需求激增,HBM价格已开始上涨,业内预计未来两年HBM供应仍将紧张。而三星、SK海力士也已着手开始扩产HBM。

华为指出,大模型时代的到来,将进一步重塑包括存力在内的IT基础设施,带有崭新AI基因的存储产品有望成为行业数字化升级的新宠

www.AIGC00.com

© 版权声明

相关文章