当前位置: 首页 > news >正文

FMS回顾和总结

​FMS(The Future of Memory and Storage,未来内存与存储峰会)

核心摘要

FMS是全球内存和存储领域的顶级行业盛会。2025年的会议将继续围绕一个核心矛盾展开:​如何在一片繁荣(数据洪流)和一片挑战(技术瓶颈、成本、能效)中,找到下一代解决方案。​​ 主题将聚焦于 ​​“超越冯·诺依曼架构”、“能效革命”和“HBM之外的未来”​


第一部分:对2023与2024FMS的回顾与总结

要预测2025,必须先理解2023和2024奠定的基础:

  1. 2023年基调:CXL确立,HBM3爆发,AI驱动一切

    • CXL(Compute Express Link)​​ 从概念走向主流,成为解决内存带宽和容量瓶颈的基石技术。
    • HBM3​ 成为AI训练芯片(如NVIDIA H100)的标配,其高带宽特性与GPU的需求完美契合。
    • AI是绝对主角​:所有技术讨论都围绕着如何满足AI/ML工作负载对内存带宽、容量和层次结构的贪婪需求。
  2. 2024年深化:CXL生态成熟,HBM3e量产,存内计算兴起

    • CXL生态系统​ 趋于成熟,更多厂商展示了基于CXL 2.0/3.0的内存池化(Memory Pooling)​​ 和共享解决方案,从概念验证走向早期部署。
    • HBM3e​ 实现量产,带宽突破1TB/s,成为新一代AI芯片(如NVIDIA Blackwell GPU)的核心。
    • 存内计算(Computing in Memory)​​ 和近存计算(Computing near Memory)​​ 从学术研究走向更多原型展示,被视为打破“内存墙”和“功耗墙”的终极路径之一。
    • CKD(Zoned Storage)​​ 和QLC​ 等提升SSD容量的技术被更广泛地接受。

第二部分:2025年FMS最新技术动向预测与趋势总结

基于以上发展,2025年FMS的技术动向将呈现以下特点:

1. CXL 从“互联”走向“内存语义”与大规模池化
  • 预测:​​ CXL的讨论将从“如何连接”深化为“如何管理和使用”。
    • CXL 3.0/4.0​:将看到更多关于Type 3​ 内存设备(纯扩展)和Type 2​ 设备(智能加速+内存)的实战案例。重点将是异构内存池的构建,即在一个池中混合使用DRAM、CXL-attached DRAM、PMEM等,由系统软件智能分配。
    • 内存分解与共享​:在数据中心场景,跨服务器、甚至跨机架的内存资源共享将从演示走向小规模商用,极大提升内存利用率和弹性。
    • 新编程模型​:如何让应用程序(尤其是数据库、AI框架)感知并有效利用这种分层、池化的内存系统,将成为软件栈讨论的热点。
2. HBM4:定义下一代标准,3D堆叠迈向新高度
  • 预测:​​ HBM3e将成为“现在时”,而HBM4​ 将成为“未来时”的绝对焦点。
    • 技术规格​:HBM4预计将把带宽推至1.5-2.0 TB/s​ 甚至更高。会议将深入讨论其实现方式:更先进的TSV(硅通孔)技术、更宽的接口(2048-bit乃至更宽)、以及更低的功耗。
    • 底层芯片互联​:为克服信号完整性和功耗挑战,HBM4可能采用​“堆栈底部逻辑层”​​ 设计,将部分控制逻辑从底层DRAM die移至基板上的专用逻辑芯片,这是巨大的架构变革。
    • 异构集成​:讨论将不再局限于HBM本身,而是如何将HBM与CPU/GPU/XPU通过3D堆叠、CoWoS等先进封装技术更紧密地集成,实现“超越摩尔定律”的性能提升。
3. 存内/近存计算(Computing In/Near Memory):从原型走向应用探索
  • 预测:​​ 该技术将摆脱“仅限研究”的标签,开始展示更具实用前景的用例。
    • 特定领域加速​:展示在AI推理(尤其是稀疏模型、推荐系统)、基因组学、图形分析等特定领域的实际性能提升和能效优势。厂商会证明,这不是噱头,而是解决特定痛点的方案。
    • 商业化进程​:可能会有更多初创公司或大型半导体企业发布基于存内计算概念的加速卡或IP核,瞄准数据中心和边缘计算市场。
    • 标准与工具链​:讨论将开始涉及编程模型的简化、编译器支持和开发工具链的初步构建,以降低开发门槛。
4. 存储级内存(SCM)的演进与新生
  • 预测:​​ 英特尔Optane停产后留下的空白正被新技术填补,SCM概念重生。
    • CXL-PMEM​:通过CXL接口连接的持久内存将成为新形态的SCM。基于NAND或新兴非易失介质的CXL设备将出现,提供比DRAM更低成本、比SSD更高性能的大容量持久内存层。
    • 新兴非易失存储器​:​MRAM(磁阻内存)、FRAM(铁电内存)、PCRAM(相变内存)​​ 等可能会在利基市场(如嵌入式、汽车、工业)找到立足点,并探讨其通过CXL进入数据中心的潜力。
5. NAND闪存的极限挑战与突破
  • 预测:​​ 在3D堆叠层数竞赛之外,更关注如何解决可靠性、延迟和成本问题。
    • PLC(5-bit per cell)​​:QLC之后,PLC技术将面临严峻的可靠性挑战。2025年FMS将深入探讨先进的ECC纠错算法、AI驱动的读写电压管理等技术,以使PLC变得可行。
    • 层数竞赛继续​:​300+层甚至400层以上的3D NAND芯片将成为展示亮点,但重点将转向如何通过晶圆键合等新技术来实现,而非单纯堆叠。
    • ZNS(分区命名空间)和FDP(灵活数据放置)​​:这些主机- SSD协同工作的技术将成为数据中心SSD的标配功能,讨论将集中于如何优化软件栈以充分发挥其性能、延迟和寿命优势。
6. 能效(Performance per Watt)成为首要指标
  • 预测:​​ 随着AI数据中心功耗成为全球性问题,所有技术的讨论都将附带“能效”标签。
    • 无论是HBM、CXL池化(通过共享减少总内存容量)、存内计算(减少数据搬运功耗),还是新NAND技术,其省电特性将成为与性能、成本并列的核心卖点。
    • 将出现专门讨论内存和存储子系统全生命周期能耗的模型和测量标准的分论坛。

总结与展望

2025年的FMS将描绘这样一幅图景:​

内存和存储系统正在从计算机的被动附属部件转变为主动的、智能的、可重构的资源。通过CXL实现灵活互联和池化,通过HBM4和3D集成实现极致性能,通过存内计算突破传统架构能效瓶颈,并通过SCM和QLC/PLC不断扩展容量边界。

最终目标是构建一个层次化、异构化、但对软件透明的巨大内存-存储资源池,以最高效的方式去满足AI时代永无止境的数据饥渴。2025年,将是这些技术从实验室和演示文稿走向商业化部署的关键一年。

http://www.dtcms.com/a/350633.html

相关文章:

  • C++ 中 `std::map` 的 `insert` 函数
  • 【机器学习项目 心脏病预测】
  • 【广告系列】流量归因模型
  • centos 用 docker 方式安装 dufs
  • 【C++11】auto关键字:自动类型推导
  • Python爬虫实战: 爬虫常用到的技术及方案详解
  • Leetcode top100之链表排序
  • Swift 解法详解 LeetCode 362:敲击计数器,让数据统计更高效
  • 【猿人学】web第一届 第16题 js-逆向 windows蜜罐 / webpack初体验
  • 通过C#上位机串口写入和读取浮点数到stm32实战5(通过串口读取bmp280气压计的数值并在上位机显示)
  • java 并发编程八股-多线程篇
  • 【已解决】统信UOS安装后没有有线网络,缺少Chengdu Haiguang IC Design Co., Ltd. 10 Gb Ethernet网卡驱动
  • 支付宝直连商户,自动处理支付交易投诉,支持多支付宝应用
  • 【VS2022】背景设置详细教程(背景透明)
  • AI 时代“驯导师”职业发展方向探究
  • 用AI生成的一个BadgerDB的管理工具
  • 深入剖析Hugging Face Transformers中的KV Cache
  • Element plus日期选择器从今天开始、时间跨度为3天
  • 【Android 16】Android W 的冻结机制框架层分析
  • 茶艺实训室建设方案:打造沉浸式茶文化教学空间
  • SAVITECH盛微先进SAVIAUDIO音频解码芯片方案与应用
  • Chromium 源码中的单例管理:LazyInstance 与 NoDestructor 的深入解析与实战对比
  • vscode(MSVC)进行c++开发的时,在debug时查看一个eigen数组内部的数值
  • uniapp安卓真机调试问题解决总结
  • redis----list详解
  • C# 相机内存复用(减少图像采集耗时)以及行数复用
  • 自定义树形构造器
  • python项目实战 3D宠物狗
  • 关于传统的JavaWeb(Servlet+Mybatis)项目部署Tomcat后的跨域问题解决方案
  • MM-2025 | 北航双无人机协作助力视觉语言导航!AeroDuo:基于空中双机系统的无人机视觉语言导航