当前位置: 首页 > news >正文

内存与显存:从同根生到殊途异路的科技演进

在现代计算机的世界里,内存和显存是两个不可或缺的硬件组件。它们看似功能相近,却在发展历程中逐渐分道扬镳,各自服务于不同的计算需求。今天,我们将从一根内存条和一块显卡入手,深入探讨内存与显存的异同,揭开它们背后的技术秘密,并分析为何它们在设计理念和技术路径上会如此迥异。


一根内存条与一块显卡:初识内存与显存

在这里插入图片描述

让我们从最基本的硬件开始说起。如上图,左边是一根内存条,它是计算机中CPU(中央处理器)的忠实助手。CPU在执行运算时所需的数据,以及运算完成后产生的结果,都会暂时存储在这根小小的内存条里。内存就像一个高效的临时仓库,为CPU提供快速的数据存取服务。

再来看一块显卡。显卡的核心是一个醒目的芯片——GPU(图形处理器),周围环绕着一圈颗粒状的组件,这些就是显存颗粒。与内存类似,显存也负责存储GPU运算所需的数据和结果。无论是渲染游戏画面还是处理复杂的图形任务,显存都是GPU的得力帮手。

从表面上看,内存和显存的功能几乎一模一样:它们都是数据的临时存储站,为各自的处理器提供支持。然而,深入研究后你会发现,尽管它们有相同的起点,但在技术演进中却走上了截然不同的道路。那么,内存和显存到底有哪些区别?让我们一探究竟。


同根生的起点:显存与内存的早期岁月

在计算机发展的早期,显存和内存并没有明显的分野。那时候,显卡厂商直接采用内存的DDR(Double Data Rate,双倍数据速率)标准来制造显存。DDR内存是一种广泛应用的存储技术,通过在每个时钟周期内进行两次数据传输,大幅提升了数据吞吐量。显卡厂商将这种技术“拿来主义”地应用到显存上,简单高效。

然而,随着GPU技术的飞速发展,这种直接套用DDR标准的做法很快就暴露出了局限性。GPU的运算需求与CPU截然不同,前者对数据吞吐量的要求远远超过了传统DDR内存所能提供的水平。于是,显卡厂商开始意识到,必须为GPU量身定制一种新的存储标准。于是,英伟达(NVIDIA)和ATI(后被AMD收购)联手推出了GDDR标准。

GDDR的全称是“Graphics Double Data Rate”(图形双倍数据速率),顾名思义,它是为图形处理器(GPU)优化的DDR内存变种。那么,GDDR相比DDR究竟做了哪些改进?要回答这个问题,我们需要先从CPU和GPU的工作方式差异说起。


CPU与GPU:计算方式的天壤之别

CPU和GPU虽然都是处理器,但它们的架构设计和应用场景却有着天壤之别。你可能听过这样的说法:CPU拥有少量但强大的核心,而GPU拥有大量但相对弱小的核心。这种差异决定了它们擅长的任务类型。

CPU的核心数量通常在几核到几十核之间,每个核心都具备强大的通用计算能力,适合处理复杂的逻辑运算和串行任务。而GPU则不同,它的核心数量动辄成百上千甚至更多,虽然单个核心的计算能力较弱,但它们能够同时处理大量并行任务。这种特性使得GPU在图形渲染、机器学习等领域大放异彩。

为了更直观地理解两者的区别,我们来看一个经典例子:假设有一张过暗的图片,我想通过计算将它提亮。

CPU的处理方式

如果用CPU来处理这张图片,流程大致如下:

  1. 图片数据存储在内存中。
  2. CPU从内存中读取第一个像素的数据。
  3. 对这个像素进行提亮运算。
  4. 将结果写回内存。
  5. 然后依次处理第二个像素、第三个像素,直到整张图片处理完毕。

当然,现代CPU会通过缓存优化和多线程技术加速这一过程,但总体而言,它的处理方式是“串行”的,一步步完成任务。这种方式就像一个勤奋的搬运工,一次次往返于仓库和加工厂之间。

GPU的处理方式

如果换成GPU来处理,情况就完全不同了:

  1. 图片数据存储在显存中。
  2. GPU的控制器会提前为每个核心分配任务:核心1处理像素1,核心2处理像素2,以此类推。
  3. 一声令下,所有核心同时从显存中读取自己负责的像素数据。
  4. 每个核心并行进行提亮运算。
  5. 最后,所有核心同时将结果写回显存。

这种方式就像一支训练有素的军队,所有士兵在同一时刻执行命令,效率极高。显然,GPU的并行处理能力远远超过了CPU。

数据需求的差异

通过这个例子,我们可以看出CPU和GPU对存储需求的巨大差异。CPU是一趟一趟地搬运数据,每次只需处理少量数据,因此对内存的带宽要求相对较低。而GPU则需要一次性搬运海量数据,所有核心同时访问显存,这就对带宽提出了极高的要求。

正是这种需求差异,促使显卡厂商放弃了通用的DDR标准,转而开发专为GPU优化的GDDR标准。


GDDR的进化:带宽提升的秘密

既然GPU对带宽的需求如此之高,那么GDDR是如何满足这一要求的呢?要理解这一点,我们需要先搞清楚带宽的计算方式。

带宽的构成

带宽的公式很简单:带宽 = 传输速率 × 位宽

  • 传输速率:单位时间内传输的数据次数。
  • 位宽:每次传输的数据宽度,通常以比特(bit)为单位。

用一个比喻来解释:假设有两个城市A和B,我需要在这两个城市之间运输货物。运输能力(带宽)取决于两点:

  1. 公路的数量(位宽):修一条路只能跑一辆车,修十条路就能跑十辆车。
  2. 每条路的运输速度(传输速率):车速越快,单位时间内运送的货物越多。

位宽:显存的“多车道”优势

在计算机中,位宽就像公路的数量。内存的位宽通常是64位,有些主板支持双通道内存,可以组成128位的位宽。而显存的位宽则远超内存。例如,NVIDIA RTX 4090的显存位宽高达384位,传闻中的RTX 5090甚至达到了512位。这种“多车道”的设计让显存在每次传输时能携带更多数据,显著提升了带宽。

但仅仅增加位宽还不够,GPU的带宽需求仍然是个无底洞。于是,GDDR标准在传输速率上也下足了功夫。

传输速率:从DDR到GDDR的飞跃

提升传输速率的起点是DDR技术。传统电路被称为SDR(Single Data Rate,单倍数据速率),在一个时钟周期内只传输一次数据。而DDR通过利用时钟信号的上升沿和下降沿,在一个周期内实现两次传输,因此被称为“双倍数据速率”。

GDDR继承了DDR的核心技术,但并未止步于此。随着GPU需求的不断增长,显存厂商开始在时钟周期内塞入更多传输动作。

GDDR5:四倍速率的突破

在GDDR5标准中,厂商将时钟信号复制四份,并对每个信号进行1/4周期的偏移。这样,每个信号的上升沿都能触发一次传输,一个时钟周期内就能完成四次数据传输。这时,GDDR5的名字其实已经有些名不副实,更准确的叫法应该是“GQDR”(Quad Data Rate,四倍数据速率),但标准名称依然沿用了GDDR。

GDDR6:八倍速率的壮举

到了GDDR6,厂商进一步优化技术,在一个时钟周期内实现了八次传输。这就像在公路上把货车之间的空隙全部填满,最大限度地提升了运输效率。

GDDR6X:PAM4的激进尝试

GDDR6X更进一步,引入了PAM4(Pulse Amplitude Modulation 4,四级脉冲幅度调制)技术。传统传输使用二进制(0和1),而PAM4将信号分为四个电平(00、01、10、11),每次传输可携带2位数据。在GDDR6八倍速率的基础上,PAM4让传输效率翻倍,达到了惊人的16倍速。然而,这种激进的技术也带来了挑战,比如信号稳定性问题,有人戏称“步子迈太大,容易扯着蛋”。

GDDR7:PAM3的保守回归

在最新的GDDR7标准中,厂商回归了更保守的PAM3技术,使用三个电平(三进制)传输数据。虽然速率不如PAM4激进,但稳定性更高,适合大规模商用。

通过位宽和传输速率的双重提升,GDDR将显存的带宽推向了极致,完美适配了GPU的并行计算需求。


内存的“佛系”进化:为何不追赶显存?

反观内存,它的发展路径却显得“佛系”得多。内存的位宽始终停留在64位(双通道128位),每代升级主要靠提升时钟频率,但增幅有限。例如,DDR4到DDR5的频率提升不过从几千MHz到六七千MHz,远不如显存的翻倍式增长。内存为何不跟上显存的步伐,引入PAM3、PAM4等技术疯狂提升带宽呢?

答案在于CPU和GPU的工作方式差异。让我们回到之前的图片提亮例子:GPU之所以快,是因为像素之间没有依赖关系,所有核心可以并行处理。而现实中,许多任务无法并行化。

一个无法并行的例子:累加计算

假设我们要计算1到100的累加和,总共需要99次加法运算。GPU能把这99次加法分配给99个核心并行计算吗?显然不行。因为每次加法都依赖前一次的结果,只能按顺序执行。这种串行任务是CPU的强项,而GPU在这类场景下无能为力。

对于这类任务,CPU每次运算所需的数据量很少,对带宽的需求远不如GPU高。提升CPU性能的关键不在于带宽,而是运算速度。因此,CPU厂商一直在“卷频率”,从几年前的5GHz到如今的更高水平。而GPU的频率,例如RTX 4090满载时不到3GHz,RTX 5090预计3.5GHz,与CPU相比差距明显。

延迟:内存的命门

除了带宽,内存还有另一个关键指标——延迟。延迟是指从CPU发起数据请求到数据到达的时间差。对于串行任务,每次数据访问的延迟都会累积,导致总耗时大幅增加。内存的延迟通常在50-80纳秒之间,但对高速运行的CPU来说仍显缓慢。

为解决这个问题,CPU内部集成了L1、L2、L3等多级缓存。这些缓存的延迟低至几纳秒,大幅减少了对内存的直接访问。而GPU对延迟的敏感度远低于CPU,因为它的核心是并行访问显存,即使延迟稍高(显存延迟常超200纳秒),整体性能影响也不大。


内存与显存的分化:殊途异路的必然

通过以上分析,我们可以看到内存与显存的分化是技术需求驱动的必然结果:

  • 显存:为了满足GPU的高带宽需求,走上了极致并行化的道路,通过高位宽、高速率技术不断突破极限。
  • 内存:服务于CPU的串行计算需求,更注重低延迟和高频率,带宽提升并非首要目标。

从同根生的DDR技术出发,显存和内存逐渐分道扬镳,各自演化出适合自己场景的特性。


结语

从一根内存条到一块显卡,从DDR到GDDR的演进,内存与显存的故事是计算机硬件发展的缩影。它们从相同的起点出发,却因CPU和GPU的不同需求而分化,最终形成了如今的格局。显存追求带宽的极致,内存坚守延迟的底线,两者各司其职,共同支撑起现代计算的辉煌。希望这篇文章能让你对内存与显存的区别有更深刻的理解,也期待下期与你继续探索科技的奥秘!

相关文章:

  • 机器学习新范式:Kubernetes + Kubeflow,解锁模型训练与部署的高效密码
  • Word 页眉设置(不同章节不同页眉)
  • 迭代器介绍与使用(四十一)
  • java 正则表达式优化
  • 使用SPSS进行链式中介模型分析
  • ansible可视化自动化平台-semaphore
  • 脑电学习笔记
  • 哈希表(闭散列)的实现
  • 匿名函数自调用
  • Draw.io 全面解析与竞品分析:图表绘制工具的深度对比
  • 这是一份简单优雅的Prompt Engineering教程
  • 25.4.6学习总结
  • C++ 中为什么构造函数不需要实现虚函数,而析构函数需要?
  • 线程同步的学习与应用
  • 设计模式简述(八)中介者模式
  • 从扩展黎曼泽塔函数构造物质和时空的结构-15
  • swift-11-init、deinit、可选链、协议、元类型
  • STM32F103C8T6单片机的起始点:使用GPIO输出点亮我们的第一个小灯(HAL库版本)
  • 【简历全景认知】简历的历史演变与当代定位:从羊皮卷到算法博弈的艺术
  • 设计模式简述(十)责任链模式
  • 金华市东阳市建设局网站/seo页面代码优化
  • 淘宝网站建设/视频运营管理平台
  • 朝阳区建设委员会网站/网站seo优化课程
  • 水墨风格 网站/百度知道客服
  • 最早做美食团购的网站/网站推广优化方法
  • 那些论坛网站做的比较好/百度站长平台app