【东枫电子】AI-RAN:利用人工智能驱动的计算基础设施变革 RAN
太原市东枫电子科技有限公司,翻译
文章目录
- 摘要
- 一、引言
- 二、AI-RAN 的用例
- 三、AI-RAN 的需求与赋能因素
- 四、参考架构设计
- 五、AI-RAN 概念验证
- 六、结论与未来工作
- REFERENCES
摘要
无线接入网络 (RAN) 格局正在经历从传统的以通信为中心的基础设施向融合计算通信平台的变革。
本文介绍了 AIRAN,它在同一基础设施上集成了 RAN 和人工智能 (AI) 工作负载。通过这种方式,AI-RAN 不仅能够满足未来网络的性能需求,还能提高资产利用率。我们首先探讨 RAN 如何从移动宽带发展到 AI-RAN,并将 AI-RAN 的表现形式分为三种:AI-forRAN、AI-on-RAN 和 AI-and-RAN。
接下来,我们确定了 AI-RAN 中通信和计算融合的关键要求和推动因素。然后,我们提供了一个参考架构,用于推动 AI-RAN 从概念走向实践。为了说明 AI-RAN 的实际潜力,我们提供了一个概念验证,该验证利用 NVIDIA Grace-Hopper GH200 服务器同时处理 RAN 和 AI 工作负载。
最后,我们总结了未来的工作方向,以指导 AI-RAN 的进一步发展。
一、引言
无线接入网 (RAN) 传统上是作为向终端用户提供移动宽带服务的专用基础设施而构建的 [1]。然而,随着现代应用需求和联网设备种类的快速增长,传统 RAN 的局限性日益凸显。因此,RAN 开始向移动宽带以外的方向发展,采用更灵活的设计方法,以支持垂直用例和异构工作负载 [2]。
RAN 演进的一大重大转变是朝着通信和计算的融合方向发展,这不仅支持连接服务,还支持网络边缘的计算服务,即边缘计算 [3]。
边缘计算将部分数据/信号处理从中心云或用户设备转移到边缘云,有望提供更低延迟的响应、更低的传输成本和增强的隐私保护 [4]。推动边缘计算发展的一个显著催化剂是在同一边缘基础设施上同时运行 RAN 功能和人工智能 (AI) 工作负载,尤其是基于生成式人工智能 (GenAI) 的大型语言模型 (LLM) [5]。
这将使传统的单一用途 RAN 基础设施转变为一个涵盖所有功能的 AI-RAN 架构,将 AI 和 RAN 工作负载集成在同一计算平台上。这种集成可以实现零接触网络和服务管理 (ZSM)、智能无线资源控制,并提升电信网络的频谱效率 [6]。此外,这种集成还可以在同一 RAN 基础设施上支持 AI 即服务 (AIaaS),其中 AI 工作负载可以与 RAN 工作负载共享相同的底层计算资源 [7]。因此,AI-RAN 不仅可以提高网络的适应性和效率,还可以使电信运营商能够通过在 RAN 和 AI 工作负载之间根据需要动态分配资源来提高资产利用率。
近年来,AI-RAN 作为一种变革性解决方案获得了显著关注,具有提升 RAN 性能和提高 RAN 资产利用率的潜力。AI 原生 RAN 的愿景激励研究人员将 AI 嵌入到 6G 空中接口的物理层 (PHY) 和介质访问控制 (MAC) 层协议中 [8]。通信和计算架构的融合对于支持此类 AI 原生 RAN 功能至关重要。关于 RAN 通信-计算融合的文献(例如 [9])强调了连接服务和计算服务之间密切协调的重要性。
在此关键时刻,行业标准化工作将在塑造全球 AI-RAN 的开发和部署中发挥关键作用。在 [10] 中,国际电信联盟电信标准化部门 (ITU-T) 规定了 5G 及更高网络中网络和计算协调的要求。在[11]中,国际电联无线电通信部门(ITU-R)已将“人工智能与通信”确定为6G的关键使用场景,并强调6G将包含支持人工智能/计算功能的新功能,例如计算资源编排、分布式人工智能模型训练、模型共享和分布式推理。
与此同时,第三代合作伙伴计划(3GPP)已将人工智能功能纳入其最新的无线接入网(RAN)标准中,尤其是在5G-Advanced的背景下[12]。O-RAN联盟也通过引入无线智能控制器(RIC)以及基于人工智能的服务管理和编排[13],不断推进RAN的智能化发展。此外,他们还在研究各种可由O-RAN架构通过O-cloud实现的高效计算和通信集成的用例[14]。为了进一步推进 AI 原生 RAN 的发展,一个名为 AI-RAN 联盟的行业联盟于 2024 年成立。领先的电信运营商正通过 AI-RAN 联盟携手合作,共同致力于改造下一代加速基础设施。
尽管 AI-RAN 发展势头强劲,但现有的研究成果缺乏一个统一的框架来涵盖 AI 在 RAN 中的各种应用。本文将通过以下方式弥补这一差距:在第二部分中阐述 AI-RAN 的各种表现形式;在第三部分中描述 AI-RAN 的需求和推动因素;在第四部分中提供实现 AIRAN 的参考架构;在第五部分中通过概念验证展示 AI-RAN 的有效性;并在第六部分中总结 AI-RAN 未来发展的方向。
二、AI-RAN 的用例
在统一的电信网络计算通信基础设施中,AI 与 RAN 工作负载的集成可以体现在三个层面——协议/架构层、服务层和基础设施层,如图 1 所示。虽然 3GPP 和 ORAN 等全球标准化机构主要专注于在协议/架构层将 AI 融入 RAN,但 AI-RAN 联盟和全球电信 AI 联盟 (GTAA) 等行业倡议正在探索 AI 与 RAN 之间其他潜在的融合途径,以在服务和基础设施层面开启新的商机。总体而言,各个标准开发组织 (SDO) 和联盟正在积极开展活动,利用 AI 的力量来转型 RAN。这些举措将计算和通信整合到一个通用架构中,重点关注三个关键领域:1) 在协议/架构层面提升网络频谱和运营效率 (AI-for-RAN);2) 在服务层面支持由 RAN 承载的新型 AI 应用 (AI-on-RAN);3) 在基础设施层面 (AI-and-RAN) 通过在 AI 和 RAN 工作负载之间共享计算资源来提高资产利用率 [5]。
AI-for-RAN:利用 AI 提升 RAN 性能一直是 AI 原生 6G RAN 愿景 [13] 的核心主题,并且自 5G-Advanced 时代 [12] 以来,一直在塑造多个标准制定组织 (SDO) 的标准化趋势。通过将基于人工智能的算法融入 RAN 协议栈,从物理层(信道估计、波束成形优化、动态功率调整和干扰抑制)到媒体访问控制 (MAC) 层及更高层(自适应调制和编码 (MCS) 选择、动态资源分配和负载均衡、多小区调度和移动性管理优化),人工智能驱动的解决方案在提高频谱效率、降低运营成本和提升用户体验方面展现出巨大潜力。
此外,随着虚拟化 RAN 的发展,网络自动化变得越来越重要,它要求网络管理和编排具备高度的灵活性、动态性和智能性。管理跨多种服务/应用/用户、性能要求和使用需求差异巨大的高度复杂的 RAN,开启了迈向零接触自动化 (ZSM) 的征程,而基于意图的管理和零接触自动化是实现这一目标的关键推动因素。
基于人工智能的模型,借助历史数据训练和实时数据学习,正在通过自动化用户意图解读、自适应决策、预测分析、自动化网络配置和服务调配推动这种零接触转型。
AI-on-RAN:利用 RAN 基础设施支持基于人工智能的应用正在智慧城市和物联网 (IoT) 等各个垂直行业领域获得广泛关注,在电信领域构建了 RAN 与人工智能之间的共生关系。AI-on-RAN 可以利用 RAN 基础设施的计算资产和能力,为内部运营团队(例如客户服务、网络运营中心、市场营销和欺诈检测)以及外部客户(例如企业)提供 AIaaS,从而为电信运营商开辟新的收入来源。
AI-on-RAN 的概念正在迅速从概念演变为现实,全球领先的电信运营商纷纷在其 RAN 基础设施上提供各种 GenAI 工具、模型(例如 LLM)和平台 [15]。例如,GTAA 的创始运营商成员正在共同开发一款多语言、针对电信运营商的 LLM,该 LLM 可根据个性化客户服务进行定制,从而推动第三方生态系统的蓬勃发展。除了这些独立的 GenAI 解决方案外,一些电信运营商正在采取更全面的 AI-on-RAN 方法,将 GenAI 与云计算和网络连接等其他关键服务捆绑在一起,例如 Maxis 与亚马逊网络服务 (AWS) 合作提供的 GenAI 和 5G 组合解决方案。
AI-and-RAN:增强 RAN 网络功能 (NF) 与 AI 应用之间的计算资源共享,是实现电信网络中可持续、经济高效 AI-RAN 的关键。在同一底层基础设施上动态编排 AI 和 RAN 工作负载,可以实现资源的最佳利用,并根据工作负载的计算需求,在多个工作负载之间重新分配和共享计算资源。AI-and-RAN 解决方案的一个实际案例是 Aarna Networks 提供的 Aarna 多集群编排平台 (AMCOP)。除了在图形处理单元 (GPU) 云上实现强大的 RAN 工作负载自动化编排外,AMCOP 还可以监控 RAN 的资源利用率,并动态地将未使用的 GPU 周期分配给 AI 应用,从而将底层硬件利用率从平均 30%-40%(仅运行 RAN 工作负载)提高到接近 100%(并行运行 AI 和 RAN 工作负载)。软银近期发布的 AI-and-RAN 解决方案 AITRAS 基于 GPU 的统一基础架构,旨在通过基于 AI 的编排支持 AI 和 RAN 的多租户,使电信运营商能够同时运行 AI 和 RAN 工作负载。
无论 AI-RAN 的 AI 工作负载在哪个层面、在何种程度上与 RAN 工作负载集成并共置,了解这些异构网络功能 (NF) 和应用程序的关键特性都至关重要,这样才能在 RAN 基础架构中以最佳方式构建和配置底层平台及其计算能力。在下一节中,我们将深入探讨 AI-RAN 的这些关键要求和推动因素。
三、AI-RAN 的需求与赋能因素
AI-RAN 的设计需要仔细考量计算和通信功能。其目标是构建一个高性能、可扩展且智能的 RAN 平台,将先进的计算能力与优化的通信功能相结合。本节将明确实现图 1 所示的 AI-RAN 的关键需求和技术赋能因素。
加速计算基础设施:传统的 RAN 计算基础设施通常使用定制的专用集成电路 (ASIC) 进行基带处理,并使用多核中央处理器 (CPU) 进行更高层级的处理。这种基础设施无法处理与各种 AI-RAN 用例相关的复杂任务。
AI-RAN 需要通用的软件定义硬件加速器(例如 GPU)来处理密集型工作负载,这些工作负载不仅包括 RAN 计算,还包括 AI 模型训练和推理。该基础设施必须针对 AI 模型训练和部署到边缘进行推理进行优化。大型人工智能模型的离线训练可以在云端进行,而在线训练和推理则需要在具有集成计算能力的边缘节点实时进行。
此外,需要具有大规模并行处理能力的加速计算基础设施来处理RAN和人工智能服务实时生成的海量数据。
这种能力可以加速人工智能算法和基带信号处理,从而为大规模多输入多输出 (MIMO) 波束成形、多小区调度以及集成感知与通信 (ISAC) 等工作负载提供更快的计算速度。该基础设施还应配备高速、低延迟的互连,以确保跨网络节点的快速无缝通信。
软件定义、云原生设计:传统的RAN从一代到另一代的演进通常会触发RAN基础设施的硬件更新。这种RAN演进方式不可持续,需要在新兴的AI-RAN范式中采用软件定义、云原生的设计。在软件定义的 AI-RAN 中,NF 从底层硬件中抽象出来,从而实现更高的灵活性、可移植性和可编程性。具体而言,AI-RAN 中的 NF,例如基带处理、调度和无线资源管理 (RRM),应以软件形式实现,从而允许将 RAN 功能动态实例化为云原生网络功能 (CNF)。这使得更新、重新配置以及引入新功能和服务(例如,新兴的边缘 AI 应用)成为可能,而无需更改硬件。
AI-RAN 应支持计算和通信资源的弹性扩展,并根据需求添加或删除 CNF。云原生设计对于实现可扩展性、灵活性和效率至关重要。CNF 可以分解为微服务,每个微服务可以处理特定功能并适应不同的工作负载。云原生 AI-RAN 使用容器(例如 Docker、Kubernetes)将 CNF 打包并部署为微服务,从而实现多租户(即在共享基础架构上运行多个 RAN 和 AI 服务)中的资源高效利用。RAN 和 AI 服务的持续集成和持续交付或部署 (CI/CD) 能够快速部署新功能和升级,同时最大程度地减少服务中断。
通信和计算资源的联合编排:AI-RAN 固有的多租户特性要求通信和计算资源进行联合编排,这需要一个统一的编排平台。这能够根据当前网络流量、用户需求和服务级别协议 (SLA) 实时、按需分配资源。编排器应根据不同工作负载的具体需求,管理计算资源(例如 GPU、CPU、内存)和通信资源(例如带宽和时间)。它需要动态地决定特定服务或工作负载的执行位置。例如,编排器可以将边缘资源分配给延迟敏感的工作负载,同时将计算密集型、非实时任务路由到集中式云节点。AI 模型应该集成到编排平台中,以便针对功耗优化和负载管理等时变任务,做出关于计算和通信资源最佳分配的智能决策。
弹性对于应对网络状况和计算需求的波动至关重要。编排器应根据需要扩展或缩减资源,以高效处理高峰时段和低需求时段不断变化的流量和计算需求。它应该充分利用底层硬件的功能来实现动态扩展。
例如,可以利用多实例 GPU (MIG) 技术将物理 GPU 划分为多个硬分区且内存/故障隔离的实例,使编排器能够支持在池化的 GPU 硬件资源上并发处理 RAN 工作负载和边缘 AI 应用。
原生 AI 支持:新兴的 AI-RAN 范式必须原生支持 AI,将 AI 功能直接嵌入 RAN 基础设施,从而实现跨网络层和计算层的实时智能决策、自动化和优化。从 RAN 设计的角度来看,AI 应该从一开始就融入所有网络层,从物理层处理到更高层级的网络功能 (NF),例如 RRM、移动性管理、负载均衡和调度。AI 模型应该能够协调网络不同层级的决策,以实现整体的端到端网络优化,其中某一层级的决策会考虑对其他层级的影响。为了实现准确的 AI 驱动的优化和决策,AI-RAN 系统应该拥有强大的数据管道,能够收集和处理来自各种网络元素、节点和层级的数据。
AI-RAN 中的原生 AI 支持需要使用网络数字孪生 (NDT),它是物理网络的虚拟副本,用于数据收集、仿真和优化。NDT 提供了一个虚拟沙盒,用于训练 AI 模型,而不会对 AI-RAN 的实时运行造成干扰。训练完成后,AI 模型可以在 NDT 环境中进行验证,以测试其在各种条件下的行为。这确保了 AI 模型能够按预期运行,并且在部署到实时 AI-RAN 网络中时不会导致意外问题(例如宕机)。
将所有这些关键特性和技术整合在一起,将为 AI-RAN 架构奠定基础,电信运营商可以在此基础上构建自己的定制化 AI-RAN 部署,并在其 RAN 基础设施之上进行增强。在下一节中,我们将详细介绍融合这些基础技术推动因素的 AI-RAN 架构蓝图。
四、参考架构设计
AI-RAN 的参考架构可以构建于 AI 和 RAN 计算融合的高性能、可扩展性和模块化基本原则之上。为了指导 AI-RAN 的部署,图 2 描绘了一个解决方案蓝图,该蓝图由标准数据中心机架、AI-RAN 服务器(包含 CPU、GPU、数据处理单元 (DPU) 和固态硬盘 (SSD))以及基于以太网交换机的网络结构组成。该示意图为电信运营商提供了一个参考架构,用于部署下一代 AI-RAN 软件定义和加速数据中心,从而同时满足 AI 和 RAN 工作负载的计算需求。
云原生加速计算是该参考架构的核心,它支持快速部署 AI-RAN 系统,并根据电信边缘数据中心(例如中心局和移动交换局)随时间推移产生的 RAN 流量和 AI 工作负载,提供不同程度的扩展和计算需求。在端到端 AI-RAN 部署蓝图中,关键组件包括:无线单元 (RU)、前传网络、运行在 AI-RAN 服务器之上的分布式单元 (DU)(在某些情况下,还包括中心单元 (CU) 和核心网络 (CN))、中传网络、回传网络以及连接到互联网的 AI 网络。需要注意的是,为简单起见,图 2 描绘了将 RU 连接到单个 AI-RAN 服务器的前传网络拓扑(即多对一映射),而在实际部署中,RU 和 AI-RAN 服务器之间的连接将是多对多的。
为了使 AI 和 RAN 流量在同一基础设施中无缝传输,网络结构分为两部分:计算结构(位于 RU 和 AI-RAN 服务器之间)和融合结构(位于 AI-RAN 服务器和互联网之间)。计算结构通过前传在 AI-RAN 服务器之间分配 RAN 工作负载(东西向流量)。融合结构通过中传/回传(南北向流量)将 RAN 和 AI 工作负载与 AI-RAN 服务器进行交互,以实现无线流量,并为非源自无线网络的 AI 流量提供有线网络连接。在图 2 中,这两个结构都采用最小的双主干四叶树拓扑结构,该结构在实际部署中可以进一步扩展。
在计算结构中,来自 RU 的前传连接在基站/传输聚合路由器中聚合,并通过“脊叶”网络结构连接到 AI-RAN 服务器。这种双交换层架构通常用于数据中心网络拓扑,以实现可扩展性、冗余性、性能和简化的网络管理。
在典型的脊叶网状结构中,叶交换机直接连接到网络边缘端点(例如,服务器和其他边缘设备),并在发送到脊层之前聚合来自这些端点的流量;而脊交换机则构成网络结构的核心,在叶交换机之间路由流量。计算结构包含两种类型的叶交换机:前传叶对交换机(用作 RU 的接入点)(例如,图 2 中的叶交换机 1-2)和服务器叶对交换机(例如,图 2 中的叶交换机 3-4),用于连接脊层和边缘 AI-RAN 服务器。
每个前传叶交换机通过精确时间协议大师 (PTP/GM) 分发时间,PTP/GM 是网络计算结构内时间同步的主要来源。
利用 PTP 协议,前传叶交换机根据 O-RAN 前传规范,通过低层拆分配置 3 (LLS-C3) 同步拓扑将精确时间信息分发给连接到前传网络的 RU 以及 AI-RAN 服务器中的 DU。由前传/服务器叶交换机通过主干层互连创建的网状拓扑,在计算结构中创建了一个高度可扩展且冗余的网络架构。
每个 AI-RAN 服务器在前端(即朝向前传网络)连接到计算结构,而其后端连接到融合网络叶交换机对(例如,图 2 中的叶交换机 5-8),这些叶交换机通过主干交换机网状互连(例如,图 2 中的主干交换机 3-4)。融合交换矩阵将 AI-RAN 服务器连接到中传、回传或互联网,具体取决于 AI-RAN 服务器是仅承载 DU、DU 和 CU 组合,还是 DU、CU 和 CN 组合。例如,仅承载 DU 的 AI-RAN 服务器可以通过中传连接到 CU,而共同承载 DU 和 CU 的 AI-RAN 服务器可以通过回传连接到用户平面功能本地分支 (UPF LBO) 或连接到 CN 中的 UPF。另一方面,在 AI-RAN 服务器上运行的集中式 DU+CU+CN 将通过融合交换矩阵连接到互联网(通过 N6 接口),如图 2 所示。
接下来,放大图 2 中的 AI-RAN 服务器,我们探索基于这些服务器构建的软件堆栈,以支持同一平台上的 AI 和 RAN 多租户。图 3 展示了该软件堆栈的各个组件。它采用云原生设计,配备商用级云操作系统(例如 Kubernetes),提供云即服务 (CaaS),用于动态资源编排和基础设施管理。
云操作系统托管计算平台和应用程序编程接口 (API) 模型,例如计算统一设备架构 (CUDA),以及网络平台和 API 模型,例如数据中心片上基础设施架构 (DOCA),以便在加速计算的帮助下高效运行各种 RAN 和 AI 应用程序。对于 RAN 堆栈,DU、CU 和 CN 由支持众多单元和 RAN 应用的服务管理和编排 (SMO) 实体进行编排;而对于 AI 堆栈,各种软件组件在 API 集群代理下协同工作,该代理监控和管理 Kubernetes 集群中的 AI 服务器工作负载。
对于 AI 堆栈,基本构建块包括 AI 应用软件开发工具包 (SDK) 和框架(例如 NVIDIA 神经模块 (NeMo) 框架)、AI 微服务(例如 NVIDIA 推理微服务 (NIM))以及行业标准 API,用于将这些组件与在该平台上原生运行或通过无服务器 API 运行的各种 AI 应用(例如文本、语音、视频、图像)连接起来。一个全面的端到端 (E2E) 编排器可同时与 RAN SMO 和 API 集群代理协同工作,以跟踪资源利用率并在同一共享硬件上编排 RAN 工作负载和 AI 推理请求,从而实现多租户,同时保持 RAN 所需的服务质量和体验质量要求。
借助 AI-RAN 参考架构和相关软件堆栈,网络运营商可以获得完整的 AI-RAN 部署蓝图,从而在同一基础设施中实现 AI 与 RAN 的协同,以满足各种用例场景。下一节将通过概念验证演示详细解释一个这样的用例。
五、AI-RAN 概念验证
AI-RAN 技术的首要原则之一是能够同时运行 RAN 和 AI 工作负载,且不影响运营商级性能。这种多租户特性可以体现在时间或空间上:可以根据一天中的时间或计算百分比来划分资源。这也意味着需要一个能够根据可用容量和动态计算需求无缝配置、取消配置或转移工作负载的编排器。在本节中,我们将演示如何利用 Grace-Hopper GH200 服务器实现 RAN 和 AI 工作负载之间的动态资源分配,从而实现并发 RAN 和 AI 处理。在图 4 所示的概念验证实验中,通过由 NVIDIA Aerial 支持的 5G 网络,移动用户与聊天机器人或数字人进行交互,这两个机器人或数字人均由运行在同一台服务器上的 LLM 提供服务,该服务器负责处理 5G RAN 工作负载。用户还可以通过电信公司专用网络与聊天机器人或数字人进行交互,如图 4 右侧所示。
聊天机器人实现主要由网络浏览器和 LLM 组成,而数字人实现则进一步包括语音转码、图像渲染和流媒体传输。LLM 是驱动响应的智能,它在聊天机器人和数字人实现之间是通用的,并且安全地存在于电信公司分布式云的边缘。LLM 根据客户或电信公司的特定数据进行训练,运行时不会影响 RAN 工作负载。RAN 工作负载涉及处理与配备 4 个发射天线和 4 个接收天线 (4T4R) 的 5G 节点 B (gNB) 相关的信号。5G 信号的载波带宽为 100 MHz,子载波间隔为 30 kHz。
在图 4 中,MGX GH200 服务器配备了 2 个 GPU。 MIG 技术用于将第一个 GPU 分割成两个实例:第一个 GPU 实例最多可使用 GPU 1 总资源的 40% 来执行 5G RAN 工作负载,而第二个 GPU 实例则使用 GPU 1 剩余 60% 的资源来执行 AI 工作负载。值得注意的是,在这种情况下,由于使用了 MIG 技术,5G RAN 和 AI 工作负载可以合并到 GPU 1 中,从而释放整个 GPU 2 供其他应用程序使用。图 5 展示了在 AI-RAN 基础设施中,在同一台服务器上同时运行 RAN 和 AI 工作负载所带来的资源利用率提升。
这种方法最大限度地提高了 GPU 的利用率,并最大限度地减少了空闲状态,而仅运行 RAN 工作负载时,GPU 使用率的峰值仅为 40%,导致 60% 的资源利用率未得到充分利用。因此,这种方法可以在需求允许的情况下将未使用的 GPU 资源提供给其他服务,从而降低服务提供商的总体拥有成本。
六、结论与未来工作
本文探讨了无线接入网 (RAN) 的变革性转变,即从传统的以通信为中心的基础设施向支持 AI 原生功能的融合计算通信平台演进。通过在同一基础设施上运行 RAN 和 AI 工作负载,AI-RAN 为构建更具适应性、更高效、更智能的网络打开了大门,这些网络能够动态分配资源,以满足用户、服务和新兴垂直行业的需求。
AI-RAN 架构和框架仍处于早期发展阶段。我们在此总结并指出了一些未来工作的有益方向。
高级编排与控制:未来的研究应侧重于设计 AI 驱动的闭环编排框架,以无缝管理计算和通信资源。这些框架必须兼顾延迟、可靠性和能耗约束,同时为 RAN 和 AI 工作负载提供按需资源分配。
标准化和互操作性:开发和完善开放、可互操作的接口和数据格式将有利于 AI-RAN 的广泛应用。
标准机构和行业联盟需要通力合作,以确保 AI-RAN 能够集成多供应商解决方案,同时不影响性能。
测试平台、基准测试和实际试验:为了将 AIRAN 从概念推进到实践,全面的测试平台和基准测试方法至关重要。大规模模拟、实时实验和试点部署将使利益相关者能够验证拟议的解决方案,了解利弊,并完善最佳实践。
REFERENCES
[1] L. Kundu et al., “Hardware Acceleration for Open Radio Access Networks: A Contemporary Overview,” IEEE Communications
Magazine, vol. 62, no. 9, pp. 160-167, Sep. 2024.
[2] W. Chen et al., “5G-Advanced Toward 6G: Past, Present, and Future,” IEEE Journal on Selected Areas in Communications,
vol. 41, no. 6, pp. 1592-1619, Jun. 2023.
[3] ITU-R, “Future Technology Trends of Terrestrial IMT Systems Towards 2030 and Beyond,” Report ITU-R M.2516-0, Nov.
2022.
[4] Y. Mao et al., “A Survey on Mobile Edge Computing: The Communication Perspective,” IEEE Communications Surveys &
Tutorials, vol. 19, no. 4, pp. 2322-2358, Fourth-quarter 2017.
[5] AI-RAN Alliance, “AI-RAN Alliance Vision and Mission,” white paper, Dec. 2024.
[6] N. A. Khan et al., “AI-RAN in 6G Networks: State-of-the-Art and Challenges,” IEEE Open Journal of the Communications Society,
vol. 5, pp. 294-311, 2024.
[7] Y. Huang et al., “Communication and Computing Integrated RAN: A New Paradigm Shift for Mobile Network,” IEEE
Network, vol. 38, no. 2, pp. 97-112, Mar. 2024.
[8] J. Hoydis et al., “Toward a 6G AI-Native Air Interface,” IEEE Communications Magazine, vol. 59, no. 5, pp. 76-81, May 2021.
[9] N. Li et al., “Transforming the 5G RAN with Innovation: The Confluence of Cloud Native and Intelligence,” IEEE Access, vol.
11, pp. 4443-4454, 2023.
[10] ITU-T, “Coordination of networking and computing in IMT-2020 networks and beyond–Requirements,” Recommendation ITU-T
Y.3400, Dec. 2023.
[11] ITU-R, “Framework and Overall Objectives of the Future Development of IMT for 2030 and Beyond,” Recommendation
M.2160, Nov. 2023.
[12] X. Lin et al., “Embracing AI in 5G-Advanced Toward 6G: A Joint 3GPP and O-RAN Perspective,” IEEE Communications
Standards Magazine, vol. 7, no. 4, pp. 76-83, Dec. 2023.
[13] L. Bonati et al., “Intelligence and Learning in O-RAN for DataDriven NextG Cellular Networks,” IEEE Communications
Magazine, vol. 59, no. 10, pp. 21-27, Oct. 2021.
[14] O-RAN-WG1-CCIN-TR, “Communication and Computing Integrated Networks”, O-RAN Alliance, vol. 01.00, rel. 004, Jul.
2024.
[15] M. Koytcheva, “AI-as-a-service: Telcos look at generative AI as a revenue opportunity”, STL Partners Analyst Report, Jun. 2024,
[online]. Available: https://stlpartners.com/articles/strategy/ai-asa-service/, accessed on January 16, 2025.