当前位置: 首页 > news >正文

使用 USRP 和 OpenAirInterface 构建实时神经接收器原型

目录

  • 使用 USRP 和 OpenAirInterface 构建实时神经接收器原型
  • 概述
  • 人工智能/机器学习在无线通信中的应用
  • 神经接收器示例
  • 基于 OAI 的神经接收器基准测试平台
  • 初步基准测试结果
  • 总结

使用 USRP 和 OpenAirInterface 构建实时神经接收器原型

概述

在 RF/无线中嵌入 AI 是一种有前途的技术选择,可以提高移动网络的功率、频谱和性能效率。在无线通信中使用 AI 技术的最大挑战之一是确保在实际部署条件下可靠且稳健地运行。在本白皮书中,我们将描述一个基于 USRP 软件定义无线电的系统级基准测试平台,研究人员和工程师可以使用它来评估和优化新的 AI 增强型无线设备。我们将展示一个示例,说明如何在集成到 OpenAirInterface (OAI) 端到端 5G/NR 协议栈的实时系统中将神经接收器模型与传统接收器进行基准测试。

人工智能/机器学习在无线通信中的应用

在这里插入图片描述
图1. 从6G研究到6G标准之路

在为当今的无线通信系统增值的竞争中,人工智能 (AI)/机器学习 (ML) 是无线生态系统不同利益相关者最有前途的技术候选之一。基于 AI/ML 的算法可以为无线关键绩效指标 (KPI) 以及非无线 KPI 增值。

例如,AI/ML 可以帮助移动网络运营商 (MNO) 提高其网络效率。基于 AI/ML 的算法已应用于网络级别;例如,基于 AI/ML 的算法可以改善小区之间的负载平衡并降低功耗。

AI/ML 技术的使用还可以帮助无线通信系统的较低层,例如 RF 层、物理 (PHY) 层或 MAC 层。这些较低层的严格时间限制意味着开发和部署此类基于 AI/ML 的算法更加困难。

在当今无线通信系统 RF/PHY/MAC 层的 AI/ML 研究活动中,热门主题包括以下领域:

  • 基于 ML 的数字预失真 (DPD),功耗更低或网络覆盖率更高
  • 基于 AI/ML 的信道估计和符号检测(神经接收器),具有物理层性能,需要较低的 SNR 值,从而降低功耗并减少相邻小区干扰
  • 基于机器学习的波束管理具有更可靠的预测——无论是在时间域还是空间域,都可以减轻通过毫米波链路进行通信时手机旋转的影响

3GPP 和 O-RAN 联盟等联盟正在积极定义 AI/ML 如何应用于蜂窝通信的标准。3GPP 在 2022 年和 2023 年 Release-18 期间进行了一项研究,研究如何将 AI/ML 应用于 5G NR 空中接口标准,以及研究信令堆栈1上需要哪些扩展。这项研究最初针对与 AI/ML 相关的三个用例进行:

  • 关于 CSI 预测和 CSI 压缩的信道状态信息 (CSI) 增强功能
  • 时间和空间域中的光束预测改进
  • 定位精度改进

在这三种用例中,基于 AI/ML 的算法被认为在用户设备(UE)端或网络端运行,或者算法作为所谓的双面模型运行(部分在 UE 端运行,部分在网络端运行)。

该 3GPP Release-18 研究的成果涉及 AI/ML 框架调查、基于 AI/ML 的算法相对于传统算法的潜在性能优势、潜在的规范影响以及潜在的互操作性和可测试性方面,均可在该研究阶段结束时的技术报告中找到。

2024 年和 2025 年,3GPP 将致力于 Release-19,并将为物理层和协议层指定首批初步扩展,以形成一个框架,使 AI/ML 技术能够在 NR 空中接口上使用。这些首批规范步骤有助于实现基于 AI/ML 的定位精度改进和基于 AI/ML 的波束预测,并将基于 Release-18 研究期间制定的技术报告中的建议。

这项研究工作和初步规范预计将在接下来的几个 3GPP 版本中继续进行,以将基于 AI/ML 的解决方案扩展到更多用例。这最终将催生出可以称为“AI/ML 原生”的蜂窝通信系统。

2021 年,O-RAN 联盟主要从 MNO 的角度收集了需求和 AI/ML 工作流程描述。在此技术报告中,针对不同的学习策略(例如监督学习、强化学习或联合学习)提供了 AI/ML 生命周期管理(包括模型设计、模型运行时数据访问和模型部署解决方案)。此外,此报告详细介绍了与 O -RAN 用例任务组 WG1 一致的 O-RAN 用例中使用的 AI/ML 模型。O-RAN 联盟确定了网络节能或大规模 MIMO 等用例,这些用例可从 AI/ML 技术的潜在使用中受益。

最后但同样重要的是,与更传统的随机方法相比,NVIDIA 的 Omniverse 等新工具能够模拟更接近现实的无线场景,因为这些新工具利用光线追踪技术来模拟基于地图的场景。这些模拟无线场景的新方法正在商品化,这增加了无线通信 AI/ML 技术的适用性。可以模拟现实世界的场景,并且可以使用传统或基于 AI/ML 的算法对其性能进行基准测试。

神经接收器示例

在这里插入图片描述
图 2.DeepRx 神经接收器示例

为了演示 NI 工具如何支持 AI/ML 模型工作流程,我们选择了一种公开可用的基于 OFDM 的无线通信系统的神经接收器模型,称为 DeepRx。DeepRx 神经接收器取代了传统 OFDM 系统的传统信道估计、插值、均衡和符号检测模块。它利用图像处理的经验,将 OFDM 系统的时频网格解释为二维像素阵列。在本研究中,我们使用 TensorFlow 框架实现了所描述的 DeepRx 模型,该框架也用于模型训练和验证。我们利用可用的 NVIDIA Sionna 链路级模拟器,在其中集成了 DeepRx TensorFlow 模型来验证模拟中的性能。我们还使用 Sionna 模拟器创建了合成训练数据,并将其保存为 SigMF 数据格式。

训练完 DeepRx 模型后,我们在 Sionna 链路级模拟中验证了传统接收器的性能。结果显示在图 2 的右侧。对于此处选择的不同通道场景,DeepRx 神经接收器对 BER 的性能增益清晰可见。本研究的目标是通过模拟在真实系统原型上验证这些性能结果,如下所示。

基于 OAI 的神经接收器基准测试平台

在这里插入图片描述
图 3.神经接收器实时基准测试设置

为了在真实的原型环境中验证 DeepRx 神经接收器,我们利用了基于 O-RAN 的开源 OAI 实时 5G 协议栈,以及 O-RAN 近实时无线智能控制器 (RIC) 的相应 FlexRIC 实现。作为基准,我们使用了《使用 OpenAirInterface (OAI) 软件解决方案手册研究 6G 技术》中所述的 OAI 系统配置。

OAI 实时协议栈在商用现货 CPU 上运行,并通过以太网接口连接到 USRP 无线电。USRP 用作 RF 前端 (RFFE)。使用 OAI 作为此类系统级基准测试平台的主要优势包括:

  • 它是开源的并且具有成本效益。
  • 它是可修改和可定制的。
  • 它实时运行。
  • 它符合5G/NR标准。
  • 它提供核心网络、RAN 和 UE 组件。
  • 它使用基于 O-RAN 的架构。

目标是重建神经接收器和传统接收器之间的性能基准,并将其与模拟进行比较。在这个系统原型中,我们希望将 DeepRx 神经接收器与传统上行链路 (UL) 接收器进行比较。具体来说,我们希望观察信噪比 (SNR) 增加时的上行链路块错误率 (UL BLER)。通常,在符合 3GPP 标准的系统中,MAC 调度程序会根据信道条件选择具有相应调制和编码方案 (MCS) 的最佳上行链路传输块配置。为了修复 UL MCS 并查看 UL BLER,我们使用了 OAI 中可用的 PHY 测试模式,该模式绕过了传统的 MAC 调度程序并能够选择特定参数,例如 UL MCS。

在这个系统原型中,我们可以从基于 Python 的测试实体控制一些 PHY 参数。此测试实体与在 FlexRIC 控制器上运行的特定 xApp 交互,该控制器通过 O-RAN E2 接口与 OAI gNB PHY 测试 MAC 连接。此外,通过相同的程序,我们可以在测试实体内监控在 OAI UL 接收器处测量的 UL BLER。测试实体还配置信道参数。我们使用基于 NI PXI 系统的信道模拟器和 NI VST 设备来调整 SNR 并运行衰落信道模型,适用于移动和非移动场景。该测试平台可实现完整的系统验证覆盖,如下所述:

  • 要测试的选定调制和编码方案的范围。
  • 要测试的信道参数范围,例如 SNR 和衰落信道。
  • 在神经和传统上行链路接收器之间切换
  • 监控选定上行接收器实现的 BLER

在这里插入图片描述
图 4. OAI UL 接收器中的神经接收器集成

为了将作为 OAI 协议栈的一部分实现的传统 UL 接收器与神经接收器进行比较,我们将 NVIDIA 的 GPU 连接到运行 OAI 的基于 CPU 的计算系统。我们使用 NVIDIA A100 GPU 和 RTX 4090 GPU 测试了该系统,两者都正常工作。我们将神经接收器集成为实时 OAI gNB 接收器的一部分,以便我们可以轻松地在传统接收器和神经接收器之间切换。

该系统原型的一个特定特征是神经接收器模型是在 NVIDIA GPU 上运行的 TensorFlow 中实现的。这也用于模型训练和链路级模拟。我们直接通过可用的 TensorFlow RT C-API 从 OAI 代码中调用神经接收器模型。这大大简化了将 ML 模型集成到 OAI 的过程。这种架构的主要优势在于我们不需要在另一个环境中实现神经接收器模型,因此它实现了从训练到模拟再到实时部署的无缝工作流程。只需要从 TensorFlow 模拟模型到 TensorFlow RT 模型进行少量转换。通过该过程,实现了 ML 模型的更快迭代改进。

初步基准测试结果

在这里插入图片描述
图 5.初始神经接收器基准测试结果

利用上述端到端系统级基准测试平台,可以对神经接收器和传统接收器进行现实的比较。初步结果如图 5 所示,我们使用了以下系统配置:

  • 一个 gNB 和一个 UE 之间的单个 5G NR 链路
  • 上行/下行 TDD
  • 40 MHz 信道带宽,子载波间隔 (SCS 为 30 KHz)
  • 分配的上行带宽为 6 个 PRB(2.16 MHz)

在通用 UE 连接程序之后,UE 将发送所选调制和编码方案的传输块。对于此测试,我们使用了 MCS-11(16-QAM,编码率 0.37)、MCS-15(16-QAM,编码率 0.6)和 MCS-20(64-QAM,编码率 0.55)。我们展示了基于成功的传输块传输(CRC 校验)在 OAI gNB 接收器内计算出的上行链路块错误率。每个块错误率点是 300 次传输块传输的平均值。我们配置了信道模拟器,以 0.5 dB 的步长将 SNR 在 5 dB 和 18 dB 之间更改。我们使用了城市微衰落信道配置文件,低速为 2 m/s,延迟扩展为 45 ns。

所有测试参数都可以在测试场景描述文件中预先配置,以便测试实体可以运行所有参数并生成如图 5 所示的图表。一个观察结果是,与传统接收器相比,神经接收器的增益在更大的 MCS 中消失。这值得进行更深入的研究,以检查神经接收器模型与模拟相比是否表现出任何意外行为。

为这个初始实时基准测试系统实施的一个特定权衡是使用较小的上行链路传输带宽。这样做是为了确保在 GPU 上运行的神经接收器模型的实时性能。虽然我们将神经接收器模型的复杂性降低了约 15 倍(700 k 到 47 k 个参数),但由于 3GPP 系统的严格延迟限制,无法运行较大的通道带宽,该延迟约为 500 μs(30 KkHz SCS 的时隙持续时间)。

对于更广泛的无线传输场景,低复杂度神经接收器模型的训练难度更大。这表明所描述的 AI/ML 原型设计和基准测试平台可以解决 ML 模型复杂性与性能之间的权衡问题。它还表明全面测试的重要性日益增加,以确保这些低复杂度模型能够稳健可靠地运行,并且不会出现任何意外或不必要的行为。

总结

在本白皮书中,我们描述了如何在实际的端到端系统中使用 NI USRP 硬件进行实时 AI/ML 模型验证。虽然我们以神经接收器为例,但从设计到测试再到实际部署的一般工作流程和方法也可以应用于其他 AI/ML 无线通信。AI/ML 参考架构的实施将帮助研究人员和工程师应对以下任务和挑战:

  • 从模拟中训练好的 AI/ML 模型到初始的系统级原型
  • 在真实的系统级测试环境中验证和基准测试 AI/ML 模型
  • 探索如何开发用于实时操作的低复杂度但强大的 ML 模型
  • 研究实时性、复杂性和性能之间的权衡
  • 从实时系统生成同步数据集
  • 针对多种场景和配置进行训练和测试
  • 通过测试实体自动执行预先选择的测试序列
  • 使用包括移动性的统计信道模型模拟无线场景
  • 端到端测试平台环境中的 OTA 验证
  • 从实时系统生成同步数据集

这些步骤将为实际部署条件开发更强大、更可靠的 AI/ML 模型,并帮助我们了解 AI 可以带来与当前网络相比真正改进的领域。最终,通过验证关键用例并发现可能的意外和不良行为,它将为 AI 增强型无线通信系统带来更多信任和实用性。

相关文章:

  • 【Java项目】基于SpringBoot的超市进销存系统
  • React antd的datePicker自定义,封装成组件
  • 【数据挖掘】Pandas之DataFrame
  • 通过多线程同时获取H264和H265码流
  • 河道水位尺位数据集目标检测
  • 静态时序分析:SDC约束命令set_clock_jitter详解
  • halcon学习笔记1
  • 高效文件管理工具:一键生成文件清单,提升工作效率
  • Kneser-Ney平滑在自然语言处理中的应用
  • npm ERR! code 128 npm ERR! An unknown git error occurred
  • 一文讲清楚 MySQL 事务隔离级别和实现原理
  • 使用DeepSeek辅助编写一个快速排序算法程序的步骤
  • 《深度学习进阶》第8集:多模态学习与跨领域融合**
  • vue 和 react 底层采用的 diff 算法的区别
  • C++ MySQL ORM接口设计优化:从宏污染到现代流式API
  • Apache nifi demo 实验
  • 【实战 ES】实战 Elasticsearch:快速上手与深度实践-2.1.2字段类型选择:keyword vs text、nested对象
  • ollama本地部署DeepSeek-R1大模型使用前端JS调用的详细流程
  • 确保移动设备上机器学习的安全性:挑战与最佳实践
  • 清华大学DeepSeek功能全解手册
  • 深入贯彻中央八项规定精神学习教育中央指导组培训会议召开
  • 西湖大学本科招生新增三省两市,首次面向上海招生
  • 五一期间上海景观照明开启重大活动模式,外滩不展演光影秀
  • 同款瑞幸咖啡竟差了6元,开了会员仍比别人贵!客服回应
  • 西北大学党委副书记吕建荣调任西安财经大学党委书记
  • 乌称泽连斯基与特朗普进行简短会谈