随着5G技术的发展,人工智能(AI)和机器学习(ML)在网络中的应用越来越广泛。本文将介绍R18 5G网络中AI/ML的新特性,包括在5G系统(5GS)中的应用、在新一代无线接入网(NG-RAN)中的应用,以及AI/ML管理和计费的增强。
1 AI/ML model transfer in 5GS
第一阶段的AI/ML模型传输涉及5GS如何支持在应用层进行基于AI/ML服务的传输。该研究针对解决了5G 系统支持应用层 AI/ML 模型分发和传输(下载、上传、更新等)的用例和潜在性能要求,并确定了各种应用的AI/ML 模型分发、传输和训练的流量特征,例如视频/语音识别、机器人控制、汽车以及其他垂直行业。这其中许多要求都需要5GS传输解决方案来支持基于设备的应用程序AI/ML 训练或推理服务。因此,5GS需要为基于 AI/ML 的应用服务提供智能传输支持。
相应的第二阶段研究阶段 FS_AIMLsys 的输出记录在 TR 23.700-80 中。
该功能增强了以下方面:
(1) 监控网络资源利用率以支持AI/ML 操作
(2)向授权第三方公开5GC信息以进行AI/ML 操作
(3)增强 5GC 中的外部参数配置以协助AI/ML 操作
(4)增强 5GC 以支持AI/ML 流量传输
(5)增强 QoS 和策略控制以支持通过 5GS 进行AI/ML 数据传输
(6)5GS协助federated learning操作
为实现上述增强引入了以下一系列功能,其中包括
(1)基于QoS的计划数据传输(PDTQ):PDTQ用于使AF能够为计划的AI/ML操作协商可行的时间窗口,例如通过 NEF 的支持,具有特定QoS要求和操作条件的应用数据传输。 PDTQ策略是为特定 ASP定义的,每个 PDTQ 策略都包括针对每个相关AF session的流量传输的推荐时间窗口。AF将选择其中一种PDTQ策略,并将所选的 PDTQ 策略通知给PCF,然后将其存储在UDR 中。PCF 可以根据 AF/NEF 的请求,协商PDTQ,从NWDAF订阅与“网络性能”或“DN 性能”相关的网络分析,以协助确定 PDTQ 策略。在计划数据传输的选定时间窗口开始之前,AF请求PCF设置所需QoS 的 AF session。然后PCF再根据AF请求确定适当的PCC规则。
(2)增强的外部参数配置:托管AI/ML应用程序的 AF 可以将捕获的预期 UE 行为参数或特定于应用程序的预期 UE 行为参数配置到 5GC 增强的相应置信度或准确度级别,其中置信度表示相关参数的概率断言,准确度表示用于预测的估计器(例如AI/ML模型)的性能。此外,NF(例如AMF或SMF)还可以向 订阅此类外部配置参数UDM 提供这些置信度/准确度级别的阈值。
(3)Member UE selection assistance functionality for application operation:5G系统可支持member UE 选择辅助功能,以协助AF根据AF的请求(包括目标member UE list和一组过滤标准)选择可用于AI/ML based应用的member UE。member UE选择辅助功能由 NEF 托管,新的 NEF 服务允许AF向5GC请求此类辅助操作。
(4)具有所需QoS的multi-member AF session:支持由 UE 地址列表标识的一组 UE 进行所需 QoS 的multi-member AF session。NEF 接收由其地址标识的一组UE所需QoS的multi-member AF session请求。然后,NEF将所需QoS的multi-member AF session请求映射到所需QoS的 AF session的单个请求(即每个 UE 地址所需QoS的单个AF sesison request),并基于每个AF session与UE的每个服务 PCF 进行交互。NEF 会接收与每个 UE IP 地址相对应的所需 QoS 的 AF session的单个请求的结果,并将它们合并为单个响应,然后根据本地配置的计时器将其转发给 AF。
(5)端到端数据量传输时间分析:E2E 数据量传输时间分析可用于协助AF或NEF提供基于AI/ML的服务。NWDAF可以以统计数据或预测或两者兼有的形式向服务消费者提供E2E数据量传输时间分析。NWDAF从5GC NF、OAM和AF收集与E2E数据量传输时间相关的输入数据。E2E数据量传输时间是指从UE到AF或从AF到UE 完成特定数据量传输的时间延迟。
(6)NEF新监控事件:AF 可以订阅与基于AI/ML的操作相关的新 NEF 监控事件。新的监控事件包括session inactivity time以协助AI/ML应用服务器调度可用的 UE 参与 AI/ML 操作,还包括UE和AI/ML应用服务器之间交换的流量以协助 AF 传输 AI/ML 数据,以及每个 PDU 会话聚合的 UL/DL 数据速率。
上述功能可以到TS 23.502和TS 23.288中看详细描述过程。
2 AI/ML for NG-RAN
R18 NG-RAN AI/ML规定了现有 NG-RAN 接口和架构(仅限于非拆分架构)中三种用例的数据收集增强和信令支持,包括基于 AI/ML 的网络节能、负载平衡和移动性优化。
作为 RAN 内部功能,AI/ML对NG-RAN的支持用于促进 NG-RAN 中的人工智能 (AI) 和机器学习 (ML) 技术。NG-RAN 的 AI/ML 的目标是通过分析 NG-RAN 收集和自主处理的数据来改善网络性能和用户体验,从而产生进一步的见解,例如网络节能、负载平衡、移动性优化。
NG-RAN 对AI/ML 的支持需要来自邻近 NG-RAN 节点(例如预测信息、反馈信息、测量)或 UE(例如测量结果)的输入。
用于交换信息以支持 NG-RAN 中的 AI/ML 的信令程序与用例和数据类型无关,这意味着未指明通过这些程序交换的数据的预期用途(例如输入、输出、反馈)。信息的收集和报告通过数据收集报告启动程序进行配置,而实际报告则通过数据收集报告程序执行。
NG-RAN中对AI/ML的支持不适用于ng-eNB。对于NG-RAN中AI/ML的部署,可能支持以下场景:
(1)AI/ML 模型训练位于OAM中,AI/ML 模型推理位于 NG-RAN 节点中。
(2)AI/ML 模型训练和 AI/ML 模型推理均位于 NG-RAN 节点中。
网络节能
基于 AI/ML 的网络节能是通过利用 RAN 网络中收集的数据来优化运营商网络某个区域的整体能耗。NG-RAN 节点基于 AI/ML 的节能本质上是让经过训练的 AI 模型做出实时决策,停用或激活某个cell或 NG-RAN 节点,以节省网络能耗。
在R18中,引入了可用于网络节能用例的Energy cost (EC)作为AI/ML指标,并可根据请求在相邻NG-RAN节点内进行交换。EC表示为一个索引,由OAM进行规范化和定义。索引值可以是从0到最大值的整数。最大值应保证足够的准确性。“Energy Consumption - Energy Cost”映射规则由运营商定义。
负载均衡
负载平衡是在小区之间和小区区域之间均匀分配loading,或从拥塞的小区或拥塞的小区区域转移部分流量,以及从一个小区、小区区域、运营商或 RAT 卸载用户以提高网络性能。引入基于 AI/ML 的负载平衡主要是通过使用来自 AI/ML 模型的负载预测和反映卸载操作后 UE 性能的反馈信息来提高负载平衡性能。
对于基于AI/ML的负载平衡,可以配置预测的资源状态信息和 UE 性能反馈,以便由 NG-RAN 节点使用Data Collection Reporting Initiation过程进行收集和测量,而实际报告则通过Data Collection Reporting过程执行。
UE 性能反馈配置是通过使用一组测量 ID 与切换的 UE 相关联。此类测量 ID 标记 UE 性能指标,并允许source NG-RAN 节点确定这些指标对应于哪些 UE。成功执行切换时会触发 UE 性能反馈的收集过程。UE 性能反馈报告可以是one-time也可以是periodic的。
移动性优化
移动性管理允许通过最小化call drop、RLF、不必要的切换和乒乓来保证移动期间的服务连续性。引入基于AI/ML的移动性优化可以提高成功切换率并确定哪个是最大化效率和性能的最佳移动性目标。
为了使target NG-RAN node能够了解与移动性相关的预测信息,从而为切换的 UE实现资源的最佳分配,基于小区的UE轨迹预测通过Handover Preparation过程传输到target NG-RAN node以提供后续移动性决策的信息,例如UE预计要连接到的预测NG-RAN 小区。基于小区的UE轨迹预测仅限于在第一跳target NG-RAN节点进行。
对于反馈信息,即测量的UE轨迹,target NG-RAN node在成功执行切换时开始收集测量的UE轨迹信息,并支持一次性报告。当满足以下至少一个条件时,测量的UE轨迹的收集就可以停止:(1)UE 移动到 RRC_INACTIVE 或 RRC_IDLE;(2)UE切换到不同于第一跳target NG-RAN 节点的另一个小区;(3)配置的测量收集时间持续时间超时或达到同一个target NG-RAN 节点内配置的访问小区数量。
上述内容分散在TS 37.483/38.473/38.423/38.420/38.413/38.401中。
3 AI/ML management & charging
为了支持和促进 AI/ML 功能/特性在 5GS(包括管理系统、5GC 和 NG-RAN)中采用合适的 AI/ML 技术进行高效部署和运行,需要在整个生命周期内管理 ML 模型和 AI/ML 推理功能。
自R17以来,TS 28.105已定义了基本 ML 训练功能和相关的 MnS,而 TR28.908已全面研究了 AI/ML 管理的其他方面,其中涉及广泛的用例、潜在需求和可能的解决方案以及对其他 AI/ML 管理功能的评估。
R18 TS28.105解决了TR 28.908中研究的 AI/ML 管理的许多方面,包括术语和定义的开发、封装 ML 模型各种生命周期管理操作(即模型训练和测试、仿真、部署和推理)的操作工作流的通用框架,以及操作工作流每个阶段的大量详细用例以及要求和相应的解决方案。
Rel-18 WID 指定了 AI/ML 管理功能包括用例、要求和解决方案(第 2 阶段 NRM 和第 3 阶段 OpenAPI);AI/ML 管理功能会用于ML训练(也包括验证和测试)、AI/ML仿真、ML模型部署和AI/ML 推理阶段。AI/ML 操作工作流如上图所示会用于管理 ML 模型和 AI/ML 推理功能的整个生命周期。
工作流中的每个操作阶段都由一个或多个 AI/ML 管理功能支持,如下所示:
1 ML 训练阶段
(1) ML 训练:消费者或生产者请求的训练、ML 实体选择、管理 ML 训练过程、处理数据和ML决策中的错误、ML实体联合训练、ML实体验证性能报告、训练数据有效性报告。
(2) ML 训练和测试的性能管理:ML 训练和测试的性能指标选择、ML训练和测试的ML实体性能指标查询和选择、基于 MnS 消费者策略的 ML 训练和测试的 ML 实体性能指标选择。
(3) ML 测试:消费者或生产者请求的 ML 实体测试、多个 ML 实体的联合测试。
2 AI/ML 仿真阶段,即AI/ML 推理仿真
3 ML 实体部署阶段,即消费者请求的 ML 实体加载、控制生产者发起的 ML 实体加载、ML 实体注册。
4 AI/ML 推理阶段:
(1) AI/ML 推理性能管理:AI/ML 推理性能评估、基于 MnS 消费者策略的 AI/ML 性能测量选择。
(2) AI/ML 更新控制:新功能或 ML 实体的可用性、触发ML实体更新。
(3) AI/ML 推理能力管理:识别 ML 实体的能力、映射 ML 实体的能力。
(4) AI/ML 推理能力配置管理:管理基于 NG-RAN AI/ML 的分布式网络节能、管理基于 NG-RAN AI/ML 的分布式移动性优化、管理基于 NG-RAN AI/ML 的分布式负载平衡。
(5) 执行 AI/ML 推理:AI/ML 推理历史 - 跟踪推理和上下文。
Rel-18 WID 还记录了 AI/ML 功能管理场景,描述了 ML 训练功能和 AI/ML 推理功能的可能位置。
具体可以查看TS 28.105和TR 28.908。
4 NEF Charging enhancement to support AI/ML in 5GS
为支持5GC中的AI/ML引入了NEF 计费增强功能。
在 AI/ML 操作时或期间,AF可以请求服务NEF为 UE list提供 QoS,每个UE由其 UE IP 地址标识,并订阅QoS监控,其中还可能包括合并数据速率监控。然后AF最终可能会更新UE地址列表和QoS 、QoS 监控以及合并数据速率监控并将其发送回NEF。这些信息有助于 AF决定哪些 UE 适合 AI/ML 操作。
因此NEF Northbound API 融合计费包含以下指定用于支持AI/ML的服务:
(1) Member UE selection assistance functionality for application operation:;
(2)PDTQ requirement;
(3) Multi-member AF session with required QoS。
对于 Multi-member AF session with required QoS,这里添加了UE list和合并数据速率以满足AI/ML 服务请求。
这种 NEF 计费报告增强功能将允许计费功能了解 AI/ML 服务和支持,例如计费、信用控制、统计等,以便MNO和AI/ML服务提供商之间进行适当的互动。
具体可以看CR SP-231462 了解下" AI/ML support for NEF based charging"。