在建设基础设施时,网络运营商所面临的一系列挑战和需求决定了光传送设备的演进。
GlobalData
2024年3月1日
光传送平台需要高OTN和分组吞吐量。图片来源:metamorworks via Shutterstock
云应用、内容业务和大带宽连接技术的日益普及,不断驱动运营商光传送网络的容量需求。
伴随这些驱动因素,网络拓扑结构也在发生变化。集中式数据中心和分布式数据中心的需求推动了网络拓扑结构的变化,这些数据中心产生了越来越多的入站、出站和东西向(DC到DC)流量。最后,这些行业趋势也推动着运营商业务转型,以更好地满足基于数据中心业务和应用的客户需求,从而再次影响光网络和设备的设计。
随着带宽需求的持续增长和网络拓扑的不断变化,运营商必须应对数据中心流量的大幅增长,也需要关注网络的可持续建设和改造。这种可持续性要求有效转化为提高能源效率,以及充分地利用部署地点的可用空间。它还有利于提升所有类型网络(包括光传送)的自动化和可管理性。最后,网络建设必须在财务上做到可持续发展,必须利用可快速、轻松规模部署的技术,提供可接受的价格。
光传送网络的这种演进是电信生态系统的代际变化所驱动的,由以下因素驱动:
●不断扩张的数据中心需求:云服务、社交媒体、内容平台的增长,以及日益旺盛的游戏和以AI为中心的算力需求,推动了对数据中心的需求,尤其是对大型数据中心的需求。此外,对服务质量要求的提高(例如,更低时延的需求)迫使云服务提供商和内容提供商将其数据缓存在离用户更近的地方。这种趋势推动了在城域网范围内建立更多数据中心。数据中心的激增越来越大地影响着对光传送设备的需求,非电信运营商(如云服务提供商或内容提供商)大量购买传送业务,或者建立自己的网络。
●更多地关注光纤利用率:核心流量的不断增长,以及100GE、400GE和800GE客户接口的广泛采用,推动了光纤利用率的提高。大多数厂商都押注于增加波长容量,相干解决方案的单波容量一般可达到1.2T,并已宣称推出1.6T解决方案。自2018年以来,大多数相干解决方案都具有更高的内置灵活性,支持使用高阶调制方案(如64QAM),从而使容量和传输距离达到平衡,适配已部署的光纤固有特性。对于长距应用,新相干解决方案的最高速度应该仅作为一个标签,因为在实际的部署场景中,最终可能会使用支持更长的距离单波速率。此外,最新的相干芯片组可以更好地将FlexE客户端接口映射到线路接口,从而进一步提高光纤利用率。
●性能导向和成本优化的传送:伴随光传送领域日益增长的带宽需求,相干光传送解决方案已分为两大类:高性能独立的解决方案和成本优化的可插拔模块。高性能的解决方案使运营商能够最大限度地提高光传送的频谱利用率和传输距离,但成本较高,且占用空间更大和能耗更高。可插拔相干模块的频谱利用率和传输距离不及高性能模块,但允许运营商在注重节省功耗、空间和成本的场景中部署相干线路接口。在核心分组光纤中,采用一种或另一种相干解决方案将视具体情况而定,从而供应商能够更好地根据客户需求提供产品。
●不断演进的网络控制和管理:日益增长的流量、不断变化的网络拓扑,以及对提高业务可用性、质量、速度和灵活性的需求持续上涨,意味着运营商无法依赖老旧的网络管理系统来高效运营光网络。软件支持演进的光纤网络必须能支持更高水平的自动化、完整和实时的网络可观测性,并减少中断时间和配置错误,从而实现在不影响生产网的情况下进行网络变更测试。
网络运营商在发展其基础设施时所面临的一系列挑战和需求决定了光传送设备的演进。因此,光传送平台的设计原则和平台能力正朝着以下方向发展:
●增强的容量和交换特性:光传送平台要求高OTN和分组吞吐量。基于OTN光业务单元(Optical Service Unit,OSU)路径层的网络,越来越多地用于提高OTN灵活性,并增强其适用性,主要用于专线业务。
●高密度的高速客户端口:城域的流量和网络容量增长持续激发核心中对客户接口高密度的需求。随着城域中更多地使用100G和400G线路接口,核心分组光平台最重要的特性是支持高密度100GE、400GE和OTU4客户接口。很快,支持传送800GE的接口将成为关键,因为这项技术在IP网络中应用越来越多。
●高性能相干传送:以DC为中心网络中使用的平台,主要是在日益复杂的(网状或环形)网络拓扑中在不同距离上传送大量数据。这需要在大带宽和传输距离(通过相干模块可调)之间取得平衡,通常需要运营商选择合适的平台和方案,使其能够在整个网络中最大化地利用光谱和光纤资源。理想情况下,核心光传送平台需要在长距离上支持非常高的最大单波带宽。
●先进的传送特性:随着来自大型DC的流量高度集中,核心光传送节点的容量也在增长。光供应商正在积极开发解决方案,使容量平滑地增长到超过100Tbps吞吐量。随着单波线路接口的速度增加到1.6T(甚至可能更高),插槽容量也在不断扩展,从1.6Tbps到3.2Tbps甚至更高。两种选择正在成为主流:第一种是多子架集群,将其作为单个网络实体进行管理;第二种是大规模光交叉连接。
●自动化和AI助力网络灵活性和可管理性:光系统供应商越来越努力在其网络软件解决方案中实现自动化——既提高可管理性,又减少与故障和维护相关的中断时间。在主动维护中,人工智能越来越多地用于分析复杂的网络流量模式、告警关联、故障根因定位和故障前状态识别。供应商们也开始尝试生成式人工智能(GenAI),特别是在管理界面软件中推动自然语言人机交互。
●物理属性更加重要:部署核心平台的运营商不断寻求在增加容量的同时减少网络功耗。现有平台的功率/传输容量比远低于1W/Gb——越低越好。随着单个机箱容量增至100T及以上,线路接口速度增长到1.6T,供应商需要更加关注降低功耗和优化散热。目前的发展趋势是,为数据中心环境量身定制的平台应采用600 mm机架深度,并配备“前进风后出风”散热等适合数据中心的功能。对于数据中心场景,平台需要兼容19英寸机架,并且提供匹配数据中心环境的供电选项(AC/DC/HVDC)。
光传送网络的设计更多地着眼于承载进出数据中心的、以及数据中心之间日益增长的流量。为满足以DC为中心的网络需求,需要一种全新的光传送平台来满足数据中心安装、高性能和频谱效率,以及复杂拓扑中部署所需的先进功能集合。
运营商和超大规模提供商应仔细检查其网络是否适用于以DC为中心的环境,并调整其网络发展战略,以满足当前和未来数据中心的流量需求,提供所需的容量、可管理性和可扩展性。