Nacos 2.0 发布,性能提升 10 倍

前言

继 Nacos 1.0 发布以来,Nacos 迅速被成千上万家企业采用,并构建起强大的生态。但是随着用户深入使用,逐渐暴露一些性能问题,因此启动了 Nacos 2.0 的隔代产品设计,时隔半年终于将其全部实现,实测性能提升 10 倍,相信能满足所有用户的性能需求。

Nacos 简介

Nacos 是一个更易于构建云原生应用的动态服务发现、配置管理和服务管理平台。它孵化于阿里巴巴,成长于十年双十一的洪峰考验,沉淀了简单易用、稳定可靠、性能卓越的核心竞争力。

Nacos 2.0 架构

2021 年 03 月 30 日,Nacos 2.0 正式对外发布。全新的 2.0 架构不仅将性能大幅提升 10 倍,而且内核进行了分层抽象,并且实现插件扩展机制。Nacos 2.0 架构层次如下图,它相比 Nacos 1.X 的最主要变化是:

  • 通信层统一到 gRPC 协议,同时完善了客户端和服务端的流量控制和负载均衡能力,提升的整体吞吐。
  • 将存储和一致性模型做了充分抽象分层,架构更简单清晰,代码更加健壮,性能更加强悍。
  • 设计了可拓展的接口,提升了集成能力,如让用户扩展实现各自的安全机制。

nacos-upgrade-1

Nacos 2.0 服务发现升级一致性模型

Nacos 2.0 架构下的服务发现,客户端通过 gRPC,发起注册服务或订阅服务的请求。服务端使用 Client 对象来记录该客户端使用 gRPC 连接发布了哪些服务,又订阅了哪些服务,并将该 Client 进行服务间同步。由于实际的使用习惯是服务到客户端的映射,即服务下有哪些客户端实例;因此 2.0 的服务端会通过构建索引和元数据,快速生成类似 1.X 中的 Service 信息,并将 Service 的数据通过  gRPC Stream 进行推送。

nacos-upgrade-2

Nacos 2.0 配置管理升级通信机制

配置管理之前用 Http1.1 的 Keep Alive 模式 30s 发一个心跳模拟长链接,协议难以理解,内存消耗大,推送性能弱,因此 2.0 通过 gRPC 彻底解决这些问题,内存消耗大量降低。

nacos-upgrade-3

Nacos 2.0 架构优势

Nacos 2.0 大幅降低了资源消耗,提升吞吐性能,优化客户端和服务端交互,对用户更加友好;虽然可观测性略微下降,但是整体性价比非常高。

nacos-upgrade-4

Nacos 2.0 项目演进

自从 Nacos1.X 版本突破 10000 Star 后,随着用户深入和大规模使用开始逐渐暴露 Nacos1.X 的性能问题,借此 Nacos 开启了 2.0 的发展阶段,全面升级了通信协议、服务一致性模型、插件化支持、支持服务网格生态和多语言生态。

长连接支持

Nacos1.x 版本主要基于 HTTP 短连接构建服务注册与发现、配置管理系统。随着用户的服务量级的增大,HTTP 短连接架构暴露了一些问题。为了克服短连接的固有的技术瓶颈,Nacos 社区针对 HTTP 短连接架构进行了一次基于长连接的重构升级。

在 Nacos 1.X 架构中,配置中心的推送功能通过长轮询构建,周期性地由客户端主动发送 HTTP 请求并在发生更新时返回变更内容;而服务注册中心的推送则通过 UDP 推送 + HTTP 定期对账来实现。然而,配置中心的长轮训、服务注册中心的定期对账,都需要周期性地对于服务端进行一次主动建立连接和配置传送,增大服务端的内存开销;随着 Nacos 用户的服务数和配置数规模的增大,服务端的内存泄漏风险也大大增加。为了更好的支撑用户的性能要求,克服 HTTP 短连接架构固有的性能瓶颈,Nacos 社区在阿里巴巴集团内部充分验证的基础上,进行了一次基于长连接的重构升级。长连接时代的 Nacos2.x 在原本 1.x 的架构基础上新增了对 gRPC 长连接模型的支持,同时保留对旧客户端和 OpenAPI 的兼容。

通信层目前通过 gRPC 实现了长连接 RPC 调用和推送能力。升级完成之后,服务变化、配置变更等信息会通过 gRPC 的双向流主动推送给客户端,而客户端只需要针对各个长连接主动发送轻量级的心跳即可。升级后的技术架构极大地减少了服务端处理数据的开销;同时,由于长连接基于可复用 TCP 的机制,也大大降低了网络堵塞的风险。

MCP 及 XDS 协议支持

通过对于 MCP 协议及 XDS 协议的支持,目前服务网格生态领域已完全兼容 Nacos,为 Istio 接入 Nacos 注册中心提供零侵入、高性能的微服务以及网关解决方案,帮助用户在使用非 K8S 服务发现的情况下,仍然可以无缝享用服务网格的无侵入式的服务治理策略。

插件化支持

在插件化支持方面,Nacos 社区通过为鉴权、配置加解密、多数据源等模块进行了插件化改造,支持用户进行灵活的插件实现和改造。用户可以根据自己的业务需要,通过实现相应的 SPI 接口和 Jar 包的引入,方便地进行自定义的鉴权、加解密、多数据源等附加功能的实现。插件化升级之后,Nacos 充分实现了多种附加功能与核心功能的解耦合,可扩展性大大加强。

多语言支持

随着 Nacos 2.0 对于长连接的支持,多语言客户端也迈出了一大步。当前 Golang、Java、Python、C# 等主流语言已完全拥抱 Nacos 2.0,支持通过 gRPC 协议进行高性能服务注册与发现、配置管理;另外,C++、Node.js、PHP 的 2.0 客户端仍在快速迭代开发、生产验证过程中,同时希望更多社区朋友参与进来,共同构建更加完善的 Nacos 多语言生态。

Nacos 2.0 性能提升

由于 Nacos 由服务发现和配置管理两大模块构成,业务模型略有差异,因此下面分别介绍一下具体压测指标。

Nacos 2.0 服务发现的性能提升

服务发现场景主要关注客户端数,服务数实例数,及服务订阅者数在大规模场景下,服务端在同步,推送及稳定状态时的性能表现。同时还关注在有大量服务在进行上下线时,系统的性能表现。

nacos-upgrade-5

  • 容量及稳定状态测试

该场景主要关注随着服务规模和客户端实例规模上涨,系统性能表现。

nacos-upgrade-6

可以看到 2.0.0 版本在 10W 级客户端规模下,能够稳定的支撑,在达到稳定状态后,CPU 的损耗非常低。虽然在最初的大量注册阶段,由于存在瞬时的大量注册和推送,因此有一定的推送超时,但是会在重试后推送成功,不会影响数据一致性。反观 1.X 版本,在 10W、5W 级客户端下,服务端完全处于 Full GC 状态,推送完全失败,集群不可用;在 2W 客户端规模下,虽然服务端运行状态正常,但由于心跳处理不及时,大量服务在摘除和注册阶段反复进行,因此达不到稳定状态,CPU 一直很高。1.2W 客户端规模下,可以稳定运行,但稳态时 CPU 消耗是更大规模下 2.0 的 3 倍以上。

  • 频繁变更测试

该场景主要关注业务大规模发布,服务频繁推送条件下,不同版本的吞吐和失败率。

nacos-upgrade-7

频繁变更时,2.0 和 1.X 在达到稳定状态后,均能稳定支撑,其中 2.0 由于不再有瞬时的推送风暴,因此推送失败率归 0,而 1.X 的 UDP 推送的不稳定性导致了有极小部分推送出现了超时,需要重试推送。

Nacos 2.0 配置管理的性能提升

由于配置是少写多读场景,所以瓶颈主要在单台监听的客户端数量以及配置的推送获取上,因此配置管理的压测性能主要集中于单台服务端的连接容量以及大量推送的比较。

nacos-upgrade-8

  • Nacos 2.0 连接容量测试

该场景主要关注不同客户端规模下的系统压力。

nacos-upgrade-9

Nacos 2.0 最高单机能够支撑 4.2w 个配置客户端连接,在连接建立的阶段,有大量订阅请求需要处理,因此 CPU 消耗较高,但达到稳态后,CPU 的消耗会变得很低,几乎没有消耗。反观 Nacos 1.X,在客户端 6000 时,稳定状态的 CPU 一直很高,且 GC 频繁,主要原因是长轮训是通过 hold 请求来保持连接,每 30s 需要回一次 Response 并且重新发起连接和请求。需要做大量的上下文切换,同时还需要持有所有 Request 和 Response。当规模达到 1.2w 客户端时,已经无法达到稳态,所以无法支撑这个量级的客户端数。

  • Nacos 2.0 频繁推送测试

该场景关注不同推送规模下的系统表现。

nacos-upgrade-10

在频繁变更的场景,两个版本都处于 6000 个客户端连接中。明显可以发现 2.0 版本的性能损耗要远低于 1.X 版本。在 3000tps 的推送场景下,优化程度约优化了 3 倍。

Nacos 2.0 性能结论

  • 针对服务发现场景,Nacos 2.0 能够在 10W 级规模下,稳定运行;相比 Nacos 1.X 版本的 1.2W 规模,提升约 10 倍。
  • 针对配置管理场景,Nacos 2.0 单机最高能够支撑 4.2W 个客户端连接;相比 Nacos 1.X,提升了 7 倍,且推送时的性能明显好于 1.X。

nacos-upgrade-11

Nacos 生态及 2.X 后续规划

随着 Nacos 三年的发展,几乎支持了所有的 RPC 框架和微服务生态,并且引领云原生微服务生态发展。

nacos-upgrade-12

Nacos 是整个微服务生态中非常核心的组件,它可以无缝和 K8s 服务发现体系互通,通过 MCP/XDS 协议与 Istio 通信,将 Nacos 服务下发 Sidecar;同样也可以和 CoreDNS 联合,将 Nacos 服务通过域名模式暴露给下游调用。Nacos 目前已经和各类微服务 RPC 框架融合进行服务发现;另外可以协助高可用框架 Sentinel 进行各类管理规则的控制和下发。

如果只使用 RPC 框架,有时候并不足够简单,因为部分 RPC 框架比如 gRPC 和 Thrift,还需要自行启动 Server 并告知 Client 该调用哪个 IP。这时候就需要和应用框架进行融合,比如 SCA、Dapr 等;当然也可以通过 Envoy Sidecar 来进行流量控制,应用层的 RPC 就不需要知道服务 的 IP 列表了。最后,Nacos 还可以和各类微服务网关打通,实现接入层的分发和微服务调用。

Nacos 生态在阿里的实践

目前 Nacos 已经完成了自研、开源、商业化三位一体的建设,阿里内部的钉钉、考拉、饿了么、优酷等业务域已经全部采用云产品 MSE 中的 Nacos 服务,并且与阿里和云原生的技术栈无缝整合。下面以钉钉为例简单做一下介绍。

nacos-upgrade-13

Nacos 运行在微服务引擎 MSE(全托管的 Nacos 集群)上,进行维护和多集群管理;业务的各类 Dubbo3 或 HSF 服务在启动时,通过 Dubbo3 自身注册到 Nacos 集群中;然后 Nacos 通过 MCP 协议将服务信息同步到 Istio 和 Ingress-Envoy 网关。

用户流量从北向进入集团的 VPC 网络中,先通过一个统一接入 Ingress-Tengine 网关,他可以将域名解析并路由到不同的机房、单元等。本周也同步更新了 Tengine 2.3.3 版本,内核升级到 Nginx Core 1.18.0 ,支持 Dubbo 协议 ,支持 DTLSv1 和 DTLSv1.2,支持 Prometheus 格式,从而提升阿里云微服务生态完整性、安全性、可观测性。

通过统一接入层网关后,用户请求会通过 Ingress-Envoy 微服务网关,转发到对应的微服务中,并进行调用。如果需要调用到其他网络域的服务,会通过 Ingress-Envoy 微服务网关将流量导入到对应的 VPC 网络中,从而打通不同安全域、网络域和业务域的服务。

微服务之间的相互调用,会通过 Envoy Sidecar 或传统的微服务自订阅的方式进行。最终,用户请求在各个微服务的互相调用中,完成后并返回给用户。

Nacos 2.X 的规划

Nacos 2.X 将在 2.0 解决性能问题的基础上,通过插件化实现新的功能并改造大量旧功能,使得 Nacos 能够更方便,更易于拓展。

nacos-upgrade-14

总结

Nacos 2.0 作为一个跨代版本,彻底解决了 Nacos 1.X 的性能问题,将性能提升了 10 倍。并且通过抽象和分层让架构更加简单,通过插件化更好的扩展,让 Nacos 能够支持更多场景,融合更广生态。相信 Nacos2.X 在后续版本迭代后,会更加易用,解决更多微服务问题,并向着 Mesh 化进行更深入地探索。