评论

收藏

[HarmonyOS] 石墨文档基于K8S的Go微服务实践(上篇)

移动开发 移动开发 发布于:2021-09-19 14:38 | 阅读数:594 | 评论:0

1 架构演进
互联网的WEB架构演进可以分为三个阶段:单体应用时期、垂直应用时期、微服务时期。
单体应用时期一般处于一个公司的创业初期,他的好处就是运维简单、开发快速、能够快速适应业务需求变化。但是当业务发展到一定程度后,会发现许多业务会存在一些莫名奇妙的耦合,例如你修改了一个支付模块的函数,结果登录功能挂了。为了避免这种耦合,会将一些功能模块做一个垂直拆分,进行业务隔离,彼此之间功能相互不影响。但是在业务发展过程中,会发现垂直应用架构有许多相同的功能,需要重复开发或者复制粘贴代码。所以要解决以上复用功能的问题,我们可以将同一个业务领域内功能抽出来作为一个单独的服务,服务之间使用RPC进行远程调用,这就是我们常所说的微服务架构。
总的来说,我们可以将这三个阶段总结为以下几点。单体应用架构快速、简单,但耦合性强;垂直应用架构隔离性、稳定性好,但复制粘贴代码会比较多;微服务架构可以说是兼顾了垂直应用架构的隔离性、稳定性,并且有很强的复用性能力。可以说微服务架构是公司发展壮大后,演进到某种阶段的必然趋势。

DSC0000.jpg 但微服务真的那么美好吗?我们可以看到一个单体架构和微服务架构的对比图。在左图我们可以看到一个业务可以通过Nginx+服务器+数据库就能实现业务需求。但是在右图微服务架构中,我们完成一个业务需要引入大量的组件,比如在中间这一块我们会引入DNS、HPA、ConfigMap等、下面部分引入了存储组件Redis、MySQL、Mongo等。以前单体应用时期我们可能直接上机器看日志或上机器上查看资源负载监控,但是到了微服务阶段,应用太多了,肯定不能这么去操作,这个时候我们就需要引入ELK、Prometheus、Grafana、Jaeger等各种基础设施,来更方便地对我们的服务进行观测。

DSC0001.jpg 微服务的组件增多、架构复杂,使得我们运维变得更加复杂。对于大厂而言,人多维护起来肯定没什么太大问题,可以自建完整的基础设施,但对于小厂而言,研发资源有限,想自建会相当困难。
不过微服务的基础设施维护困难的问题在 Kubernetes 出现后逐渐出现了转机。在2014年6月Google开源了Kubernetes后,经过这几年的发展,已逐渐成为容器编排领域的事实标准。同时 Kubernetes 已俨然成为云原生时代的超级操作系统,它使得基础设施维护变得异常简单。
在传统模式下,我们不仅需要关注应用开发阶段存在的问题,同时还需要关心应用的测试、编译、部署、观测等问题,例如程序是使用systemd、supervisor启动、还是写bash脚本启动?日志是如何记录、如何采集、如何滚动?我们如何对服务进行观测?Metrics 指标如何采集?采集后的指标如何展示?服务如何实现健康检查、存活检查?服务如何滚动更新?如何对流量进行治理,比如实现金丝雀发布、流量镜像?诸如此类的问题。我们业务代码没写几行,全在考虑和权衡基础设施问题。然而使用Kubernetes后,可以发现大部分问题都已经被Kubernetes或周边的生态工具解决了,我们仅仅只需要关心上层的应用开发和维护Kubernetes集群即可。

DSC0002.jpg Kubernetes在微服务中的作用就如同建高楼的地基,做了很多基础工作,统一了大量的基础设施标准,以前我们要实现服务的启动、配置、日志采集、探活等功能需要写很多中间件,现在我们只需要写写yaml文件,就可以享受这些基础设施的能力。运维更加简单这个也显而易见,例如在以前出现流量高峰时研发提工单后增加副本数,运维处理工单,人肉扩缩容,现在我们可以根据实际应用的负载能力,合理的配置好副本 CPU、Mem 等资源及 HPA 规则,在流量高峰时由 Kubernetes 自动扩容、流量低谷时自动缩容,省去了大量人工操作。
同时在框架层面,传统模式下基础设施组件很多都是自研的,基本上没有太多标准可言,框架需要做各种switch case对这种基础设施组件的适配,并且框架经常会为因为基础设施的改变,做一些不兼容的升级。现在只需要适配Kubernetes即可,大大简化微服务的框架难度和开发成本。
2 微服务的生命周期
刚才我们讲到Kubernetes的优势非常明显,在这里会描述下我们自己研发的微服务框架Ego怎么和Kubernetes结合起来的一些有趣实践。
我们将微服务的生命周期分为以下6个阶段:开发、测试、部署、启动、调用、治理。
DSC0003.jpg   2.1 开发阶段
在开发阶段我们最关注三个问题。如何配置、如何对接,如何调试。
2.1.1 配置驱动
大家在使用开源组件的时候,其实会发现每个开源组件的配置、调用方式、debug方式、记录日志方式都不一样,导致我们需要不停去查看组件的示例、文档、源码,才能使用好这个组件。我们只想开发一个功能,却需要关心这么多底层实现细节,这对我们而言是一个很大的心智负担。
所以我们将配置、调用方式做了统一。可以看到上图我们所有组件的地址都叫addr,然后在下图中我们调用redis、gRPC、MySQL的时候,只需要基于组件的配置Key path去 Load 对应的组件配置,通过build方法就可以构造一个组件实例。可以看到调用方式完全相同,就算你不懂这个组件,你只要初始化好了,就可以根据编辑器代码提示,调用这个组件里的API,大大简化我们的开发流程。
DSC0004.jpg   2.1.2 配置补齐
配置补齐这个功能,是源于我们在最开始使用一些组件库的时候,很容易遗漏配置,例如使用gRPC的客户端,未设置连接错误、导致我们在阻塞模式下连接不上的时候,没有报正确的错误提示;或者在使用Redis、MySQL没有超时配置,导致线上的调用出现问题,产生雪崩效应。这些都是因为我们对组件的不熟悉,才会遗漏配置。框架要做的是在用户不配置的情况下,默认补齐这些配置,并给出一个最佳实践配置,让业务方的服务更加稳定、高效。
DSC0005.jpg
2.1.3 配置工具
我们编写完配置后,需要将配置发布到测试环境,我们将配置中心IDE化,能够非常方便的编写配置,通过鼠标右键,就可以插入资源引用,鼠标悬停可以看到对应的配置信息。通过配置中心,使我们在对比配置版本,发布,回滚,可以更加方便。

DSC0006.jpg   2.1.4 对接-Proto管理
我们内部系统全部统一采用gRPC协议和protobuf编解码。统一的好处在于不需要在做任何协议、编解码转换,这样就可以使我们所有业务采用同一个protobuf仓库,基于 CI/CD 工具实现许多自动化功能。
我们要求所有服务提供者提前在独立的路径下定义好接口和错误码的protobuf文件,然后提交到GitLab,我们通过GitLab CI的check阶段对变更的protobuf文件做format、lint、breaking 检查。然后在build阶段,会基于 protobuf 文件中的注释自动产生文档,并推送至内部的微服务管理系统接口平台中,还会根据protobuf文件自动构建 Go/PHP/Node/java 等多种语言的桩代码和错误码,并推送到指定对应的中心化仓库。
DSC0007.jpg 推送到仓库后,我们就可以通过各语言的包管理工具拉取客户端、服务端的gRPC和错误码的依赖,不需要口头约定对接数据的定义,也不需要通过 IM 工具传递对接数据的定义文件,极大的简化了对接成本。
2.1.5 对接-错误码管理
有了以上比较好的protobuf生成流程后,我们可以进一步简化业务错误状态码的对接工作。而我们采用了以下方式:

  • Generate:
    • 编写protobuf error的插件,生成我们想要的error代码
    • 根据go官方要求,实现errors的interface,他的好处在于可以区分是我们自定义的error类型,方便断言。
      
DSC0008.jpg
  • 根据注解的code信,在错误码中生成对应的grpc status code,业务方使用的时候少写一行代码
DSC0009.jpg DSC00010.jpg
  • 确保错误码唯一,后续在API层响应用户数据确保唯一错误码,例如: 下单失败(xxx)
  • errors里设置with message,with metadata,携带更多的错误信息
  • Check:
    • gRPC的error可以理解为远程error,他是在另一个服务返回的,所以每次error在客户端是反序列化,new出来的。是无法通过errors.Is判断其根因。
DSC00011.jpg
  • 我们通过工具将gRPC的错误码注册到一起,然后客户端通过FromError方法,从注册的错误码中,根据Reason的唯一性,取出对应的错误码,这个时候我们可以使用errors.Is来判断根因。
DSC00012.jpg DSC00013.jpg
  • 最后做到errors.Is的判断: errors.Is(eerrors.FromError(err), UserErrNotFound())
  2.1.6 对接-调试
对接中调试的第一步是阅读文档,我们之前通过protobuf的ci工具里的lint,可以强制让我们写好注释,这可以帮助我们生成非常详细的文档。
基于 gRPC Reflection 方法,服务端获得了暴露自身已注册的元数据能力,第三方可以通过 Reflection 接口获取服务端的 Service、Message 定义等数据。结合 Kubernetes API,用户选择集群、应用、Pod 后,可直接在线进行gRPC接口测试。同时我们可以对测试用例进行存档,方便其他人来调试该接口。

DSC00014.jpg   2.1.7 Debug-调试信息
我们大部分的时候都是对接各种组件API,如果我们能够展示各种组件例如gRPC、HTTP、MySQL、Redis、Kafka的调试信息,我们就能够快速的debug。在这里我们定义了一种规范,我们将配置名、请求URL、请求参数、响应数据、耗时时间、执行行号称为Debug的六元组信息。
将这个Debug的六元组信息打印出来,如下图所示。我们就可以看到我们的响应情况,数据结构是否正确,是否有错误。
DSC00015.jpg   2.1.8 Debug-定位错误
Debug里面有个最重要的一点能够快速定位错误问题,所以我们在实践的过程中,会遵循Fail Fast理念。将框架中影响功能的核心错误全部设置为panic,让程序尽快的报错,并且将错误做好高亮,在错误信息里显示Panic的错误码,组件、配置名、错误信息,尽快定位错误根因。这个图里面就是我们的错误示例,他会高亮的显示出来,你的配置可能不存在,这个时候业务方在配置文件中需要找到server.grpc这个配置,设置一下即可。
DSC00016.png   2.2 测试阶段
2.2.1 测试类型
开发完成后,我们会进入到测试阶段。我们测试可以分为四种方式:单元测试、接口测试、性能测试、集成测试。
我们会通过docker-compose跑本地的一些单元测试,使用GitLab CI跑提交代码的单元测试。我们接口测试则使用上文所述接口平台里的测试用例集。性能测试主要是分两种,一类是benchmark使用GitLab ci。另一类是全链路压测就使用平台工具。集成测试目前还做的不够好,之前是用GitLab ci去拉取镜像,通过 dind(Docker in Docker)跑整个流程,但之前我们没有拓扑图,所以需要人肉配置yaml,非常繁琐,目前我们正在结合配置中心的依赖拓扑图,准备用jekins完成集成测试。
在这里我主要介绍下单元测试。
2.2.2 工具生成测试用例
单元测试优势大家都应该很清楚,能够通过单测代码保证代码质量。但单测缺点其实也非常明显,如果每个地方都写单测,会消耗大家大量的精力。
所以我们首先定义了一个规范,业务代码里面不要出现基础组件代码,所有组件代码下层到框架里做单元测试。业务代码里只允许有CRUD的业务逻辑,可以大大简化我们的测试用例数量。同时我们的业务代码做好gRPC,HTTP服务接口级别的单元测试,可以更加简单、高效。
然后我们可以通过开发protobuf工具的插件,拿到gRPC服务的描述信息,通过他结合我们的框架,使用指令自动生成测试代码用例。在这里我们框架使用了gRPC中的测试bufconn构造一个listener,这样就可以在测试中不关心gRPC服务的ip port。
DSC00017.jpg 以下是我们通过工具生成的单元测试代码,我们业务人员只需要在红框内填写好对应的断言内容,就可以完成一个接口的单测。
DSC00018.jpg   2.2.3 简单高效做单元测试
目前单元测试大部分的玩法,都是在做解除依赖,例如以下的一些方式
  • 面向接口编程
  • 依赖注入、控制反转
  • 使用Mock
不可否认,以上的方法确实可以使代码变得更加优雅,更加方便测试。但是实现了以上的代码,会让我们的代码变得更加复杂、增加更多的开发工作量,下班更晚。如果我们不方便解除依赖,我们是否可以让基础设施将所有依赖构建起来。基础设施能做的事情,就不要让研发用代码去实现。
以下举我们一个实际场景的MySQL单元测试例子。我们可以通过docker-compose.yml,构建一个mysql。然后通过Ego的应用执行job。
  • 创建数据库的表./app --job=install
  • 初始化数据库表中的数据 ./app --job=intialize
  • 执行go test ./...
DSC00019.jpg DSC00020.jpg 可以看到我们可以每次都在干净的环境里,构建起服务的依赖项目,跑完全部的测试用例。详细example请看https://github.com/gotomicro/go-engineering
2.3 部署阶段
2.3.1 注入信息
编译是微服务的重要环节。我们可以在编译阶段通过-ldflags指令注入必要的信息,例如应用名称、应用版本号、框架版本号、编译机器 Host Name、编译时间。该编译脚本可以参考https://github.com/gotomicro/ego/blob/master/scripts/build/gobuild.sh
go build -o bin/hello -ldflags -X "github.com/gotomicro/ego/core/eapp.appName=hello -X github.com/gotomicro/ego/core/eapp.buildVersion=cbf03b73304d7349d3d681d3abd42a90b8ba72b0-dirty -X github.com/gotomicro/ego/core/eapp.buildAppVersion=cbf03b73304d7349d3d681d3abd42a90b8ba72b0-dirty -X github.com/gotomicro/ego/core/eapp.buildStatus=Modified -X github.com/gotomicro/ego/core/eapp.buildTag=v0.6.3-2-gcbf03b7 -X github.com/gotomicro/ego/core/eapp.buildUser=`whoami` -X github.com/gotomicro/ego/core/eapp.buildHost=`hostname -f` -X github.com/gotomicro/ego/core/eapp.buildTime=`date +%Y-%m-%d--%T`"
通过该方式注入后,编译完成后,我们可以使用./hello --version ,查看该服务的基本情况,如下图所示。
DSC00021.jpg   2.3.2 版本信息
微服务还有一个比较重要的就是能够知道你的应用当前线上跑的是哪个框架版本。我们在程序运行时,使用go里面的debug包,读取到依赖版本信息,匹配到我们的框架,得到这个版本。
DSC00022.jpg 然后我们就可以在prometheus中或者二进制中看到我们框架的版本,如果框架某个版本真有什么大bug,可以查询线上运行版本,然后找到对应的应用,让他们升级。
DSC00023.jpg   2.3.3 发布版本
发布配置版本,我们在没有Kubernetes的时候,不得不做个agent,从远端ETCD读取配置,然后将文件放入到物理机里,非常的繁琐。而使用Kubernetes发布配置,就会非常简单。我们会在数据库记录配置版本信息,然后调用Kubernetes API,将配置写入到config map里,然后再将配置挂载到应用里。
发布微服务应用版本,因为有了Kubernetes就更加简单,我们只需要发布系统调用一下deployment.yml就能实现,应用的拉取镜像、启动服务、探活、滚动更新等功能。
2.4 启动阶段
  2.4.1 启动参数
EGO内置很多环境变量,这样可以很方便的通过基础设施将公司内部规范的一些数据预设在Kubernetes环境变量内,业务方就可以简化很多启动参数,在dockerfile里启动项变为非常简单的命令行:CMD ["sh", "-c", "./${APP}"]
DSC00024.jpg   2.4.2 加载配置
我们通过Kubernetes configmap挂载到应用pod,通过框架watch该配置。在这里要提醒一点,Kubernetes的配置是软链模式,框架要想要监听该配置,必须使用filepath.EvalSymlinks(fp.path)计算出真正的路径。然后我们就可以通过配置中心更改配置,通过configmap传递到我们的框架内部,实现配置的实时更新。
DSC00025.jpg   2.4.3 探活
探活的概念:
  • livenessProbe:如果检查失败,将杀死容器,根据Pod的restartPolicy来操作
  • readinessProbe:如果检查失败,Kubernetes会把Pod从service endpoints中剔除
转换成我们常见的研发人话就是,liveness通常是你服务panic了,进程没了,检测ip port不存在了,这个时候Kubernetes会杀掉你的容器。而readinessProbe则是你服务可能因为负载问题不响应了,但是ip port还是可以连上的,这个时候Kubernetes会将你从service endpoints中剔除。
所以我们liveness Probe设置一个tcp检测 ip port即可,readness我们需要根据HTTP,gRPC设置不同的探活策略。

DSC00026.jpg 当我们确保服务接口是readness,这个时候流量就会导入进来。然后在结合我们的滚动更新,我们服务可以很优雅的启动起来。(liveness、readness必须同时设置,而且策略必须有差异,否则会带来一些问题)
2.5 调用阶段
我们在使用Kubernetes的时候,初期也使用最简单的dns服务发现,他的好处就是简单方便,gRPC中直接内置。但是在实际的使用过程中,发现gRPC DNS Resolver还是存在一些问题。

DSC00027.png gRPC DNS Resolver使用了rn的channel传递事件。当客户端发现连接有异常,都会执行ResolveNow,触发客户端更新服务端副本的列表。但是当K8S增加服务端副本时,客户端连接是无法及时感知的。
DSC00028.jpg 因为gRPC DNS Resolver存在的问题,我们自己实现了Kubernetes API Resolver。我们根据Kubernetes的API,watch服务的endpoints方式,实现服务发现。
DSC00029.jpg 我们再来梳理下微服务在Kubernetes的注册与发现的流程,首先我们服务启动后,探针会通过ip port检测我们的端口查看我们是否是活的,如果是活的就说明我们的pod已经跑起来了,然后会通过探针访问我们gRPC服务的health接口,如果是可用的,这个时候Kubernetes会将我们这个服务的pod ip注册到service endpoints,流量就会随之导入进来。然后我们的客户端会通过Kubernetes API Watch到service endpoints的节点变化,然后将该节点添加到它自己的服务列表里,然后它就可以通过Balancer调用服务节点,完成RPC调用。
由于篇幅较多,以上介绍了微服务生命周期的一部分,下期我们在介绍微服务治理中的监控、日志、链路、限流熔断、报警、微服务管理等内容。以下是ego架构图和研发生命周期的全景图。
DSC00030.jpg DSC00031.jpg   3 资料链接
  • Ego框架:https://github.com/gotomicro/ego
  • 文档:https://ego.gocn.vip
  • PPT:https://github.com/gopherchina/meetup/blob/master/XiAn/20210911/%E7%9F%B3%E5%A2%A8%E6%96%87%E6%A1%A3Go%E5%9C%A8K8S%E4%B8%8A%E5%BE%AE%E6%9C%8D%E5%8A%A1%E7%9A%84%E5%AE%9E%E8%B7%B5-%E5%BD%AD%E5%8F%8B%E9%A1%BA.pdf
  • 编译:https://ego.gocn.vip/micro/chapter1/build.html
  • 链路:https://ego.gocn.vip/micro/chapter2/trace.html
  • 限流:https://ego.gocn.vip/frame/client/sentinel.html
  • 日志:https://ego.gocn.vip/frame/core/logger.html
  • docker-compose单元测试,protobuf统一错误码:https://github.com/gotomicro/go-engineering
  • proto错误码插件:https://github.com/gotomicro/ego/tree/master/cmd/protoc-gen-go-errors
  • proto单元测试插件:https://github.com/gotomicro/ego/tree/master/cmd/protoc-gen-go-test


分享到: QQ好友和群QQ好友和群
评论

使用道具 举报