kubebuilder实战之四:operator需求说明和设计

本文将引导你设计并实现一个名为elasticweb的kubernetes operator,用于自动管理SpringBoot应用的QPS,包括CRD设计、业务逻辑和部署,适合对operator开发感兴趣的Java开发者

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

欢迎访问我的GitHub

这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos

系列文章链接

  1. kubebuilder实战之一:准备工作
  2. kubebuilder实战之二:初次体验kubebuilder
  3. kubebuilder实战之三:基础知识速览
  4. kubebuilder实战之四:operator需求说明和设计
  5. kubebuilder实战之五:operator编码
  6. kubebuilder实战之六:构建部署运行
  7. kubebuilder实战之七:webhook
  8. kubebuilder实战之八:知识点小记

本篇概览

  • 作为《kubebuilder实战》系列的第四篇,经历了前面的充分准备,从本篇开始,咱们来开发一个有实际作用的operator,该operator名为elasticweb,既弹性web服务;
  • 这将是一次完整的operator开发实战,设计、编码、部署等环节都会参与到,与《kubebuilder实战之二:初次体验kubebuilder》的不同之处在于,elasticweb从CRD设计再到controller功能都有明确的业务含义,能执行业务逻辑,而《kubebuilder实战之二》仅仅是一次开发流程体验;
  • 为了做好这个operator,本篇不急于编码,而是认真的做好设计工作,咱们的operator有什么功能,解决了什么问题,有哪些核心内容,都将在本篇整理清楚,有了这样的准备,才能在下一章写出符合要求的代码;
  • 接下来咱们先聊一些背景知识,以便更好的进入正题;

需求背景

  • QPS:Queries-per-second,既每秒查询率,就是说服务器在一秒的时间内处理了多少个请求;
  • 背景:做过网站开发的同学对横向扩容应该都了解,简单的说,假设一个tomcat的QPS上限为500,如果外部访问的QPS达到了600,为了保障整个网站服务质量,必须再启动一个同样的tomcat来共同分摊请求,如下图所示(简单起见,假设咱们的后台服务是无状态的,也就是说不依赖宿主机的IP、本地磁盘之类):
    在这里插入图片描述
  • 以上是横向扩容常规做法,在kubernetes环境,如果外部请求超过了单个pod的处理极限,我们可以增加pod数量来达到横向扩容的目的,如下图:
    在这里插入图片描述
  • 以上就是背景信息,接下来咱们聊聊elasticweb这个operator的具体功能;

需求说明

  • 为了说清楚需求,这里虚构一个场景:小欣是个java开发者,就是下图这个妹子:
    在这里插入图片描述

  • 现在小欣要将springboot应用部署到kubernetes上,她的现状和面临的问题如下:

  1. springboot应用已做成docker镜像;
  2. 通过压测得出单个pod的QPS为500;
  3. 估算得出上线后的总QPS会在800左右;
  4. 随着运营策略变化,QPS还会有调整;
  5. 总的来说,小欣手里只有三个数据:docker镜像、单个pod的QPS、总QPS,她对kubernetes不了解,需要有个方案来帮她将服务部署好,并且在运行期间能支撑外部的高并发访问;

以上就是小欣的需求了,咱们来小结一下:

  1. 咱们为小欣开发一个operator(名为elasticweb),对小欣来说,她只要将手里的三个参数(docker镜像、单个pod的QPS、总QPS)告诉elasticweb就完事儿了;
  2. elasticweb在kubernetes创建pod,至于pod数量当然是自动算出来的,要确保能满足QPS要求,以前面的情况为例,需要两个pod才能满足800的QPS;
  3. 单个pod的QPS和总QPS都随时可能变化,一旦有变,elasticweb也要自动调整pod数量,以确保服务质量;
  4. 为了确保服务可以被外部调用,咱们再顺便帮小欣创建好service(她对kubernetes了解不多,这事儿咱们就顺手做了吧);

自保声明

  • 看过上述需求后,聪明的您一定会对我投来鄙视的眼光,其实kubernetes早就有现成的QPS调节方案了,例如修改deployment的副本数、单个pod纵向扩容、autoscale等都可以,本次使用operator来实现仅仅是为了展示operator的开发过程,并不是说自定义operator是唯一的解决方案;

  • 所以,如果您觉得我这种用operator实现扩容的方式很low,请不要把我骂得太惨,我这也只是为了展示operator开发过程而已,况且咱这个operator也不是一无是处,用了这个operator,您就不用关注pod数量了,只要聚焦单实例QPS和总QPS即可,这两个参数更贴近业务;

  • 为了不把事情弄复杂,假设每个pod所需的CPU和内存是固定的,直接在operator代码中写死,其实您也可以自己改代码,改成可以在外部配置,就像镜像名称参数那样;

  • 把需求都交代清楚了,接下来进入设计环节,先把CRD设计出来,这可是核心的数据结构;

CRD设计之Spec部分

Spec是用来保存用户的期望值的,也就是小欣手里的三个参数(docker镜像、单个pod的QPS、总QPS),再加上端口号:

  1. image:业务服务对应的镜像
  2. port:service占用的宿主机端口,外部请求通过此端口访问pod的服务
  3. singlePodQPS:单个pod的QPS上限
  4. totalQPS:当前整个业务的总QPS
  • 对小欣来说,输入这四个参数就完事儿了;

CRD设计之Status部分

  • Status用来保存实际值,这里设计成只有一个字段realQPS,表示当前整个operator实际能支持的QPS,这样无论何时,只要小欣用kubectl describe命令就能知道当前系统实际上能支持多少QPS;

CRD源码

  • 把数据结构说明白的最好方法就是看代码:
package v1

import (
	"fmt"
	metav1 "k8s.io/apimachinery/pkg/apis/meta/v1"
	"strconv"
)

// 期望状态
type ElasticWebSpec struct {
	// 业务服务对应的镜像,包括名称:tag
	Image string `json:"image"`
	// service占用的宿主机端口,外部请求通过此端口访问pod的服务
	Port *int32 `json:"port"`

	// 单个pod的QPS上限
	SinglePodQPS *int32 `json:"singlePodQPS"`
	// 当前整个业务的总QPS
	TotalQPS *int32 `json:"totalQPS"`
}

// 实际状态,该数据结构中的值都是业务代码计算出来的
type ElasticWebStatus struct {
	// 当前kubernetes中实际支持的总QPS
	RealQPS *int32 `json:"realQPS"`
}

// +kubebuilder:object:root=true

// ElasticWeb is the Schema for the elasticwebs API
type ElasticWeb struct {
	metav1.TypeMeta   `json:",inline"`
	metav1.ObjectMeta `json:"metadata,omitempty"`

	Spec   ElasticWebSpec   `json:"spec,omitempty"`
	Status ElasticWebStatus `json:"status,omitempty"`
}

func (in *ElasticWeb) String() string {
	var realQPS string

	if nil == in.Status.RealQPS {
		realQPS = "nil"
	} else {
		realQPS = strconv.Itoa(int(*(in.Status.RealQPS)))
	}

	return fmt.Sprintf("Image [%s], Port [%d], SinglePodQPS [%d], TotalQPS [%d], RealQPS [%s]",
		in.Spec.Image,
		*(in.Spec.Port),
		*(in.Spec.SinglePodQPS),
		*(in.Spec.TotalQPS),
		realQPS)
}

// +kubebuilder:object:root=true

// ElasticWebList contains a list of ElasticWeb
type ElasticWebList struct {
	metav1.TypeMeta `json:",inline"`
	metav1.ListMeta `json:"metadata,omitempty"`
	Items           []ElasticWeb `json:"items"`
}

func init() {
	SchemeBuilder.Register(&ElasticWeb{}, &ElasticWebList{})
}

业务逻辑设计

  • CRD的完成代表核心数据结构已经确定,接下来是业务逻辑的设计,主要是理清楚controller的Reconcile方法里面做些啥,其实核心逻辑还是非常简单的:算出需要多少个pod,然后通过更新deployment让pod数量达到要求,在此核心的基础上再把创建deployment和service、更新status这些琐碎的事情做好,就完事儿了;
  • 这里将整个业务逻辑的流程图给出来如下所示,用于指导开发:
    在这里插入图片描述
  • 至此,咱们完成了整个elasticweb的需求和设计,聪明的您肯定已经胸有成竹,而且迫不及待的想启动开发了,好的,下一篇咱们正式开始编码!

参考资料

  • 您可能会奇怪,小欣对kubernetes不了解,怎么会知道docker镜像的制作,还有单个pod的QPS她是怎么测的呢?
  • 其实她是程序员欣宸的粉丝,已经阅读过以下博客:
  1. 《SpringBoot-2.3镜像方案为什么要做多个layer》
  2. 《体验SpringBoot(2.3)应用制作Docker镜像(官方方案)》
  3. 《详解SpringBoot(2.3)应用制作Docker镜像(官方方案)》
  4. 《Kubernetes下web服务的性能测试三部曲之一:准备工作》
  5. 《Kubernetes下web服务的性能测试三部曲之二:纵向扩容》
  6. 《Kubernetes下web服务的性能测试三部曲之三:横向扩容》

你不孤单,欣宸原创一路相伴

  1. Java系列
  2. Spring系列
  3. Docker系列
  4. kubernetes系列
  5. 数据库+中间件系列
  6. DevOps系列

欢迎关注公众号:程序员欣宸

微信搜索「程序员欣宸」,我是欣宸,期待与您一同畅游Java世界…

### kubebuilder 实战示例教程 #### 创建项目环境 为了创建一个新的基于 `kubebuilder` 的 Operator 项目,需先安装必要的工具并初始化工作目录。通过命令行执行如下指令来设置新项目的框架结构[^1]。 ```bash mkdir project-directory cd project-directory kubebuilder init --domain example.com --repo example.com/project-name ``` 此过程会生成一系列基础文件夹与配置文档,为后续开发奠定良好开端。 #### 定义自定义资源 (CRD) 利用 `kubebuilder create api` 命令可以便捷地添加新的 API 资源类型到应用程序中去。这里以构建一个名为 `CronJob` 的例子说明如何操作: ```bash kubebuilder create api --group batch --version v1 --kind CronJob ``` 上述命令将会自动完成大部分样板代码的编写工作,并且还会更新 Makefile PROJECT 文件以便于管理依赖关系以及版本控制信息[^2]。 #### 编写控制器逻辑 接下来就是实现业务处理的核心部分——控制器了。对于每一个新增加的API对象来说,在 pkg/controller 下都会有一个对应的 Go package 来放置其具体行为描述。以下是简化版的 cronjob_controller.go 中的部分片段展示: ```go func (r *ReconcileCronJob) Reconcile(request reconcile.Request) (reconcile.Result, error){ ctx := context.Background() // Fetch the CronJob instance from Kubernetes cluster. var cj appsv1.CronJob err := r.client.Get(ctx, request.NamespacedName, &cj) if err != nil { return reconcile.Result{}, err } log.Info("Processing", "cronjob", request.Name) // Add your custom logic here... return reconcile.Result{RequeueAfter: time.Minute}, nil } ``` 这段程序负责监听集群内所有匹配条件的对象变化事件,并按照预定策略作出响应动作;比如定时触发 Job 执行等任务调度功能。 #### 构建镜像部署应用 最后一步则是打包编译好的二进制文件至 Docker 镜像仓库之中供后续分发使用。编辑根目录下的 build/Dockerfile 文件指定 base image 及 COPY 指令指向可执行文件路径即可满足需求。之后借助 make docker-build IMG=<some-registry>/projectname:v0.0.1 && make docker-push 推送至远程 registry 上面。
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

程序员欣宸

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值