目录
3.3.3.3.实现controller的Reconcile的方法
3.3.5.1.2.使用kubectl apply将CRD 实例部署到集群中
1.前提条件
使用kind搭建本地k8s集群
之后,会准备好以下内容:
- 本地多节点集群
- kubectl 客户端命令工具
- Lens k8s dashboard 可视化客户端工具
2.进一步准备
2.1.安装golang
当前安装版本是:1.17.2
2.2.安装code(vscode的linux版本)
这里有两种方式,一种是已经在windows上安装了vscode的情况下,希望在子系统的Ubuntu中也能使用vscode,一种是直接在Ubuntu安装Vscode。
我这里使用的第一种,
按官方教程安装
。如果是第二种,请
按此方法安装
。
# 使用命令打开vscode
code .
WSL2和Win10的文件夹是互通的,当然可以直接在Win10中双击打开VScode,然后打开对应的项目路径,但是这样就有个缺点,无法在Terminal中使用一些Unbuntu的命令,有时候问题不大,但我们操作k8s的客户端是基于kubectl的,这个是使用这种方式的最重要原因,后续调试需要的必须条件。
2.3.安装kubebuilder
os=$(go env GOOS)
arch=$(go env GOARCH)
# download kubebuilder and extract it to tmp
curl -L https://go.kubebuilder.io/dl/2.2.0/${os}/${arch} | tar -xz -C /tmp/
# move to a long-term location and put it on your path
# (you'll need to set the KUBEBUILDER_ASSETS env var if you put it somewhere else)
sudo mv /tmp/kubebuilder_2.2.0_${os}_${arch} /usr/local/kubebuilder
export PATH=$PATH:/usr/local/kubebuilder/bin
校验kubebuilder安装后的情况
3.开始创建Operator
3.1.什么是operator?
我理解就是K8s的核心组件无法满足一些特定需求,而提供给开发者一个自定义资源的机会。当然,在我参考的文章中,也有比较系统的描述。但是从我的角度,确实比较易懂的解释就是这样的。既然是自定义资源,那我们需要知道一个资源需要有那些要素,这样才能定义
3.2.GV & GVK & GVR
-
GV: Api Group & Version
- API Group 是相关 API 功能的集合
- 每个 Group 拥有一或多个 Versions
-
GVK: Group Version Kind
-
每个 GV 都包含 N 个 api 类型,称之为
Kinds
,不同
Version
同一个
Kinds
可能不同
-
每个 GV 都包含 N 个 api 类型,称之为
-
GVR: Group Version Resource
-
Resource
是
Kind
的对象标识,一般来
Kind
和
Resource
是
1:1
的,但是有时候存在
1:n
的关系,不过对于 Operator 来说都是
1:1
的关系
-
我们看个例子
apiVersion: apps/v1 # 这个是 GV,G 是 apps,V 是 v1
kind: Deployment # 这个就是 Kind
metadata: # 这个是当前这种资源的媒体信息,你可以理解为detail info
name: local-path-provisioner
namespace: local-path-storage
...
spec: # spec就是Resource了,GVR中的R
...
3.3.创建operator
3.3.1. 生成工程框架
# 创建工程文件夹
mkdir create-crd-demo
# 使用kubebuilder初始化一个项目框架
# --domain: 资源域名,结合后续步骤进一步理解一下
# --repo: project是一个golang工程,go工程使用package管理,这个是go.mod的module信息,如果该工程要作为其他工程的导入包,那这个就要填可访问的repo路径才可以,此处只要不是没意义的就可以了。
kubebuilder init --domain geoff.crd.demo --repo k8s-operator/kubebuilder-crd-demo
具体的工程目录如下:
.
├── Dockerfile # 工程Dockerfile,构建镜像的时候使用
├── Makefile # 定义make命令集合,将一些命令定义成一个function XXX, 然后make XXX执行命令。
├── PROJECT # 项目信息
├── README.md # 工程说明
├── config # 这个是生成CRD所需要的yaml定义,使用Kustomize管理
│ ├── default # 一些默认配置
│ │ ├── kustomization.yaml
│ │ ├── manager_auth_proxy_patch.yaml
│ │ └── manager_config_patch.yaml
│ ├── manager # 部署CRD所需的 yaml
│ │ ├── controller_manager_config.yaml
│ │ ├── kustomization.yaml
│ │ └── manager.yaml
│ ├── prometheus # Prometheus监控相关配置,demo应该用不到
│ │ ├── kustomization.yaml
│ │ └── monitor.yaml
│ └── rbac # 部署所需的 rbac 授权 yaml
│ ├── auth_proxy_client_clusterrole.yaml
│ ├── auth_proxy_role.yaml
│ ├── auth_proxy_role_binding.yaml
│ ├── auth_proxy_service.yaml
│ ├── kustomization.yaml
│ ├── leader_election_role.yaml
│ ├── leader_election_role_binding.yaml
│ ├── role_binding.yaml
│ └── service_account.yaml
├── go.mod # 项目直接依赖(直接)
├── go.sum # 项目全部依赖(直接+间接)
├── hack
│ └── boilerplate.go.txt
└── main.go # 项目程序启动入口
3.3.2.生成api(GVK)
刚才只是创建一个工程框架,一个壳子,接下来,我们创建一个api
# 创建k8s的api (GVK)
kubebuilder create api --group apps --version v1 --kind CustomeCrdDemo
我们注意到,工程目录多出了一些文件夹
.
├── Dockerfile
├── Makefile
├── PROJECT
├── README.md
├── api # 新生成的和api(GVK)相关的定义
│ └── v1
│ ├── customecrddemo_types.go # 这里是定义 spec 的地方
│ ├── groupversion_info.go # GV 的定义,一般无需修改
│ └── zz_generated.deepcopy.go # 和deepcopy相关的方法
├── bin
│ └── controller-gen # 和go generater tool
├── config
│ ├── crd # 自动生成的CRD文件,不用修改这里,只需要修改了v1中的go文件,之后执行make generate会更新当前目录的yaml定义文件
│ │ ├── kustomization.yaml
│ │ ├── kustomizeconfig.yaml
│ │ └── patches
│ │ ├── cainjection_in_customecrddemoes.yaml
│ │ └── webhook_in_customecrddemoes.yaml
│ ├── default
│ │ ├── kustomization.yaml
│ │ ├── manager_auth_proxy_patch.yaml
│ │ └── manager_config_patch.yaml
│ ├── manager
│ │ ├── controller_manager_config.yaml
│ │ ├── kustomization.yaml
│ │ └── manager.yaml
│ ├── prometheus
│ │ ├── kustomization.yaml
│ │ └── monitor.yaml
│ ├── rbac
│ │ ├── auth_proxy_client_clusterrole.yaml
│ │ ├── auth_proxy_role.yaml
│ │ ├── auth_proxy_role_binding.yaml
│ │ ├── auth_proxy_service.yaml
│ │ ├── customecrddemo_editor_role.yaml
│ │ ├── customecrddemo_viewer_role.yaml
│ │ ├── kustomization.yaml
│ │ ├── leader_election_role.yaml
│ │ ├── leader_election_role_binding.yaml
│ │ ├── role_binding.yaml
│ │ └── service_account.yaml
│ └── samples # 这里是CRD示例文件,可以使用`kubectl apply -f`用来部署到集群当中
│ └── apps_v1_customecrddemo.yaml
├── controllers
│ ├── customecrddemo_controller.go # 在这里实现 CRD controller的逻辑
│ └── suite_test.go # 这里写测试
├── go.mod
├── go.sum
├── hack
│ └── boilerplate.go.txt
└── main.go
3.3.3.实现代码逻辑,更新yaml定义
3.3.3.1.实现CR
到上面部分为止,我们已经通过kubebuilder生成了CRD所需的项目框架,接下来我们进行自定义开发,此时我们使用VScode来开发吧
# 在当前目录下打开VScode
code .
我们随便增加CRD的spec字段,增加ResourceName、AdditionalInfo。这字段会在之后生成的yaml文件中的spec字段体现。
//……
// CustomeCrdDemoSpec defines the desired state of CustomeCrdDemo
type CustomeCrdDemoSpec struct {
// INSERT ADDITIONAL SPEC FIELDS - desired state of cluster
// Important: Run "make" to regenerate code after modifying this file
// Foo is an example field of CustomeCrdDemo. Edit customecrddemo_types.go to remove/update
// Foo string `json:"foo,omitempty"`
// 资源名称
ResouresName string `json:"resourceName,omitempty"`
// 附加信息
AdditionalInfo string `json:"additionalInfo,omitempty"`
}
//……
3.3.3.2.(依据代码定义)更新yaml
执行命令更新yaml,这里我们直接在VScode的Terminal中执行就可以了,不需要在WSL2上执行命令,方便开发。
# 重新生成yaml文件
make manifests generate
更新yaml,struct上字段备注成为了description,是有意义的
# 新生成的yaml文件:config/crd/bases/apps.geoff.crd.demo_customecrddemoes.yaml
……
spec:
description: CustomeCrdDemoSpec defines the desired state of CustomeCrdDemo
properties:
additionalInfo:
description: 附加信息
type: string
resourceName:
description: 资源名称
type: string
……
其中,yaml的路径和生成项目时设置的–domain是有关系的。
3.3.3.3.实现controller的Reconcile的方法
不做复杂的实现,只增加日志打印。
// For more details, check Reconcile and its Result here:
// - https://pkg.go.dev/sigs.k8s.io/controller-runtime@v0.11.2/pkg/reconcile
func (r *CustomeCrdDemoReconciler) Reconcile(ctx context.Context, req ctrl.Request) (ctrl.Result, error) {
log := log.FromContext(ctx)
// TODO(user): your logic here
log.Info("=========================== Create a new CRD instance ===========================")
return ctrl.Result{}, nil
}
3.3.4.安装CRD
# 往k8s安装CRD的定义
make install
3.3.5.本地运行
3.3.5.1.运行项目
# 运行工程应用
make run
运行之后,项目成功跑起来了,没有报错就算是成功了。
3.3.5.2.测试
3.3.5.1.1.准备测试CRD的yaml配置
我们自己定义的struct有两个字段,一个是resourceName、AdditionalInfo,我们要实现一个CRD的实例dem哦,目前项目工程路径:config/samples/xxx.yaml下有个自动生成的CRD模板,我们按照定义需要给这两个字段配置信息。
apiVersion: apps.geoff.crd.demo/v1
kind: CustomeCrdDemo
metadata:
name: customecrddemo-sample
spec:
# TODO(user): Add fields here
resourceName: "my-crd-instance-1"
AdditionalInfo: "这是我测试的第一个CRD资源实例"
3.3.5.1.2.使用kubectl apply将CRD 实例部署到集群中
# 使用kubectl apply一个CRD实例
# 其中项目目录下config/samples/xxx.yaml是make generate mainfests生成的
kubectl apply -f ./config/samples/apps_v1_customecrddemo.yaml
3.3.5.3.停止运行
3.3.5.3.1.删除自定义的CRD实例
# 删除了刚刚的CRD demo实例
kubectl delete -f config/samples/
3.3.5.3.1.停止工程运行
直接在Vscode的Terminal中执行:Ctrl+C即可停止项目运行
3.3.6.集群运行测试
上一章节,我们看到可以在本地run了project,直接看到当CRD被部署后,直接触发了我们controller中实现的日志。实际上,我们开发好了之后,这个operator application是要部署到k8s集群上的,主要controller的实现逻辑,这样CRD才能起作用。如何操作其实工程的README.md也有说明的,可以先看看。
3.3.6.1.修改Makefile
# 本地集群的名称
KUBE_CLUSTER = k8s-local-dev
……
# 增加一个function,将本地的image上传到Kind的容器中
.PHONY: kind-load
kind-load: ## load the local image to the kind cluster
kind load docker-image ${IMG} --name ${KUBE_CLUSTER}
……
3.3.6.2.将应用部署到k8s集群上
以下是部署到集群的步骤:构建镜像、上传到集群容器中、部署
其中IMG是一个可以自行设置镜像名的变量,此处为:k8s-crd-demo:1.0。
按如下命令执行后,即可在k8s集群中看到部署的CRD controller应用。
# 构建镜像(有时候会失败,可能是网络问题,多试几遍),IMG需要指定,不然后面部署还是有问题
make docker-build IMG=k8s-crd-demo:1.0
# local镜像上传到Kind创建的k8s集群所在的所有node中(如果本地是)
make kind-load IMG=k8s-crd-demo:1.0
# 部署controller
make deploy IMG=k8s-crd-demo:1.0
在这个过程中,bin/目录存在一些二进制的工具包,可以先删除,是之前make run时下载的,有可能会报错。
3.3.6.3.测试
同上面3.3.5.2,直接测试即可
3.3.6.4.停止运行
# undeploy controller
make undeploy
# 卸载CRD
make uninstall
参考文章
如何在 Ubuntu 20.04 上安装 Go-腾讯云开发者社区-腾讯云