有时候我们需要在本地搭建一个开发测试环境,这个环境可能会包括很多不同的软件组件,例如Kafka, PG, Redis之类的。利用Kubernetes我们可以很方便的搭建一个环境,并把这些需要的组件部署到环境上面去。这里我选择在本地安装minikube,然后快速地创建一个k8s集群。具体minikube的安装很简单,直接参考官网的介绍即可。
下面我们部署一些常用的组件到这个K8S环境中去。
Kafka
首先我们先部署一个Kafka。先定义一个名为kafka的namespace,新建一个名为00-namespace.yaml文件,内容如下:
apiVersion: v1
kind: Namespace
metadata:
name: "kafka"
labels:
name: "kafka"
运行kubectl apply -f 00-namespace.yaml进行部署。
下一步就是部署一个zookeeper,创建一个名为01-zookeeper.yaml,内容如下:
apiVersion: v1
kind: Service
metadata:
labels:
app: zookeeper-service
name: zookeeper-service
namespace: kafka
spec:
type: NodePort
ports:
- name: zookeeper-port
port: 2181
nodePort: 30181
targetPort: 2181
selector:
app: zookeeper
---
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: zookeeper
name: zookeeper
namespace: kafka
spec:
replicas: 1
selector:
matchLabels:
app: zookeeper
template:
metadata:
labels:
app: zookeeper
spec:
containers:
- image: wurstmeister/zookeeper
imagePullPolicy: IfNotPresent
name: zookeeper
ports:
- containerPort: 2181
运行kubectl apply -f 01-zookeeper.yaml进行部署
运行kubectl get service -n kafka,可以查看刚才成功创建的zookeeper-service的状态
之后就可以部署kafka了,创建一个名为02-kafka.yaml,内容如下,其中的KAFKA_ZOOKEEPER_CONNECT的环境变量设置为刚才创建的zookeeper-service的IP和端口:
apiVersion: v1
kind: Service
metadata:
labels:
app: kafka-broker
name: kafka-service
namespace: kafka
spec:
ports:
- port: 9092
selector:
app: kafka-broker
---
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: kafka-broker
name: kafka-broker
namespace: kafka
spec:
replicas: 1
selector:
matchLabels:
app: kafka-broker
template:
metadata:
labels:
app: kafka-broker
spec:
hostname: kafka-broker
containers:
- env:
- name: KAFKA_BROKER_ID
value: "1"
- name: KAFKA_ZOOKEEPER_CONNECT
value: $(ZOOKEEPER_SERVICE_SERVICE_HOST):$(ZOOKEEPER_SERVICE_SERVICE_PORT)
- name: KAFKA_LISTENERS
value: PLAINTEXT://:9092
- name: KAFKA_ADVERTISED_LISTENERS
value: PLAINTEXT://kafka-broker:9092
image: wurstmeister/kafka
imagePullPolicy: IfNotPresent
name: kafka-broker
ports:
- containerPort: 9092
运行kubectl apply -f 02-kafka.yaml进行部署。
运行kubectl get pods -n kafka,可以看到kafka和zookeeper两个pod都能正常运行。在以上的kafka的yaml文件中,我们配置了一个kafka_advertised_listeners,里面指定了kafka-broker:9092,这个是用于kafka和zookeeper之间互相通信的。我们需要在本地的/etc/hosts里面加上一条记录127.0.0.1 kafka-broker
下面我们可以测试一下kafka是否能正常工作,运行以下命令把kafka pod的9092端口暴露出来,使得可以通过访问localhost:9092来访问kafka
kubectl port-forward kafka-broker-5c55f544d4-hrgnv 9092 -n kafka
在本地安装一个名为kafkacat的工具,然后运行以下命令,往test的topic发布一条消息:
echo "hello world!" | kafkacat -P -b localhost:9092 -t test
打开另一个终端,运行以下命令,可以成功接收test主题的消息:
kafkacat -C -b localhost:9092 -t test
由此可见我们已经成功把kafka部署到k8s了
Redis
修改一下刚才的00-namespace.yaml文件,增加一个redis的命名空间,内容如下:
apiVersion: v1
kind: Namespace
metadata:
name: "kafka"
labels:
name: "kafka"
---
apiVersion: v1
kind: Namespace
metadata:
name: "redis"
labels:
name: "redis"
和Kafka类似,创建一个名为03-redis.yaml的文件,内容如下:
apiVersion: v1
kind: Service
metadata:
labels:
app: redis-master
name: redis-service
namespace: redis
spec:
ports:
- port: 6379
selector:
app: redis-master
---
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: redis-master
name: redis-master
namespace: redis
spec:
replicas: 1
selector:
matchLabels:
app: redis-master
template:
metadata:
labels:
app: redis-master
spec:
hostname: redis-master
containers:
- env:
- name: MASTER
value: "true"
image: redis:5.0.4
imagePullPolicy: IfNotPresent
name: redis-master
ports:
- containerPort: 6379
resources:
limits:
cpu: "0.1"
运行kubectl apply -f 03-redis.yaml进行部署
部署之后,我们可以运行指令kubectl exec -it –namespace=redis redis-master-5989578dfd-gnnfh — redis-cli进入redis pod,然后可以输入指令set “product” “test”设置一个key为product,value为test的键值对,然后再输入get “product”,可以正确的获取到value test
Postgresql
接下来是部署PG数据库,考虑到数据库是一个有状态的应用,当数据库的Pod出现问题失败时,K8S会自动调度一个新的Pod,但是我们不能丢失原有的数据,因此需要把数据库的文件存储在一个host path类型的volume
因为minikube本身也是作为一个docker镜像运行的,因此需要把本地的文件目录mount到minikube里面,这样才能通过hostpath的方式来使用,例如以下的命令:
minikube start --mount --mount-string="/home/roy/data/k8s_pg:/minikubeContainer/pg_data"
建立一个名为04-postgresql.yaml文件,内容如下:
apiVersion: v1
kind: Service
metadata:
name: postgresql-service
labels:
app: postgresql
namespace: postgresql
spec:
ports:
- port: 5432
targetPort: pg
selector:
app: postgresql
tier: pg
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: postgresql
labels:
app: postgresql
namespace: postgresql
spec:
selector:
matchLabels:
app: postgresql
tier: pg
strategy:
type: Recreate
template:
metadata:
labels:
app: postgresql
tier: pg
spec:
volumes:
- name: pgvolume
hostPath:
path: /data
type: Directory
containers:
- image: postgres:12
name: pg12
env:
- name: POSTGRES_DB
valueFrom:
configMapKeyRef:
name: cv-configmap
key: POSTGRES_DB
- name: POSTGRES_USER
valueFrom:
secretKeyRef:
name: cv-secret
key: POSTGRES_USER
optional: false
- name: POSTGRES_PASSWORD
valueFrom:
secretKeyRef:
name: cv-secret
key: POSTGRES_PASSWORD
optional: false
ports:
- containerPort: 5432
name: pg
volumeMounts:
- name: pgvolume
mountPath: /var/lib/postgresql/data
在这里用到了configmap和secretmap来配置Postgres的环境变量。我们可以在一个kustomization.yaml文件里面来创建这些环境变量,并且把之前创建的这些deployments组合在一起,这样就不用每次都分别创建deployment了。内容如下:
configMapGenerator:
- name: cv-configmap
envs:
- cv.env
namespace: postgresql
secretGenerator:
- name: cv-secret
literals:
- POSTGRES_USER=postgres
- POSTGRES_PASSWORD=postgres
namespace: postgresql
resources:
- 00-namespace.yaml
- 01-zookeeper.yaml
- 02-kafka.yaml
- 03-redis.yaml
- 04-postgresql.yaml
我们可以用kubectl delete deployment把之前创建的deployment删掉,然后执行kubectl apply -k kustomizationdirectory/的命令来进行部署。