背景

随着业务规模的发展,需要的kafka集群越来越来,这给部署与管理带来了很大的挑战。我们期望能够利用K8S优秀的扩容能力与快速部署能力,为日常的工作减负。所以就kafka上K8S的可行性方案进行了调研。

像kafka集群这种,涉及到的组件比较多,且都是有状态的集群,业界采用自定义operator的解决方案。目前GitHub上有多个相关的仓库,根据社区活跃度及使用数等综合考虑,此次采用Strimzi Github地址。

kafka组件交互图

方案

  1. 使用阿里云K8S集群部署Strimzi
  2. 由于组内使用的kafka是由开源版本二次开发而来,所以需要维护一个自定义的Strimzi-kafka镜像
  1. Strimzi管理kafka集群,其中包含kafka、zk、kafka-exporter、
  2. 使用zoo-entrance 代理集群中的zk GitHub地址
  1. 部署prometheus,采集kafka和zk的metrics
  2. 开启服务端口,暴露kafka及zk给K8S集群外部使用

实战过程

构建自定义kafka镜像

  • 从公司Git上拉取最新代码 strimzi-kafka-operator (与开源版本有些微的改动,做实验可直接用开源版)
  • 在docker-images 文件夹下,有个Makefile文件,执行其中的docker_build, 它会去执行其中的build.sh脚本;此步会从官网拉取kafka的安装包,我们需要将这一步的包修改为我司内部的安装包。
  • 构建完镜像,镜像在本地,我们需要将镜像上传到公司内部的harbor服务器上

部署operator

每个K8S集群仅需部署一个operator

  • 充分必要条件:一个健康的k8s集群
  • 创建namespace, 如已有则跳过,默认使用kafka,kubectl create namespace kafka
  • 从公司Git上拉取最新代码(地址在前边)
  • 目前文件中默认监听的是名称为 kafka 的namespace,如果需要修改则执行 sed -i 's/namespace: .*/namespace: kafka/' install/cluster-operator/*RoleBinding*.yaml (将命令中的kafka/ 替换掉)
  • 然后将所有文件都应用一下 kubectl apply -f install/cluster-operator/ -n kafka
  • 此时稍等片刻,就能查看到创建的自定义资源以及operator了 kubectl get pods -nkafka,
  • 从阿里云的k8s管控台查看这些资源的创建情况,以及operator的运行情况

部署kafka集群

确保你的operator已经部署成功,且kafka部署的namespace需在上边operator的监控中

  • 还是来到最新的代码目录中,其中examples/kafka目录下边就是本次部署所需要的文件了
  • 部署 kafka及zk
    • 查看kafka-persistent.yaml, 该文件就是核心文件了,这个文件部署了kafka与zk及kafka-exporter, 部分内容如下:
apiVersion: kafka.strimzi.io/v1beta2
kind: Kafka
metadata:name: my-cluster
spec:kafka:version: 2.8.1replicas: 3resources:requests:memory: 16Gicpu: 4000mlimits:memory: 16Gicpu: 4000mimage: repository.poizon.com/kafka-operator/poizon/kafka:2.8.4jvmOptions:-Xms: 3072m-Xmx: 3072mlisteners:- name: externalport: 9092type: nodeporttls: false- name: plainport: 9093type: internaltls: falseconfig:offsets.topic.replication.factor: 2transaction.state.log.replication.factor: 2transaction.state.log.min.isr: 1default.replication.factor: 2***template:pod:affinity:podAntiAffinity:requiredDuringSchedulingIgnoredDuringExecution:- labelSelector:matchExpressions:- key: strimzi.io/nameoperator: Invalues:- my-cluster-kafkatopologyKey: "kubernetes.io/hostname"storage:type: persistent-claimsize: 100Giclass: rocketmq-storagedeleteClaim: falsemetricsConfig:type: jmxPrometheusExportervalueFrom:configMapKeyRef:name: kafka-metricskey: kafka-metrics-config.ymlzookeeper:replicas: 3resources:requests:memory: 3Gicpu: 1000mlimits:memory: 3Gicpu: 1000mjvmOptions:-Xms: 2048m-Xmx: 2048mjmxOptions: {}template:pod:affinity:podAntiAffinity:***storage:type: persistent-claimsize: 50Giclass: rocketmq-storagedeleteClaim: falsemetricsConfig:type: jmxPrometheusExportervalueFrom:configMapKeyRef:name: kafka-metricskey: zookeeper-metrics-config.yml******
  • 可修改kafka集群的名称,在第四行的name属性,目前默认为 my-cluster
  • 可修改kafka的Pod个数,即节点数,默认为3
    • 可修改Pod配置 内存CPU
    • 可修改kafka JVM 启动的堆内存大小
    • 可修改kafka的配置,在36行 config配置
    • 可修改磁盘类型及大小,类型为第50行,可修改为其它的存储类,目前可选为高效云盘、SSD、ESSD
    • zk修改同kafka,可修改的东西类似, 且在同一个文件中
    • 文件下边是kafka与zk需要暴露的metrics,可按需求增删改
    • 修改完配置之后,直接执行 kubect apply -f kafka-persistent.yaml -nkafka 即可创建
  • 部署 zk代理
    • 由于官方不支持外部组件直接访问zk,所以采用代理的方式访问
    • 出于安全性 的考虑,官方是故意不支持外部程序访问zk的: https://github.com/strimzi/strimzi-kafka-operator/issues/1337
    • 解决方案:https://github.com/scholzj/zoo-entrance/blob/main/deploy.yaml
    • 部署完zk的代理,我们需要在k8s控制台上 创建一个loadbalance服务将这个代理暴露给集群外的应用进行连接。具体操作:k8s控制台-->网络-->服务-->创建(选择loadbalance创建,然后找到zoo-entrance这个应用即可)
  • 部署 zk-exporter
    • 官方operator中没有zk-exporter, 我们采用 https://github.com/dabealu/zookeeper-exporter
    • 在文件夹中的zk-exporter.yaml 文件中,我们仅需要修改被监听的zk的地址(spec.container.args)
    • 执行kubectl apply -f zk-exporter.yaml即可部署完成
  • 部署 kafka-jmx
    • 由于ingress不支持tcp连接,而loadbalance的成本又过高,所以kafka 的 jmx 使用nodeport对外暴露
    • 可以在阿里云控制台上创建相应的nodeport,也可以使用kafka-jmx.yaml 文件的方式创建
apiVersion: v1
kind: Service
metadata:labels:strimzi.io/cluster: my-clusterstrimzi.io/name: my-cluster-kafka-jmxname: my-cluster-kafka-jmx-0
spec:ports:- name: kafka-jmx-nodeportport: 9999protocol: TCPtargetPort: 9999selector:statefulset.kubernetes.io/pod-name: my-cluster-kafka-0strimzi.io/cluster: my-clusterstrimzi.io/kind: Kafkastrimzi.io/name: my-cluster-kafkatype: NodePort
  • 部署 kafka-exporter-service
    • 前面部署完kafka之后,我们的配置中是开启了exporter的。但是官方开启完exporter之后,并没有自动生成一个相关的service,为了让Prometheus连接更加方便,我们部署了一个service
    • 在文件夹中kafka-exporter-service.yaml 文件中
apiVersion: v1
kind: Service
metadata:labels:app: kafka-export-servicename: my-cluster-kafka-exporter-service
spec:ports:- port: 9404protocol: TCPtargetPort: 9404selector:strimzi.io/cluster: my-clusterstrimzi.io/kind: Kafkastrimzi.io/name: my-cluster-kafka-exportertype: ClusterIP
    • 执行kubectl apply -f kafka-exporter-service.yaml即可部署完成
  • 部署 kafka-prometheus
    • 如果将Prometheus部署在k8s集群外,数据采集会比较麻烦,所以我们直接将Prometheus部署到集群内
    • 在文件夹中kafka-prometheus.yaml文件中,可以选择性的修改其中prometheus的配置,比如需要的内存CPU的大小,比如监控数据保存时间,外挂的云盘大小,以及需要监听的kafka与zk地址
apiVersion: apps/v1
kind: StatefulSet
metadata:name: kafka-prometheuslabels:app: kafka-prometheus
spec:replicas: 1revisionHistoryLimit: 10selector:matchLabels:app: kafka-prometheusserviceName: kafka-prometheusupdateStrategy:type: RollingUpdatetemplate:metadata:labels:app: kafka-prometheusspec:containers:- args:- '--query.max-concurrency=800'- '--query.max-samples=800000000'***command:- /bin/prometheusimage: 'repository.poizon.com/prometheus/prometheus:v2.28.1'imagePullPolicy: IfNotPresentlivenessProbe:failureThreshold: 10httpGet:path: /statusport: webscheme: HTTPinitialDelaySeconds: 300periodSeconds: 5successThreshold: 1timeoutSeconds: 3name: kafka-prometheusresources:limits:cpu: 500mmemory: 512Mirequests:cpu: 200mmemory: 128MivolumeMounts:- mountPath: /etc/localtimename: volume-localtime- mountPath: /data/prometheus/name: kafka-prometheus-config- mountPath: /data/database/prometheusname: kafka-prometheus-dbterminationMessagePath: /dev/termination-logterminationMessagePolicy: FileterminationGracePeriodSeconds: 30restartPolicy: AlwaysschedulerName: default-schedulersecurityContext:fsGroup: 0volumes:- hostPath:path: /etc/localtimetype: ''name: volume-localtime- configMap:defaultMode: 420name: kafka-prometheus-configname: kafka-prometheus-configvolumeClaimTemplates:- apiVersion: v1kind: PersistentVolumeClaimmetadata:name: kafka-prometheus-dbspec:accessModes:- ReadWriteOnceresources:requests:storage: 20GistorageClassName: rocketmq-storagevolumeMode: Filesystemstatus:phase: Pending
    • 执行kubectl apply -f kafka-prometheus.yaml即可部署完成
    • 部署完成后将prometheus暴露给监控组的grafana,可以直连pod IP做验证,然后在k8s管控台的 网络-->路由-->创建, 创建一个ingress,选择刚刚部署的这个Prometheus的service,然后找运维申请域名,即可。

总结

  • 优点
    • 快速部署集群(分钟级),快速集群扩容(秒级),快速灾难恢复(秒级)
    • 支持滚动更新,支持备份以及还原
  • 缺点
    • 引入较多组件,复杂度升高
    • 对K8S集群外的访问不太友好
  • 文/ZUOQI

  • 关注得物技术,做最潮技术人

Kafka上K8S实战相关推荐

  1. 炫‘库’行动-人大金仓有奖征文-挑战国产数据库金仓上k8s(二)

    本文正在参与炫"库"行动-人大金仓有奖征文: 快来点击活动链接参与投稿吧 https://marketing.csdn.net/p/98bd30353e7cb998b6070a89 ...

  2. K8S实战:Centos7上集群部署

    K8S实战:Centos7上集群部署 更多技术类博文,请关注微信公众号:运维之美. 集群架构 k8s集群的架构 master节点:etcd,api-server,scheduler,controlle ...

  3. .net core上 K8S(七).netcore程序的服务发现

    正文 上一章我们分享了k8s的网络代理模式,今天我们来分享一下k8s中的服务发现. 1.环境变量模式的服务发现 k8s默认为我们提供了通过环境变量来实现服务发现的功能,前提是 1.需要service在 ...

  4. .net core i上 K8S(六).netcore程序的service网络代理模式

    正文 上一章我们讲了pod的hostip模式,但在生产环境中,我们都是通过service来访问k8s集群的,service有两种模式来暴漏端口,今天我们来分享一下 1.clusterIP模式 我们在创 ...

  5. .net core i上 K8S(五).netcore程序的hostip模式

    正文 上一章讲了pod的管理,今天再分享一个pod的访问方式 1.Pod的HostIP模式 Pod的HostIP模式,可以通过宿主机访问pod内的服务,创建yaml文件如下 apiVersion: v ...

  6. k8s实战之从私有仓库拉取镜像 - kubernetes

    1.实战目的 从私有docker仓库拉取镜像,部署pod.上一篇中,我们搭建了私有的镜像仓库,这一篇我们将与k8s结合实战使用私有仓库. 2.登录docker 为了完成本次实战,需要登录docker, ...

  7. K8S实战之环境部署1.18(一)

    安装要求,准备环境 #系统centos7.6 #硬件:2个CPU,2G内存 #可以访问外网,禁用swap #提前安装docker环境 准备三台服务器 初始化系统环境,以下命令三台服务器全部执行 1.1 ...

  8. K8S实战之部署java应用

    kubernetes基本概念 Pod: 1.最小的部署单元, 2.一组容器的集合 3.一个pod中的容器共享网络命名空间 4.生命周期是短暂的 Controllers: 1.Deployment:部署 ...

  9. 【K8S实战】-超详细教程(二)

    [K8S实战]-超详细教程(二) 环境这块的这里我就不过多描述了,需要了解的可以看这篇文章[k8s搭建(超详细,保姆级教程)]. 1.Deployment Deployment其他功能我上一篇文章已写 ...

  10. 【K8S实战】-超详细教程(三)

    [K8S实战]-超详细教程(三) 1.存储 1.1.nfs默认存储 我这里只演示nfs作为K8S的默认存储,其他的可以看这里[存储类]. 1.1.1.安装nfs服务 所有机器都安装nfs工具 所有机器 ...

最新文章

  1. Learning to rank在淘宝的应用
  2. php伪静态框架,Nginx之php框架常见伪静态rewrite配置
  3. .net 和 java 技术对应关系
  4. 单链表的查找和取值-1
  5. 怎么改变asp.net中.sln文件的默认生成路径
  6. Android Studio导入项目遇到的问题
  7. nodemcu引脚_一、ESP32开发板NodeMCU-32S简介
  8. python模块:array数组模块
  9. 中国人工智能趋势报告(完整版)
  10. oracle如何验证导入完整,关于Oracle 9i导入/导出效果的测试报告
  11. 局域网SDN技术硬核内幕 一 从二层到大二层
  12. 1183 电力(点的双连通分量--求解割点)
  13. 2020CCPC长春站第一场区域赛打铁记
  14. Ubuntu下声卡驱动解决方法alsa
  15. 现代医院智能化系统方案及其难点探讨
  16. vue 实现无限轮播_vue图片无限轮播
  17. SpringBoot+jdk1.8邮件发送
  18. Android 系统电量统计
  19. 本科计算机找不到工作,中国IT行业缺口突破百万,为什么计算机行业毕业生还是找不到工作...
  20. Ti的可调电流源芯片XTR111中文翻译手册

热门文章

  1. 正大国际琪貨纯手召:期货交易中的五大忌
  2. Unity hold on.. importing Assets问题
  3. 关于华为AR/HUAWEI AR Engine
  4. 这款软件有多“硬” ——从国内首款基于云架构的三维CAD平台CrownCAD说起
  5. 市场营销渠道四个步骤?
  6. arm920t内核技术手册
  7. iOS中HTTPS证书验证浅析
  8. 论uni-app中,文本首行缩进两个字符解决方法
  9. 简易编程入门Part1
  10. 2012服务器清理系统盘,windows2012磁盘清理