经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 数据库/运维 » Kubernetes » 查看文章
用户数从 0 到亿,我的 K8s 踩坑血泪史
来源:cnblogs  作者:阿里巴巴云原生  时间:2019/9/10 10:38:02  对本文有异议

file
作者 |?平名 阿里服务端开发技术专家

导读:容器服务 Kubernetes 是目前炙手可热的云原生基础设施,作者过去一年上线了一个用户数极速增长的应用:该应用一个月内日活用户从零至四千万,用户数从零到一亿的裂变式增长,充分享受了容器服务快速简便的扩容操作和高可用特性。作者使用容器服务 Kubernetes 集群将公司内系统完全上云 1 年多,本篇文章记录了其中的踩坑与优化记录。

关注“阿里巴巴云原生”公众号,回复关键词“资料”,即可获得 2019 全年meetup 活动 PPT 合集及 K8s 最全知识图谱。

创建集群

创建集群时,做好规划,选择优化好的集群配置,可以大大减少后期运维工作,其中部分集群的配置在建立后再也没法修改或者修改极其麻烦。

集群规划

? ? ? ? ? ? Terway 是阿里云容器服务自研的网络插件,功能上完全兼容 Flannel,如果保守,还是使用 Flannel??

  • Pod 网络 CIDR

默认 16 的大网段,有效的网段或者其子网 10.0.0.0/8,172.16-31.0.0/12-16,192.168.0.0/16

  • Service CIDR
    • 默认 20 的网段,可选:10.0.0.0/16-24,172.16-31.0.0/16-24,192.168.0.0/16-24
    • 网段不能冲突重复,建立后没法修改;
    • 多个区域的多个交换机。
  • 公网访问 ApiServer
    • 对于线上等安全要求高的集群,可以选择不暴露 apiserver, 只有私网 SLB, 但是这样没法使用云效发布;
    • 日常预发等集群,可以暴露公网 SLB 到 apiserver, 集群建立后立即为 slb 建立访问控制,限制 slb 只能云效访问;

注: K8s 每次安全漏洞几乎都与 ApiServer 有关,对于线上 K8s 集群,要及时升级补丁,或者不开放公网 apiserver,使用严格的安全组和访问控制。

  • 安全组
    • 设置安全组限定访问范围,为 master 与 worker 机器使用。

?

  • Master 机器规划

? ?为了高可用,一般使用 3 节点,Master 选择规则如下:

节点数 ?master 规格
1-5个 4C8G
6-20个节点 4C16G
21-100个节点 8C32G
100-200个节点 16C64G

master 机器的存储建议高性能的 50-100G SSD,因为会运行 ETCD,操作系统占用不超过 8G。

  • Worker 机器规划
    • 阿里云首推神龙机器,没有神龙机器的区域,选用高配 ECS,配置规格根据部署的 POD 规格乘以一定倍数,比如 Java 应用 pod 一般选择 4C8G,ECS 则购买 32C64G 或者 64C128G 为好,设置部署的时候为 pod 设置固定的 request/limit;
    • 我们选用的机器配置:
      • 32C64G ECS
      • 存储。系统盘:100G SSD,? 数据盘:400G 高效云盘
      • 操作系统:centos 7.4 64 位

集群建立与配置

建立集群时设置:

  • 通过控制台建立集群,阿里云容器服务提供的非常简易的一键部署集群功能,通过向导完成 K8S 集群的建立;
  • 按照以上规划设置 master,worker 节点,挂载 /var/lib/docker 到数据盘;
  • 设置合理的 Pod 网络 CIDR, Service CIDR ip 网段;
  • 设置合理的安全策略,是否暴露 apiserver(需要直接云效发布的,需要开放公网暴露,并做严格的访问控制);
  • ingress 选择安全,可以使用内网,如果需要公网,可以在控制台很方便建立,同时做好访问控制;
  • kube-proxy 模式,因为 iptables 模式在更新一条规则时把 iptables 锁住引发的性能问题,建议使用 IPVS 模式;
  • 节点 POD 数量,默认 128 太大,一个节点不可能部署这么多,建议改为 64;
  • 节点服务端口访问 (NodePort,SLB),可以适当扩大,默认的也一般足够用。

集群配置修改:

部署设置

无状态部署

使用无状态部署 Deployment,参考这篇文章实现分批发布
优化设置模板:?

  1. apiVersion: apps/v1beta2
  2. kind: Deployment
  3. metadata:
  4. annotations:
  5. deployment.kubernetes.io/revision: '34'
  6. # 标签,映射 service
  7. labels:
  8. app: {app_name}-aone
  9. name: {app_name}-aone-1
  10. namespace: {app_name}
  11. spec:
  12. progressDeadlineSeconds: 600
  13. replicas: 1
  14. revisionHistoryLimit: 10
  15. selector:
  16. matchLabels:
  17. app: {app_name}-aone
  18. # 批量重启更新策略
  19. strategy:
  20. rollingUpdate:
  21. maxSurge: 25%
  22. maxUnavailable: 25%
  23. type: RollingUpdate
  24. template:
  25. metadata:
  26. labels:
  27. app: {app_name}-aone
  28. spec:
  29. containers:
  30. # 环境变量增加时区
  31. - env:
  32. - name: TZ
  33. value: Asia/Shanghai
  34. - image: >-
  35. registry-vpc.cn-north-2-gov-1.aliyuncs.com/{namespace}/{app_name}:20190820190005
  36. imagePullPolicy: Always
  37. # 启动前执行优雅下线摘除 服务注册
  38. lifecycle:
  39. preStop:
  40. exec:
  41. command:
  42. - sudo
  43. - '-u'
  44. - admin
  45. - /home/{user_name}/{app_name}/bin/appctl.sh
  46. - {app_name}
  47. - stop
  48. # 存活检查,强烈建议设置
  49. livenessProbe:
  50. failureThreshold: 10
  51. initialDelaySeconds: 30
  52. periodSeconds: 10
  53. successThreshold: 1
  54. tcpSocket:
  55. port: 5900
  56. timeoutSeconds: 1
  57. name: {app_name}-aone
  58. # 就绪检查,强烈建议设置
  59. readinessProbe:
  60. failureThreshold: 10
  61. initialDelaySeconds: 30
  62. periodSeconds: 10
  63. successThreshold: 1
  64. tcpSocket:
  65. port: 5900
  66. timeoutSeconds: 1
  67. # 资源限制,这个一定要合理设置
  68. resources:
  69. limits:
  70. cpu: '4'
  71. memory: 8Gi
  72. requests:
  73. cpu: '4'
  74. memory: 8Gi
  75. terminationMessagePath: /dev/termination-log
  76. terminationMessagePolicy: File
  77. # 日志存放目录,映射到节点的/var/lib/docker/logs 数据盘,应用日志目录设置到/home/{user_name}/logs 下
  78. volumeMounts:
  79. - mountPath: /home/{user_name}/logs
  80. name: volume-1553755418538
  81. dnsPolicy: ClusterFirst
  82. ## 私有镜像仓库的密钥,从保密字段获取
  83. imagePullSecrets:
  84. - name: {app_name}-987
  85. restartPolicy: Always
  86. schedulerName: default-scheduler
  87. securityContext: {}
  88. terminationGracePeriodSeconds: 30
  89. # 日志存放目录,映射到节点的/var/lib/docker/logs 数据盘
  90. volumes:
  91. - hostPath:
  92. path: /var/lib/docker/logs/{app_name}
  93. type: ''
  94. name: volume-1553755418538

?

服务设置

因为容器服务的 Cloud Controller Manager 会同步删除 service 建立关联的 SLB,为了防止 service 配置修改误删除 slb 故障,并导致域名、安全等配置需要修改的坑,强烈建议 service 与 slb 解耦,service 采用 NodePort 的方式,slb 另外建立后端服务器指向集群节点,如果需要透传真实 IP,并考虑负载均衡,需要遵守一定的配置规则和方法,参考这个文章

NodePort:

  1. apiVersion: v1
  2. kind: Service
  3. metadata:
  4. name: {app_name}
  5. namespace: {namespaces}
  6. spec:
  7. clusterIP: 10.1.50.65
  8. ## 策略关系到是否透传真实 IP
  9. externalTrafficPolicy: Cluster
  10. ports:
  11. - name: {app_name}-80-7001
  12. nodePort: 32653
  13. port: 80
  14. protocol: TCP
  15. targetPort: 7001
  16. - name: {app_name}-5908-5908
  17. nodePort: 30835
  18. port: 5108
  19. protocol: TCP
  20. targetPort: 5108
  21. selector:
  22. app: {app_name}
  23. sessionAffinity: None
  24. type: NodePort
  25. status:
  26. loadBalancer: {}

然后在负载均衡管理页面,选择后端服务器指向集群的 worker 机器,设置端口为以上服务的端口:32653,完成配置,这样在集群 service 修改或者删除重建的时候,slb 不会被集群的 CCM 删除,不会涉及到域名,安全等配置修改。同时,可以设置一些策略,需要升级修改服务配置时,分批切流等。

总结

阿里云容器服务控制台虽然是云上新产品,提供了极其简单的一键部署功能,以及简便的控制台管理。过去一年中,笔者一路见识阿里云容器服务控制台从简陋向强大的转变过程,虽然多次踩坑,但阿里云容器服务同学认真负责和极好的服务态度让人佩服。

容器服务管理控制台还需要更多的考虑实际运维需求,并紧密结合已有的云产品,比如云效、EDAS、云监控、日志服务等,以应用为单位,提供更好服务。


扫描下方二维码添加小助手,与 8000 位云原生爱好者讨论技术趋势,实战进阶!
进群暗号:公司-岗位-城市
file

原文链接:http://www.cnblogs.com/alisystemsoftware/p/11454755.html

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号