vlambda博客
学习文章列表

上k8s生产环境的准备


在生产中运行应用程序可能很棘手。这篇文章提出了一个自以为是的清单,用于在 Kubernetes 上使用 Web 服务(即应用程序公开 HTTP API)进入生产环境。

一般

  • 应用程序的名称、描述、用途和拥有团队被清楚地记录在案(例如通过服务树)
  • 定义应用程序的关键级别(例如,如果应用程序对业务非常关键,则为“关键链路程序”)
  • 开发团队对k8s技术栈有足够的知识/经验,比如服务无状态等
  • 确定并通知负责的 24/7 待命团队
  • 存在上线计划,包括(潜在回滚的步骤)

应用

  • 应用程序的代码库 (git) 有关于如何开发、如何配置以及如何更改的明确说明(对于紧急修复很重要)
  • 代码依赖被固定(即修补程序更改不会意外引入新库)
  • 遵循OpenTracing/OpenTelemetry语义约定
  • 所有发起的 HTTP 调用都定义超时时间
  • HTTP 连接池根据预期流量配置合理的值
  • 线程池或非阻塞异步代码已正确实现与配置
  • redis,数据库连接池配置大小正确
  • 为依赖服务实施重试和重试策略(例如退避抖动)
  • 根据业务需求定义的回滚机制
  • 实施了减载/速率限制机制(可能是提供的基础设施的一部分)
  • 应用程序指标公开以供收集(例如由 Prometheus 抓取)
  • 应用程序日志转到 stdout/stderr
  • 应用程序日志遵循良好的实践(例如结构化日志记录、有意义的消息)、明确定义日志级别,并且默认情况下对生产禁用调试日志记录(可以选择打开)
  • 应用程序容器因致命错误而崩溃(即它没有进入某些不可恢复的状态或死锁)
  • 应用程序设计与代码由高级工程师审查

安全与合规

  • 应用程序可以作为非特权用户(非 root)运行
  • 应用程序不需要可写的容器文件系统(即可以只读挂载)
  • HTTP 请求经过身份验证和授权(例如使用 OAuth)
  • 缓解拒绝服务 (DOS) 攻击的机制已经到位(例如入口速率限制、WAF)
  • 进行了安全审计
  • 代码/依赖项的自动漏洞检查已经到位
  • 处理后的数据被理解、分类(例如 PII)并记录在案
  • 已创建威胁模型并记录风险
  • 遵循其他适用的组织规则和合规标准

持续集成/持续交付

  • 每次更改都会自动运行
  • 自动化测试是交付管道的一部分
  • 生产部署不需要手动操作
  • 所有相关团队成员都可以部署和回滚
  • 生产部署有冒烟测试和可选的自动回滚
  • 从代码提交到生产的前置时间很快(例如 15 分钟或更短,包括测试运行)

Kubernetes

  • 开发团队受过 Kubernetes 主题培训,了解相关概念
  • Kubernetes 清单使用最新的 API 版本(例如,用于部署的apps/v1)
  • 容器以非 root 用户身份运行并使用只读文件系统
  • 定义了适当的就绪探针
  • 未使用 Liveness Probe,或者使用 Liveness Probe 有明确的理由
  • Kubernetes 部署至少有两个副本
  • 如果足够,则配置水平自动缩放 (HPA)
  • 根据性能与负载测试设置内存和 CPU 请求
  • 内存限制等于内存请求(避免内存过度使用)
  • 未设置 CPU 限制或 CPU 节流的影响很好理解
  • 为容器环境正确配置了应用程序(例如 JVM 堆、单线程运行时、非容器感知的运行时)
  • 每个容器运行单个应用程序进程
  • 应用程序可以在不中断的情况下处理正常关闭和滚动更新
  • 如果应用程序不处理正常终止,则使用Pod Lifecycle Hook(例如preStop 中的“sleep 20” )
  • 设置所有必需的 Pod 标签
  • 应用程序设置为高可用性:Pod 分布在故障域或应用程序部署到多个集群
  • Kubernetes Service 为 pod 使用正确的标签选择器(例如,不仅匹配“应用程序”标签,还匹配“组件”和“环境”以供将来扩展)
  • 可选:根据需要使用容忍(例如将 pod 绑定到特定的节点池)

监控

  • 收集了四个黄金信号的指标
  • 收集应用程序指标(例如通过 Prometheus 抓取)
  • 将数据库(例如 PostgreSQL 数据库)受到监控
  • SLO 已定义
  • 存在监控仪表板(例如 Grafana)(可以自动设置)
  • 警报规则是根据影响而不是潜在原因定义的

测试

  • 断点测试(系统/混沌测试)
  • 执行负载测试以反映预期的流量模式
  • 测试了数据存储(如 PostgreSQL 数据库)的备份和恢复

24/7 服务团队

  • 所有相关的 24/7服务团队都被告知上线(例如其他团队、SRE 或其他角色,如事件指挥官)
  • 24/7 服务团队对应用程序和业务环境有足够的了解
  • 24/7 服务团队拥有必要的生产访问权限(例如 kubectl、kube-web-view、应用程序日志)
  • 24/7 服务团队拥有解决技术堆栈(例如 JVM)生产问题的专业知识
  • 24/7 服务团队经过培训并有信心执行标准操作(扩展、回滚等)
  • 设置了呼叫 24/7 服务团队的监控警报
  • 告警自动升级规则已到位(例如,在 10 分钟后没有确认升级高级级别)
  • 存在进行事后分析和传播事件学习的过程
  • 定期进行应用程序与操作审查(例如查看 SLO 违规情况)