Skip to content

Commit

Permalink
Merge pull request kubernetes#45359 from windsonsea/mulzone
Browse files Browse the repository at this point in the history
[zh] Sync multiple-zones.md
  • Loading branch information
k8s-ci-robot authored Feb 28, 2024
2 parents 2804225 + 03138d1 commit 5b716f5
Showing 1 changed file with 54 additions and 49 deletions.
103 changes: 54 additions & 49 deletions content/zh-cn/docs/setup/best-practices/multiple-zones.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
---
title: 运行于多可用区环境
weight: 10
weight: 20
content_type: concept
---
<!--
Expand All @@ -9,7 +9,7 @@ reviewers:
- justinsb
- quinton-hoole
title: Running in multiple zones
weight: 10
weight: 20
content_type: concept
-->

Expand All @@ -18,7 +18,7 @@ content_type: concept
<!--
This page describes running a cluster across multiple zones.
-->
本页描述如何跨多个区(Zone)中运行集群
本页描述如何跨多个区(Zone)运行集群

<!-- body -->

Expand All @@ -35,11 +35,11 @@ APIs and services.
Typical cloud architectures aim to minimize the chance that a failure in
one zone also impairs services in another zone.
-->
## 背景
## 背景 {#background}

Kubernetes 从设计上允许同一个 Kubernetes 集群跨多个失效区来运行,
通常这些区位于某个称作 _区域(region)_ 逻辑分组中。
主要的云提供商都将区域定义为一组失效区的集合(也称作 _可用区(Availability Zones_),
通常这些区位于某个称作 **区域(Region)** 逻辑分组中。
主要的云提供商都将区域定义为一组失效区的集合(也称作 **可用区(Availability Zones**),
能够提供一组一致的功能特性:每个区域内,各个可用区提供相同的 API 和服务。

典型的云体系结构都会尝试降低某个区中的失效影响到其他区中服务的概率。
Expand All @@ -66,10 +66,10 @@ If you are running a cloud controller manager then you should
also replicate this across all the failure zones you selected.
-->
当你部署集群控制面时,应将控制面组件的副本跨多个失效区来部署。
如果可用性是一个很重要的指标,应该选择至少三个失效区,并将每个
控制面组件(API 服务器、调度器、etcd、控制器管理器)复制多个副本,
跨至少三个失效区来部署。如果你在运行云控制器管理器,则也应该将
该组件跨所选的三个失效区来部署
如果可用性是一个很重要的指标,应该选择至少三个失效区,
并将每个控制面组件(API 服务器、调度器、etcd、控制器管理器)复制多个副本,
跨至少三个失效区来部署。如果你在运行云控制器管理器,
则也应该将该组件跨所选的三个失效区来部署

{{< note >}}
<!--
Expand All @@ -94,9 +94,9 @@ reduce the impact of failures.
-->
## 节点行为 {#node-behavior}

Kubernetes 自动为负载资源(如{{< glossary_tooltip text="Deployment" term_id="deployment" >}}
或 {{< glossary_tooltip text="StatefulSet" term_id="statefulset" >}})
跨集群中不同节点来部署其 Pods
Kubernetes 自动为负载资源(如 {{< glossary_tooltip text="Deployment" term_id="deployment" >}}
或 {{< glossary_tooltip text="StatefulSet" term_id="statefulset" >}})
跨集群中不同节点来部署其 Pod
这种分布逻辑有助于降低失效带来的影响。

<!--
Expand All @@ -106,8 +106,8 @@ that represents that specific kubelet in the Kubernetes API.
These labels can include
[zone information](/docs/reference/labels-annotations-taints/#topologykubernetesiozone).
-->
节点启动时,每个节点上的 kubelet 会向 Kubernetes API 中代表该 kubelet 的 Node 对象
添加 {{< glossary_tooltip text="标签" term_id="label" >}}。
节点启动时,每个节点上的 kubelet 会向 Kubernetes API 中代表该 kubelet 的 Node
对象添加{{< glossary_tooltip text="标签" term_id="label" >}}。
这些标签可能包含[区信息](/zh-cn/docs/reference/labels-annotations-taints/#topologykubernetesiozone)

<!--
Expand All @@ -123,11 +123,9 @@ failure affects your whole workload.
-->
如果你的集群跨了多个可用区或者地理区域,你可以使用节点标签,结合
[Pod 拓扑分布约束](/zh-cn/docs/concepts/scheduling-eviction/topology-spread-constraints/)
来控制如何在你的集群中多个失效域之间分布 Pods。这里的失效域可以是
地理区域、可用区甚至是特定节点。
这些提示信息使得{{< glossary_tooltip text="调度器" term_id="kube-scheduler" >}}
能够更好地分布 Pods,以实现更好的可用性,降低因为某种失效给整个工作负载
带来的风险。
来控制如何在你的集群中多个失效域之间分布 Pod。这里的失效域可以是地理区域、可用区甚至是特定节点。
这些提示信息使得{{< glossary_tooltip text="调度器" term_id="kube-scheduler" >}}能够更好地调度
Pod,以实现更好的可用性,降低因为某种失效给整个工作负载带来的风险。

<!--
For example, you can set a constraint to make sure that the
Expand All @@ -136,8 +134,8 @@ other, whenever that is feasible. You can define this declaratively
without explicitly defining which availability zones are in use for
each workload.
-->
例如,你可以设置一种约束,确保某个 StatefulSet 中的三个副本都运行在
不同的可用区中,只要其他条件允许。你可以通过声明的方式来定义这种约束,
例如,你可以设置一种约束,确保某个 StatefulSet 中的 3 个副本都运行在不同的可用区中,
只要其他条件允许。你可以通过声明的方式来定义这种约束,
而不需要显式指定每个工作负载使用哪些可用区。

<!--
Expand All @@ -151,18 +149,18 @@ Using tools such as the Cluster API you can define sets of machines to run as
worker nodes for your cluster across multiple failure domains, and rules to
automatically heal the cluster in case of whole-zone service disruption.
-->
### 跨多个区分布节点 {#distributing-nodes-across-zones}
### 跨多个区分布节点 {#distributing-nodes-across-zones}

Kubernetes 的核心逻辑并不会帮你创建节点,你需要自行完成此操作,或者使用
类似 [Cluster API](https://cluster-api.sigs.k8s.io/) 这类工具来替你管理节点。
Kubernetes 的核心逻辑并不会帮你创建节点,你需要自行完成此操作,或者使用类似
[Cluster API](https://cluster-api.sigs.k8s.io/) 这类工具来替你管理节点。

<!--
Using tools such as the Cluster API you can define sets of machines to run as
worker nodes for your cluster across multiple failure domains, and rules to
automatically heal the cluster in case of whole-zone service disruption.
-->
使用类似 Cluster API 这类工具,你可以跨多个失效域来定义一组用做你的集群
工作节点的机器,以及当整个区的服务出现中断时如何自动治愈集群的策略。
使用类似 Cluster API 这类工具,你可以跨多个失效域来定义一组用做你的集群工作节点的机器,
以及当整个区的服务出现中断时如何自动治愈集群的策略。

<!--
## Manual zone assignment for Pods
Expand All @@ -171,16 +169,15 @@ You can apply [node selector constraints](/docs/concepts/scheduling-eviction/ass
to Pods that you create, as well as to Pod templates in workload resources
such as Deployment, StatefulSet, or Job.
-->
## Pods 手动指定区
## Pod 手动指定区 {#manual-zone-assignment-for-pods}

<!--
You can apply [node selector constraints](/docs/concepts/scheduling-eviction/assign-pod-node/#nodeselector)
to Pods that you create, as well as to Pod templates in workload resources
such as Deployment, StatefulSet, or Job.
-->
你可以应用[节点选择算符约束](/zh-cn/docs/concepts/scheduling-eviction/assign-pod-node/#nodeselector)
到你所创建的 Pods 上,或者为 Deployment、StatefulSet 或 Job 这类工作负载资源
中的 Pod 模板设置此类约束。
你可以应用[节点选择算符约束](/zh-cn/docs/concepts/scheduling-eviction/assign-pod-node/#nodeselector)到你所创建的
Pod 上,或者为 Deployment、StatefulSet 或 Job 这类工作负载资源中的 Pod 模板设置此类约束。

<!--
## Storage access for zones
Expand All @@ -195,12 +192,20 @@ Please note that the method of adding zone labels can depend on your
cloud provider and the storage provisioner you’re using. Always refer to the specific
documentation for your environment to ensure correct configuration.
-->
## 跨区的存储访问
## 跨区的存储访问 {#storage-access-for-zones}

当创建持久卷时,Kubernetes 会自动向那些链接到特定区的 PersistentVolume 添加区标签。
当创建持久卷时,Kubernetes 会自动向那些链接到特定区的 PersistentVolume 添加区标签。
{{< glossary_tooltip text="调度器" term_id="kube-scheduler" >}}通过其
`NoVolumeZoneConflict` 断言确保申领给定 PersistentVolume 的 Pods 只会
被调度到该卷所在的可用区。
`NoVolumeZoneConflict` 断言确保申领给定 PersistentVolume 的 Pod
只会被调度到该卷所在的可用区。

<!--
Please note that the method of adding zone labels can depend on your
cloud provider and the storage provisioner you’re using. Always refer to the specific
documentation for your environment to ensure correct configuration.
-->
请注意,添加区标签的方法可能取决于你的云提供商和存储制备器。
请参阅具体的环境文档,确保配置正确。

请注意,添加区标签的方法可能会根据你所使用的云提供商和存储制备器而有所不同。
为确保配置正确,请始终参阅你的环境的特定文档。
Expand All @@ -212,10 +217,11 @@ storage in that class may use.
To learn about configuring a StorageClass that is aware of failure domains or zones,
see [Allowed topologies](/docs/concepts/storage/storage-classes/#allowed-topologies).
-->
你可以为 PersistentVolumeClaim 指定{{< glossary_tooltip text="StorageClass" term_id="storage-class" >}}
你可以为 PersistentVolumeClaim 指定
{{< glossary_tooltip text="StorageClass" term_id="storage-class" >}}
以设置该类中的存储可以使用的失效域(区)。
要了解如何配置能够感知失效域或区的 StorageClass,请参阅
[可用的拓扑逻辑](/zh-cn/docs/concepts/storage/storage-classes/#allowed-topologies)
要了解如何配置能够感知失效域或区的 StorageClass,
请参阅[可用的拓扑逻辑](/zh-cn/docs/concepts/storage/storage-classes/#allowed-topologies)

<!--
## Networking
Expand All @@ -228,13 +234,13 @@ elements. For example, if your cloud provider supports Services with
same zone as the load balancer element processing a given connection.
Check your cloud provider's documentation for details.
-->
## 网络 {#networking}
## 网络 {#networking}

Kubernetes 自身不提供与可用区相关的联网配置。
你可以使用[网络插件](/zh-cn/docs/concepts/extend-kubernetes/compute-storage-net/network-plugins/)
来配置集群的联网,该网络解决方案可能拥有一些与可用区相关的元素。
例如,如果你的云提供商支持 `type=LoadBalancer` 的 Service,则负载均衡器
可能仅会将请求流量发送到运行在负责处理给定连接的负载均衡器组件所在的区
例如,如果你的云提供商支持 `type=LoadBalancer` 的 Service,
则负载均衡器可能仅会将请求流量发送到运行在负责处理给定连接的负载均衡器组件所在的区
请查阅云提供商的文档了解详细信息。

<!--
Expand All @@ -243,8 +249,8 @@ For custom or on-premises deployments, similar considerations apply.
{{< glossary_tooltip text="Ingress" term_id="ingress" >}} behavior, including handling
of different failure zones, does vary depending on exactly how your cluster is set up.
-->
对于自定义的或本地集群部署,也可以考虑这些因素
{{< glossary_tooltip text="Service" term_id="service" >}}
对于自定义的或本地集群部署,也可以考虑这些因素
{{< glossary_tooltip text="Service" term_id="service" >}}
{{< glossary_tooltip text="Ingress" term_id="ingress" >}} 的行为,
包括处理不同失效区的方法,在很大程度上取决于你的集群是如何搭建的。

Expand All @@ -266,11 +272,11 @@ something to consider.
-->
## 失效恢复 {#fault-recovery}

在搭建集群时,你可能需要考虑当某区域中的所有失效区都同时掉线时,是否以及如何
恢复服务。例如,你是否要求在某个区中至少有一个节点能够运行 Pod?
在搭建集群时,你可能需要考虑当某区域中的所有失效区都同时掉线时,是否以及如何恢复服务。
例如,你是否要求在某个区中至少有一个节点能够运行 Pod?
请确保任何对集群很关键的修复工作都不要指望集群中至少有一个健康节点。
例如:当所有节点都不健康时,你可能需要运行某个修复性的 Job,
该 Job 要设置特定的{{< glossary_tooltip text="容忍度" term_id="toleration" >}}
该 Job 要设置特定的{{< glossary_tooltip text="容忍度" term_id="toleration" >}}
以便修复操作能够至少将一个节点恢复为可用状态。

Kubernetes 对这类问题没有现成的解决方案;不过这也是要考虑的因素之一。
Expand All @@ -281,6 +287,5 @@ Kubernetes 对这类问题没有现成的解决方案;不过这也是要考虑
To learn how the scheduler places Pods in a cluster, honoring the configured constraints,
visit [Scheduling and Eviction](/docs/concepts/scheduling-eviction/).
-->
要了解调度器如何在集群中放置 Pods 并遵从所配置的约束,可参阅
[调度与驱逐](/zh-cn/docs/concepts/scheduling-eviction/)

要了解调度器如何在集群中放置 Pod 并遵从所配置的约束,
可参阅[调度与驱逐](/zh-cn/docs/concepts/scheduling-eviction/)

0 comments on commit 5b716f5

Please sign in to comment.