7.7.2 扩展资源与 Device Plugin
在 Kubernetes 中,宿主机的标准资源(如 CPU、内存和存储)由 Kubelet 自动报告。然而,在某些情况下,宿主机可能存在异构资源(如 GPU、FPGA、RDMA 或某些硬件加速器),Kubernetes 本身并未对此进行识别和管理。
1. 扩展资源
作为一个通用型的容器编排平台,Kubernetes 自然需要与各类异构资源集成,以满足不同用户的需求。因此,Kubernetes 提供了扩展资源(Extended Resource)机制,使集群管理员能够声明、管理和使用除标准资源之外的自定义资源。
为了能让调度器知道自定义资源在每台宿主机的可用量,宿主机节点必须能够访问 API Server 汇报自定义资源情况。Kubernetes 中,汇报自定义资源的手段是向 Kubernetes API Server 发送 HTTP PATCH 请求。例如,某个宿主机节点中带有 4 个 GPU 资源。下面是一个 PATCH 请求的示例,该请求为 <your-node-name>
节点发布 4 个 GPU 资源。
PATCH /api/v1/nodes/<your-node-name>/status HTTP/1.1
Accept: application/json
Content-Type: application/json-patch+json
Host: k8s-master:8080
[
{
"op": "add",
"path": "/status/capacity/nvidia.com~1gpu",
"value": "4"
}
]
需要注意的是,上述 PATCH 请求仅告知 Kubernetes,某宿主机节点 <your-node-name>
拥有 4 个名为 GPU 的资源。Kubernetes 并不理解 GPU 资源的具体含义和用途。
在 Kubernetes 中,各种资源可用量可在 Node Status 内容查看。如下所示,使用 kubectl describe node 命令查看宿主机节点资源情况。可以看到,输出了刚才扩展的 nvidia.com/gpu 资源,容量(capacity)为 4。
$ kubectl describe node <your-node-name>
...
Status
Capacity:
cpu: 2
memory: 2049008Ki
nvidia.com/gpu: 4
如此,配置一个 Pod 对象时,便可以像配置标准资源一样,配置自定义资源的 request 和 limits。以下是一个带有申请 nvidia.com/gpu 资源的 Pod 配置示例。
apiVersion: v1
kind: Pod
metadata:
name: gpu-pod
spec:
containers:
- name: cuda-container
image: nvidia/cuda:10.0-base
resources:
request:
nvidia.com/gpu: 1
上面 Pod 资源配置中,GPU 的资源名称为 nvidia.com/gpu,它的配额是 1 个该资源。这意味着调度器将把该 Pod 分配到一个有足够 nvidia.com/gpu 资源的节点上。
当 Pod 被成功调度到宿主机节点后,进行相应的配置(设置环境变量,挂载设备驱动等操作),便可在容器内部使用 GPU 资源了。
2. Device Plugin
当然,除非有特殊情况,通常不需用手动的方式扩展异构资源。在 Kubernetes 中,管理各类异构资源的操作由一种称为 Device Plugin(设备插件)的机制负责。
Device Plugin 核心就是提供了多个 gRPC 接口,硬件供应商根据接口规范为特定硬件编写插件。kubelet 通过 gRPC 接口与设备插件交互,实现设备发现、状态更新、资源上报等。最后,Pod 通过 request、limit 显示声明,即可使用各类异构资源,如同 CPU、内存一样。
Device Plugin 定义的 gRPC 接口如下所示,硬件设备插件按照规范实现接口,与 kubelet 进行交互,Kubernetes 便可感知和使用这些硬件资源。
service DevicePlugin {
// 返回设备插件的配置选项。
rpc GetDevicePluginOptions(Empty) returns (DevicePluginOptions) {}
// 实时监控设备资源的状态变化,并将设备资源信息上报至 Etcd 中。
rpc ListAndWatch(Empty) returns (stream ListAndWatchResponse) {}
// 执行特定设备的初始化操作,并告知 kubelet 如何使设备在容器中可用。
rpc Allocate(AllocateRequest) returns (AllocateResponse) {}
// 从一组可用的设备中返回一些优选的设备用来分配。
rpc GetPreferredAllocation(PreferredAllocationRequest) returns (PreferredAllocationResponse) {}
// 在容器启动之前调用,用于特定于设备的初始化操作。确保容器能够正确地访问和使用特定的硬件资源。
rpc PreStartContainer(PreStartContainerRequest) returns (PreStartContainerResponse) {}
}
目前,Kubernetes 社区中已经出现了许多 Device Plugin,例如 NVIDIA GPU、Intel GPU、AMD GPU、FPGA 和 RDMA 等。图 7-35 展示了一个 GPU Device Plugin 的工作原理。
图 7-35 Device Plugin 工作原理
首先,Device Plugin(例如,NVIDIA GPU device plugin)作为一个独立进程(以 DaemonSet 方式)运行在 Kubernetes 集群中的各个节点上。
当节点启动时,Device Plugin 向 kubelet 组件注册自己,告知 kubelet 该节点上有哪些特殊硬件资源可用。注册信息通常包括资源名称、资源数量和设备健康状态等。例如,一个 GPU Device Plugin 可能会注册资源名称为“nvidia.com/gpu”,并告知 kubelet 该节点上可用的 GPU 数量。
随后,Device Plugin 持续监测节点上的特殊硬件资源状态(图中的 ListAndWatch 接口)。当资源数量发生变化(如硬件故障、热插拔等)或资源健康状态发生改变时,它会及时向 kubelet 发送更新信息。
当用户创建一个 Pod 并请求特殊硬件资源时,Kubernetes 调度器根据节点上的资源状态和 Pod 的资源需求进行调度决策。一旦 Pod 被调度到某个节点并分配了特殊硬件资源,kubelet 会调用 Device Plugin 的 Allocate 接口获取设备相应的配置信息(如设备路径、驱动目录)。
接下来,kubelet 会将这些信息追加到对应的容器创建请求中(CRI 请求)。最后,具体的容器运行时(如 Docker、Containerd 等)将硬件驱动目录挂载到容器内部,容器内的应用程序便能够直接访问这些设备了。
问题
你注意到扩展资源与 Device Plugin 的问题了么?
Pod 只能通过“nvidia.com/gpu:2”这种简单的“计数形式”来申请 2 块 GPU。然而,对于这 2 个 GPU 的具体型号、拓扑结构、是否共享或独享等属性,用户无法进行选择。所以说,Device Plugin 仅实现了基本的入门级功能,无法满足更复杂的资源管理需求。
在这些特殊场景的催化下,Nvidia、Intel 等头部厂商联合推出了 DRA(Dynamic Resource Allocation,动态资源分配)机制,允许用户以更复杂的方式描述和发现可用的异构资源,而不仅仅是简单的计数形式。例如,它可以支持 GPU 型号、性能、拓扑结构等属性的描述。
由于 DRA 是一种相对较新的机制,具体的接口规范可能会因硬件供应商和 Kubernetes 版本的不同而有所变化。限于篇幅,笔者就不再扩展讨论了,有兴趣的读者可以查阅其他资料。