HAMi

HAMi–异构算力虚拟化中间件

build status docker pulls slack discuss Contact Me

支持设备:

英伟达 GPU 寒武纪 MLU 海光 DCU 天数智芯 GPU

简介

!

异构算力虚拟化中间件HAMi满足了所有你对于管理异构算力集群所需要的能力,包括:

设备复用: 每个任务可以只占用一部分显卡,多个任务可以共享一张显卡

可限制分配的显存大小: 你现在可以用显存值(例如3000M)或者显存比例(例如50%)来分配GPU,vGPU调度器会确保任务使用的显存不会超过分配数值

指定设备型号:当前任务可以通过设置annotation的方式,来选择使用或者不使用某些具体型号的设备

无侵入: vGPU调度器兼容nvidia官方插件的显卡分配方式,所以安装完毕后,你不需要修改原有的任务文件就可以使用vGPU的功能。当然,你也可以自定义的资源名称

使用场景

  1. 云原生场景下需要复用算力设备的场合
  2. 需要定制异构算力申请的场合,如申请特定显存大小的虚拟GPU,每个虚拟GPU使用特定比例的算力。
  3. 在多个异构算力节点组成的集群中,任务需要根据自身的显卡需求分配到合适的节点执行。
  4. 显存、计算单元利用率低的情况,如在一张GPU卡上运行10个tf-serving。
  5. 需要大量小显卡的情况,如教学场景把一张GPU提供给多个学生使用、云平台提供小GPU实例。

产品设计

!

HAMi 包含以下几个组件,一个统一的mutatingwebhook,一个统一的调度器,以及针对各种不同的异构算力设备对应的设备插件和容器内的控制组件,整体的架构特性如上图所示。

产品特性

一个硬隔离的简单展示: 一个使用以下方式定义的任务提交后

      resources:
        limits:
          nvidia.com/gpu: 1 # requesting 1 vGPU
          nvidia.com/gpumem: 3000 # Each vGPU contains 3000m device memory

会只有3G可见显存

img

安装要求

快速入门

准备节点

配置 nvidia-container-toolkit ### GPU节点准备 以下步骤要在所有GPU节点执行,这份README文档假定GPU节点已经安装NVIDIA驱动。它还假设您已经安装docker或container并且需要将nvidia-container-runtime配置为要使用的默认低级运行时。 安装步骤举例: #### ``` # 加入套件仓库 distribution=$(. /etc/os-release;echo $ID$VERSION_ID) curl -s -L https://nvidia.github.io/libnvidia-container/gpgkey | sudo apt-key add - curl -s -L https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list | sudo tee /etc/apt/sources.list.d/libnvidia-container.list sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit ``` ##### 配置docker 你需要在节点上将nvidia runtime做为你的docker runtime预设值。我们将编辑docker daemon的配置文件,此文件通常在`/etc/docker/daemon.json`路径: ``` { "default-runtime": "nvidia", "runtimes": { "nvidia": { "path": "/usr/bin/nvidia-container-runtime", "runtimeArgs": [] } } } ``` ``` systemctl daemon-reload && systemctl restart docker ``` ##### 配置containerd 你需要在节点上将nvidia runtime做为你的containerd runtime预设值。我们将编辑containerd daemon的配置文件,此文件通常在`/etc/containerd/config.toml`路径 ``` version = 2 [plugins] [plugins."io.containerd.grpc.v1.cri"] [plugins."io.containerd.grpc.v1.cri".containerd] default_runtime_name = "nvidia" [plugins."io.containerd.grpc.v1.cri".containerd.runtimes] [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.nvidia] privileged_without_host_devices = false runtime_engine = "" runtime_root = "" runtime_type = "io.containerd.runc.v2" [plugins."io.containerd.grpc.v1.cri".containerd.runtimes.nvidia.options] BinaryName = "/usr/bin/nvidia-container-runtime" ``` ``` systemctl daemon-reload && systemctl restart containerd ```
为GPU节点打上标签 最后,你需要将所有要使用到的GPU节点打上gpu=on标签,否则该节点不会被调度到 ``` $ kubectl label nodes {nodeid} gpu=on ```

安装,更新与卸载

安装 首先使用helm添加我们的 repo ``` helm repo add hami-charts https://project-hami.github.io/HAMi/ ``` 随后,使用下列指令获取集群服务端版本 ``` kubectl version ``` 在安装过程中须根据集群服务端版本(上一条指令的结果)指定调度器镜像版本,例如集群服务端版本为1.16.8,则可以使用如下指令进行安装 ``` $ helm install hami hami-charts/hami --set scheduler.kubeScheduler.imageTag=v1.16.8 -n kube-system ``` 你可以修改这里的[配置](/HAMi/docs/config_cn.html)来定制安装 通过kubectl get pods指令看到 `vgpu-device-plugin` 与 `vgpu-scheduler` 两个pod 状态为*Running* 即为安装成功 ``` $ kubectl get pods -n kube-system ```
更新 只需要更新helm repo,并重新启动整个Chart即可自动完成更新,最新的镜像会被自动下载 ``` $ helm uninstall hami -n kube-system $ helm repo update $ helm install hami hami-charts/hami -n kube-system ``` > **注意:** *如果你没有清理完任务就进行热更新的话,正在运行的任务可能会出现段错误等报错.*
卸载 ``` $ helm uninstall hami -n kube-system ``` > **注意:** *卸载组件并不会使正在运行的任务失败.*

提交任务

任务样例 NVIDIA vGPUs 现在能透过资源类型`nvidia.com/gpu`被容器请求: ``` apiVersion: v1 kind: Pod metadata: name: gpu-pod spec: containers: - name: ubuntu-container image: ubuntu:18.04 command: ["bash", "-c", "sleep 86400"] resources: limits: nvidia.com/gpu: 2 # 请求2个vGPUs nvidia.com/gpumem: 3000 # 每个vGPU申请3000m显存 (可选,整数类型) nvidia.com/gpucores: 30 # 每个vGPU的算力为30%实际显卡的算力 (可选,整数类型) ``` 如果你的任务无法运行在任何一个节点上(例如任务的`nvidia.com/gpu`大于集群中任意一个GPU节点的实际GPU数量),那么任务会卡在`pending`状态 现在你可以在容器执行`nvidia-smi`命令,然后比较vGPU和实际GPU显存大小的不同。 > **注意:** *1. 如果你使用privileged字段的话,本任务将不会被调度,因为它可见所有的GPU,会对其它任务造成影响.* > > *2. 不要设置nodeName字段,类似需求请使用nodeSelector.*

监控:

访问集群算力视图 调度器部署成功后,监控默认自动开启,你可以通过 ``` http://{nodeip}:{monitorPort}/metrics ``` 来获取监控数据,其中monitorPort可以在Values中进行配置,默认为31992 grafana dashboard [示例](/HAMi/docs/dashboard_cn.html) > **注意** 节点上的vGPU状态只有在其使用vGPU后才会被统计

性能测试

已知问题

开发计划

| 产品 | 制造商 | 显存隔离 | 算力隔离 | 多卡支持 | |————-|————|—————–|—————|——————-| | GPU | NVIDIA | ✅ | ✅ | ✅ | | MLU | 寒武纪 | ✅ | ❌ | ❌ | | DCU | 海光 | ✅ | ✅ | ❌ | | Ascend | 华为 | 开发中 | 开发中 | ❌ | | GPU | 天数智芯 | 开发中 | 开发中 | ❌ | | DPU | 太初 | 开发中 | 开发中 | ❌ |

反馈和参与