Python中国社区  »  docker

深入理解 nvidia-docker 2.0

HULK一线技术杂谈 • 2 周前 • 13 次点击  

女主宣言

上篇推送我们介绍了 nvidia-docker 2.0 在我司大规模 Kubernetes 集群上的实践,本篇文章就将介绍相较于旧版本,nvidia-docker 2.0 的设计优势及其实现机制,希望能对大家有所帮助。本文首发于 OpsDev.cn,转载已获取作者授权。

PS:丰富的一线技术、多元化的表现形式,尽在“HULK一线技术杂谈”,点关注哦!

The 50th Anniversary of Apollo 8's Launch

by NASA IOTD


NVIDIA于2016年开始设计NVIDIA-Docker已便于容器使用NVIDIA GPUs。 第一代nvidia-docker1.0实现了对docker client的封装,并在容器启动时,将必要的GPU device和libraries挂载到容器中。


1

nvidia-docker 存在的问题

但是这种设计的方式高度的与docker运行时耦合,缺乏灵活性。存在的缺陷具体如下:


  • 设计高度与docker耦合,不支持其它的容器运行时。如: LXC, CRI-O及未来可能会增加的容器运行时。

  • 不能更好的利用docker生态的其它工具。如: docker compose。

  • 不能将GPU作为调度系统的一种资源来进行灵活的调度。

  • 完善容器运行时对GPU的支持。如: 自动的获取用户层面的NVIDIA Driver libraries, NVIDIA kernel modules, device ordering等。


基于上面描述的这些弊端,NVIDIA开始了对下一代容器运行时的设计: nvidia-docker2.0。


2

nvidia-docker 2.0 的实现机制

基础知识

先简单介绍下nvidia-docker 2.0, nvidia-container-runtime,libnvidia-container以及runc直接的关系。


  • nvidia-docker2.0

    (https://github.com/NVIDIA/nvidia-docker) 是一个简单的包,它主要通过修改docker的配置文件/etc/docker/daemon.json来让docker使用NVIDIA Container runtime。

  • nvidia-container-runtime 

    (https://github.com/NVIDIA/nvidia-container-runtime) 才是真正的核心部分,它在原有的docker容器运行时runc的基础上增加一个 prestart hook 

    (https://github.com/NVIDIA/nvidia-container-runtime), 用于调用libnvidia-container库。

  • libnvidia-container 

    (https://github.com/NVIDIA/nvidia-docker) 提供一个库和一个简单的CLI程序,使用这个库可以使NVIDIA GPU使用Linux容器。

  • runc 

    (https://github.com/opencontainers/runc) 一个命令行工具,会根据标准格式的Open Containers Initiative 

    (https://developer.nvidia.com/nvidia-container-runtime) 创建容器。也是docker默认的容器运行时。


实现机制

它们之间的关系可以通过下面这张图关联起来:

上面已经介绍了各个组件的作用以及它们之间的关系,接下来详细的描述下这张图:


正常创建一个容器的流程

docker --> dockerd --> docker-containerd-shm -->runc --> container-process

docker客户端将创建容器的请求发送给dockerd, 当dockerd收到请求任务之后将请求发送给docker-containerd-shm 

(其实就是containerd)。


前面没有介绍到containerd。这里简单的介绍下,containerd,它主要负责的工作是:


  • 管理容器的生命周期(从容器的创建到销毁)

  • 拉取/推送容器镜像

  • 存储管理(管理镜像及容器数据的存储)

  • 调用runc 运行容器

  • 管理容器的网络接口及网络


containerd的定位是:

containerd 被设计成嵌入到一个大系统中,而不是给开发人员和终端的设备使用。


关于containerd的详细说明,请查看 containerd (https://github.com/containerd/containerd)。


当containerd接收到请求之后,做好相关的准备工作,会去调用runc,而runc基于OCI文件对容器进行创建。这是容器创建的整体流程。


创建一个使用GPU容器的流程

docker--> dockerd --> docker-containerd-shim-->nvidia-container-runtime -- > container-process

基本流程和普通不使用GPU的容器差不多,只是把docker默认的运行时替换成了NVIDIA自家的nvidia-container-runtime。 这样当nvidia-container-runtime创建容器时,先执行nvidia-container-runtime-hook这个hook去检查容器是否需要使用GPU(通过环境变量NVIDIA_VISIBLE_DEVICES来判断)。如果需要则调用libnvidia-container来暴露GPU给容器使用。否则则走默认的runc逻辑。


3

总结

说到这里nvidia-docker2.0的大体机制基本就通了。但是涉及到的nvidia-container-runtime, libnvidia-container, containerd,runc这些项目, 这本篇文章里面就不一一介绍了。如果感兴趣可以自行去探索学习。这些地址在文章中都已经做过相关的链接。


4

参考

  1. https://developer.nvidia.com/nvidia-container-runtime https://devblogs.nvidia.com/gpu-containers-runtime/

  2. https://github.com/opencontainers/runtime-spec/blob/master/config.md 

  3. https://github.com/opencontainers/runtime-spec

  4. https://github.com/NVIDIA/nvidia-container-runtime

  5. https://github.com/opencontainers/runc 

  6. https://github.com/NVIDIA/libnvidia-container

  7. https://github.com/NVIDIA/nvidia-docker/issues/815


HULK一线技术杂谈

由360云平台团队打造的技术分享公众号,内容涉及云计算数据库大数据监控泛前端自动化测试等众多技术领域,通过夯实的技术积累和丰富的一线实战经验,为你带来最有料的技术分享


今天看啥 - 高品质阅读平台
本文地址:http://www.jintiankansha.me/t/D6eqmJ5MCH
Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/27455
 
13 次点击  
分享到微博