Red de conocimiento informático - Material del sitio web - Cómo utilizar las GPU Nvidia con Docker

Cómo utilizar las GPU Nvidia con Docker

Antes de la versión 19 de Docker, Docker no admitía el uso de GPU en contenedores. De acuerdo con la especificación de contenedores OCI, el equipo de NVIDIA desarrolló contenedores virtuales como Docker, LXC y Boardman, y lanzó el kit de herramientas de contenedores NVIDIA. portal de descripción general:/centro de datos/nativo de la nube/container-toolkit/overview .html Es más problemático usar GPU en la ventana acoplable. ¡pero!

Después del lanzamiento de Docker 19, es muy conveniente usar GPU en Docker. Docker agrega la opción de usar GPU. Usar la GPU en el contenedor solo requiere una opción, omitiendo configuraciones complejas y reduciendo en gran medida la dificultad de uso.

El uso de GPU al iniciar un contenedor hace que la GPU en el host sea accesible y le permite configurar cuántas GPU se utilizan.

Exponga todas las GPU al contenedor y llame a "nvidia-smi" para devolver el resultado:

Para una configuración de gpu más detallada, se recomienda encarecidamente la guía oficial: /config/containers/ Resource_constraints/ # acceder-a-una-GPU-NVIDIA.

Cuando la GPU está expuesta al contenedor, se incluye la opción de capacidad, que especifica las capacidades de la GPU que el contenedor acoplable debe usar.

Las capacidades de la GPU incluyen:

Hay dos formas de especificar las capacidades de un contenedor.

Se recomienda utilizar la imagen oficial publicada por NVIDIA como imagen base.

Nvidia ha lanzado tres versiones de imágenes cuda: versión básica, versión en ejecución y versión de desarrollo. Las diferencias entre los tres son las siguientes

Por supuesto, no puede usar nvidia docker como base, pero instale cuda, cudnn y otros entornos en su propia base acoplable. Puede consultar el Dockerfile de nvidia docker para su propia personalización. El portal es /NVIDIA/container-images/CUDA/-/tree/master/dist.