Cómo utilizar las GPU Nvidia con Docker
Después del lanzamiento de Docker 19, es muy conveniente usar GPU en Docker. Docker agrega la opción de usar GPU. Usar la GPU en el contenedor solo requiere una opción, omitiendo configuraciones complejas y reduciendo en gran medida la dificultad de uso.
El uso de GPU al iniciar un contenedor hace que la GPU en el host sea accesible y le permite configurar cuántas GPU se utilizan.
Exponga todas las GPU al contenedor y llame a "nvidia-smi" para devolver el resultado:
Para una configuración de gpu más detallada, se recomienda encarecidamente la guía oficial: /config/containers/ Resource_constraints/ # acceder-a-una-GPU-NVIDIA.
Cuando la GPU está expuesta al contenedor, se incluye la opción de capacidad, que especifica las capacidades de la GPU que el contenedor acoplable debe usar.
Las capacidades de la GPU incluyen:
Hay dos formas de especificar las capacidades de un contenedor.
Se recomienda utilizar la imagen oficial publicada por NVIDIA como imagen base.
Nvidia ha lanzado tres versiones de imágenes cuda: versión básica, versión en ejecución y versión de desarrollo. Las diferencias entre los tres son las siguientes
Por supuesto, no puede usar nvidia docker como base, pero instale cuda, cudnn y otros entornos en su propia base acoplable. Puede consultar el Dockerfile de nvidia docker para su propia personalización. El portal es /NVIDIA/container-images/CUDA/-/tree/master/dist.