About Me

header ads

NVIDIA A100 se lanza en AWS, marcando el comienzo de la próxima década en computación en la nube acelerada

Imagen: NVIDIA – 2020

La primera instancia de GPU de Amazon Web Services debutó hace 10 años, con NVIDIA M2050. En ese momento, las aplicaciones basadas en CUDA se centraban principalmente en acelerar las simulaciones científicas, con el auge de la inteligencia artificial y el aprendizaje profundo todavía muy lejos.
 
Desde entonces, AWS ha agregado a su establo de instancias de GPU en la nube, que incluyen K80 (p2), K520 (g3), M60 (g4), V100 (p3 / p3dn) y T4 (g4).
 
Con su nueva instancia P4d disponible en general hoy en día , AWS está allanando el camino para otra década audaz de computación acelerada con la última GPU NVIDIA A100 Tensor Core .
 
La instancia P4d ofrece la plataforma basada en GPU más rentable y de mayor rendimiento de AWS para la formación en aprendizaje automático y aplicaciones informáticas de alto rendimiento. Las instancias reducen el tiempo para entrenar modelos de aprendizaje automático hasta 3 veces con FP16 y hasta 6 veces con TF32 en comparación con la precisión FP32 predeterminada.
 
También proporcionan un rendimiento de inferencia excepcional. Las GPU NVIDIA A100 del mes pasado superaron los puntos de referencia de MLPerf Inference , proporcionando un rendimiento hasta 237 veces más rápido que las CPU.
 
Cada instancia de P4d cuenta con ocho GPU NVIDIA A100 y, con AWS UltraClusters, los clientes pueden obtener acceso bajo demanda y escalable a más de 4000 GPU a la vez mediante el Elastic Fabric Adapter (EFA) de AWS y el almacenamiento escalable y de alto rendimiento con Amazon FSx. P4d ofrece redes de 400 Gbps y utiliza tecnologías NVIDIA como NVLink , NVSwitch , NCCL y GPUDirect RDMA para acelerar aún más las cargas de trabajo de capacitación de aprendizaje profundo. NVIDIA GPUDirect RDMA en EFA garantiza una red de baja latencia al pasar datos de GPU a GPU entre servidores sin tener que pasar por la CPU y la memoria del sistema.
 
Además, la instancia P4d es compatible con muchos servicios de AWS, incluidos Amazon Elastic Container Services, Amazon Elastic Kubernetes Service, AWS ParallelCluster y Amazon SageMaker. P4d también puede aprovechar todo el software optimizado en contenedores disponible en NGC , incluidas las aplicaciones HPC, los marcos de inteligencia artificial, los modelos previamente entrenados, los gráficos de Helm y el software de inferencia como TensorRT y Triton Inference Server .
 
Las instancias P4d ahora están disponibles en el este y oeste de EE. UU. Y pronto llegarán a otras regiones. Las instancias se pueden comprar como On-Demand, con planes de ahorro, con instancias reservadas o como instancias puntuales.
 
La primera década de la computación en la nube con GPU ha traído al mercado más de 100 exaflops de computación de IA. Con la llegada de la instancia Amazon EC2 P4d con tecnología de GPU NVIDIA A100, la próxima década de computación en la nube con GPU ha tenido un gran comienzo.
 
NVIDIA y AWS están haciendo posible que las aplicaciones continúen ampliando los límites de la inteligencia artificial en una amplia gama de aplicaciones. No podemos esperar a ver qué harán los clientes con él.

Publicar un comentario

0 Comentarios