En abril, Nvidia lanzó un nuevo producto, la RTX A4000 ADA, una GPU de factor de forma pequeño diseñada para aplicaciones de estaciones de trabajo. Este procesador reemplaza al A2000 y se puede utilizar para tareas complejas, como investigación científica, cálculos de ingeniería y visualización de datos.
El RTX A4000 ADA cuenta con 6144 núcleos CUDA, 192 núcleos Tensor y 48 RT, y 20 GB GDDR6 ECC VRAM. Uno de los beneficios clave de la nueva GPU es su eficiencia energética: la RTX A4000 ADA consume solo 70 W, lo que reduce los costos de energía y el calor del sistema. La GPU también le permite manejar múltiples pantallas gracias a su conectividad 4x Mini-DisplayPort 1.4a.
Al comparar las GPU RTX 4000 SFF ADA con otros dispositivos de la misma clase, se debe tener en cuenta que, cuando se ejecuta en modo de precisión simple, muestra un rendimiento similar al de la GPU RTX A4000 de última generación, que consume el doble de energía (140 W vs. 70W).
El ADA RTX 4000 SFF se basa en la arquitectura ADA Lovelace y la tecnología de proceso de 5 nm. Esto permite la próxima generación de núcleos Tensor Core y trazado de rayos, que mejoran significativamente el rendimiento al proporcionar un trazado de rayos y núcleos Tensor más rápidos y eficientes que el RTX A4000. Además, la RTX 4000 SFF de ADA viene en un paquete pequeño: la tarjeta mide 168 mm de largo y tiene el grosor de dos ranuras de expansión.
Los núcleos de trazado de rayos mejorados permiten un rendimiento eficiente en entornos donde se utiliza la tecnología, como en el diseño y la renderización 3D. Además, la capacidad de memoria de 20 GB de la nueva GPU le permite manejar entornos grandes.
Según el fabricante, los núcleos Tensor de cuarta generación ofrecen un alto rendimiento computacional de IA, un aumento del doble en el rendimiento con respecto a la generación anterior. Los nuevos núcleos Tensor admiten la aceleración FP8. Esta característica innovadora puede funcionar bien para aquellos que desarrollan e implementan modelos de IA en entornos como la genómica y la visión por computadora .
También cabe destacar que el aumento de los mecanismos de codificación y decodificación hace que la RTX 4000 SFF ADA sea una buena solución para cargas de trabajo multimedia como video, entre otras.
| RTX A4000 ADA | NVIDIA RTX A4000 | NVIDIA RTX A5000 | RTX 3090 |
---|---|---|---|---|
Arquitectura | ada lovelace | Amperio | Amperio | Amperio |
Proceso tecnológico | 5nm | 8nm | 8nm | 8nm |
GPU | AD104 | GA102 | GA104 | GA102 |
Número de transistores (millones) | 35,800 | 17,400 | 28,300 | 28,300 |
Ancho de banda de la memoria (Gb/s) | 280.0 | 448 | 768 | 936.2 |
Capacidad de memoria de vídeo (bits) | 160 | 256 | 384 | 384 |
Memoria GPU (GB) | 20 | dieciséis | 24 | 24 |
Tipo de memoria | GDDR6 | GDDR6 | GDDR6 | GDDR6X |
Núcleos CUDA | 6,144 | 6 144 | 8192 | 10496 |
Núcleos tensoriales | 192 | 192 | 256 | 328 |
Núcleos RT | 48 | 48 | 64 | 82 |
Rendimiento SP (teraflops) | 19.2 | 19,2 | 27,8 | 35,6 |
Rendimiento del núcleo RT (teraflops) | 44.3 | 37,4 | 54,2 | 69,5 |
Rendimiento del tensor (teraflops) | 306.8 | 153,4 | 222,2 | 285 |
Potencia máxima (vatios) | 70 | 140 | 230 | 350 |
Interfaz | PCIe 4.0x16 | PCI-E 4.0 x16 | PCI-E 4.0 x16 | PCIe 4.0 x16 |
Conectores | 4x Mini DisplayPort 1.4a | PD 1.4 (4) | PD 1.4 (4) | PD 1.4 (4) |
Factor de forma | 2 ranuras | 1 ranura | 2 ranuras | 2-3 ranuras |
El software vGPU | No | No | si, ilimitado | Sí. con limitaciones |
Nvlink | No | No | 2x RTX A5000 | Sí |
Soporte CUDA | 11.6 | 8.6 | 8.6 | 8.6 |
soporte VULKAN | 1.3 | Sí | Sí | si, 1.2 |
Precio (dólares americanos) | 1,250 | 1000 | 2500 | 1400 |
| RTX A4000 ADA | RTX A4000 |
---|---|---|
UPC | AMD Ryzen 9 5950X 3,4 GHz (16 núcleos) | Intel Xeon E-2288G de ocho núcleos, 3,5 GHz |
RAM | 4 módulos SO-DIMM DDR4 ECC de 32 Gb | 2x 32 GB DDR4-3200 ECC DDR4 SDRAM 1600 MHz |
Conducir | SSD NVMe de 1 TB | Samsung SSD 980 PRO 1TB |
tarjeta madre | ASRock X570D4I-2T | Serie Asus P11C-I |
Sistema operativo | microsoft windows 10 | microsoft windows 10 |
Punto de referencia de V-Ray 5
Las pruebas CUDA y RTX de GPU de V-Ray miden el rendimiento relativo de renderizado de GPU. La GPU RTX A4000 está ligeramente por detrás de la RTX A4000 ADA (4 % y 11 %, respectivamente).
Aprendizaje automático
"Perros contra gatos"
Para comparar el rendimiento de las GPU para redes neuronales, usamos el conjunto de datos "Perros contra gatos": la prueba analiza el contenido de una foto y distingue si la foto muestra un gato o un perro. Todos los datos sin procesar necesarios se pueden encontrar
En esta prueba, la RTX A4000 ADA superó ligeramente a la RTX A4000 en un 9 %, pero tenga en cuenta el tamaño pequeño y el bajo consumo de energía de la nueva GPU.
AI-Benchmark le permite medir el rendimiento del dispositivo durante una tarea de salida del modelo de IA. La unidad de medida puede variar según la prueba, pero normalmente es el número de operaciones por segundo (OPS) o el número de fotogramas por segundo (FPS).
| RTX A4000 | RTX A4000 ADA |
---|---|---|
1/19. MobileNet-V2 | 1.1 — inferencia | lote=50, tamaño=224x224: 38,5 ± 2,4 ms1.2 — entrenamiento | lote=50, tamaño=224x224: 109 ± 4 ms | 1.1 — inferencia | lote=50, tamaño=224x224: 53,5 ± 0,7 ms1.2 — entrenamiento | lote=50, tamaño=224x224: 130,1 ± 0,6 ms |
2/19. Inicio-V3 | 2.1 — inferencia | lote=20, tamaño=346x346: 36,1 ± 1,8 ms2.2 — entrenamiento | lote=20, tamaño=346x346: 137,4 ± 0,6 ms | 2.1 — inferencia | lote=20, tamaño=346x346: 36,8 ± 1,1 ms2.2 — entrenamiento | lote=20, tamaño=346x346: 147,5 ± 0,8 ms |
19/3. Inicio-V4 | 3.1 — inferencia | lote=10, tamaño=346x346: 34,0 ± 0,9 ms3.2 — entrenamiento | lote=10, tamaño=346x346: 139,4 ± 1,0 ms | 3.1 — inferencia | lote=10, tamaño=346x346: 33,0 ± 0,8 ms3.2 — entrenamiento | lote=10, tamaño=346x346: 135,7 ± 0,9 ms |
19/4. Inicio-ResNet-V2 | 4.1 — inferencia | lote=10, tamaño=346x346: 45,7 ± 0,6 ms4.2 — entrenamiento | lote=8, tamaño=346x346: 153,4 ± 0,8 ms | 4.1 — lote de inferencia=10, tamaño=346x346: 33,6 ± 0,7 ms4.2 — lote de entrenamiento=8, tamaño=346x346: 132 ± 1 ms |
5/19. ResNet-V2-50 | 5.1 — inferencia | lote=10, tamaño=346x346: 25,3 ± 0,5 ms5.2 — entrenamiento | lote=10, tamaño=346x346: 91,1 ± 0,8 ms | 5.1 — inferencia | lote=10, tamaño=346x346: 26,1 ± 0,5 ms5.2 — entrenamiento | lote=10, tamaño=346x346: 92,3 ± 0,6 ms |
19/6. ResNet-V2-152 | 6.1 — inferencia | lote=10, tamaño=256x256: 32,4 ± 0,5 ms6.2 — entrenamiento | lote=10, tamaño=256x256: 131,4 ± 0,7 ms | 6.1 — inferencia | lote=10, tamaño=256x256: 23,7 ± 0,6 ms6.2 — entrenamiento | lote=10, tamaño=256x256: 107,1 ± 0,9 ms |
19/7. VGG-16 | 7.1 — inferencia | lote=20, tamaño=224x224: 54,9 ± 0,9 ms7.2 — entrenamiento | lote=2, tamaño=224x224: 83,6 ± 0,7 ms | 7.1 — inferencia | lote=20, tamaño=224x224: 66,3 ± 0,9 ms7.2 — entrenamiento | lote=2, tamaño=224x224: 109,3 ± 0,8 ms |
19/8. SRCNN 9-5-5 | 8.1 — inferencia | lote=10, tamaño=512x512: 51,5 ± 0,9 ms8.2 — inferencia | lote=1, tamaño=1536x1536: 45,7 ± 0,9 ms8.3 — entrenamiento | lote=10, tamaño=512x512: 183 ± 1 ms | 8.1 — inferencia | lote=10, tamaño=512x512: 59,9 ± 1,6 ms8.2 — inferencia | lote=1, tamaño=1536x1536: 53,1 ± 0,7 ms8.3 — entrenamiento | lote=10, tamaño=512x512: 176 ± 2 ms |
19/9. VGG-19 Super-Res | 9.1 — inferencia | lote=10, tamaño=256x256: 99,5 ± 0,8 ms9.2 — inferencia | lote=1, tamaño=1024x1024: 162 ± 1 ms9.3 — entrenamiento | lote=10, tamaño=224x224: 204 ± 2 ms | |
19/10. ResNet-SRGAN | 10.1 — inferencia | lote=10, tamaño=512x512: 85,8 ± 0,6 ms10.2 — inferencia | lote=1, tamaño=1536x1536: 82,4 ± 1,9 ms10.3 — entrenamiento | lote=5, tamaño=512x512: 133 ± 1 ms | 10.1 — inferencia | lote=10, tamaño=512x512: 98,9 ± 0,8 ms10.2 — inferencia | lote=1, tamaño=1536x1536: 86,1 ± 0,6 ms10.3 — entrenamiento | lote=5, tamaño=512x512: 130,9 ± 0,6 ms |
19/11. ResNet-DPED | 11.1 — inferencia | lote=10, tamaño=256x256: 114,9 ± 0,6 ms11.2 — inferencia | lote=1, tamaño=1024x1024: 182 ± 2 ms11.3 — entrenamiento | lote=15, tamaño=128x128: 178,1 ± 0,8 ms | 11.1 — inferencia | lote=10, tamaño=256x256: 146,4 ± 0,5 ms11.2 — inferencia | lote=1, tamaño=1024x1024: 234,3 ± 0,5 ms11.3 — entrenamiento | lote=15, tamaño=128x128: 234,7 ± 0,6 ms |
19/12. Red en U | 12.1 — inferencia | lote=4, tamaño=512x512: 180,8 ± 0,7 ms12.2 — inferencia | lote=1, tamaño=1024x1024: 177,0 ± 0,4 ms12.3 — entrenamiento | lote=4, tamaño=256x256: 198,6 ± 0,5 ms | 12.1 — inferencia | lote=4, tamaño=512x512: 222,9 ± 0,5 ms12.2 — inferencia | lote=1, tamaño=1024x1024: 220,4 ± 0,6 ms12.3 — entrenamiento | lote=4, tamaño=256x256: 229,1 ± 0,7 ms |
13/19. Nvidia-SPADE | 13.1 — inferencia | lote=5, tamaño=128x128: 54,5 ± 0,5 ms13.2 — entrenamiento | lote=1, tamaño=128x128: 103,6 ± 0,6 ms | 13.1 — inferencia | lote=5, tamaño=128x128: 59,6 ± 0,6 ms13.2 — entrenamiento | lote=1, tamaño=128x128: 94,6 ± 0,6 ms |
14/19. ICNet | 14.1 — inferencia | lote=5, tamaño=1024x1536: 126,3 ± 0,8 ms14.2 — entrenamiento | lote=10, tamaño=1024x1536: 426 ± 9 ms | 14.1 — inferencia | lote=5, tamaño=1024x1536: 144 ± 4 ms14.2 — entrenamiento | lote=10, tamaño=1024x1536: 475 ± 17 ms |
15/19. PSPNet | 15.1 — inferencia | lote=5, tamaño=720x720: 249 ± 12 ms15.2 — entrenamiento | lote=1, tamaño=512x512: 104,6 ± 0,6 ms | 15.1 — inferencia | lote=5, tamaño=720x720: 291,4 ± 0,5 ms15.2 — entrenamiento | lote=1, tamaño=512x512: 99,8 ± 0,9 ms |
16/19. Laboratorio profundo | 16.1 — inferencia | lote=2, tamaño=512x512: 71,7 ± 0,6 ms16.2 — entrenamiento | lote=1, tamaño=384x384: 84,9 ± 0,5 ms | 16.1 — inferencia | lote=2, tamaño=512x512: 71,5 ± 0,7 ms16.2 — entrenamiento | lote=1, tamaño=384x384: 69,4 ± 0,6 ms |
17/19. Pixel-RNN | 17.1 — inferencia | lote=50, tamaño=64x64: 299 ± 14 ms17.2 — entrenamiento | lote=10, tamaño=64x64: 1258 ± 64 ms | 17.1 — inferencia | lote=50, tamaño=64x64: 321 ± 30 ms17.2 — entrenamiento | lote=10, tamaño=64x64: 1278 ± 74 ms |
18/19. Sentimiento LSTM | 18.1 — inferencia | lote=100, tamaño=1024x300: 395 ± 11 ms18.2 — entrenamiento | lote=10, tamaño=1024x300: 676 ± 15 ms | 18.1 — inferencia | lote=100, tamaño=1024x300: 345 ± 10 ms18.2 — entrenamiento | lote=10, tamaño=1024x300: 774 ± 17 ms |
19/19. GNMT-Traducción | 19.1 — inferencia | lote=1, tamaño=1x20: 119 ± 2 ms | 19.1 — inferencia | lote=1, tamaño=1x20: 156 ± 1 ms |
Sin embargo, los resultados de esta prueba muestran que el rendimiento de la RTX A4000 es un 6 % superior al de la RTX A4000 ADA, con la advertencia de que los resultados de la prueba pueden variar según la tarea específica y las condiciones de funcionamiento empleadas.
RTX A 4000
evaluación comparativa | Modelo de tiempo medio de tren (ms) |
---|---|
Entrenamiento doble precisión tipo mnasnet0_5 | 62.995805740356445 |
Entrenamiento doble precisión tipo mnasnet0_75 | 98.39066505432129 |
Entrenamiento de doble precisión tipo mnasnet1_0 | 126.60405158996582 |
Entrenamiento de doble precisión tipo mnasnet1_3 | 186.89460277557373 |
Entrenamiento doble precisión tipo resnet18 | 428.08079719543457 |
Entrenamiento doble precisión tipo resnet34 | 883.5790348052979 |
Entrenamiento doble precisión tipo resnet50 | 1016.3950300216675 |
Entrenamiento doble precisión tipo resnet101 | 1927.2308254241943 |
Entrenamiento doble precisión tipo resnet152 | 2815.663013458252 |
Entrenamiento doble precisión tipo resnext50_32x4d | 1075.4373741149902 |
Entrenamiento doble precisión tipo resnext101_32x8d | 4050.0641918182373 |
Entrenamiento doble precisión tipo wide_resnet50_2 | 2615.9953451156616 |
Entrenamiento doble precisión tipo wide_resnet101_2 | 5218.524832725525 |
Entrenamiento doble precisión tipo densenet121 | 751.9759511947632 |
Entrenamiento doble precisión tipo densenet169 | 910.3225564956665 |
Entrenamiento doble precisión tipo densenet201 | 1163.036551475525 |
Entrenamiento doble precisión tipo densenet161 | 2141.505298614502 |
Entrenamiento doble precisión tipo squeezenet1_0 | 203.14435005187988 |
Entrenamiento doble precisión tipo squeezenet1_1 | 98.04857730865479 |
Entrenamiento doble precisión tipo vgg11 | 1697.710485458374 |
Entrenamiento doble precisión tipo vgg11_bn | 1729.2972660064697 |
Entrenamiento doble precisión tipo vgg13 | 2491.615080833435 |
Entrenamiento doble precisión tipo vgg13_bn | 2545.1631927490234 |
Entrenamiento doble precisión tipo vgg16 | 3371.1953449249268 |
Entrenamiento doble precisión tipo vgg16_bn | 3423.8639068603516 |
Entrenamiento doble precisión tipo vgg19_bn | 4314.5153522491455 |
Entrenamiento doble precisión tipo vgg19 | 4249.422650337219 |
Entrenamiento doble precisión tipo mobilenet_v3_large | 105.54619789123535 |
Entrenamiento doble precisión tipo mobilenet_v3_small | 37.6680850982666 |
Entrenamiento doble precisión tipo shufflenet_v2_x0_5 | 26.51611328125 |
Entrenamiento doble precisión tipo shufflenet_v2_x1_0 | 61.260504722595215 |
Entrenamiento doble precisión tipo shufflenet_v2_x1_5 | 105.30067920684814 |
Entrenamiento doble precisión tipo shufflenet_v2_x2_0 | 181.03694438934326 |
Tipo de doble precisión de inferencia mnasnet0_5 | 17.397074699401855 |
Tipo de doble precisión de inferencia mnasnet0_75 | 28.902697563171387 |
Tipo de doble precisión de inferencia mnasnet1_0 | 38.387718200683594 |
Tipo de doble precisión de inferencia mnasnet1_3 | 58.228821754455566 |
Inferencia doble precisión tipo resnet18 | 147.95727252960205 |
Inferencia doble precisión tipo resnet34 | 293.519492149353 |
Inferencia doble precisión tipo resnet50 | 336.44991874694824 |
Inferencia doble precisión tipo resnet101 | 637.9982376098633 |
Inferencia doble precisión tipo resnet152 | 948.9351654052734 |
Tipo de doble precisión de inferencia resnext50_32x4d | 372.80876636505127 |
Tipo de doble precisión de inferencia resnext101_32x8d | 1385.1624917984009 |
Tipo de doble precisión de inferencia wide_resnet50_2 | 873.048791885376 |
Tipo de doble precisión de inferencia wide_resnet101_2 | 1729.2765426635742 |
Inferencia doble precisión tipo densenet121 | 270.13323307037354 |
Inferencia doble precisión tipo densenet169 | 327.1932888031006 |
Inferencia doble precisión tipo densenet201 | 414.733362197876 |
Inferencia doble precisión tipo densenet161 | 766.3542318344116 |
Tipo de inferencia de precisión doble squeezenet1_0 | 74.86292839050293 |
Tipo de inferencia de doble precisión squeezenet1_1 | 34.04905319213867 |
Inferencia doble precisión tipo vgg11 | 576.3767147064209 |
Inferencia doble precisión tipo vgg11_bn | 580.5839586257935 |
Inferencia doble precisión tipo vgg13 | 853.4365510940552 |
Inferencia doble precisión tipo vgg13_bn | 860.3136301040649 |
Inferencia doble precisión tipo vgg16 | 1145.091052055359 |
Inferencia doble precisión tipo vgg16_bn | 1152.8028392791748 |
Inferencia doble precisión tipo vgg19_bn | 1444.9562692642212 |
Inferencia doble precisión tipo vgg19 | 1437.0987701416016 |
Tipo de doble precisión de inferencia mobilenet_v3_large | 30.876317024230957 |
Tipo de doble precisión de inferencia mobilenet_v3_small | 11.234536170959473 |
Inferencia de doble precisión tipo shufflenet_v2_x0_5 | 7.425284385681152 |
Inferencia de doble precisión tipo shufflenet_v2_x1_0 | 18.25782299041748 |
Inferencia de doble precisión tipo shufflenet_v2_x1_5 | 33.34946632385254 |
Inferencia de doble precisión tipo shufflenet_v2_x2_0 | 57.84676551818848 |
RTX A4000 ADA
evaluación comparativa | Modelo de tiempo medio de tren |
---|---|
Entrenamiento de precisión media tipo mnasnet0_5 | 20.266618728637695 |
Entrenamiento de precisión media tipo mnasnet0_75 | 21.445374488830566 |
Entrenamiento de precisión media tipo mnasnet1_0 | 26.714019775390625 |
Entrenamiento de precisión media tipo mnasnet1_3 | 26.5126371383667 |
Entrenamiento media precisión tipo resnet18 | 19.624991416931152 |
Entrenamiento de media precisión tipo resnet34 | 32.46446132659912 |
Entrenamiento de media precisión tipo resnet50 | 57.17473030090332 |
Entrenamiento de media precisión tipo resnet101 | 98.20127010345459 |
Entrenamiento de media precisión tipo resnet152 | 138.18389415740967 |
Entrenamiento media precisión tipo resnext50_32x4d | 75.56005001068115 |
Entrenamiento media precisión tipo resnext101_32x8d | 228.8706636428833 |
Entrenamiento de media precisión tipo wide_resnet50_2 | 113.76442432403564 |
Entrenamiento de media precisión tipo wide_resnet101_2 | 204.17311191558838 |
Entrenamiento de media precisión tipo densenet121 | 68.97401332855225 |
Entrenamiento de media precisión tipo densenet169 | 85.16453742980957 |
Entrenamiento de media precisión tipo densenet201 | 103.299241065979 |
Entrenamiento de media precisión tipo densenet161 | 137.54578113555908 |
Entrenamiento de media precisión tipo squeezenet1_0 | 16.71830177307129 |
Entrenamiento de media precisión tipo squeezenet1_1 | 12.906527519226074 |
Entrenamiento de media precisión tipo vgg11 | 51.7004919052124 |
Entrenamiento de media precisión tipo vgg11_bn | 57.63327598571777 |
Entrenamiento de media precisión tipo vgg13 | 86.10869407653809 |
Entrenamiento de media precisión tipo vgg13_bn | 95.86676120758057 |
Entrenamiento de media precisión tipo vgg16 | 102.91589260101318 |
Entrenamiento de media precisión tipo vgg16_bn | 113.74778270721436 |
Entrenamiento de media precisión tipo vgg19_bn | 131.56734943389893 |
Entrenamiento de media precisión tipo vgg19 | 119.70191955566406 |
Entrenamiento de media precisión tipo mobilenet_v3_large | 31.30636692047119 |
Entrenamiento de media precisión tipo mobilenet_v3_small | 19.44464683532715 |
Entrenamiento de media precisión tipo shufflenet_v2_x0_5 | 13.710575103759766 |
Entrenamiento de media precisión tipo shufflenet_v2_x1_0 | 23.608479499816895 |
Entrenamiento de media precisión tipo shufflenet_v2_x1_5 | 26.793746948242188 |
Entrenamiento de media precisión tipo shufflenet_v2_x2_0 | 24.550962448120117 |
Tipo de media precisión de inferencia mnasnet0_5 | 4.418272972106934 |
Tipo de media precisión de inferencia mnasnet0_75 | 4.021778106689453 |
Tipo de media precisión de inferencia mnasnet1_0 | 4.42598819732666 |
Tipo de media precisión de inferencia mnasnet1_3 | 4.618926048278809 |
Inferencia de media precisión tipo resnet18 | 5.803341865539551 |
Inferencia de media precisión tipo resnet34 | 9.756693840026855 |
Inferencia media precisión tipo resnet50 | 15.873079299926758 |
Inferencia de media precisión tipo resnet101 | 28.268003463745117 |
Tipo de media precisión de inferencia resnet152 | 40.04594326019287 |
Tipo de media precisión de inferencia resnext50_32x4d | 19.53421115875244 |
Tipo de media precisión de inferencia resnext101_32x8d | 62.44826316833496 |
Tipo de precisión media de inferencia wide_resnet50_2 | 33.533992767333984 |
Tipo de inferencia de precisión media wide_resnet101_2 | 59.60897445678711 |
Tipo de media precisión de inferencia densenet121 | 18.052735328674316 |
Tipo de media precisión de inferencia densenet169 | 21.956982612609863 |
Inferencia de media precisión tipo densenet201 | 27.85182476043701 |
Inferencia de media precisión tipo densenet161 | 37.41891860961914 |
Tipo de inferencia de precisión media squeezenet1_0 | 4.391803741455078 |
Tipo de inferencia de precisión media squeezenet1_1 | 2.4281740188598633 |
Inferencia de media precisión tipo vgg11 | 17.11493968963623 |
Inferencia de precisión media tipo vgg11_bn | 18.40585231781006 |
Inferencia de media precisión tipo vgg13 | 28.438148498535156 |
Inferencia de precisión media tipo vgg13_bn | 30.672597885131836 |
Inferencia de media precisión tipo vgg16 | 34.43562984466553 |
Inferencia de media precisión tipo vgg16_bn | 36.92122936248779 |
Inferencia de media precisión tipo vgg19_bn | 43.144264221191406 |
Inferencia de media precisión tipo vgg19 | 40.5385684967041 |
Tipo de media precisión de inferencia mobilenet_v3_large | 5.350713729858398 |
Tipo de media precisión de inferencia mobilenet_v3_small | 4.016985893249512 |
Tipo de inferencia de precisión media shufflenet_v2_x0_5 | 5.079126358032227 |
Tipo de inferencia de precisión media shufflenet_v2_x1_0 | 5.593156814575195 |
Tipo de inferencia de precisión media shufflenet_v2_x1_5 | 5.649552345275879 |
Tipo de inferencia de precisión media shufflenet_v2_x2_0 | 5.355663299560547 |
Entrenamiento doble precisión tipo mnasnet0_5 | 50.2386999130249 |
Entrenamiento doble precisión tipo mnasnet0_75 | 80.66896915435791 |
Entrenamiento de doble precisión tipo mnasnet1_0 | 103.32422733306885 |
Entrenamiento de doble precisión tipo mnasnet1_3 | 154.6230697631836 |
Entrenamiento doble precisión tipo resnet18 | 337.94031620025635 |
Entrenamiento doble precisión tipo resnet34 | 677.7706575393677 |
Entrenamiento doble precisión tipo resnet50 | 789.9243211746216 |
Entrenamiento doble precisión tipo resnet101 | 1484.3351316452026 |
Entrenamiento doble precisión tipo resnet152 | 2170.570478439331 |
Entrenamiento doble precisión tipo resnext50_32x4d | 877.3719882965088 |
Entrenamiento doble precisión tipo resnext101_32x8d | 3652.4944639205933 |
Entrenamiento doble precisión tipo wide_resnet50_2 | 2154.612874984741 |
Entrenamiento doble precisión tipo wide_resnet101_2 | 4176.522083282471 |
Entrenamiento doble precisión tipo densenet121 | 607.8699731826782 |
Entrenamiento doble precisión tipo densenet169 | 744.6409797668457 |
Entrenamiento doble precisión tipo densenet201 | 962.677731513977 |
Entrenamiento doble precisión tipo densenet161 | 1759.772515296936 |
Entrenamiento doble precisión tipo squeezenet1_0 | 164.3690824508667 |
Entrenamiento doble precisión tipo squeezenet1_1 | 78.70647430419922 |
Entrenamiento doble precisión tipo vgg11 | 1362.6095294952393 |
Entrenamiento doble precisión tipo vgg11_bn | 1387.2539138793945 |
Entrenamiento doble precisión tipo vgg13 | 2006.0230445861816 |
Entrenamiento doble precisión tipo vgg13_bn | 2047.526364326477 |
Entrenamiento doble precisión tipo vgg16 | 2702.2086429595947 |
Entrenamiento doble precisión tipo vgg16_bn | 2747.241234779358 |
Entrenamiento doble precisión tipo vgg19_bn | 3447.1724700927734 |
Entrenamiento doble precisión tipo vgg19 | 3397.990345954895 |
Entrenamiento doble precisión tipo mobilenet_v3_large | 84.65698719024658 |
Entrenamiento doble precisión tipo mobilenet_v3_small | 29.816465377807617 |
Entrenamiento doble precisión tipo shufflenet_v2_x0_5 | 27.401342391967773 |
Entrenamiento doble precisión tipo shufflenet_v2_x1_0 | 48.322744369506836 |
Entrenamiento doble precisión tipo shufflenet_v2_x1_5 | 82.22103118896484 |
Entrenamiento doble precisión tipo shufflenet_v2_x2_0 | 141.7021369934082 |
Tipo de doble precisión de inferencia mnasnet0_5 | 12.988653182983398 |
Tipo de doble precisión de inferencia mnasnet0_75 | 22.422199249267578 |
Tipo de doble precisión de inferencia mnasnet1_0 | 30.056486129760742 |
Tipo de doble precisión de inferencia mnasnet1_3 | 46.953935623168945 |
Inferencia doble precisión tipo resnet18 | 118.04479122161865 |
Inferencia doble precisión tipo resnet34 | 231.52336597442627 |
Inferencia doble precisión tipo resnet50 | 268.63497734069824 |
Inferencia doble precisión tipo resnet101 | 495.2010440826416 |
Inferencia doble precisión tipo resnet152 | 726.4922094345093 |
Tipo de doble precisión de inferencia resnext50_32x4d | 291.47679328918457 |
Tipo de doble precisión de inferencia resnext101_32x8d | 1055.10901927948 |
Tipo de doble precisión de inferencia wide_resnet50_2 | 690.6917667388916 |
Tipo de doble precisión de inferencia wide_resnet101_2 | 1347.5529861450195 |
Inferencia doble precisión tipo densenet121 | 224.35829639434814 |
Inferencia doble precisión tipo densenet169 | 268.9145278930664 |
Inferencia doble precisión tipo densenet201 | 343.1972026824951 |
Inferencia doble precisión tipo densenet161 | 635.866231918335 |
Tipo de inferencia de precisión doble squeezenet1_0 | 61.92759037017822 |
Tipo de inferencia de doble precisión squeezenet1_1 | 27.009410858154297 |
Inferencia doble precisión tipo vgg11 | 462.3375129699707 |
Inferencia doble precisión tipo vgg11_bn | 468.4495782852173 |
Inferencia doble precisión tipo vgg13 | 692.8219032287598 |
Inferencia doble precisión tipo vgg13_bn | 703.3538103103638 |
Inferencia doble precisión tipo vgg16 | 924.4353818893433 |
Inferencia doble precisión tipo vgg16_bn | 936.5075063705444 |
Inferencia doble precisión tipo vgg19_bn | 1169.098300933838 |
Inferencia doble precisión tipo vgg19 | 1156.3771772384644 |
Tipo de doble precisión de inferencia mobilenet_v3_large | 24.2356014251709 |
Tipo de doble precisión de inferencia mobilenet_v3_small | 8.85490894317627 |
Inferencia de doble precisión tipo shufflenet_v2_x0_5 | 6.360034942626953 |
Inferencia de doble precisión tipo shufflenet_v2_x1_0 | 14.301743507385254 |
Inferencia de doble precisión tipo shufflenet_v2_x1_5 | 24.863481521606445 |
Inferencia de doble precisión tipo shufflenet_v2_x2_0 | 43.8505744934082 |
La nueva tarjeta gráfica ha demostrado ser una solución eficaz para una serie de tareas de trabajo. Gracias a su tamaño compacto, es ideal para potentes ordenadores SFF (Small Form Factor). Además, cabe destacar que los 6.144 núcleos CUDA y los 20 GB de memoria con bus de 160 bits hacen de esta tarjeta una de las más productivas del mercado. Además, un bajo TDP de 70 W ayuda a reducir los costos de consumo de energía. Cuatro puertos Mini-DisplayPort permiten que la tarjeta se use con múltiples monitores o como una solución de gráficos multicanal.
La RTX 4000 SFF ADA representa un avance significativo con respecto a las generaciones anteriores, ya que ofrece un rendimiento equivalente al de una tarjeta con el doble de consumo de energía. Sin conector de alimentación PCIe, el RTX 4000 SFF ADA es fácil de integrar en estaciones de trabajo de bajo consumo sin sacrificar el alto rendimiento.