paint-brush
¿Puede Nvidia RTX A4000 ADA manejar tareas de aprendizaje automático?por@hostkey
3,172 lecturas
3,172 lecturas

¿Puede Nvidia RTX A4000 ADA manejar tareas de aprendizaje automático?

por Hostkey.com15m2023/06/29
Read on Terminal Reader

Demasiado Largo; Para Leer

En abril, Nvidia lanzó un nuevo producto, la RTX A4000 ADA, una GPU de factor de forma pequeño diseñada para aplicaciones de estaciones de trabajo. Este procesador reemplaza al A2000 y se puede utilizar para tareas complejas, como investigación científica, cálculos de ingeniería y visualización de datos. La capacidad de memoria de 20 GB de la nueva GPU le permite manejar entornos grandes.
featured image - ¿Puede Nvidia RTX A4000 ADA manejar tareas de aprendizaje automático?
Hostkey.com HackerNoon profile picture
0-item

En abril, Nvidia lanzó un nuevo producto, la RTX A4000 ADA, una GPU de factor de forma pequeño diseñada para aplicaciones de estaciones de trabajo. Este procesador reemplaza al A2000 y se puede utilizar para tareas complejas, como investigación científica, cálculos de ingeniería y visualización de datos.


El RTX A4000 ADA cuenta con 6144 núcleos CUDA, 192 núcleos Tensor y 48 RT, y 20 GB GDDR6 ECC VRAM. Uno de los beneficios clave de la nueva GPU es su eficiencia energética: la RTX A4000 ADA consume solo 70 W, lo que reduce los costos de energía y el calor del sistema. La GPU también le permite manejar múltiples pantallas gracias a su conectividad 4x Mini-DisplayPort 1.4a.





Al comparar las GPU RTX 4000 SFF ADA con otros dispositivos de la misma clase, se debe tener en cuenta que, cuando se ejecuta en modo de precisión simple, muestra un rendimiento similar al de la GPU RTX A4000 de última generación, que consume el doble de energía (140 W vs. 70W).





El ADA RTX 4000 SFF se basa en la arquitectura ADA Lovelace y la tecnología de proceso de 5 nm. Esto permite la próxima generación de núcleos Tensor Core y trazado de rayos, que mejoran significativamente el rendimiento al proporcionar un trazado de rayos y núcleos Tensor más rápidos y eficientes que el RTX A4000. Además, la RTX 4000 SFF de ADA viene en un paquete pequeño: la tarjeta mide 168 mm de largo y tiene el grosor de dos ranuras de expansión.





Los núcleos de trazado de rayos mejorados permiten un rendimiento eficiente en entornos donde se utiliza la tecnología, como en el diseño y la renderización 3D. Además, la capacidad de memoria de 20 GB de la nueva GPU le permite manejar entornos grandes.





Según el fabricante, los núcleos Tensor de cuarta generación ofrecen un alto rendimiento computacional de IA, un aumento del doble en el rendimiento con respecto a la generación anterior. Los nuevos núcleos Tensor admiten la aceleración FP8. Esta característica innovadora puede funcionar bien para aquellos que desarrollan e implementan modelos de IA en entornos como la genómica y la visión por computadora .


También cabe destacar que el aumento de los mecanismos de codificación y decodificación hace que la RTX 4000 SFF ADA sea una buena solución para cargas de trabajo multimedia como video, entre otras.



Especificaciones técnicas de las tarjetas gráficas NVIDIA RTX A4000 y RTX A5000, RTX 3090


RTX A4000 ADA

NVIDIA RTX A4000

NVIDIA RTX A5000

RTX 3090

Arquitectura

ada lovelace

Amperio

Amperio

Amperio

Proceso tecnológico

5nm

8nm

8nm

8nm

GPU

AD104

GA102

GA104

GA102

Número de transistores (millones)

35,800

17,400

28,300

28,300

Ancho de banda de la memoria (Gb/s)

280.0

448

768

936.2

Capacidad de memoria de vídeo (bits)

160

256

384

384

Memoria GPU (GB)

20

dieciséis

24

24

Tipo de memoria

GDDR6

GDDR6

GDDR6

GDDR6X

Núcleos CUDA

6,144

6 144

8192

10496

Núcleos tensoriales

192

192

256

328

Núcleos RT

48

48

64

82

Rendimiento SP (teraflops)

19.2

19,2

27,8

35,6

Rendimiento del núcleo RT (teraflops)

44.3

37,4

54,2

69,5

Rendimiento del tensor (teraflops)

306.8

153,4

222,2

285

Potencia máxima (vatios)

70

140

230

350

Interfaz

PCIe 4.0x16

PCI-E 4.0 x16

PCI-E 4.0 x16

PCIe 4.0 x16

Conectores

4x Mini DisplayPort 1.4a

PD 1.4 (4)

PD 1.4 (4)

PD 1.4 (4)

Factor de forma

2 ranuras

1 ranura

2 ranuras

2-3 ranuras

El software vGPU

No

No

si, ilimitado

Sí. con limitaciones

Nvlink

No

No

2x RTX A5000

Soporte CUDA

11.6

8.6

8.6

8.6

soporte VULKAN

1.3

si, 1.2

Precio (dólares americanos)

1,250

1000

2500

1400



Descripción del entorno de prueba.


RTX A4000 ADA

RTX A4000

UPC

AMD Ryzen 9 5950X 3,4 GHz (16 núcleos)

Intel Xeon E-2288G de ocho núcleos, 3,5 GHz

RAM

4 módulos SO-DIMM DDR4 ECC de 32 Gb

2x 32 GB DDR4-3200 ECC DDR4 SDRAM 1600 MHz

Conducir

SSD NVMe de 1 TB

Samsung SSD 980 PRO 1TB

tarjeta madre

ASRock X570D4I-2T

Serie Asus P11C-I

Sistema operativo

microsoft windows 10

microsoft windows 10



Resultados de la prueba


Punto de referencia de V-Ray 5

Puntos anotados


Puntos anotados


Las pruebas CUDA y RTX de GPU de V-Ray miden el rendimiento relativo de renderizado de GPU. La GPU RTX A4000 está ligeramente por detrás de la RTX A4000 ADA (4 % y 11 %, respectivamente).


Aprendizaje automático


"Perros contra gatos"

Para comparar el rendimiento de las GPU para redes neuronales, usamos el conjunto de datos "Perros contra gatos": la prueba analiza el contenido de una foto y distingue si la foto muestra un gato o un perro. Todos los datos sin procesar necesarios se pueden encontrar aquí . Realizamos esta prueba en diferentes GPU y servicios en la nube y obtuvimos los siguientes resultados:


En esta prueba, la RTX A4000 ADA superó ligeramente a la RTX A4000 en un 9 %, pero tenga en cuenta el tamaño pequeño y el bajo consumo de energía de la nueva GPU.



Benchmark de IA


AI-Benchmark le permite medir el rendimiento del dispositivo durante una tarea de salida del modelo de IA. La unidad de medida puede variar según la prueba, pero normalmente es el número de operaciones por segundo (OPS) o el número de fotogramas por segundo (FPS).


Puntos anotados




RTX A4000

RTX A4000 ADA

1/19. MobileNet-V2

1.1 — inferencia | lote=50, tamaño=224x224: 38,5 ± 2,4 ms1.2 — entrenamiento | lote=50, tamaño=224x224: 109 ± 4 ms

1.1 — inferencia | lote=50, tamaño=224x224: 53,5 ± 0,7 ms1.2 — entrenamiento | lote=50, tamaño=224x224: 130,1 ± 0,6 ms

2/19. Inicio-V3

2.1 — inferencia | lote=20, tamaño=346x346: 36,1 ± 1,8 ms2.2 — entrenamiento | lote=20, tamaño=346x346: 137,4 ± 0,6 ms

2.1 — inferencia | lote=20, tamaño=346x346: 36,8 ± 1,1 ms2.2 — entrenamiento | lote=20, tamaño=346x346: 147,5 ± 0,8 ms

19/3. Inicio-V4

3.1 — inferencia | lote=10, tamaño=346x346: 34,0 ± 0,9 ms3.2 — entrenamiento | lote=10, tamaño=346x346: 139,4 ± 1,0 ms

3.1 — inferencia | lote=10, tamaño=346x346: 33,0 ± 0,8 ms3.2 — entrenamiento | lote=10, tamaño=346x346: 135,7 ± 0,9 ms

19/4. Inicio-ResNet-V2

4.1 — inferencia | lote=10, tamaño=346x346: 45,7 ± 0,6 ms4.2 — entrenamiento | lote=8, tamaño=346x346: 153,4 ± 0,8 ms

4.1 — lote de inferencia=10, tamaño=346x346: 33,6 ± 0,7 ms4.2 — lote de entrenamiento=8, tamaño=346x346: 132 ± 1 ms

5/19. ResNet-V2-50

5.1 — inferencia | lote=10, tamaño=346x346: 25,3 ± 0,5 ms5.2 — entrenamiento | lote=10, tamaño=346x346: 91,1 ± 0,8 ms

5.1 — inferencia | lote=10, tamaño=346x346: 26,1 ± 0,5 ms5.2 — entrenamiento | lote=10, tamaño=346x346: 92,3 ± 0,6 ms

19/6. ResNet-V2-152

6.1 — inferencia | lote=10, tamaño=256x256: 32,4 ± 0,5 ms6.2 — entrenamiento | lote=10, tamaño=256x256: 131,4 ± 0,7 ms

6.1 — inferencia | lote=10, tamaño=256x256: 23,7 ± 0,6 ms6.2 — entrenamiento | lote=10, tamaño=256x256: 107,1 ± 0,9 ms

19/7. VGG-16

7.1 — inferencia | lote=20, tamaño=224x224: 54,9 ± 0,9 ms7.2 — entrenamiento | lote=2, tamaño=224x224: 83,6 ± 0,7 ms

7.1 — inferencia | lote=20, tamaño=224x224: 66,3 ± 0,9 ms7.2 — entrenamiento | lote=2, tamaño=224x224: 109,3 ± 0,8 ms

19/8. SRCNN 9-5-5

8.1 — inferencia | lote=10, tamaño=512x512: 51,5 ± 0,9 ms8.2 — inferencia | lote=1, tamaño=1536x1536: 45,7 ± 0,9 ms8.3 — entrenamiento | lote=10, tamaño=512x512: 183 ± 1 ms

8.1 — inferencia | lote=10, tamaño=512x512: 59,9 ± 1,6 ms8.2 — inferencia | lote=1, tamaño=1536x1536: 53,1 ± 0,7 ms8.3 — entrenamiento | lote=10, tamaño=512x512: 176 ± 2 ms

19/9. VGG-19 Super-Res

9.1 — inferencia | lote=10, tamaño=256x256: 99,5 ± 0,8 ms9.2 — inferencia | lote=1, tamaño=1024x1024: 162 ± 1 ms9.3 — entrenamiento | lote=10, tamaño=224x224: 204 ± 2 ms


19/10. ResNet-SRGAN

10.1 — inferencia | lote=10, tamaño=512x512: 85,8 ± 0,6 ms10.2 — inferencia | lote=1, tamaño=1536x1536: 82,4 ± 1,9 ms10.3 — entrenamiento | lote=5, tamaño=512x512: 133 ± 1 ms

10.1 — inferencia | lote=10, tamaño=512x512: 98,9 ± 0,8 ms10.2 — inferencia | lote=1, tamaño=1536x1536: 86,1 ± 0,6 ms10.3 — entrenamiento | lote=5, tamaño=512x512: 130,9 ± 0,6 ms

19/11. ResNet-DPED

11.1 — inferencia | lote=10, tamaño=256x256: 114,9 ± 0,6 ms11.2 — inferencia | lote=1, tamaño=1024x1024: 182 ± 2 ms11.3 — entrenamiento | lote=15, tamaño=128x128: 178,1 ± 0,8 ms

11.1 — inferencia | lote=10, tamaño=256x256: 146,4 ± 0,5 ms11.2 — inferencia | lote=1, tamaño=1024x1024: 234,3 ± 0,5 ms11.3 — entrenamiento | lote=15, tamaño=128x128: 234,7 ± 0,6 ms

19/12. Red en U

12.1 — inferencia | lote=4, tamaño=512x512: 180,8 ± 0,7 ms12.2 — inferencia | lote=1, tamaño=1024x1024: 177,0 ± 0,4 ms12.3 — entrenamiento | lote=4, tamaño=256x256: 198,6 ± 0,5 ms

12.1 — inferencia | lote=4, tamaño=512x512: 222,9 ± 0,5 ms12.2 — inferencia | lote=1, tamaño=1024x1024: 220,4 ± 0,6 ms12.3 — entrenamiento | lote=4, tamaño=256x256: 229,1 ± 0,7 ms

13/19. Nvidia-SPADE

13.1 — inferencia | lote=5, tamaño=128x128: 54,5 ± 0,5 ms13.2 — entrenamiento | lote=1, tamaño=128x128: 103,6 ± 0,6 ms

13.1 — inferencia | lote=5, tamaño=128x128: 59,6 ± 0,6 ms13.2 — entrenamiento | lote=1, tamaño=128x128: 94,6 ± 0,6 ms

14/19. ICNet

14.1 — inferencia | lote=5, tamaño=1024x1536: 126,3 ± 0,8 ms14.2 — entrenamiento | lote=10, tamaño=1024x1536: 426 ± 9 ms

14.1 — inferencia | lote=5, tamaño=1024x1536: 144 ± 4 ms14.2 — entrenamiento | lote=10, tamaño=1024x1536: 475 ± 17 ms

15/19. PSPNet

15.1 — inferencia | lote=5, tamaño=720x720: 249 ± 12 ms15.2 — entrenamiento | lote=1, tamaño=512x512: 104,6 ± 0,6 ms

15.1 — inferencia | lote=5, tamaño=720x720: 291,4 ± 0,5 ms15.2 — entrenamiento | lote=1, tamaño=512x512: 99,8 ± 0,9 ms

16/19. Laboratorio profundo

16.1 — inferencia | lote=2, tamaño=512x512: 71,7 ± 0,6 ms16.2 — entrenamiento | lote=1, tamaño=384x384: 84,9 ± 0,5 ms

16.1 — inferencia | lote=2, tamaño=512x512: 71,5 ± 0,7 ms16.2 — entrenamiento | lote=1, tamaño=384x384: 69,4 ± 0,6 ms

17/19. Pixel-RNN

17.1 — inferencia | lote=50, tamaño=64x64: 299 ± 14 ms17.2 — entrenamiento | lote=10, tamaño=64x64: 1258 ± 64 ms

17.1 — inferencia | lote=50, tamaño=64x64: 321 ± 30 ms17.2 — entrenamiento | lote=10, tamaño=64x64: 1278 ± 74 ms

18/19. Sentimiento LSTM

18.1 — inferencia | lote=100, tamaño=1024x300: 395 ± 11 ms18.2 — entrenamiento | lote=10, tamaño=1024x300: 676 ± 15 ms

18.1 — inferencia | lote=100, tamaño=1024x300: 345 ± 10 ms18.2 — entrenamiento | lote=10, tamaño=1024x300: 774 ± 17 ms

19/19. GNMT-Traducción

19.1 — inferencia | lote=1, tamaño=1x20: 119 ± 2 ms

19.1 — inferencia | lote=1, tamaño=1x20: 156 ± 1 ms


Sin embargo, los resultados de esta prueba muestran que el rendimiento de la RTX A4000 es un 6 % superior al de la RTX A4000 ADA, con la advertencia de que los resultados de la prueba pueden variar según la tarea específica y las condiciones de funcionamiento empleadas.


PyTorch


RTX A 4000

evaluación comparativa

Modelo de tiempo medio de tren (ms)

Entrenamiento doble precisión tipo mnasnet0_5

62.995805740356445

Entrenamiento doble precisión tipo mnasnet0_75

98.39066505432129

Entrenamiento de doble precisión tipo mnasnet1_0

126.60405158996582

Entrenamiento de doble precisión tipo mnasnet1_3

186.89460277557373

Entrenamiento doble precisión tipo resnet18

428.08079719543457

Entrenamiento doble precisión tipo resnet34

883.5790348052979

Entrenamiento doble precisión tipo resnet50

1016.3950300216675

Entrenamiento doble precisión tipo resnet101

1927.2308254241943

Entrenamiento doble precisión tipo resnet152

2815.663013458252

Entrenamiento doble precisión tipo resnext50_32x4d

1075.4373741149902

Entrenamiento doble precisión tipo resnext101_32x8d

4050.0641918182373

Entrenamiento doble precisión tipo wide_resnet50_2

2615.9953451156616

Entrenamiento doble precisión tipo wide_resnet101_2

5218.524832725525

Entrenamiento doble precisión tipo densenet121

751.9759511947632

Entrenamiento doble precisión tipo densenet169

910.3225564956665

Entrenamiento doble precisión tipo densenet201

1163.036551475525

Entrenamiento doble precisión tipo densenet161

2141.505298614502

Entrenamiento doble precisión tipo squeezenet1_0

203.14435005187988

Entrenamiento doble precisión tipo squeezenet1_1

98.04857730865479

Entrenamiento doble precisión tipo vgg11

1697.710485458374

Entrenamiento doble precisión tipo vgg11_bn

1729.2972660064697

Entrenamiento doble precisión tipo vgg13

2491.615080833435

Entrenamiento doble precisión tipo vgg13_bn

2545.1631927490234

Entrenamiento doble precisión tipo vgg16

3371.1953449249268

Entrenamiento doble precisión tipo vgg16_bn

3423.8639068603516

Entrenamiento doble precisión tipo vgg19_bn

4314.5153522491455

Entrenamiento doble precisión tipo vgg19

4249.422650337219

Entrenamiento doble precisión tipo mobilenet_v3_large

105.54619789123535

Entrenamiento doble precisión tipo mobilenet_v3_small

37.6680850982666

Entrenamiento doble precisión tipo shufflenet_v2_x0_5

26.51611328125

Entrenamiento doble precisión tipo shufflenet_v2_x1_0

61.260504722595215

Entrenamiento doble precisión tipo shufflenet_v2_x1_5

105.30067920684814

Entrenamiento doble precisión tipo shufflenet_v2_x2_0

181.03694438934326

Tipo de doble precisión de inferencia mnasnet0_5

17.397074699401855

Tipo de doble precisión de inferencia mnasnet0_75

28.902697563171387

Tipo de doble precisión de inferencia mnasnet1_0

38.387718200683594

Tipo de doble precisión de inferencia mnasnet1_3

58.228821754455566

Inferencia doble precisión tipo resnet18

147.95727252960205

Inferencia doble precisión tipo resnet34

293.519492149353

Inferencia doble precisión tipo resnet50

336.44991874694824

Inferencia doble precisión tipo resnet101

637.9982376098633

Inferencia doble precisión tipo resnet152

948.9351654052734

Tipo de doble precisión de inferencia resnext50_32x4d

372.80876636505127

Tipo de doble precisión de inferencia resnext101_32x8d

1385.1624917984009

Tipo de doble precisión de inferencia wide_resnet50_2

873.048791885376

Tipo de doble precisión de inferencia wide_resnet101_2

1729.2765426635742

Inferencia doble precisión tipo densenet121

270.13323307037354

Inferencia doble precisión tipo densenet169

327.1932888031006

Inferencia doble precisión tipo densenet201

414.733362197876

Inferencia doble precisión tipo densenet161

766.3542318344116

Tipo de inferencia de precisión doble squeezenet1_0

74.86292839050293

Tipo de inferencia de doble precisión squeezenet1_1

34.04905319213867

Inferencia doble precisión tipo vgg11

576.3767147064209

Inferencia doble precisión tipo vgg11_bn

580.5839586257935

Inferencia doble precisión tipo vgg13

853.4365510940552

Inferencia doble precisión tipo vgg13_bn

860.3136301040649

Inferencia doble precisión tipo vgg16

1145.091052055359

Inferencia doble precisión tipo vgg16_bn

1152.8028392791748

Inferencia doble precisión tipo vgg19_bn

1444.9562692642212

Inferencia doble precisión tipo vgg19

1437.0987701416016

Tipo de doble precisión de inferencia mobilenet_v3_large

30.876317024230957

Tipo de doble precisión de inferencia mobilenet_v3_small

11.234536170959473

Inferencia de doble precisión tipo shufflenet_v2_x0_5

7.425284385681152

Inferencia de doble precisión tipo shufflenet_v2_x1_0

18.25782299041748

Inferencia de doble precisión tipo shufflenet_v2_x1_5

33.34946632385254

Inferencia de doble precisión tipo shufflenet_v2_x2_0

57.84676551818848


RTX A4000 ADA


evaluación comparativa

Modelo de tiempo medio de tren

Entrenamiento de precisión media tipo mnasnet0_5

20.266618728637695

Entrenamiento de precisión media tipo mnasnet0_75

21.445374488830566

Entrenamiento de precisión media tipo mnasnet1_0

26.714019775390625

Entrenamiento de precisión media tipo mnasnet1_3

26.5126371383667

Entrenamiento media precisión tipo resnet18

19.624991416931152

Entrenamiento de media precisión tipo resnet34

32.46446132659912

Entrenamiento de media precisión tipo resnet50

57.17473030090332

Entrenamiento de media precisión tipo resnet101

98.20127010345459

Entrenamiento de media precisión tipo resnet152

138.18389415740967

Entrenamiento media precisión tipo resnext50_32x4d

75.56005001068115

Entrenamiento media precisión tipo resnext101_32x8d

228.8706636428833

Entrenamiento de media precisión tipo wide_resnet50_2

113.76442432403564

Entrenamiento de media precisión tipo wide_resnet101_2

204.17311191558838

Entrenamiento de media precisión tipo densenet121

68.97401332855225

Entrenamiento de media precisión tipo densenet169

85.16453742980957

Entrenamiento de media precisión tipo densenet201

103.299241065979

Entrenamiento de media precisión tipo densenet161

137.54578113555908

Entrenamiento de media precisión tipo squeezenet1_0

16.71830177307129

Entrenamiento de media precisión tipo squeezenet1_1

12.906527519226074

Entrenamiento de media precisión tipo vgg11

51.7004919052124

Entrenamiento de media precisión tipo vgg11_bn

57.63327598571777

Entrenamiento de media precisión tipo vgg13

86.10869407653809

Entrenamiento de media precisión tipo vgg13_bn

95.86676120758057

Entrenamiento de media precisión tipo vgg16

102.91589260101318

Entrenamiento de media precisión tipo vgg16_bn

113.74778270721436

Entrenamiento de media precisión tipo vgg19_bn

131.56734943389893

Entrenamiento de media precisión tipo vgg19

119.70191955566406

Entrenamiento de media precisión tipo mobilenet_v3_large

31.30636692047119

Entrenamiento de media precisión tipo mobilenet_v3_small

19.44464683532715

Entrenamiento de media precisión tipo shufflenet_v2_x0_5

13.710575103759766

Entrenamiento de media precisión tipo shufflenet_v2_x1_0

23.608479499816895

Entrenamiento de media precisión tipo shufflenet_v2_x1_5

26.793746948242188

Entrenamiento de media precisión tipo shufflenet_v2_x2_0

24.550962448120117

Tipo de media precisión de inferencia mnasnet0_5

4.418272972106934

Tipo de media precisión de inferencia mnasnet0_75

4.021778106689453

Tipo de media precisión de inferencia mnasnet1_0

4.42598819732666

Tipo de media precisión de inferencia mnasnet1_3

4.618926048278809

Inferencia de media precisión tipo resnet18

5.803341865539551

Inferencia de media precisión tipo resnet34

9.756693840026855

Inferencia media precisión tipo resnet50

15.873079299926758

Inferencia de media precisión tipo resnet101

28.268003463745117

Tipo de media precisión de inferencia resnet152

40.04594326019287

Tipo de media precisión de inferencia resnext50_32x4d

19.53421115875244

Tipo de media precisión de inferencia resnext101_32x8d

62.44826316833496

Tipo de precisión media de inferencia wide_resnet50_2

33.533992767333984

Tipo de inferencia de precisión media wide_resnet101_2

59.60897445678711

Tipo de media precisión de inferencia densenet121

18.052735328674316

Tipo de media precisión de inferencia densenet169

21.956982612609863

Inferencia de media precisión tipo densenet201

27.85182476043701

Inferencia de media precisión tipo densenet161

37.41891860961914

Tipo de inferencia de precisión media squeezenet1_0

4.391803741455078

Tipo de inferencia de precisión media squeezenet1_1

2.4281740188598633

Inferencia de media precisión tipo vgg11

17.11493968963623

Inferencia de precisión media tipo vgg11_bn

18.40585231781006

Inferencia de media precisión tipo vgg13

28.438148498535156

Inferencia de precisión media tipo vgg13_bn

30.672597885131836

Inferencia de media precisión tipo vgg16

34.43562984466553

Inferencia de media precisión tipo vgg16_bn

36.92122936248779

Inferencia de media precisión tipo vgg19_bn

43.144264221191406

Inferencia de media precisión tipo vgg19

40.5385684967041

Tipo de media precisión de inferencia mobilenet_v3_large

5.350713729858398

Tipo de media precisión de inferencia mobilenet_v3_small

4.016985893249512

Tipo de inferencia de precisión media shufflenet_v2_x0_5

5.079126358032227

Tipo de inferencia de precisión media shufflenet_v2_x1_0

5.593156814575195

Tipo de inferencia de precisión media shufflenet_v2_x1_5

5.649552345275879

Tipo de inferencia de precisión media shufflenet_v2_x2_0

5.355663299560547

Entrenamiento doble precisión tipo mnasnet0_5

50.2386999130249

Entrenamiento doble precisión tipo mnasnet0_75

80.66896915435791

Entrenamiento de doble precisión tipo mnasnet1_0

103.32422733306885

Entrenamiento de doble precisión tipo mnasnet1_3

154.6230697631836

Entrenamiento doble precisión tipo resnet18

337.94031620025635

Entrenamiento doble precisión tipo resnet34

677.7706575393677

Entrenamiento doble precisión tipo resnet50

789.9243211746216

Entrenamiento doble precisión tipo resnet101

1484.3351316452026

Entrenamiento doble precisión tipo resnet152

2170.570478439331

Entrenamiento doble precisión tipo resnext50_32x4d

877.3719882965088

Entrenamiento doble precisión tipo resnext101_32x8d

3652.4944639205933

Entrenamiento doble precisión tipo wide_resnet50_2

2154.612874984741

Entrenamiento doble precisión tipo wide_resnet101_2

4176.522083282471

Entrenamiento doble precisión tipo densenet121

607.8699731826782

Entrenamiento doble precisión tipo densenet169

744.6409797668457

Entrenamiento doble precisión tipo densenet201

962.677731513977

Entrenamiento doble precisión tipo densenet161

1759.772515296936

Entrenamiento doble precisión tipo squeezenet1_0

164.3690824508667

Entrenamiento doble precisión tipo squeezenet1_1

78.70647430419922

Entrenamiento doble precisión tipo vgg11

1362.6095294952393

Entrenamiento doble precisión tipo vgg11_bn

1387.2539138793945

Entrenamiento doble precisión tipo vgg13

2006.0230445861816

Entrenamiento doble precisión tipo vgg13_bn

2047.526364326477

Entrenamiento doble precisión tipo vgg16

2702.2086429595947

Entrenamiento doble precisión tipo vgg16_bn

2747.241234779358

Entrenamiento doble precisión tipo vgg19_bn

3447.1724700927734

Entrenamiento doble precisión tipo vgg19

3397.990345954895

Entrenamiento doble precisión tipo mobilenet_v3_large

84.65698719024658

Entrenamiento doble precisión tipo mobilenet_v3_small

29.816465377807617

Entrenamiento doble precisión tipo shufflenet_v2_x0_5

27.401342391967773

Entrenamiento doble precisión tipo shufflenet_v2_x1_0

48.322744369506836

Entrenamiento doble precisión tipo shufflenet_v2_x1_5

82.22103118896484

Entrenamiento doble precisión tipo shufflenet_v2_x2_0

141.7021369934082

Tipo de doble precisión de inferencia mnasnet0_5

12.988653182983398

Tipo de doble precisión de inferencia mnasnet0_75

22.422199249267578

Tipo de doble precisión de inferencia mnasnet1_0

30.056486129760742

Tipo de doble precisión de inferencia mnasnet1_3

46.953935623168945

Inferencia doble precisión tipo resnet18

118.04479122161865

Inferencia doble precisión tipo resnet34

231.52336597442627

Inferencia doble precisión tipo resnet50

268.63497734069824

Inferencia doble precisión tipo resnet101

495.2010440826416

Inferencia doble precisión tipo resnet152

726.4922094345093

Tipo de doble precisión de inferencia resnext50_32x4d

291.47679328918457

Tipo de doble precisión de inferencia resnext101_32x8d

1055.10901927948

Tipo de doble precisión de inferencia wide_resnet50_2

690.6917667388916

Tipo de doble precisión de inferencia wide_resnet101_2

1347.5529861450195

Inferencia doble precisión tipo densenet121

224.35829639434814

Inferencia doble precisión tipo densenet169

268.9145278930664

Inferencia doble precisión tipo densenet201

343.1972026824951

Inferencia doble precisión tipo densenet161

635.866231918335

Tipo de inferencia de precisión doble squeezenet1_0

61.92759037017822

Tipo de inferencia de doble precisión squeezenet1_1

27.009410858154297

Inferencia doble precisión tipo vgg11

462.3375129699707

Inferencia doble precisión tipo vgg11_bn

468.4495782852173

Inferencia doble precisión tipo vgg13

692.8219032287598

Inferencia doble precisión tipo vgg13_bn

703.3538103103638

Inferencia doble precisión tipo vgg16

924.4353818893433

Inferencia doble precisión tipo vgg16_bn

936.5075063705444

Inferencia doble precisión tipo vgg19_bn

1169.098300933838

Inferencia doble precisión tipo vgg19

1156.3771772384644

Tipo de doble precisión de inferencia mobilenet_v3_large

24.2356014251709

Tipo de doble precisión de inferencia mobilenet_v3_small

8.85490894317627

Inferencia de doble precisión tipo shufflenet_v2_x0_5

6.360034942626953

Inferencia de doble precisión tipo shufflenet_v2_x1_0

14.301743507385254

Inferencia de doble precisión tipo shufflenet_v2_x1_5

24.863481521606445

Inferencia de doble precisión tipo shufflenet_v2_x2_0

43.8505744934082


Conclusión

La nueva tarjeta gráfica ha demostrado ser una solución eficaz para una serie de tareas de trabajo. Gracias a su tamaño compacto, es ideal para potentes ordenadores SFF (Small Form Factor). Además, cabe destacar que los 6.144 núcleos CUDA y los 20 GB de memoria con bus de 160 bits hacen de esta tarjeta una de las más productivas del mercado. Además, un bajo TDP de 70 W ayuda a reducir los costos de consumo de energía. Cuatro puertos Mini-DisplayPort permiten que la tarjeta se use con múltiples monitores o como una solución de gráficos multicanal.


La RTX 4000 SFF ADA representa un avance significativo con respecto a las generaciones anteriores, ya que ofrece un rendimiento equivalente al de una tarjeta con el doble de consumo de energía. Sin conector de alimentación PCIe, el RTX 4000 SFF ADA es fácil de integrar en estaciones de trabajo de bajo consumo sin sacrificar el alto rendimiento.