paint-brush
Le Nvidia RTX A4000 ADA peut-il gérer les tâches d'apprentissage automatique ?par@hostkey
3,096 lectures
3,096 lectures

Le Nvidia RTX A4000 ADA peut-il gérer les tâches d'apprentissage automatique ?

par Hostkey.com15m2023/06/29
Read on Terminal Reader

Trop long; Pour lire

En avril, Nvidia a lancé un nouveau produit, le RTX A4000 ADA, un GPU à petit facteur de forme conçu pour les applications de station de travail. Ce processeur remplace l'A2000 et peut être utilisé pour des tâches complexes, notamment la recherche scientifique, les calculs d'ingénierie et la visualisation de données. La capacité de mémoire de 20 Go du nouveau GPU lui permet de gérer de grands environnements.
featured image - Le Nvidia RTX A4000 ADA peut-il gérer les tâches d'apprentissage automatique ?
Hostkey.com HackerNoon profile picture
0-item

En avril, Nvidia a lancé un nouveau produit, le RTX A4000 ADA, un GPU à petit facteur de forme conçu pour les applications de station de travail. Ce processeur remplace l'A2000 et peut être utilisé pour des tâches complexes, notamment la recherche scientifique, les calculs d'ingénierie et la visualisation de données.


Le RTX A4000 ADA comprend 6 144 cœurs CUDA, 192 cœurs Tensor et 48 cœurs RT, et 20 Go de VRAM GDDR6 ECC. L'un des principaux avantages du nouveau GPU est son efficacité énergétique : le RTX A4000 ADA ne consomme que 70 W, ce qui réduit à la fois les coûts d'alimentation et la chaleur du système. Le GPU vous permet également de piloter plusieurs écrans grâce à sa connectivité 4x Mini-DisplayPort 1.4a.





Lorsque l'on compare les GPU RTX 4000 SFF ADA à d'autres appareils de la même classe, il convient de noter que lorsqu'ils fonctionnent en mode simple précision, ils affichent des performances similaires à celles de la dernière génération de GPU RTX A4000, qui consomme deux fois plus d'énergie (140 W vs. 70W).





L'ADA RTX 4000 SFF est construit sur l'architecture ADA Lovelace et la technologie de processus 5 nm. Cela permet d'activer les cœurs Tensor Core et de traçage de rayons de nouvelle génération, qui améliorent considérablement les performances en fournissant un traçage de rayons et des cœurs Tensor plus rapides et plus efficaces que le RTX A4000. De plus, le RTX 4000 SFF d'ADA est livré dans un petit boîtier - la carte mesure 168 mm de long et aussi épaisse que deux connecteurs d'extension.





Les noyaux de lancer de rayons améliorés permettent des performances efficaces dans les environnements où la technologie est utilisée, comme dans la conception et le rendu 3D. De plus, la capacité de mémoire de 20 Go du nouveau GPU lui permet de gérer de grands environnements.





Selon le fabricant, les cœurs Tensor de quatrième génération offrent des performances de calcul d'IA élevées - une augmentation des performances deux fois supérieure à celle de la génération précédente. Les nouveaux cœurs Tensor prennent en charge l'accélération FP8. Cette fonctionnalité innovante peut bien fonctionner pour ceux qui développent et déploient des modèles d'IA dans des environnements tels que la génomique et la vision par ordinateur .


Il convient également de noter que l'augmentation des mécanismes d'encodage et de décodage fait du RTX 4000 SFF ADA une bonne solution pour les charges de travail multimédia telles que la vidéo, entre autres.



Spécifications techniques des cartes graphiques NVIDIA RTX A4000 et RTX A5000, RTX 3090


RTX A4000ADA

NVIDIA RTX A4000

NVIDIA RTX A5000

RTX 3090

Architecture

Ada Lovelace

Ampère

Ampère

Ampère

Processus technique

5 nm

8 nm

8 nm

8 nm

GPU

AD104

GA102

GA104

GA102

Nombre de transistors (millions)

35 800

17 400

28 300

28 300

Bande passante mémoire (Gb/s)

280,0

448

768

936.2

Capacité de la mémoire vidéo (bits)

160

256

384

384

Mémoire GPU (Go)

20

16

24

24

Type de mémoire

GDDR6

GDDR6

GDDR6

GDDR6X

Cœurs CUDA

6 144

6 144

8192

10496

Noyaux tenseurs

192

192

256

328

Cœurs RT

48

48

64

82

Perf SP (téraflops)

19.2

19,2

27,8

35,6

Performances du cœur RT (téraflops)

44.3

37,4

54,2

69,5

Performances du tenseur (téraflops)

306.8

153,4

222,2

285

Puissance maximale (Watts)

70

140

230

350

Interface

PCIe 4.0x16

PCI-E 4.0 x16

PCI-E 4.0 x16

PCIe 4.0 x16

Connecteurs

4x Mini DisplayPort 1.4a

DP 1.4 (4)

DP 1.4 (4)

DP 1.4 (4)

Facteur de forme

2 emplacements

1 emplacement

2 emplacements

2-3 emplacements

Le logiciel vGPU

Non

Non

Oui, illimité

Oui. avec des restrictions

Nvlink

Non

Non

2x RTX A5000

Oui

Prise en charge de CUDA

11.6

8.6

8.6

8.6

Prise en charge VULKAN

1.3

Oui

Oui

oui, 1.2

Prix (USD)

1 250

1000

2500

1400



Description de l'environnement de test


RTX A4000ADA

RTX A4000

CPU

AMD Ryzen 9 5950X 3,4 GHz (16 cœurs)

OctaCore Intel Xeon E-2288G, 3,5 GHz

RAM

4x 32 Go DDR4 ECC SO-DIMM

2x 32 Go DDR4-3200 ECC DDR4 SDRAM 1600 MHz

Conduire

SSD NVMe 1 To

Samsung SSD 980 PRO 1 To

Carte mère

ASRock X570D4I-2T

Série Asus P11C-I

Système opérateur

Microsoft Windows 10

Microsoft Windows 10



Résultats de test


Référence V-Ray 5

Points marqués


Points marqués


Les tests V-Ray GPU CUDA et RTX mesurent les performances de rendu GPU relatives. Le GPU RTX A4000 est légèrement derrière le RTX A4000 ADA (4% et 11%, respectivement).


Apprentissage automatique


"Chiens contre chats"

Pour comparer les performances des GPU pour les réseaux de neurones, nous avons utilisé l'ensemble de données "Dogs vs. Cats" - le test analyse le contenu d'une photo et distingue si la photo montre un chat ou un chien. Toutes les données brutes nécessaires peuvent être trouvées ici . Nous avons effectué ce test sur différents GPU et services cloud et avons obtenu les résultats suivants :


Dans ce test, le RTX A4000 ADA a légèrement surpassé le RTX A4000 de 9 %, mais gardez à l'esprit la petite taille et la faible consommation d'énergie du nouveau GPU.



AI-Benchmark


AI-Benchmark vous permet de mesurer les performances de l'appareil lors d'une tâche de sortie de modèle AI. L'unité de mesure peut varier selon le test, mais il s'agit généralement du nombre d'opérations par seconde (OPS) ou du nombre d'images par seconde (FPS).


Points marqués




RTX A4000

RTX A4000ADA

1/19. MobileNet-V2

1.1 — inférence | lot=50, taille=224x224 : 38,5 ± 2,4 ms1.2 — formation | lot=50, taille=224x224 : 109 ± 4 ms

1.1 — inférence | lot=50, taille=224x224 : 53,5 ± 0,7 ms1.2 — formation | lot=50, taille=224x224 : 130,1 ± 0,6 ms

2/19. Création-V3

2.1 — inférence | lot=20, taille=346x346 : 36,1 ± 1,8 ms2.2 — formation | lot=20, taille=346x346 : 137,4 ± 0,6 ms

2.1 — inférence | lot=20, taille=346x346 : 36,8 ± 1,1 ms2.2 — formation | lot=20, taille=346x346 : 147,5 ± 0,8 ms

3/19. Création-V4

3.1 — inférence | lot=10, taille=346x346 : 34,0 ± 0,9 ms3.2 — formation | lot=10, taille=346x346 : 139,4 ± 1,0 ms

3.1 — inférence | lot=10, taille=346x346 : 33,0 ± 0,8 ms3.2 — formation | lot=10, taille=346x346 : 135,7 ± 0,9 ms

4/19. Inception-ResNet-V2

4.1 — inférence | lot=10, taille=346x346 : 45,7 ± 0,6 ms4.2 — formation | lot=8, taille=346x346 : 153,4 ± 0,8 ms

4.1 — lot d'inférence=10, taille=346x346 : 33,6 ± 0,7 ms4.2 — lot d'entraînement=8, taille=346x346 : 132 ± 1 ms

5/19. ResNet-V2-50

5.1 — inférence | lot=10, taille=346x346 : 25,3 ± 0,5 ms5.2 — formation | lot=10, taille=346x346 : 91,1 ± 0,8 ms

5.1 — inférence | lot=10, taille=346x346 : 26,1 ± 0,5 ms5.2 — formation | lot=10, taille=346x346 : 92,3 ± 0,6 ms

19/06. ResNet-V2-152

6.1 — inférence | lot=10, taille=256x256 : 32,4 ± 0,5 ms6.2 — formation | lot=10, taille=256x256 : 131,4 ± 0,7 ms

6.1 — inférence | lot=10, taille=256x256 : 23,7 ± 0,6 ms6.2 — formation | lot=10, taille=256x256 : 107,1 ± 0,9 ms

7/19. VGG-16

7.1 — inférence | lot=20, taille=224x224 : 54,9 ± 0,9 ms7.2 — formation | lot=2, taille=224x224 : 83,6 ± 0,7 ms

7.1 — inférence | lot=20, taille=224x224 : 66,3 ± 0,9 ms7.2 — formation | lot=2, taille=224x224 : 109,3 ± 0,8 ms

8/19. SRCNN 9-5-5

8.1 — inférence | lot=10, taille=512x512 : 51,5 ± 0,9 ms8.2 — inférence | lot=1, taille=1536x1536 : 45,7 ± 0,9 ms8.3 — formation | lot=10, taille=512x512 : 183 ± 1 ms

8.1 — inférence | lot=10, taille=512x512 : 59,9 ± 1,6 ms8.2 — inférence | lot=1, taille=1536x1536 : 53,1 ± 0,7 ms8.3 — formation | lot=10, taille=512x512 : 176 ± 2 ms

9/19. VGG-19 Super-Res

9.1 — inférence | lot=10, taille=256x256 : 99,5 ± 0,8 ms9.2 — inférence | lot=1, taille=1024x1024 : 162 ± 1 ms9.3 — formation | lot=10, taille=224x224 : 204 ± 2 ms


10/19. ResNet-SRGAN

10.1 — inférence | lot=10, taille=512x512 : 85,8 ± 0,6 ms10.2 — inférence | lot=1, taille=1536x1536 : 82,4 ± 1,9 ms10.3 — formation | lot=5, taille=512x512 : 133 ± 1 ms

10.1 — inférence | lot=10, taille=512x512 : 98,9 ± 0,8 ms10.2 — inférence | lot=1, taille=1536x1536 : 86,1 ± 0,6 ms10.3 — formation | lot=5, taille=512x512 : 130,9 ± 0,6 ms

11/19. ResNet-DPED

11.1 — inférence | lot=10, taille=256x256 : 114,9 ± 0,6 ms11.2 — inférence | lot=1, taille=1024x1024 : 182 ± 2 ms11.3 — formation | lot=15, taille=128x128 : 178,1 ± 0,8 ms

11.1 — inférence | lot=10, taille=256x256 : 146,4 ± 0,5 ms11.2 — inférence | lot=1, taille=1024x1024 : 234,3 ± 0,5 ms11.3 — formation | lot=15, taille=128x128 : 234,7 ± 0,6 ms

12/19. U-Net

12.1 — inférence | lot=4, taille=512x512 : 180,8 ± 0,7 ms12.2 — inférence | lot=1, taille=1024x1024 : 177,0 ± 0,4 ms12.3 — formation | lot=4, taille=256x256 : 198,6 ± 0,5 ms

12.1 — inférence | lot=4, taille=512x512 : 222,9 ± 0,5 ms12.2 — inférence | lot=1, taille=1024x1024 : 220,4 ± 0,6 ms12.3 — formation | lot=4, taille=256x256 : 229,1 ± 0,7 ms

13/19. Nvidia-SPADE

13.1 — inférence | lot=5, taille=128x128 : 54,5 ± 0,5 ms13.2 — formation | lot=1, taille=128x128 : 103,6 ± 0,6 ms

13.1 — inférence | lot=5, taille=128x128 : 59,6 ± 0,6 ms13.2 — formation | lot=1, taille=128x128 : 94,6 ± 0,6 ms

14/19. ICNet

14.1 — inférence | lot=5, taille=1024x1536 : 126,3 ± 0,8 ms14.2 — formation | lot=10, taille=1024x1536 : 426 ± 9 ms

14.1 — inférence | lot=5, taille=1024x1536 : 144 ± 4 ms14.2 — formation | lot=10, taille=1024x1536 : 475 ± 17 ms

15/19. PSPNet

15.1 — inférence | lot=5, taille=720x720 : 249 ± 12 ms15.2 — formation | lot=1, taille=512x512 : 104,6 ± 0,6 ms

15.1 — inférence | lot=5, taille=720x720 : 291,4 ± 0,5 ms15.2 — formation | lot=1, taille=512x512 : 99,8 ± 0,9 ms

16/19. DeepLab

16.1 — inférence | lot=2, taille=512x512 : 71,7 ± 0,6 ms16.2 — formation | lot=1, taille=384x384 : 84,9 ± 0,5 ms

16.1 — inférence | lot=2, taille=512x512 : 71,5 ± 0,7 ms16.2 — formation | lot=1, taille=384x384 : 69,4 ± 0,6 ms

17/19. Pixel-RNN

17.1 — inférence | lot=50, taille=64x64 : 299 ± 14 ms17.2 — formation | lot=10, taille=64x64 : 1258 ± 64 ms

17.1 — inférence | lot=50, taille=64x64 : 321 ± 30 ms17.2 — formation | lot=10, taille=64x64 : 1278 ± 74 ms

18/19. Sentiment LSTM

18.1 — inférence | lot=100, taille=1024x300 : 395 ± 11 ms18.2 — formation | lot=10, taille=1024x300 : 676 ± 15 ms

18.1 — inférence | lot=100, taille=1024x300 : 345 ± 10 ms18.2 — formation | lot=10, taille=1024x300 : 774 ± 17 ms

19/19. GNMT-Traduction

19.1 — inférence | lot=1, taille=1x20 : 119 ± 2 ms

19.1 — inférence | lot=1, taille=1x20 : 156 ± 1 ms


Les résultats de ce test montrent que les performances du RTX A4000 sont 6% supérieures à celles du RTX A4000 ADA, avec toutefois la mise en garde que les résultats du test peuvent varier en fonction de la tâche spécifique et des conditions de fonctionnement utilisées.


TorchePy


RTX A 4000

Analyse comparative

Temps de train moyen du modèle (ms)

Formation double précision type mnasnet0_5

62.995805740356445

Formation double précision type mnasnet0_75

98.39066505432129

Formation double précision type mnasnet1_0

126.60405158996582

Formation double précision type mnasnet1_3

186.89460277557373

Formation double précision type resnet18

428.08079719543457

Formation double précision type resnet34

883.5790348052979

Formation double précision type resnet50

1016.3950300216675

Formation double précision type resnet101

1927.2308254241943

Formation double précision type resnet152

2815.663013458252

Formation double précision type resnext50_32x4d

1075.4373741149902

Formation double précision type resnext101_32x8d

4050.0641918182373

Formation double précision type wide_resnet50_2

2615.9953451156616

Formation double précision type wide_resnet101_2

5218.524832725525

Formation double précision type densenet121

751.9759511947632

Formation double précision type densenet169

910.3225564956665

Formation double précision type densenet201

1163.036551475525

Formation double précision type densenet161

2141.505298614502

Formation double précision type squeezenet1_0

203.14435005187988

Entraînement double précision type squeezenet1_1

98.04857730865479

Formation double précision type vgg11

1697.710485458374

Formation double précision type vgg11_bn

1729.2972660064697

Formation double précision type vgg13

2491.615080833435

Formation double précision type vgg13_bn

2545.1631927490234

Formation double précision type vgg16

3371.1953449249268

Formation double précision type vgg16_bn

3423.8639068603516

Formation double précision type vgg19_bn

4314.5153522491455

Formation double précision type vgg19

4249.422650337219

Formation double précision type mobilenet_v3_large

105.54619789123535

Formation double précision type mobilenet_v3_small

37.6680850982666

Formation double précision type shufflenet_v2_x0_5

26.51611328125

Formation double précision type shufflenet_v2_x1_0

61.260504722595215

Formation double précision type shufflenet_v2_x1_5

105.30067920684814

Formation double précision type shufflenet_v2_x2_0

181.03694438934326

Type d'inférence double précision mnasnet0_5

17.397074699401855

Type d'inférence double précision mnasnet0_75

28.902697563171387

Type d'inférence double précision mnasnet1_0

38.387718200683594

Inférence double précision type mnasnet1_3

58.228821754455566

Inférence double précision type resnet18

147.95727252960205

Inférence double précision type resnet34

293.519492149353

Inférence double précision type resnet50

336.44991874694824

Inférence double précision type resnet101

637.9982376098633

Inférence double précision type resnet152

948.9351654052734

Inférence double précision type resnext50_32x4d

372.80876636505127

Inférence double précision type resnext101_32x8d

1385.1624917984009

Type d'inférence double précision wide_resnet50_2

873.048791885376

Type d'inférence double précision wide_resnet101_2

1729.2765426635742

Inférence double précision type densenet121

270.13323307037354

Inférence double précision type densenet169

327.1932888031006

Inférence double précision type densenet201

414.733362197876

Inférence double précision type densenet161

766.3542318344116

Inférence double précision type squeezenet1_0

74.86292839050293

Inférence double précision type squeezenet1_1

34.04905319213867

Inférence double précision type vgg11

576.3767147064209

Inférence double précision type vgg11_bn

580.5839586257935

Inférence double précision type vgg13

853.4365510940552

Inférence double précision type vgg13_bn

860.3136301040649

Inférence double précision type vgg16

1145.091052055359

Inférence double précision type vgg16_bn

1152.8028392791748

Inférence double précision type vgg19_bn

1444.9562692642212

Inférence double précision type vgg19

1437.0987701416016

Type d'inférence double précision mobilenet_v3_large

30.876317024230957

Type d'inférence double précision mobilenet_v3_small

11.234536170959473

Type d'inférence double précision shufflenet_v2_x0_5

7.425284385681152

Type d'inférence double précision shufflenet_v2_x1_0

18.25782299041748

Type d'inférence double précision shufflenet_v2_x1_5

33.34946632385254

Type d'inférence double précision shufflenet_v2_x2_0

57.84676551818848


RTX A4000ADA


Analyse comparative

Modèle de temps de train moyen

Formation de type demi-précision mnasnet0_5

20.266618728637695

Formation demi-précision type mnasnet0_75

21.445374488830566

Formation de type demi-précision mnasnet1_0

26.714019775390625

Formation demi-précision type mnasnet1_3

26.5126371383667

Formation demi-précision type resnet18

19.624991416931152

Formation demi-précision type resnet34

32.46446132659912

Formation demi-précision type resnet50

57.17473030090332

Formation demi-précision type resnet101

98.20127010345459

Formation demi-précision type resnet152

138.18389415740967

Formation demi-précision type resnext50_32x4d

75.56005001068115

Formation demi-précision type resnext101_32x8d

228.8706636428833

Formation demi-précision type wide_resnet50_2

113.76442432403564

Formation demi-précision type wide_resnet101_2

204.17311191558838

Formation demi-précision type densenet121

68.97401332855225

Formation demi-précision type densenet169

85.16453742980957

Formation demi-précision type densenet201

103.299241065979

Formation demi-précision type densenet161

137.54578113555908

Formation demi-précision type squeezenet1_0

16.71830177307129

Entraînement demi-précision type squeezenet1_1

12.906527519226074

Formation demi-précision type vgg11

51.7004919052124

Formation demi-précision type vgg11_bn

57.63327598571777

Formation demi-précision type vgg13

86.10869407653809

Formation demi-précision type vgg13_bn

95.86676120758057

Formation demi-précision type vgg16

102.91589260101318

Formation demi-précision type vgg16_bn

113.74778270721436

Formation demi-précision type vgg19_bn

131.56734943389893

Formation demi-précision type vgg19

119.70191955566406

Formation demi-précision type mobilenet_v3_large

31.30636692047119

Formation demi-précision type mobilenet_v3_small

19.44464683532715

Entraînement de type demi-précision shufflenet_v2_x0_5

13.710575103759766

Entraînement de type demi-précision shufflenet_v2_x1_0

23.608479499816895

Formation demi-précision type shufflenet_v2_x1_5

26.793746948242188

Entraînement de type demi-précision shufflenet_v2_x2_0

24.550962448120117

Type d'inférence demi-précision mnasnet0_5

4.418272972106934

Type d'inférence demi-précision mnasnet0_75

4.021778106689453

Type d'inférence demi-précision mnasnet1_0

4.42598819732666

Type d'inférence demi-précision mnasnet1_3

4.618926048278809

Inférence demi-précision type resnet18

5.803341865539551

Inférence demi-précision type resnet34

9.756693840026855

Inférence demi-précision type resnet50

15.873079299926758

Inférence demi-précision type resnet101

28.268003463745117

Inférence demi-précision type resnet152

40.04594326019287

Inférence demi-précision type resnext50_32x4d

19.53421115875244

Inférence demi-précision type resnext101_32x8d

62.44826316833496

Type d'inférence demi-précision wide_resnet50_2

33.533992767333984

Type d'inférence demi-précision wide_resnet101_2

59.60897445678711

Inférence demi-précision type densenet121

18.052735328674316

Inférence demi-précision type densenet169

21.956982612609863

Inférence demi-précision type densenet201

27.85182476043701

Inférence demi-précision type densenet161

37.41891860961914

Type d'inférence demi-précision squeezenet1_0

4.391803741455078

Inférence demi-précision type squeezenet1_1

2.4281740188598633

Inférence demi-précision type vgg11

17.11493968963623

Type d'inférence demi-précision vgg11_bn

18.40585231781006

Inférence demi-précision type vgg13

28.438148498535156

Type d'inférence demi-précision vgg13_bn

30.672597885131836

Inférence demi-précision type vgg16

34.43562984466553

Type d'inférence demi-précision vgg16_bn

36.92122936248779

Type d'inférence demi-précision vgg19_bn

43.144264221191406

Inférence demi-précision type vgg19

40.5385684967041

Inférence de type demi-précision mobilenet_v3_large

5.350713729858398

Inférence de type demi-précision mobilenet_v3_small

4.016985893249512

Type d'inférence demi-précision shufflenet_v2_x0_5

5.079126358032227

Type d'inférence demi-précision shufflenet_v2_x1_0

5.593156814575195

Type d'inférence demi-précision shufflenet_v2_x1_5

5.649552345275879

Type d'inférence demi-précision shufflenet_v2_x2_0

5.355663299560547

Formation double précision type mnasnet0_5

50.2386999130249

Formation double précision type mnasnet0_75

80.66896915435791

Formation double précision type mnasnet1_0

103.32422733306885

Formation double précision type mnasnet1_3

154.6230697631836

Formation double précision type resnet18

337.94031620025635

Formation double précision type resnet34

677.7706575393677

Formation double précision type resnet50

789.9243211746216

Formation double précision type resnet101

1484.3351316452026

Formation double précision type resnet152

2170.570478439331

Formation double précision type resnext50_32x4d

877.3719882965088

Formation double précision type resnext101_32x8d

3652.4944639205933

Formation double précision type wide_resnet50_2

2154.612874984741

Formation double précision type wide_resnet101_2

4176.522083282471

Formation double précision type densenet121

607.8699731826782

Formation double précision type densenet169

744.6409797668457

Formation double précision type densenet201

962.677731513977

Formation double précision type densenet161

1759.772515296936

Formation double précision type squeezenet1_0

164.3690824508667

Entraînement double précision type squeezenet1_1

78.70647430419922

Formation double précision type vgg11

1362.6095294952393

Formation double précision type vgg11_bn

1387.2539138793945

Formation double précision type vgg13

2006.0230445861816

Formation double précision type vgg13_bn

2047.526364326477

Formation double précision type vgg16

2702.2086429595947

Formation double précision type vgg16_bn

2747.241234779358

Formation double précision type vgg19_bn

3447.1724700927734

Formation double précision type vgg19

3397.990345954895

Formation double précision type mobilenet_v3_large

84.65698719024658

Formation double précision type mobilenet_v3_small

29.816465377807617

Formation double précision type shufflenet_v2_x0_5

27.401342391967773

Formation double précision type shufflenet_v2_x1_0

48.322744369506836

Formation double précision type shufflenet_v2_x1_5

82.22103118896484

Formation double précision type shufflenet_v2_x2_0

141.7021369934082

Type d'inférence double précision mnasnet0_5

12.988653182983398

Type d'inférence double précision mnasnet0_75

22.422199249267578

Type d'inférence double précision mnasnet1_0

30.056486129760742

Inférence double précision type mnasnet1_3

46.953935623168945

Inférence double précision type resnet18

118.04479122161865

Inférence double précision type resnet34

231.52336597442627

Inférence double précision type resnet50

268.63497734069824

Inférence double précision type resnet101

495.2010440826416

Inférence double précision type resnet152

726.4922094345093

Inférence double précision type resnext50_32x4d

291.47679328918457

Inférence double précision type resnext101_32x8d

1055.10901927948

Type d'inférence double précision wide_resnet50_2

690.6917667388916

Type d'inférence double précision wide_resnet101_2

1347.5529861450195

Inférence double précision type densenet121

224.35829639434814

Inférence double précision type densenet169

268.9145278930664

Inférence double précision type densenet201

343.1972026824951

Inférence double précision type densenet161

635.866231918335

Inférence double précision type squeezenet1_0

61.92759037017822

Inférence double précision type squeezenet1_1

27.009410858154297

Inférence double précision type vgg11

462.3375129699707

Inférence double précision type vgg11_bn

468.4495782852173

Inférence double précision type vgg13

692.8219032287598

Inférence double précision type vgg13_bn

703.3538103103638

Inférence double précision type vgg16

924.4353818893433

Inférence double précision type vgg16_bn

936.5075063705444

Inférence double précision type vgg19_bn

1169.098300933838

Inférence double précision type vgg19

1156.3771772384644

Type d'inférence double précision mobilenet_v3_large

24.2356014251709

Type d'inférence double précision mobilenet_v3_small

8.85490894317627

Type d'inférence double précision shufflenet_v2_x0_5

6.360034942626953

Type d'inférence double précision shufflenet_v2_x1_0

14.301743507385254

Type d'inférence double précision shufflenet_v2_x1_5

24.863481521606445

Type d'inférence double précision shufflenet_v2_x2_0

43.8505744934082


Conclusion

La nouvelle carte graphique s'est avérée être une solution efficace pour un certain nombre de tâches professionnelles. Grâce à sa taille compacte, il est idéal pour les ordinateurs SFF (Small Form Factor) puissants. De plus, il est à noter que les 6 144 cœurs CUDA et 20 Go de mémoire avec un bus 160 bits font de cette carte l'une des plus productives du marché. De plus, un faible TDP de 70W aide à réduire les coûts de consommation d'énergie. Quatre ports Mini-DisplayPort permettent d'utiliser la carte avec plusieurs moniteurs ou comme solution graphique multicanal.


La RTX 4000 SFF ADA représente une avancée significative par rapport aux générations précédentes, offrant des performances équivalentes à une carte consommant deux fois plus d'énergie. Sans connecteur d'alimentation PCIe, le RTX 4000 SFF ADA est facile à intégrer dans les stations de travail à faible consommation sans sacrifier les hautes performances.