En avril, Nvidia a lancé un nouveau produit, le RTX A4000 ADA, un GPU à petit facteur de forme conçu pour les applications de station de travail. Ce processeur remplace l'A2000 et peut être utilisé pour des tâches complexes, notamment la recherche scientifique, les calculs d'ingénierie et la visualisation de données.
Le RTX A4000 ADA comprend 6 144 cœurs CUDA, 192 cœurs Tensor et 48 cœurs RT, et 20 Go de VRAM GDDR6 ECC. L'un des principaux avantages du nouveau GPU est son efficacité énergétique : le RTX A4000 ADA ne consomme que 70 W, ce qui réduit à la fois les coûts d'alimentation et la chaleur du système. Le GPU vous permet également de piloter plusieurs écrans grâce à sa connectivité 4x Mini-DisplayPort 1.4a.
Lorsque l'on compare les GPU RTX 4000 SFF ADA à d'autres appareils de la même classe, il convient de noter que lorsqu'ils fonctionnent en mode simple précision, ils affichent des performances similaires à celles de la dernière génération de GPU RTX A4000, qui consomme deux fois plus d'énergie (140 W vs. 70W).
L'ADA RTX 4000 SFF est construit sur l'architecture ADA Lovelace et la technologie de processus 5 nm. Cela permet d'activer les cœurs Tensor Core et de traçage de rayons de nouvelle génération, qui améliorent considérablement les performances en fournissant un traçage de rayons et des cœurs Tensor plus rapides et plus efficaces que le RTX A4000. De plus, le RTX 4000 SFF d'ADA est livré dans un petit boîtier - la carte mesure 168 mm de long et aussi épaisse que deux connecteurs d'extension.
Les noyaux de lancer de rayons améliorés permettent des performances efficaces dans les environnements où la technologie est utilisée, comme dans la conception et le rendu 3D. De plus, la capacité de mémoire de 20 Go du nouveau GPU lui permet de gérer de grands environnements.
Selon le fabricant, les cœurs Tensor de quatrième génération offrent des performances de calcul d'IA élevées - une augmentation des performances deux fois supérieure à celle de la génération précédente. Les nouveaux cœurs Tensor prennent en charge l'accélération FP8. Cette fonctionnalité innovante peut bien fonctionner pour ceux qui développent et déploient des modèles d'IA dans des environnements tels que la génomique et la vision par ordinateur .
Il convient également de noter que l'augmentation des mécanismes d'encodage et de décodage fait du RTX 4000 SFF ADA une bonne solution pour les charges de travail multimédia telles que la vidéo, entre autres.
| RTX A4000ADA | NVIDIA RTX A4000 | NVIDIA RTX A5000 | RTX 3090 |
---|---|---|---|---|
Architecture | Ada Lovelace | Ampère | Ampère | Ampère |
Processus technique | 5 nm | 8 nm | 8 nm | 8 nm |
GPU | AD104 | GA102 | GA104 | GA102 |
Nombre de transistors (millions) | 35 800 | 17 400 | 28 300 | 28 300 |
Bande passante mémoire (Gb/s) | 280,0 | 448 | 768 | 936.2 |
Capacité de la mémoire vidéo (bits) | 160 | 256 | 384 | 384 |
Mémoire GPU (Go) | 20 | 16 | 24 | 24 |
Type de mémoire | GDDR6 | GDDR6 | GDDR6 | GDDR6X |
Cœurs CUDA | 6 144 | 6 144 | 8192 | 10496 |
Noyaux tenseurs | 192 | 192 | 256 | 328 |
Cœurs RT | 48 | 48 | 64 | 82 |
Perf SP (téraflops) | 19.2 | 19,2 | 27,8 | 35,6 |
Performances du cœur RT (téraflops) | 44.3 | 37,4 | 54,2 | 69,5 |
Performances du tenseur (téraflops) | 306.8 | 153,4 | 222,2 | 285 |
Puissance maximale (Watts) | 70 | 140 | 230 | 350 |
Interface | PCIe 4.0x16 | PCI-E 4.0 x16 | PCI-E 4.0 x16 | PCIe 4.0 x16 |
Connecteurs | 4x Mini DisplayPort 1.4a | DP 1.4 (4) | DP 1.4 (4) | DP 1.4 (4) |
Facteur de forme | 2 emplacements | 1 emplacement | 2 emplacements | 2-3 emplacements |
Le logiciel vGPU | Non | Non | Oui, illimité | Oui. avec des restrictions |
Nvlink | Non | Non | 2x RTX A5000 | Oui |
Prise en charge de CUDA | 11.6 | 8.6 | 8.6 | 8.6 |
Prise en charge VULKAN | 1.3 | Oui | Oui | oui, 1.2 |
Prix (USD) | 1 250 | 1000 | 2500 | 1400 |
| RTX A4000ADA | RTX A4000 |
---|---|---|
CPU | AMD Ryzen 9 5950X 3,4 GHz (16 cœurs) | OctaCore Intel Xeon E-2288G, 3,5 GHz |
RAM | 4x 32 Go DDR4 ECC SO-DIMM | 2x 32 Go DDR4-3200 ECC DDR4 SDRAM 1600 MHz |
Conduire | SSD NVMe 1 To | Samsung SSD 980 PRO 1 To |
Carte mère | ASRock X570D4I-2T | Série Asus P11C-I |
Système opérateur | Microsoft Windows 10 | Microsoft Windows 10 |
Référence V-Ray 5
Les tests V-Ray GPU CUDA et RTX mesurent les performances de rendu GPU relatives. Le GPU RTX A4000 est légèrement derrière le RTX A4000 ADA (4% et 11%, respectivement).
Apprentissage automatique
"Chiens contre chats"
Pour comparer les performances des GPU pour les réseaux de neurones, nous avons utilisé l'ensemble de données "Dogs vs. Cats" - le test analyse le contenu d'une photo et distingue si la photo montre un chat ou un chien. Toutes les données brutes nécessaires peuvent être trouvées
Dans ce test, le RTX A4000 ADA a légèrement surpassé le RTX A4000 de 9 %, mais gardez à l'esprit la petite taille et la faible consommation d'énergie du nouveau GPU.
AI-Benchmark vous permet de mesurer les performances de l'appareil lors d'une tâche de sortie de modèle AI. L'unité de mesure peut varier selon le test, mais il s'agit généralement du nombre d'opérations par seconde (OPS) ou du nombre d'images par seconde (FPS).
| RTX A4000 | RTX A4000ADA |
---|---|---|
1/19. MobileNet-V2 | 1.1 — inférence | lot=50, taille=224x224 : 38,5 ± 2,4 ms1.2 — formation | lot=50, taille=224x224 : 109 ± 4 ms | 1.1 — inférence | lot=50, taille=224x224 : 53,5 ± 0,7 ms1.2 — formation | lot=50, taille=224x224 : 130,1 ± 0,6 ms |
2/19. Création-V3 | 2.1 — inférence | lot=20, taille=346x346 : 36,1 ± 1,8 ms2.2 — formation | lot=20, taille=346x346 : 137,4 ± 0,6 ms | 2.1 — inférence | lot=20, taille=346x346 : 36,8 ± 1,1 ms2.2 — formation | lot=20, taille=346x346 : 147,5 ± 0,8 ms |
3/19. Création-V4 | 3.1 — inférence | lot=10, taille=346x346 : 34,0 ± 0,9 ms3.2 — formation | lot=10, taille=346x346 : 139,4 ± 1,0 ms | 3.1 — inférence | lot=10, taille=346x346 : 33,0 ± 0,8 ms3.2 — formation | lot=10, taille=346x346 : 135,7 ± 0,9 ms |
4/19. Inception-ResNet-V2 | 4.1 — inférence | lot=10, taille=346x346 : 45,7 ± 0,6 ms4.2 — formation | lot=8, taille=346x346 : 153,4 ± 0,8 ms | 4.1 — lot d'inférence=10, taille=346x346 : 33,6 ± 0,7 ms4.2 — lot d'entraînement=8, taille=346x346 : 132 ± 1 ms |
5/19. ResNet-V2-50 | 5.1 — inférence | lot=10, taille=346x346 : 25,3 ± 0,5 ms5.2 — formation | lot=10, taille=346x346 : 91,1 ± 0,8 ms | 5.1 — inférence | lot=10, taille=346x346 : 26,1 ± 0,5 ms5.2 — formation | lot=10, taille=346x346 : 92,3 ± 0,6 ms |
19/06. ResNet-V2-152 | 6.1 — inférence | lot=10, taille=256x256 : 32,4 ± 0,5 ms6.2 — formation | lot=10, taille=256x256 : 131,4 ± 0,7 ms | 6.1 — inférence | lot=10, taille=256x256 : 23,7 ± 0,6 ms6.2 — formation | lot=10, taille=256x256 : 107,1 ± 0,9 ms |
7/19. VGG-16 | 7.1 — inférence | lot=20, taille=224x224 : 54,9 ± 0,9 ms7.2 — formation | lot=2, taille=224x224 : 83,6 ± 0,7 ms | 7.1 — inférence | lot=20, taille=224x224 : 66,3 ± 0,9 ms7.2 — formation | lot=2, taille=224x224 : 109,3 ± 0,8 ms |
8/19. SRCNN 9-5-5 | 8.1 — inférence | lot=10, taille=512x512 : 51,5 ± 0,9 ms8.2 — inférence | lot=1, taille=1536x1536 : 45,7 ± 0,9 ms8.3 — formation | lot=10, taille=512x512 : 183 ± 1 ms | 8.1 — inférence | lot=10, taille=512x512 : 59,9 ± 1,6 ms8.2 — inférence | lot=1, taille=1536x1536 : 53,1 ± 0,7 ms8.3 — formation | lot=10, taille=512x512 : 176 ± 2 ms |
9/19. VGG-19 Super-Res | 9.1 — inférence | lot=10, taille=256x256 : 99,5 ± 0,8 ms9.2 — inférence | lot=1, taille=1024x1024 : 162 ± 1 ms9.3 — formation | lot=10, taille=224x224 : 204 ± 2 ms | |
10/19. ResNet-SRGAN | 10.1 — inférence | lot=10, taille=512x512 : 85,8 ± 0,6 ms10.2 — inférence | lot=1, taille=1536x1536 : 82,4 ± 1,9 ms10.3 — formation | lot=5, taille=512x512 : 133 ± 1 ms | 10.1 — inférence | lot=10, taille=512x512 : 98,9 ± 0,8 ms10.2 — inférence | lot=1, taille=1536x1536 : 86,1 ± 0,6 ms10.3 — formation | lot=5, taille=512x512 : 130,9 ± 0,6 ms |
11/19. ResNet-DPED | 11.1 — inférence | lot=10, taille=256x256 : 114,9 ± 0,6 ms11.2 — inférence | lot=1, taille=1024x1024 : 182 ± 2 ms11.3 — formation | lot=15, taille=128x128 : 178,1 ± 0,8 ms | 11.1 — inférence | lot=10, taille=256x256 : 146,4 ± 0,5 ms11.2 — inférence | lot=1, taille=1024x1024 : 234,3 ± 0,5 ms11.3 — formation | lot=15, taille=128x128 : 234,7 ± 0,6 ms |
12/19. U-Net | 12.1 — inférence | lot=4, taille=512x512 : 180,8 ± 0,7 ms12.2 — inférence | lot=1, taille=1024x1024 : 177,0 ± 0,4 ms12.3 — formation | lot=4, taille=256x256 : 198,6 ± 0,5 ms | 12.1 — inférence | lot=4, taille=512x512 : 222,9 ± 0,5 ms12.2 — inférence | lot=1, taille=1024x1024 : 220,4 ± 0,6 ms12.3 — formation | lot=4, taille=256x256 : 229,1 ± 0,7 ms |
13/19. Nvidia-SPADE | 13.1 — inférence | lot=5, taille=128x128 : 54,5 ± 0,5 ms13.2 — formation | lot=1, taille=128x128 : 103,6 ± 0,6 ms | 13.1 — inférence | lot=5, taille=128x128 : 59,6 ± 0,6 ms13.2 — formation | lot=1, taille=128x128 : 94,6 ± 0,6 ms |
14/19. ICNet | 14.1 — inférence | lot=5, taille=1024x1536 : 126,3 ± 0,8 ms14.2 — formation | lot=10, taille=1024x1536 : 426 ± 9 ms | 14.1 — inférence | lot=5, taille=1024x1536 : 144 ± 4 ms14.2 — formation | lot=10, taille=1024x1536 : 475 ± 17 ms |
15/19. PSPNet | 15.1 — inférence | lot=5, taille=720x720 : 249 ± 12 ms15.2 — formation | lot=1, taille=512x512 : 104,6 ± 0,6 ms | 15.1 — inférence | lot=5, taille=720x720 : 291,4 ± 0,5 ms15.2 — formation | lot=1, taille=512x512 : 99,8 ± 0,9 ms |
16/19. DeepLab | 16.1 — inférence | lot=2, taille=512x512 : 71,7 ± 0,6 ms16.2 — formation | lot=1, taille=384x384 : 84,9 ± 0,5 ms | 16.1 — inférence | lot=2, taille=512x512 : 71,5 ± 0,7 ms16.2 — formation | lot=1, taille=384x384 : 69,4 ± 0,6 ms |
17/19. Pixel-RNN | 17.1 — inférence | lot=50, taille=64x64 : 299 ± 14 ms17.2 — formation | lot=10, taille=64x64 : 1258 ± 64 ms | 17.1 — inférence | lot=50, taille=64x64 : 321 ± 30 ms17.2 — formation | lot=10, taille=64x64 : 1278 ± 74 ms |
18/19. Sentiment LSTM | 18.1 — inférence | lot=100, taille=1024x300 : 395 ± 11 ms18.2 — formation | lot=10, taille=1024x300 : 676 ± 15 ms | 18.1 — inférence | lot=100, taille=1024x300 : 345 ± 10 ms18.2 — formation | lot=10, taille=1024x300 : 774 ± 17 ms |
19/19. GNMT-Traduction | 19.1 — inférence | lot=1, taille=1x20 : 119 ± 2 ms | 19.1 — inférence | lot=1, taille=1x20 : 156 ± 1 ms |
Les résultats de ce test montrent que les performances du RTX A4000 sont 6% supérieures à celles du RTX A4000 ADA, avec toutefois la mise en garde que les résultats du test peuvent varier en fonction de la tâche spécifique et des conditions de fonctionnement utilisées.
RTX A 4000
Analyse comparative | Temps de train moyen du modèle (ms) |
---|---|
Formation double précision type mnasnet0_5 | 62.995805740356445 |
Formation double précision type mnasnet0_75 | 98.39066505432129 |
Formation double précision type mnasnet1_0 | 126.60405158996582 |
Formation double précision type mnasnet1_3 | 186.89460277557373 |
Formation double précision type resnet18 | 428.08079719543457 |
Formation double précision type resnet34 | 883.5790348052979 |
Formation double précision type resnet50 | 1016.3950300216675 |
Formation double précision type resnet101 | 1927.2308254241943 |
Formation double précision type resnet152 | 2815.663013458252 |
Formation double précision type resnext50_32x4d | 1075.4373741149902 |
Formation double précision type resnext101_32x8d | 4050.0641918182373 |
Formation double précision type wide_resnet50_2 | 2615.9953451156616 |
Formation double précision type wide_resnet101_2 | 5218.524832725525 |
Formation double précision type densenet121 | 751.9759511947632 |
Formation double précision type densenet169 | 910.3225564956665 |
Formation double précision type densenet201 | 1163.036551475525 |
Formation double précision type densenet161 | 2141.505298614502 |
Formation double précision type squeezenet1_0 | 203.14435005187988 |
Entraînement double précision type squeezenet1_1 | 98.04857730865479 |
Formation double précision type vgg11 | 1697.710485458374 |
Formation double précision type vgg11_bn | 1729.2972660064697 |
Formation double précision type vgg13 | 2491.615080833435 |
Formation double précision type vgg13_bn | 2545.1631927490234 |
Formation double précision type vgg16 | 3371.1953449249268 |
Formation double précision type vgg16_bn | 3423.8639068603516 |
Formation double précision type vgg19_bn | 4314.5153522491455 |
Formation double précision type vgg19 | 4249.422650337219 |
Formation double précision type mobilenet_v3_large | 105.54619789123535 |
Formation double précision type mobilenet_v3_small | 37.6680850982666 |
Formation double précision type shufflenet_v2_x0_5 | 26.51611328125 |
Formation double précision type shufflenet_v2_x1_0 | 61.260504722595215 |
Formation double précision type shufflenet_v2_x1_5 | 105.30067920684814 |
Formation double précision type shufflenet_v2_x2_0 | 181.03694438934326 |
Type d'inférence double précision mnasnet0_5 | 17.397074699401855 |
Type d'inférence double précision mnasnet0_75 | 28.902697563171387 |
Type d'inférence double précision mnasnet1_0 | 38.387718200683594 |
Inférence double précision type mnasnet1_3 | 58.228821754455566 |
Inférence double précision type resnet18 | 147.95727252960205 |
Inférence double précision type resnet34 | 293.519492149353 |
Inférence double précision type resnet50 | 336.44991874694824 |
Inférence double précision type resnet101 | 637.9982376098633 |
Inférence double précision type resnet152 | 948.9351654052734 |
Inférence double précision type resnext50_32x4d | 372.80876636505127 |
Inférence double précision type resnext101_32x8d | 1385.1624917984009 |
Type d'inférence double précision wide_resnet50_2 | 873.048791885376 |
Type d'inférence double précision wide_resnet101_2 | 1729.2765426635742 |
Inférence double précision type densenet121 | 270.13323307037354 |
Inférence double précision type densenet169 | 327.1932888031006 |
Inférence double précision type densenet201 | 414.733362197876 |
Inférence double précision type densenet161 | 766.3542318344116 |
Inférence double précision type squeezenet1_0 | 74.86292839050293 |
Inférence double précision type squeezenet1_1 | 34.04905319213867 |
Inférence double précision type vgg11 | 576.3767147064209 |
Inférence double précision type vgg11_bn | 580.5839586257935 |
Inférence double précision type vgg13 | 853.4365510940552 |
Inférence double précision type vgg13_bn | 860.3136301040649 |
Inférence double précision type vgg16 | 1145.091052055359 |
Inférence double précision type vgg16_bn | 1152.8028392791748 |
Inférence double précision type vgg19_bn | 1444.9562692642212 |
Inférence double précision type vgg19 | 1437.0987701416016 |
Type d'inférence double précision mobilenet_v3_large | 30.876317024230957 |
Type d'inférence double précision mobilenet_v3_small | 11.234536170959473 |
Type d'inférence double précision shufflenet_v2_x0_5 | 7.425284385681152 |
Type d'inférence double précision shufflenet_v2_x1_0 | 18.25782299041748 |
Type d'inférence double précision shufflenet_v2_x1_5 | 33.34946632385254 |
Type d'inférence double précision shufflenet_v2_x2_0 | 57.84676551818848 |
RTX A4000ADA
Analyse comparative | Modèle de temps de train moyen |
---|---|
Formation de type demi-précision mnasnet0_5 | 20.266618728637695 |
Formation demi-précision type mnasnet0_75 | 21.445374488830566 |
Formation de type demi-précision mnasnet1_0 | 26.714019775390625 |
Formation demi-précision type mnasnet1_3 | 26.5126371383667 |
Formation demi-précision type resnet18 | 19.624991416931152 |
Formation demi-précision type resnet34 | 32.46446132659912 |
Formation demi-précision type resnet50 | 57.17473030090332 |
Formation demi-précision type resnet101 | 98.20127010345459 |
Formation demi-précision type resnet152 | 138.18389415740967 |
Formation demi-précision type resnext50_32x4d | 75.56005001068115 |
Formation demi-précision type resnext101_32x8d | 228.8706636428833 |
Formation demi-précision type wide_resnet50_2 | 113.76442432403564 |
Formation demi-précision type wide_resnet101_2 | 204.17311191558838 |
Formation demi-précision type densenet121 | 68.97401332855225 |
Formation demi-précision type densenet169 | 85.16453742980957 |
Formation demi-précision type densenet201 | 103.299241065979 |
Formation demi-précision type densenet161 | 137.54578113555908 |
Formation demi-précision type squeezenet1_0 | 16.71830177307129 |
Entraînement demi-précision type squeezenet1_1 | 12.906527519226074 |
Formation demi-précision type vgg11 | 51.7004919052124 |
Formation demi-précision type vgg11_bn | 57.63327598571777 |
Formation demi-précision type vgg13 | 86.10869407653809 |
Formation demi-précision type vgg13_bn | 95.86676120758057 |
Formation demi-précision type vgg16 | 102.91589260101318 |
Formation demi-précision type vgg16_bn | 113.74778270721436 |
Formation demi-précision type vgg19_bn | 131.56734943389893 |
Formation demi-précision type vgg19 | 119.70191955566406 |
Formation demi-précision type mobilenet_v3_large | 31.30636692047119 |
Formation demi-précision type mobilenet_v3_small | 19.44464683532715 |
Entraînement de type demi-précision shufflenet_v2_x0_5 | 13.710575103759766 |
Entraînement de type demi-précision shufflenet_v2_x1_0 | 23.608479499816895 |
Formation demi-précision type shufflenet_v2_x1_5 | 26.793746948242188 |
Entraînement de type demi-précision shufflenet_v2_x2_0 | 24.550962448120117 |
Type d'inférence demi-précision mnasnet0_5 | 4.418272972106934 |
Type d'inférence demi-précision mnasnet0_75 | 4.021778106689453 |
Type d'inférence demi-précision mnasnet1_0 | 4.42598819732666 |
Type d'inférence demi-précision mnasnet1_3 | 4.618926048278809 |
Inférence demi-précision type resnet18 | 5.803341865539551 |
Inférence demi-précision type resnet34 | 9.756693840026855 |
Inférence demi-précision type resnet50 | 15.873079299926758 |
Inférence demi-précision type resnet101 | 28.268003463745117 |
Inférence demi-précision type resnet152 | 40.04594326019287 |
Inférence demi-précision type resnext50_32x4d | 19.53421115875244 |
Inférence demi-précision type resnext101_32x8d | 62.44826316833496 |
Type d'inférence demi-précision wide_resnet50_2 | 33.533992767333984 |
Type d'inférence demi-précision wide_resnet101_2 | 59.60897445678711 |
Inférence demi-précision type densenet121 | 18.052735328674316 |
Inférence demi-précision type densenet169 | 21.956982612609863 |
Inférence demi-précision type densenet201 | 27.85182476043701 |
Inférence demi-précision type densenet161 | 37.41891860961914 |
Type d'inférence demi-précision squeezenet1_0 | 4.391803741455078 |
Inférence demi-précision type squeezenet1_1 | 2.4281740188598633 |
Inférence demi-précision type vgg11 | 17.11493968963623 |
Type d'inférence demi-précision vgg11_bn | 18.40585231781006 |
Inférence demi-précision type vgg13 | 28.438148498535156 |
Type d'inférence demi-précision vgg13_bn | 30.672597885131836 |
Inférence demi-précision type vgg16 | 34.43562984466553 |
Type d'inférence demi-précision vgg16_bn | 36.92122936248779 |
Type d'inférence demi-précision vgg19_bn | 43.144264221191406 |
Inférence demi-précision type vgg19 | 40.5385684967041 |
Inférence de type demi-précision mobilenet_v3_large | 5.350713729858398 |
Inférence de type demi-précision mobilenet_v3_small | 4.016985893249512 |
Type d'inférence demi-précision shufflenet_v2_x0_5 | 5.079126358032227 |
Type d'inférence demi-précision shufflenet_v2_x1_0 | 5.593156814575195 |
Type d'inférence demi-précision shufflenet_v2_x1_5 | 5.649552345275879 |
Type d'inférence demi-précision shufflenet_v2_x2_0 | 5.355663299560547 |
Formation double précision type mnasnet0_5 | 50.2386999130249 |
Formation double précision type mnasnet0_75 | 80.66896915435791 |
Formation double précision type mnasnet1_0 | 103.32422733306885 |
Formation double précision type mnasnet1_3 | 154.6230697631836 |
Formation double précision type resnet18 | 337.94031620025635 |
Formation double précision type resnet34 | 677.7706575393677 |
Formation double précision type resnet50 | 789.9243211746216 |
Formation double précision type resnet101 | 1484.3351316452026 |
Formation double précision type resnet152 | 2170.570478439331 |
Formation double précision type resnext50_32x4d | 877.3719882965088 |
Formation double précision type resnext101_32x8d | 3652.4944639205933 |
Formation double précision type wide_resnet50_2 | 2154.612874984741 |
Formation double précision type wide_resnet101_2 | 4176.522083282471 |
Formation double précision type densenet121 | 607.8699731826782 |
Formation double précision type densenet169 | 744.6409797668457 |
Formation double précision type densenet201 | 962.677731513977 |
Formation double précision type densenet161 | 1759.772515296936 |
Formation double précision type squeezenet1_0 | 164.3690824508667 |
Entraînement double précision type squeezenet1_1 | 78.70647430419922 |
Formation double précision type vgg11 | 1362.6095294952393 |
Formation double précision type vgg11_bn | 1387.2539138793945 |
Formation double précision type vgg13 | 2006.0230445861816 |
Formation double précision type vgg13_bn | 2047.526364326477 |
Formation double précision type vgg16 | 2702.2086429595947 |
Formation double précision type vgg16_bn | 2747.241234779358 |
Formation double précision type vgg19_bn | 3447.1724700927734 |
Formation double précision type vgg19 | 3397.990345954895 |
Formation double précision type mobilenet_v3_large | 84.65698719024658 |
Formation double précision type mobilenet_v3_small | 29.816465377807617 |
Formation double précision type shufflenet_v2_x0_5 | 27.401342391967773 |
Formation double précision type shufflenet_v2_x1_0 | 48.322744369506836 |
Formation double précision type shufflenet_v2_x1_5 | 82.22103118896484 |
Formation double précision type shufflenet_v2_x2_0 | 141.7021369934082 |
Type d'inférence double précision mnasnet0_5 | 12.988653182983398 |
Type d'inférence double précision mnasnet0_75 | 22.422199249267578 |
Type d'inférence double précision mnasnet1_0 | 30.056486129760742 |
Inférence double précision type mnasnet1_3 | 46.953935623168945 |
Inférence double précision type resnet18 | 118.04479122161865 |
Inférence double précision type resnet34 | 231.52336597442627 |
Inférence double précision type resnet50 | 268.63497734069824 |
Inférence double précision type resnet101 | 495.2010440826416 |
Inférence double précision type resnet152 | 726.4922094345093 |
Inférence double précision type resnext50_32x4d | 291.47679328918457 |
Inférence double précision type resnext101_32x8d | 1055.10901927948 |
Type d'inférence double précision wide_resnet50_2 | 690.6917667388916 |
Type d'inférence double précision wide_resnet101_2 | 1347.5529861450195 |
Inférence double précision type densenet121 | 224.35829639434814 |
Inférence double précision type densenet169 | 268.9145278930664 |
Inférence double précision type densenet201 | 343.1972026824951 |
Inférence double précision type densenet161 | 635.866231918335 |
Inférence double précision type squeezenet1_0 | 61.92759037017822 |
Inférence double précision type squeezenet1_1 | 27.009410858154297 |
Inférence double précision type vgg11 | 462.3375129699707 |
Inférence double précision type vgg11_bn | 468.4495782852173 |
Inférence double précision type vgg13 | 692.8219032287598 |
Inférence double précision type vgg13_bn | 703.3538103103638 |
Inférence double précision type vgg16 | 924.4353818893433 |
Inférence double précision type vgg16_bn | 936.5075063705444 |
Inférence double précision type vgg19_bn | 1169.098300933838 |
Inférence double précision type vgg19 | 1156.3771772384644 |
Type d'inférence double précision mobilenet_v3_large | 24.2356014251709 |
Type d'inférence double précision mobilenet_v3_small | 8.85490894317627 |
Type d'inférence double précision shufflenet_v2_x0_5 | 6.360034942626953 |
Type d'inférence double précision shufflenet_v2_x1_0 | 14.301743507385254 |
Type d'inférence double précision shufflenet_v2_x1_5 | 24.863481521606445 |
Type d'inférence double précision shufflenet_v2_x2_0 | 43.8505744934082 |
La nouvelle carte graphique s'est avérée être une solution efficace pour un certain nombre de tâches professionnelles. Grâce à sa taille compacte, il est idéal pour les ordinateurs SFF (Small Form Factor) puissants. De plus, il est à noter que les 6 144 cœurs CUDA et 20 Go de mémoire avec un bus 160 bits font de cette carte l'une des plus productives du marché. De plus, un faible TDP de 70W aide à réduire les coûts de consommation d'énergie. Quatre ports Mini-DisplayPort permettent d'utiliser la carte avec plusieurs moniteurs ou comme solution graphique multicanal.
La RTX 4000 SFF ADA représente une avancée significative par rapport aux générations précédentes, offrant des performances équivalentes à une carte consommant deux fois plus d'énergie. Sans connecteur d'alimentation PCIe, le RTX 4000 SFF ADA est facile à intégrer dans les stations de travail à faible consommation sans sacrifier les hautes performances.