paint-brush
A Nvidia RTX A4000 ADA pode lidar com tarefas de aprendizado de máquina?por@hostkey
2,591 leituras
2,591 leituras

A Nvidia RTX A4000 ADA pode lidar com tarefas de aprendizado de máquina?

por Hostkey.com15m2023/06/29
Read on Terminal Reader

Muito longo; Para ler

Em abril, a Nvidia lançou um novo produto, o RTX A4000 ADA, uma GPU de fator de forma pequeno projetada para aplicativos de estação de trabalho. Este processador substitui o A2000 e pode ser usado para tarefas complexas, incluindo pesquisa científica, cálculos de engenharia e visualização de dados. A capacidade de memória de 20 GB da nova GPU permite lidar com grandes ambientes.
featured image - A Nvidia RTX A4000 ADA pode lidar com tarefas de aprendizado de máquina?
Hostkey.com HackerNoon profile picture
0-item

Em abril, a Nvidia lançou um novo produto, o RTX A4000 ADA, uma GPU de fator de forma pequeno projetada para aplicativos de estação de trabalho. Este processador substitui o A2000 e pode ser usado para tarefas complexas, incluindo pesquisa científica, cálculos de engenharia e visualização de dados.


O RTX A4000 ADA possui 6.144 núcleos CUDA, 192 núcleos Tensor e 48 RT e 20 GB GDDR6 ECC VRAM. Um dos principais benefícios da nova GPU é sua eficiência de energia: o RTX A4000 ADA consome apenas 70 W, o que reduz os custos de energia e o aquecimento do sistema. A GPU também permite controlar vários monitores graças à sua conectividade 4x Mini-DisplayPort 1.4a.





Ao comparar as GPUs RTX 4000 SFF ADA com outros dispositivos da mesma classe, deve-se notar que, ao rodar no modo de precisão única, apresenta desempenho semelhante à GPU RTX A4000 de última geração, que consome o dobro de energia (140W vs. 70 W).





O ADA RTX 4000 SFF é construído na arquitetura ADA Lovelace e na tecnologia de processo de 5 nm. Isso permite núcleos Tensor Core e ray tracing de próxima geração, que melhoram significativamente o desempenho, fornecendo ray tracing e núcleos Tensor mais rápidos e eficientes do que o RTX A4000. Além disso, o RTX 4000 SFF da ADA vem em um pacote pequeno - o cartão tem 168 mm de comprimento e espessura de dois slots de expansão.





Os kernels de rastreamento de raios aprimorados permitem um desempenho eficiente em ambientes onde a tecnologia é usada, como em design e renderização 3D. Além disso, a capacidade de memória de 20 GB da nova GPU permite lidar com grandes ambientes.





De acordo com o fabricante, os núcleos Tensor de quarta geração oferecem alto desempenho computacional de IA - um aumento duplo no desempenho em relação à geração anterior. Os novos núcleos Tensor suportam aceleração FP8. Esse recurso inovador pode funcionar bem para quem desenvolve e implanta modelos de IA em ambientes como genômica e visão computacional .


Também é digno de nota que o aumento nos mecanismos de codificação e decodificação torna o RTX 4000 SFF ADA uma boa solução para cargas de trabalho multimídia, como vídeo, entre outros.



Especificações técnicas das placas gráficas NVIDIA RTX A4000 e RTX A5000, RTX 3090


RTX A4000 ADA

NVIDIA RTX A4000

NVIDIA RTX A5000

RTX 3090

Arquitetura

Ada Lovelace

Ampère

Ampère

Ampère

Processo técnico

5 nm

8 nm

8 nm

8 nm

GPU

AD104

GA102

GA104

GA102

Número de transistores (milhões)

35.800

17.400

28.300

28.300

Largura de banda da memória (Gb/s)

280,0

448

768

936,2

Capacidade de memória de vídeo (bits)

160

256

384

384

Memória GPU (GB)

20

16

24

24

Tipo de memória

GDDR6

GDDR6

GDDR6

GDDR6X

núcleos CUDA

6.144

6 144

8192

10496

núcleos tensores

192

192

256

328

núcleos RT

48

48

64

82

SP perf (teraflops)

19.2

19,2

27,8

35,6

Desempenho do núcleo RT (teraflops)

44.3

37,4

54,2

69,5

Desempenho do tensor (teraflops)

306,8

153,4

222,2

285

Potência máxima (Watts)

70

140

230

350

Interface

PCIe 4.0 x 16

PCI-E 4.0 x16

PCI-E 4.0 x16

PCIe 4.0 x16

Conectores

4x Mini DisplayPort 1.4a

DP 1.4 (4)

DP 1.4 (4)

DP 1.4 (4)

Fator de forma

2 slots

1 espaço

2 slots

2-3 slots

O software vGPU

não

não

sim, ilimitado

Sim. com limitações

Nvlink

não

não

2 x RTX A5000

sim

suporte CUDA

11.6

8.6

8.6

8.6

Suporte VULKAN

1.3

sim

sim

sim, 1.2

Preço (USD)

1.250

1000

2500

1400



Descrição do ambiente de teste


RTX A4000 ADA

RTX A4000

CPU

AMD Ryzen 9 5950X 3,4 GHz (16 núcleos)

OctaCore Intel Xeon E-2288G, 3,5 GHz

BATER

4x 32 Gb DDR4 ECC SO-DIMM

2x 32 GB DDR4-3200 ECC DDR4 SDRAM 1600 MHz

Dirigir

SSD NVMe de 1 TB

Samsung SSD 980 PRO 1 TB

placa-mãe

ASRock X570D4I-2T

Série Asus P11C-I

Sistema operacional

Microsoft Windows 10

Microsoft Windows 10



Resultado dos testes


Benchmark V-Ray 5

Pontos marcados


Pontos marcados


Os testes V-Ray GPU CUDA e RTX medem o desempenho relativo da renderização da GPU. A GPU RTX A4000 está um pouco atrás da RTX A4000 ADA (4% e 11%, respectivamente).


Aprendizado de máquina


"Cães contra gatos"

Para comparar o desempenho de GPUs para redes neurais, usamos o conjunto de dados "Cães x Gatos" - o teste analisa o conteúdo de uma foto e distingue se a foto mostra um gato ou um cachorro. Todos os dados brutos necessários podem ser encontrados aqui . Executamos este teste em diferentes GPUs e serviços de nuvem e obtivemos os seguintes resultados:


Neste teste, o RTX A4000 ADA superou ligeiramente o RTX A4000 em 9%, mas lembre-se do tamanho pequeno e do baixo consumo de energia da nova GPU.



AI-Benchmark


O AI-Benchmark permite medir o desempenho do dispositivo durante uma tarefa de saída do modelo AI. A unidade de medida pode variar de acordo com o teste, mas geralmente é o número de operações por segundo (OPS) ou o número de quadros por segundo (FPS).


Pontos marcados




RTX A4000

RTX A4000 ADA

1/19. MobileNet-V2

1.1 — inferência | lote=50, tamanho=224x224: 38,5 ± 2,4 ms1,2 — treinamento | lote=50, tamanho=224x224: 109 ± 4 ms

1.1 — inferência | lote=50, tamanho=224x224: 53,5 ± 0,7 ms1,2 — treinamento | lote=50, tamanho=224x224: 130,1 ± 0,6 ms

19/02. Inception-V3

2.1 — inferência | lote=20, tamanho=346x346: 36,1 ± 1,8 ms2,2 — treinamento | lote=20, tamanho=346x346: 137,4 ± 0,6 ms

2.1 — inferência | lote=20, tamanho=346x346: 36,8 ± 1,1 ms2,2 — treinamento | lote=20, tamanho=346x346: 147,5 ± 0,8 ms

19/03. Inception-V4

3.1 — inferência | lote=10, tamanho=346x346: 34,0 ± 0,9 ms3,2 — treinamento | lote=10, tamanho=346x346: 139,4 ± 1,0 ms

3.1 — inferência | lote=10, tamanho=346x346: 33,0 ± 0,8 ms3,2 — treinamento | lote=10, tamanho=346x346: 135,7 ± 0,9 ms

19/04. Inception-ResNet-V2

4.1 — inferência | lote=10, tamanho=346x346: 45,7 ± 0,6 ms4,2 — treinamento | lote=8, tamanho=346x346: 153,4 ± 0,8 ms

4.1 — lote de inferência=10, tamanho=346x346: 33,6 ± 0,7 ms4,2 — lote de treinamento=8, tamanho=346x346: 132 ± 1 ms

19/05. ResNet-V2-50

5.1 — inferência | lote=10, tamanho=346x346: 25,3 ± 0,5 ms5,2 — treinamento | lote=10, tamanho=346x346: 91,1 ± 0,8 ms

5.1 — inferência | lote=10, tamanho=346x346: 26,1 ± 0,5 ms5,2 — treinamento | lote=10, tamanho=346x346: 92,3 ± 0,6 ms

19/06. ResNet-V2-152

6.1 — inferência | lote=10, tamanho=256x256: 32,4 ± 0,5 ms6,2 — treinamento | lote=10, tamanho=256x256: 131,4 ± 0,7 ms

6.1 — inferência | lote=10, tamanho=256x256: 23,7 ± 0,6 ms6,2 — treinamento | lote=10, tamanho=256x256: 107,1 ± 0,9 ms

19/07. VGG-16

7.1 — inferência | lote=20, tamanho=224x224: 54,9 ± 0,9 ms7,2 — treinamento | lote=2, tamanho=224x224: 83,6 ± 0,7 ms

7.1 — inferência | lote=20, tamanho=224x224: 66,3 ± 0,9 ms7,2 — treinamento | lote=2, tamanho=224x224: 109,3 ± 0,8 ms

19/08. SRCNN 9-5-5

8.1 — inferência | lote=10, tamanho=512x512: 51,5 ± 0,9 ms8,2 — inferência | lote=1, tamanho=1536x1536: 45,7 ± 0,9 ms8,3 — treinamento | lote=10, tamanho=512x512: 183 ± 1 ms

8.1 — inferência | lote=10, tamanho=512x512: 59,9 ± 1,6 ms8,2 — inferência | lote=1, tamanho=1536x1536: 53,1 ± 0,7 ms8,3 — treinamento | lote=10, tamanho=512x512: 176 ± 2 ms

19/09. VGG-19 Super Res.

9.1 — inferência | lote=10, tamanho=256x256: 99,5 ± 0,8 ms9,2 — inferência | lote=1, tamanho=1024x1024: 162 ± 1 ms9.3 — treinamento | lote=10, tamanho=224x224: 204 ± 2 ms


19/10. ResNet-SRGAN

10.1 — inferência | lote=10, tamanho=512x512: 85,8 ± 0,6 ms10,2 — inferência | lote=1, tamanho=1536x1536: 82,4 ± 1,9 ms10,3 — treinamento | lote=5, tamanho=512x512: 133 ± 1 ms

10.1 — inferência | lote=10, tamanho=512x512: 98,9 ± 0,8 ms10,2 — inferência | lote=1, tamanho=1536x1536: 86,1 ± 0,6 ms10,3 — treinamento | lote=5, tamanho=512x512: 130,9 ± 0,6 ms

19/11. ResNet-DPED

11.1 — inferência | lote=10, tamanho=256x256: 114,9 ± 0,6 ms11,2 — inferência | lote=1, tamanho=1024x1024: 182 ± 2 ms11.3 — treinamento | lote=15, tamanho=128x128: 178,1 ± 0,8 ms

11.1 — inferência | lote=10, tamanho=256x256: 146,4 ± 0,5 ms11,2 — inferência | lote=1, tamanho=1024x1024: 234,3 ± 0,5 ms11,3 — treinamento | lote=15, tamanho=128x128: 234,7 ± 0,6 ms

19/12. U-Net

12.1 — inferência | lote=4, tamanho=512x512: 180,8 ± 0,7 ms12,2 — inferência | lote=1, tamanho=1024x1024: 177,0 ± 0,4 ms12,3 — treinamento | lote=4, tamanho=256x256: 198,6 ± 0,5 ms

12.1 — inferência | lote=4, tamanho=512x512: 222,9 ± 0,5 ms12,2 — inferência | lote=1, tamanho=1024x1024: 220,4 ± 0,6 ms12,3 — treinamento | lote=4, tamanho=256x256: 229,1 ± 0,7 ms

13/19. Nvidia-SPADE

13.1 — inferência | lote=5, tamanho=128x128: 54,5 ± 0,5 ms13,2 — treinamento | lote=1, tamanho=128x128: 103,6 ± 0,6 ms

13.1 — inferência | lote=5, tamanho=128x128: 59,6 ± 0,6 ms13,2 — treinamento | lote=1, tamanho=128x128: 94,6 ± 0,6 ms

14/19. ICNet

14.1 — inferência | lote=5, tamanho=1024x1536: 126,3 ± 0,8 ms14,2 — treinamento | lote=10, tamanho=1024x1536: 426 ± 9 ms

14.1 — inferência | lote=5, tamanho=1024x1536: 144 ± 4 ms14,2 — treinamento | lote=10, tamanho=1024x1536: 475 ± 17 ms

15/19. PSPNet

15.1 — inferência | lote=5, tamanho=720x720: 249 ± 12 ms15,2 — treinamento | lote=1, tamanho=512x512: 104,6 ± 0,6 ms

15.1 — inferência | lote=5, tamanho=720x720: 291,4 ± 0,5 ms15,2 — treinamento | lote=1, tamanho=512x512: 99,8 ± 0,9 ms

16/19. DeepLab

16.1 — inferência | lote=2, tamanho=512x512: 71,7 ± 0,6 ms16,2 — treinamento | lote=1, tamanho=384x384: 84,9 ± 0,5 ms

16.1 — inferência | lote=2, tamanho=512x512: 71,5 ± 0,7 ms16,2 — treinamento | lote=1, tamanho=384x384: 69,4 ± 0,6 ms

17/19. Pixel-RNN

17.1 — inferência | lote=50, tamanho=64x64: 299 ± 14 ms17,2 — treinamento | lote=10, tamanho=64x64: 1258 ± 64 ms

17.1 — inferência | lote=50, tamanho=64x64: 321 ± 30 ms17,2 — treinamento | lote=10, tamanho=64x64: 1278 ± 74 ms

18/19. LSTM-Sentiment

18.1 — inferência | lote=100, tamanho=1024x300: 395 ± 11 ms18.2 — treinamento | lote=10, tamanho=1024x300: 676 ± 15 ms

18.1 — inferência | lote=100, tamanho=1024x300: 345 ± 10 ms18.2 — treinamento | lote=10, tamanho=1024x300: 774 ± 17 ms

19/19. GNMT-Tradução

19.1 — inferência | lote=1, tamanho=1x20: 119 ± 2 ms

19.1 — inferência | lote=1, tamanho=1x20: 156 ± 1 ms


Os resultados deste teste mostram que o desempenho do RTX A4000 é 6% superior ao RTX A4000 ADA, porém, com a ressalva de que os resultados do teste podem variar dependendo da tarefa específica e das condições operacionais empregadas.


PyTorchName


RTX A 4000

avaliação comparativa

Tempo médio de trem do modelo (ms)

Treinando o tipo de precisão dupla mnasnet0_5

62.995805740356445

Treinando o tipo de precisão dupla mnasnet0_75

98.39066505432129

Treinando o tipo de precisão dupla mnasnet1_0

126.60405158996582

Treinando o tipo de precisão dupla mnasnet1_3

186.89460277557373

Resnet do tipo dupla precisão de treinamento18

428.08079719543457

Treinamento do tipo resnet de dupla precisão34

883.5790348052979

Treinando resnet do tipo precisão dupla50

1016.3950300216675

Treinamento tipo resnet101 de dupla precisão

1927.2308254241943

Resnet152 do tipo precisão dupla de treinamento

2815.663013458252

Treinando o tipo de precisão dupla resnext50_32x4d

1075.4373741149902

Treinamento do tipo precisão dupla resnext101_32x8d

4050.0641918182373

Treinando precisão dupla tipo wide_resnet50_2

2615.9953451156616

Tipo de treinamento de dupla precisão wide_resnet101_2

5218.524832725525

Treinando o tipo de precisão dupla densanet121

751.9759511947632

Treinando o tipo de precisão dupla densanet169

910.3225564956665

Treinando precisão dupla tipo densanet201

1163.036551475525

Treinando o tipo de precisão dupla densanet161

2141.505298614502

Treinamento de precisão dupla tipo squeezenet1_0

203.14435005187988

Treinando precisão dupla tipo squeezenet1_1

98.04857730865479

Treinamento de dupla precisão tipo vgg11

1697.710485458374

Treinamento de precisão dupla tipo vgg11_bn

1729.2972660064697

Treinamento de dupla precisão tipo vgg13

2491.615080833435

Treinamento de precisão dupla tipo vgg13_bn

2545.1631927490234

Treinamento de dupla precisão tipo vgg16

3371.1953449249268

Treinamento de precisão dupla tipo vgg16_bn

3423.8639068603516

Treinamento de precisão dupla tipo vgg19_bn

4314.5153522491455

Treinamento de dupla precisão tipo vgg19

4249.422650337219

Treinando o tipo de precisão dupla mobilenet_v3_large

105.54619789123535

Treinando o tipo de precisão dupla mobilenet_v3_small

37.6680850982666

Treinando o tipo de precisão dupla shufflenet_v2_x0_5

26.51611328125

Treinando o tipo de precisão dupla shufflenet_v2_x1_0

61.260504722595215

Treinando o tipo de precisão dupla shufflenet_v2_x1_5

105.30067920684814

Treinando o tipo de precisão dupla shufflenet_v2_x2_0

181.03694438934326

Tipo de precisão dupla de inferência mnasnet0_5

17.397074699401855

Tipo de precisão dupla de inferência mnasnet0_75

28.902697563171387

Tipo de precisão dupla de inferência mnasnet1_0

38.387718200683594

Tipo de precisão dupla de inferência mnasnet1_3

58.228821754455566

Tipo de inferência dupla precisão resnet18

147.95727252960205

Tipo de inferência dupla precisão resnet34

293.519492149353

Tipo de inferência dupla precisão resnet50

336.44991874694824

Tipo de inferência dupla precisão resnet101

637.9982376098633

Tipo de inferência dupla precisão resnet152

948.9351654052734

Tipo de precisão dupla de inferência resnext50_32x4d

372.80876636505127

Tipo de precisão dupla de inferência resnext101_32x8d

1385.1624917984009

Tipo de precisão dupla de inferência wide_resnet50_2

873.048791885376

Tipo de dupla precisão de inferência wide_resnet101_2

1729.2765426635742

Tipo de inferência de precisão dupla densanet121

270.13323307037354

Tipo de inferência de precisão dupla densanet169

327.1932888031006

Tipo de inferência de precisão dupla densanet201

414.733362197876

Tipo de inferência de precisão dupla densanet161

766.3542318344116

Tipo de inferência de precisão dupla squeezenet1_0

74.86292839050293

Tipo de inferência de precisão dupla squeezenet1_1

34.04905319213867

Tipo de precisão dupla de inferência vgg11

576.3767147064209

Tipo de precisão dupla de inferência vgg11_bn

580.5839586257935

Tipo de precisão dupla de inferência vgg13

853.4365510940552

Tipo de precisão dupla de inferência vgg13_bn

860.3136301040649

Tipo de precisão dupla de inferência vgg16

1145.091052055359

Tipo de precisão dupla de inferência vgg16_bn

1152.8028392791748

Tipo de precisão dupla de inferência vgg19_bn

1444.9562692642212

Tipo de precisão dupla de inferência vgg19

1437.0987701416016

Tipo de precisão dupla de inferência mobilenet_v3_large

30.876317024230957

Tipo de precisão dupla de inferência mobilenet_v3_small

11.234536170959473

Tipo de dupla precisão de inferência shufflenet_v2_x0_5

7.425284385681152

Tipo de dupla precisão de inferência shufflenet_v2_x1_0

18.25782299041748

Tipo de dupla precisão de inferência shufflenet_v2_x1_5

33.34946632385254

Tipo de dupla precisão de inferência shufflenet_v2_x2_0

57.84676551818848


RTX A4000 ADA


avaliação comparativa

Tempo médio de trem do modelo

Treinando meia precisão tipo mnasnet0_5

20.266618728637695

Treinando tipo de meia precisão mnasnet0_75

21.445374488830566

Treinando meia precisão tipo mnasnet1_0

26.714019775390625

Treinando meia precisão tipo mnasnet1_3

26.5126371383667

Treinamento tipo resnet de meia precisão18

19.624991416931152

Treinamento tipo resnet de meia precisão34

32.46446132659912

Treinamento tipo resnet de meia precisão50

57.17473030090332

Treinamento tipo resnet101 de meia precisão

98.20127010345459

Treinamento tipo resnet152 de meia precisão

138.18389415740967

Treinamento tipo meia precisão resnext50_32x4d

75.56005001068115

Treinamento tipo meia precisão resnext101_32x8d

228.8706636428833

Treinando meia precisão tipo wide_resnet50_2

113.76442432403564

Treinando meia precisão tipo wide_resnet101_2

204.17311191558838

Treinando meia precisão tipo densanet121

68.97401332855225

Treinando meia precisão tipo densanet169

85.16453742980957

Treinando meia precisão tipo densanet201

103.299241065979

Treinando meia precisão tipo densanet161

137.54578113555908

Treinamento de meia precisão tipo squeezenet1_0

16.71830177307129

Treinamento de meia precisão tipo squeezenet1_1

12.906527519226074

Treino de meia precisão tipo vgg11

51.7004919052124

Treinamento de meia precisão tipo vgg11_bn

57.63327598571777

Treino de meia precisão tipo vgg13

86.10869407653809

Treinamento de meia precisão tipo vgg13_bn

95.86676120758057

Treino de meia precisão tipo vgg16

102.91589260101318

Treinamento de meia precisão tipo vgg16_bn

113.74778270721436

Treinamento de meia precisão tipo vgg19_bn

131.56734943389893

Treino de meia precisão tipo vgg19

119.70191955566406

Treinando o tipo de meia precisão mobilenet_v3_large

31.30636692047119

Treinando o tipo de meia precisão mobilenet_v3_small

19.44464683532715

Treinando meia precisão tipo shufflenet_v2_x0_5

13.710575103759766

Treinando meia precisão tipo shufflenet_v2_x1_0

23.608479499816895

Treinando meia precisão tipo shufflenet_v2_x1_5

26.793746948242188

Treinando meia precisão tipo shufflenet_v2_x2_0

24.550962448120117

Tipo de meia precisão de inferência mnasnet0_5

4.418272972106934

Tipo de meia precisão de inferência mnasnet0_75

4.021778106689453

Tipo de meia precisão de inferência mnasnet1_0

4.42598819732666

Tipo de meia precisão de inferência mnasnet1_3

4.618926048278809

Tipo de meia precisão de inferência resnet18

5.803341865539551

Tipo de meia precisão de inferência resnet34

9.756693840026855

Tipo de meia precisão de inferência resnet50

15.873079299926758

Tipo de meia precisão de inferência resnet101

28.268003463745117

Tipo de meia precisão de inferência resnet152

40.04594326019287

Tipo de meia precisão de inferência resnext50_32x4d

19.53421115875244

Tipo de meia precisão de inferência resnext101_32x8d

62.44826316833496

Tipo de meia precisão de inferência wide_resnet50_2

33.533992767333984

Tipo de meia precisão de inferência wide_resnet101_2

59.60897445678711

Tipo de meia precisão de inferência densanet121

18.052735328674316

Tipo de meia precisão de inferência densanet169

21.956982612609863

Tipo de meia precisão de inferência densanet201

27.85182476043701

Tipo de meia precisão de inferência densanet161

37.41891860961914

Tipo de meia precisão de inferência squeezenet1_0

4.391803741455078

Tipo de meia precisão de inferência squeezenet1_1

2.4281740188598633

Tipo de meia precisão de inferência vgg11

17.11493968963623

Tipo de meia precisão de inferência vgg11_bn

18.40585231781006

Tipo de meia precisão de inferência vgg13

28.438148498535156

Tipo de meia precisão de inferência vgg13_bn

30.672597885131836

Tipo de meia precisão de inferência vgg16

34.43562984466553

Tipo de meia precisão de inferência vgg16_bn

36.92122936248779

Tipo de meia precisão de inferência vgg19_bn

43.144264221191406

Tipo de meia precisão de inferência vgg19

40.5385684967041

Tipo de meia precisão de inferência mobilenet_v3_large

5.350713729858398

Tipo de meia precisão de inferência mobilenet_v3_small

4.016985893249512

Tipo de meia precisão de inferência shufflenet_v2_x0_5

5.079126358032227

Tipo de meia precisão de inferência shufflenet_v2_x1_0

5.593156814575195

Tipo de meia precisão de inferência shufflenet_v2_x1_5

5.649552345275879

Tipo de meia precisão de inferência shufflenet_v2_x2_0

5.355663299560547

Treinando o tipo de precisão dupla mnasnet0_5

50.2386999130249

Treinando o tipo de precisão dupla mnasnet0_75

80.66896915435791

Treinando o tipo de precisão dupla mnasnet1_0

103.32422733306885

Treinando o tipo de precisão dupla mnasnet1_3

154.6230697631836

Resnet do tipo dupla precisão de treinamento18

337.94031620025635

Treinamento do tipo resnet de dupla precisão34

677.7706575393677

Treinando resnet do tipo precisão dupla50

789.9243211746216

Treinamento tipo resnet101 de dupla precisão

1484.3351316452026

Resnet152 do tipo precisão dupla de treinamento

2170.570478439331

Treinando o tipo de precisão dupla resnext50_32x4d

877.3719882965088

Treinamento do tipo precisão dupla resnext101_32x8d

3652.4944639205933

Treinando precisão dupla tipo wide_resnet50_2

2154.612874984741

Tipo de treinamento de dupla precisão wide_resnet101_2

4176.522083282471

Treinando o tipo de precisão dupla densanet121

607.8699731826782

Treinando o tipo de precisão dupla densanet169

744.6409797668457

Treinando precisão dupla tipo densanet201

962.677731513977

Treinando o tipo de precisão dupla densanet161

1759.772515296936

Treinamento de precisão dupla tipo squeezenet1_0

164.3690824508667

Treinando precisão dupla tipo squeezenet1_1

78.70647430419922

Treinamento de dupla precisão tipo vgg11

1362.6095294952393

Treinamento de precisão dupla tipo vgg11_bn

1387.2539138793945

Treinamento de dupla precisão tipo vgg13

2006.0230445861816

Treinamento de precisão dupla tipo vgg13_bn

2047.526364326477

Treinamento de dupla precisão tipo vgg16

2702.2086429595947

Treinamento de precisão dupla tipo vgg16_bn

2747.241234779358

Treinamento de precisão dupla tipo vgg19_bn

3447.1724700927734

Treinamento de dupla precisão tipo vgg19

3397.990345954895

Treinando o tipo de precisão dupla mobilenet_v3_large

84.65698719024658

Treinando o tipo de precisão dupla mobilenet_v3_small

29.816465377807617

Treinando o tipo de precisão dupla shufflenet_v2_x0_5

27.401342391967773

Treinando o tipo de precisão dupla shufflenet_v2_x1_0

48.322744369506836

Treinando o tipo de precisão dupla shufflenet_v2_x1_5

82.22103118896484

Treinando o tipo de precisão dupla shufflenet_v2_x2_0

141.7021369934082

Tipo de precisão dupla de inferência mnasnet0_5

12.988653182983398

Tipo de precisão dupla de inferência mnasnet0_75

22.422199249267578

Tipo de precisão dupla de inferência mnasnet1_0

30.056486129760742

Tipo de precisão dupla de inferência mnasnet1_3

46.953935623168945

Tipo de inferência dupla precisão resnet18

118.04479122161865

Tipo de inferência dupla precisão resnet34

231.52336597442627

Tipo de inferência dupla precisão resnet50

268.63497734069824

Tipo de inferência dupla precisão resnet101

495.2010440826416

Tipo de inferência dupla precisão resnet152

726.4922094345093

Tipo de precisão dupla de inferência resnext50_32x4d

291.47679328918457

Tipo de precisão dupla de inferência resnext101_32x8d

1055.10901927948

Tipo de precisão dupla de inferência wide_resnet50_2

690.6917667388916

Tipo de dupla precisão de inferência wide_resnet101_2

1347.5529861450195

Tipo de inferência de precisão dupla densanet121

224.35829639434814

Tipo de inferência de precisão dupla densanet169

268.9145278930664

Tipo de inferência de precisão dupla densanet201

343.1972026824951

Tipo de inferência de precisão dupla densanet161

635.866231918335

Tipo de inferência de precisão dupla squeezenet1_0

61.92759037017822

Tipo de inferência de precisão dupla squeezenet1_1

27.009410858154297

Tipo de precisão dupla de inferência vgg11

462.3375129699707

Tipo de precisão dupla de inferência vgg11_bn

468.4495782852173

Tipo de precisão dupla de inferência vgg13

692.8219032287598

Tipo de precisão dupla de inferência vgg13_bn

703.3538103103638

Tipo de precisão dupla de inferência vgg16

924.4353818893433

Tipo de precisão dupla de inferência vgg16_bn

936.5075063705444

Tipo de precisão dupla de inferência vgg19_bn

1169.098300933838

Tipo de precisão dupla de inferência vgg19

1156.3771772384644

Tipo de precisão dupla de inferência mobilenet_v3_large

24.2356014251709

Tipo de precisão dupla de inferência mobilenet_v3_small

8.85490894317627

Tipo de dupla precisão de inferência shufflenet_v2_x0_5

6.360034942626953

Tipo de dupla precisão de inferência shufflenet_v2_x1_0

14.301743507385254

Tipo de dupla precisão de inferência shufflenet_v2_x1_5

24.863481521606445

Tipo de dupla precisão de inferência shufflenet_v2_x2_0

43.8505744934082


Conclusão

A nova placa gráfica provou ser uma solução eficaz para uma série de tarefas de trabalho. Graças ao seu tamanho compacto, é ideal para computadores SFF (Small Form Factor) potentes. Além disso, é notável que os 6.144 núcleos CUDA e 20 GB de memória com barramento de 160 bits tornam este cartão um dos mais produtivos do mercado. Além disso, um baixo TDP de 70 W ajuda a reduzir os custos de consumo de energia. Quatro portas Mini-DisplayPort permitem que a placa seja usada com vários monitores ou como uma solução gráfica multicanal.


A RTX 4000 SFF ADA representa um avanço significativo em relação às gerações anteriores, entregando desempenho equivalente a uma placa com o dobro do consumo de energia. Sem conector de alimentação PCIe, o RTX 4000 SFF ADA é fácil de integrar em estações de trabalho de baixa potência sem sacrificar o alto desempenho.