消費者向けGPU市場向けの新しいブラックウェルチップ世代のリリースとともに、A5000/A6000シリーズを置き換え、A100/H100レベルのGPUよりも低価格のバージョンであるGPUのワークステーションバージョンも期待されていた。 この過程で、NVIDIAはわずか6ヶ月でRTX PRO 6000 Blackwellの3つのバージョンをリリースすることで、全員を混乱させたが、HOSTKEYでは最新バージョンのRTX PRO 6000 Blackwell Server Editionのリリースでパフォーマンスレースに加わり、それを徹底的にテストした。 サーバーをNVIDIA RTX 6000 PRO 96 GBで試す - 無料! テストドライブの条件について知るために、当社の販売チームに連絡してください。 REACH OUT TO US * - GPU は個別に無料試用として提供されており、すべてのケースでは利用できません。 Try the server with NVIDIA RTX 6000 PRO 96 GB — for free! テストドライブの条件について知るために、当社の販売チームに連絡してください。 REACH OUT TO US * - GPU は個別に無料試用として提供されており、すべてのケースでは利用できません。 あなたは何ですか? If you look at the Nvidiaのウェブサイトでは、以下の画像が見られます。 GPU 公式仕様 GPU 公式仕様 私たちは、形の要因、冷却システムのタイプ、最大電力消費量で異なる3つのビデオカードオプションを持っています。最初の目で見ると、中間バージョン(Workstation Edition)は、その電力消費量に基づいて、最も速く、おそらく最もホットであるべきだと仮定することができます。 Workstation Edition Max-Q Workstation edition Server Edition RTX 5090 CUDA Parallel Processing cores 24064 24064 24064 21760 Single-Precision Performance (FP32) 125 TFLOPS 125 TFLOPS 120 TFLOPS 103 TFLOPS RT Core Performance 380 TFLOPS 333 TFLOPS 355 TFLOPS - Memory Bandwidth 1792 GB/s 1792 GB/s 1597 GB/s 1792 GB/sec GPU Memory 96 GB GDDR7 with ECC 96 GB GDDR7 with ECC 96 GB GDDR7 with ECC 32 GB GDDR7 Memory Interface 512-bit 512-bit 512-bit 512-bit Power Consumption Up to 600W (Configurable) 300W 600W 575W CUDA パラレル色処理 24064 24064 24064 21760 単精度パフォーマンス(FP32) 125 タグ 125 タグ 120 TFLOPS 103 TFLOPS RT Core パフォーマンス 380 TFLOPS 333 TFLOPS 355 TFLOPS - メモリ バンドwidth 1792 GB/s 1792 GB/s 1597 GB/s 1792 GB/秒 GPUメモリ 96GB GDDR7 with ECC 96GB GDDR7 with ECC 96GB GDDR7 with ECC 32GB GDDR7 メモリインターフェイス 512ビット 512ビット 512ビット 512ビット 消費電力 最大600W(設定可能) 300W 600W 575W 我々がテストしたGPU(RTX 6000 Blackwell Server Edition)は、ラインナップの中で最も弱い(サーバー版がWorkstation版よりも強力であることが期待されるかもしれませんが)、しかし、チップ上のコア数がより高いため、消費クラスのRTX 5090を上回ります。時計速度の低下のおかげで、カードの電力消費量は300W以内にとどまりますが、それがWorkstation Editionに近い周波数で動作するブースモードに移行することができます。 サーバーエディションの主な特徴は、サーバーシャシスの標準的な空気流を活用するパシブ冷却です。そのコンパクトなサイズのおかげで、それは連続で多数のGPUの同時に配置を可能にします(展示写真)。 サーバーの組み立て この GPU を次の構成でテストします。 ASUSのサーバープラットフォーム AMD EPYC 9554プロセッサ 768GB DDR5 RAM 2 x 3.84 TB NVMe 1 x RTX 6000 PROサーバー 技術的には、プラットフォームは最大4つのGPUをサポートしますが、電力制限なしモードでの電力消費の制限のために、最大2つのRTX 6000 PRO SERVER GPUをインストールすることができます。この問題は、プラットフォームが4つのパワーコネクタを各側に提供しているため、これはアダプタを通じてカードに接続されています。写真に示されているように、ケースは両側に強力なファンと専門的なハウスを持っており、ラジエーターやGPUコンポーネントの上に優れた空気流れを確保しています。 さて、テストの上で、 私たちは2つのモードでテストを実行します: Ollama + OpenWebUI セットアップと無料の WAN2 モデルでビデオ生成を使用して LLM を実行します ComfyUI. より正確に言えば、私たちは RAG (Retrieval-Augmented Generation) の複数のモデルを採用し、外部の MCP サーバーと相互作用する私たちのニューラルネットワークアシスタントを使用します。 今後見ると、GPUに完全に組み込まれたモデルの比較では、RTX 5090と比べて約15〜20%のパフォーマンス向上を示していることがわかります。 まず、前世代のA5000とRTX 6000 PROを比較します。比較は低消費モードで行われ、GPUは実際にはドキュメンタリーで述べた300Wの最大ではなく、450W(ブースモード)まで消費します。 私たちは、ニューラルネットワークアシスタントに、「NvidiaドライバをLinuxにインストールする方法は?」という質問をします。 GPU Response Speed, Tokens per Second Response Speed, Tokens per Second Response Speed, Tokens per Second A5000 (Cold Boot) 47.3 2700 17 RTX 6000 PRO (Cold Boot) 103.5 8285 5 A5000 (Model Already Loaded to GPU) 48.2 2910 13 RTX 6000 PRO (Model Already Loaded to GPU) 107 11000 4 A5000(冷たいボート) 47.3 2700 17 RTX 6000 PRO(コールドボート) 103.5 8285 5 A5000(すでにGPUにロードされているモデル) 48.2 2910 13 RTX 6000 PRO(すでにGPUにロードされているモデル) 107 11000 4 A5000と比べると、新しいGPUは2倍以上強力で、反応速度(モデル間の切り替え、検索、MCPサーバのクエリ、処理、応答生成)は3倍以上速い。 しかしながら、そのようなタスクのためにRTX 6000 PROを使用することは、顕微鏡でナットを裂くようなものです。比較のために、H100で同じワークロードを「ホットラン」でテストしましょう(モデルがすでに充電されている)。H100には3.5倍のCUDAコア、より低い時計速度、および理論的なパフォーマンスは、RTX 6000 PROと比較して合成基準で約4倍低いです。しかし、4nmプロセスノード(RTX 6000 PROの5nmに比べて)、10倍のメモリ帯域幅、およびより高度なメモリタイプの利点があります。それにもかかわらず、H100の私たちのバージョンはH100の96GBに比べて80GBのメモリを持っています。 GPU Response Speed, Tokens per Second Response Speed, Tokens per Second Response Speed, Tokens per Second H100 (Model Already Loaded to GPU) 60 2900 4 RTX 6000 PRO (Model Already Loaded to GPU) 107 11000 4 H100(すでにGPUにロードされているモデル) 60 2900 4 RTX 6000 PRO(すでにGPUにロードされているモデル) 107 11000 4 RTX 6000 PRO は、データ転送中の HBM3 の帯域幅が GDDR7 に遅れていることを考慮して、サーバー推定ワークロードにおける A100/H100 の優れた代わりとなっています。 RTX 6000 PRO を完全に活用する方法 さらに興味深いのは、このGPUを別のリソース密集したタスクでテストすること、すなわち、ビデオ生成です。このために、我々はオープンな重量を持つアリババの新しいモデルを使用し、ComfyUIにすべてをインストールします。また、我々は問題に直面しました:CUDA 12.9(および後期バージョン)とPyTorchとの互換性。 解決策は、公式なサポートが利用可能になるまで、夜間ビルドからインストールすることです。 pip install --pre --upgrade --no-cache-dir torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cu129 このプロセスには、ビデオ生成モード(Wan 2.2 14B テキスト ビデオ)に基づいて、以下のように動作します。 明るい黄色のセキュリティヘルメットと頑丈なオレンジのスーツを着た二人の熱心なビーバーが、彼らの細心のうちに建てられたビーバーロッジに向かって巨大で輝くサーバーラックを引き上げるためにチームを組む、穏やかな川の岸に展開します。ロッジは、ロッジと石で構築され、大胆で現代的なシグナル「HOSTKEY」と大胆でテクノロジーにインスピレーションされたタイプグラフィックスを表示します。ビーバーの決意の表現とサーバーラックの輝くライトは、自然と技術のサウンドを生み出します。 川は日光に輝き、ロッジの入り口はグレイシーでフレームされ、 明るい黄色のセキュリティヘルメットと頑丈なオレンジのスーツを着た二人の熱心なビーバーが、彼らの細心のうちに建てられたビーバーロッジに向かって巨大で輝くサーバーラックを引き上げるためにチームを組む、穏やかな川の岸に展開します。ロッジは、ロッジと石で構築され、大胆で現代的なシグナル「HOSTKEY」と大胆でテクノロジーにインスピレーションされたタイプグラフィックスを表示します。ビーバーの決意の表現とサーバーラックの輝くライトは、自然と技術のサウンドを生み出します。 川は日光に輝き、ロッジの入り口はグレイシーでフレームされ、 プロセスを起動するには約40分かかります。メモリ使用量とピークパフォーマンス時の電力消費量は下のスクリーンショットで見ることができます。最大温度は83度を超えたことはありません。生成は720p/24に設定されているため、モデルはこの解像度に最適化されています。それを1080pに設定するか、フレームレートを増加させることによりGPUが凍結するか、2時間を超える生成時間を大幅に延長する可能性があります(プロセスが60%に閉じ込められたため、我々はこれ以上待たなかった)。 代わりにWAN 2.2 5Bモデルを使用する場合、同様のビデオ(5秒、24フレーム)を生成するのにわずか160秒かかります。 強化パワー 前述したように、GPUには電力消費モードのスイッチが搭載されています。この設定はモデルに大きな利益を与えていませんが、600ワットの電力モードへの切り替えはすでに改善された結果を生み出します。 nvidia-smiの読書によると、GPUから5ワットのパフォーマンスを引き出すことができました。 平均して、生産中の両方のモードの電力消費量は200〜250ワットの範囲内に留まります。 明らかに、最大電力消費量を増やすことで、生成速度が25%速くなり、平均30分に短縮されますが、これはチップとコンポーネントの温度が大幅に高くなります。 結論 消費クラス5090よりもはるかに安定しているので、消費モデルでよく見られる粉塵に敏感なファンが欠け、平等制御を備えた優れたメモリを備え、より高い時計速度を提供しています。 H100と比較すると、同時に、深層ニューラルネットワークトレーニングに関係のないタスクのための比較可能な(場合によってはさらに優れた)パフォーマンスを提供しながら、4倍も安価です。 重要な制限は、Windowsのサーバー版のドライバの欠如であるが、Workstation Editionのドライバが利用可能である一方で、インストールの試みは、GPUが検出されていないというメッセージにつながる。この問題はLinuxでは起こらないが、Ubuntu 22.04 と 24.04の両方でカードをテストしたところ、ドライバはコンパイルのためにLinuxカーネルバージョン6+とGCC 12を必要とした。 サーバーをNVIDIA RTX 6000 PRO 96 GBで試す - 無料! テストドライブの条件について知るために、当社の販売チームに連絡してください。 REACH OUT TO US * - GPU は個別に無料試用として提供されており、すべてのケースでは利用できません。 Try the server with NVIDIA RTX 6000 PRO 96 GB — for free! テストドライブの条件について知るために、当社の販売チームに連絡してください。 REACH OUT TO US * - GPU は個別に無料試用として提供されており、すべてのケースでは利用できません。