製品資料

株式会社データドック

株式会社データドック

HPC/AI活用に不可欠なGPUサーバ、インフラ設計でチェックすべき3つのポイント

HPC/AIの普及により、高速な演算処理が可能なGPUサーバの利用が広がっているが、導入の際のインフラ設計においては、従来と異なる注意点がある。3つのチェックポイントを解説するとともに、それら全てを満たすデータセンターを紹介する。

要約

 HPC/AI/ディープラーニングなどの普及により、GPUサーバの利用が広がっている。従来のCPU搭載サーバに比べ100倍もの高速な演算処理が可能なGPUサーバだが、導入の際のインフラ設計においては、これまでとは異なるポイントを確認する必要がある。

 それが、「電力」「熱」「奥行き」の3つだ。GPUは1つのチップに最大数千の計算コアを持っており、同時並行処理を行うことで高い計算処理性能を実現するため、大量の電力が必要となる。それにより、自ずとサーバの排熱量も多くなるため、冷却能力も重要となる。さらに、処理速度を高めるためサーバの奥行きが長くなっていることから、扉が閉まるかなど、ラックサイズには注意が必要だ。

 本資料では、これら3つのポイントについて詳しく解説する。あわせて、GPUサーバの設置に最適な新潟・長岡のデータセンターについて、一般的なデータセンターと比較しながら紹介する。高密度/高負荷対応なのに加え、運営会社は「NVIDIA DGX-Ready Data Center プログラム」パートナー企業として認定されており、その品質はお墨付きだ。

アンケート