生成AI(人工知能)に欠かせない高性能のGPU(画像処理半導体)を搭載したサーバーを大量に運用できる「AIデータセンター」は、日本にどれだけ存在するのか。日経クロステックが国内にある49社のデータセンター事業者を対象に調査したところ、18社による計画中を含む32施設があることが分かった。
今回、日経クロステックがデータセンター事業者に質問したのは、大規模言語モデル(LLM)のトレーニング(訓練)や推論に使う高性能GPUサーバーが稼働できるような施設と、その詳細だ。現時点では国内に18社が運営する26施設があり、今後さらに6施設が増える計画だ。
消費電力10kW超えのGPUサーバーを1ラックで複数台稼働
LLMのトレーニングには、米NVIDIA(エヌビディア)のAI用GPUである「H100」や「H200」を8個搭載する高性能GPUサーバーが向いているとされる。NVIDIA自身がH100を8個搭載するGPUサーバー「NVIDIA DGX H100」などを製品化しているほか、米Dell Technologies(デル・テクノロジーズ)や米Hewlett Packard Enterprise(ヒューレット・パッカード・エンタープライズ、HPE)などの大手サーバーメーカーがH100やH200を8個搭載する高性能GPUサーバーを販売している。
こうした高性能GPUサーバーの問題点は、わずか1台のサーバーが10キロワット(kW)を超える電力を消費することだ。しかもLLMのトレーニングには、複数台のGPUサーバーが必要だ。
つまりAIデータセンターには、消費電力が10kWを超えるGPUサーバーを1つのサーバーラックで複数台稼働して、十分に冷却できる能力が求められる。今回は、そうした能力を備えているとデータセンター事業者が「自薦」した施設を紹介する。
1ラック当たりの最大消費電力や床荷重、サーバー液体冷却方式への対応状況なども調査している。これらAIデータセンターに必要となるスペックの意味については、本特集の第2回や第3回で解説する。