Lunar Lakeには、Core Ultraプロセッサ(シリーズ1)で搭載されていた「NPU 3」の進化版となる「NPU 4」が搭載されている。
NPU 4は、NPUコア「Neural Compute Engine(NCE)」の基数をNPU 3の3倍に当たる6基に増量している。NCE1基当たりの演算能力は、FP16(16bit浮動小数点演算)で1クロック当たり1024回、INT8(8bit整数演算)で1クロック当たり2048回で変更はない。
また、NPU 4には推論プロセッサの他、128bitのSIMD-VLIWプロセッサである「SHAVE(Streaming Hybrid Architecture Vector Engine) DSP」も引き続き搭載されている。SHAVE DSPはNCE1基当たり2つ、合計で12基が搭載されている。
余談だが、SHAVE DSPはIntelが2016年に買収したMovidiusが設計したDSPである。
Intelが公称するNPU 4の公称スペックは、INT8演算時で48TOPSだという。先代のMeteor LakeのNPU3におけるINTの理論性能値を計算すると、以下の通りとなる。
2048OPS×2 NCE×2 OPS(積和算)×1.4GHz=11.47TOPS
このことを踏まえて、48TOPSから逆算すると、こんな計算式ができる。
48TOPS=2048OPS×6 NCE×2 OPS(積和算)×X GHz
上の計算式における「X」は、NPU 4の動作クロックだ。この式をXについて求めると、「X≒1.953GHz」という値が出てくる。概算ではあるが、Lunar LakeのNPU 4は1.953GHzくらいで動作しているものと思われる。CPUコアのクロックも、同じだろう。
Lunar Lakeは、15Wクラスの低消費電力CPUであり、リアルモバイル系の薄型ノートPC向けのCPUとなる。ゆえに“単体で”完成されたPCシステムを実現しなければならない(いわゆる「SoC(System On a Chip)」の類となる)。
セキュリティ面への多角的なハードウェア対応はもちろんのこと、接続性や拡張性に関しても、最新世代の技術への対応がなされている。
無線LANはWi-Fi 7(IEEE 802.11be)に対応し、Bluetoothも最新の5.4を利用できる。外部機器との接続にはPCI Express 5.0バスとPCI Express 4.0バスをそれぞれ4レーンずつ用意し、IntelプラットフォームらしくThunerbolt 4ポートも統合している。
なお、Lunar LakeのThunderbolt 4ポートはPCI Express 4.0/5.0バスとのレーンとは“別枠”で用意されている。
ここまで見ると「Lunar Lakeは完成度が高い」と思ってしまうのだが、すごく細かい所まで見ると、気になる点がないわけではない。
ハイパースレッディング機構の廃止は一定の合理性があるので理解できる。「AI PC」を訴求する関係で、GPUでXMXが復活し、NPUも一気に3倍の性能に引き上げているのも、開発コンセプトと合致する。
問題は、メモリ回りだ。
第一に最大メモリ容量が32GB止まりという点が気にかかる。チップ上にメモリを置く設計もあってか、DIMMスロットなどを活用しての増設は想定されていないし、当然ながらチップ上に実装されているメモリを換装することもできない。
AI PCというコンセプトが「小規模な推論モデルを実践(実行)する」程度なら32GBのメモリでも十分だとは思う。しかしIntelは「本機単体で大規模な生成AIをローカル動作させられる」と強調していた。そうなると「32GBでは心もとなくない?」とどうしても思ってしまう。
ちなみに、Core Ultraプロセッサ(シリーズ1)では、Lunar Lakeと同じ15Wクラスの製品(Uプロセッサ)でも最大96GBのメモリをサポートしている。
第二にメモリバスの狭さとメモリー帯域の狭さも気になる。この部分も、残念ながらCore Ultraプロセッサ(シリーズ1)のUプロセッサに対して見劣りする。
Core Ultraプロセッサ(シリーズ1)のUプロセッサでは、LPDDR5X-7500規格のメモリモジュールを使うと毎秒120GBのアクセススピードを確保できた。しかし、これがLunar Lakeの場合、メモリモジュールこそ、より高速なアクセスに対応できるLPDDR5X-8500規格なものの、メモリバス幅が半分の64bitしかないため、アクセス速度は毎秒68GBにとどまる。
Intelも、この問題に対して無策なわけではない。メモリアクセス性能を補うべく、「Memory Side Cache」と呼ばれる、8MBのラストレベルキャッシュメモリを搭載した――ということである。
AI系の学習/推論処理、各種グラフィックスレンダリングやレイトレーシング処理において、このキャッシュメモリがどの程度パフォーマンスを向上する効果を持つのか、興味が集まる所だ。
Copyright © ITmedia, Inc. All Rights Reserved.