次のWWDCでAppleはAIフレームワークを発表する……そう筆者が予測したのは前回の連載コラムだった。
「チャットAIのためのフレームワークをAppleが提供し、デベロッパーとユーザーが安心してLLMなどの生成AIを使えるようにする」
この予想はApple Intelligenceの発表でほぼ当たったといえるのではないだろうか。
ただ、この予想を立てたのは2023年の6月。WWDC23前のことだった。ふたを開けてみると、記事公開直後のイベントでは生成AIらしきものは全く発表されず、がっかりしてしまい、この連載もその後1年休載してしまった。
生成AIはその間も爆速で進化を続けている。当時ですら遅すぎると思っていたAppleの生成AIへの取り組み発表までさらに1年を要し、それもすぐに出るのではなく、米国で秋以降、米国以外では2025年以降と、へたすると2年待たされることになる。
では、なぜAppleが生成AIに正面切って取り組む発表をするのが2024年なのか。Microsoft Copilot+ PCは発表済みなのに遅すぎやしないか。結局OpenAIかGoogleに頼ることになるのか。
そんな疑問を抱いてWWDC24に臨んだのだが、そこで発表されたApple Intelligenceの内容を精査していくうちに、これは非常によく練られた計画だということに気付いた。
今回は彼らが1年(もしくは数年分)の長きにわたってやってきたことと、どうしてそうしなければならなかったかを考えてみたい。
Apple Intelligenceは、Apple SiliconのM1、A17 Pro以上のSoCを搭載したiPhone、iPad、Macで利用できるAIフレームワークである。これ以上のスペックを持ったApple製デバイスであれば何でも動くというわけではない。
その例外は、Apple Vision Proだ。M2プロセッサを搭載したスタンドアロンMRヘッドセットであるVision Proはスペック的には十分なはずだが、なぜか対象外である。中身はほぼiPadOSといってよいのに。
対象デバイスが少ない問題については後で語るとして、まずは、Appleの発表がなぜここまで遅くなってしまったのかについて考えてみたい。
筆者が1年前にAppleのAIフレームワークを予想したときには、既にほぼ実用域に達していたOpenAIとGoogle、そしてオープンソースで存在感を高めているMetaのLLMをうまく利用していくことを想定していた。
その後は強力なLLMとしてAnthropicのClaudeが台頭し、CohereのCommand R+の性能も注目されている。
AIの世界は日進月歩、いや秒進分歩であり、これら3社に加え、Tencent、ByteDance、Baidu(百度)、Alibaba、Huaweiが毎週のように新技術を投入し、苛烈な戦いを繰り広げている。
最高性能はすぐに書き換えられてしまう。だから、その最良の部分を利用できるようなフレームワークをAppleが提供し、それをユーザーが安全かつ安価に利用できるようにするだろうと考えたのだ。
それならば、2023年6月でも可能だったろう。しかしAppleはそうしなかった。なぜか?
ChatGPT-4oに聞いてみた。
Appleが2023年6月の時点で他社製LLM(大規模言語モデル)を採用しなかった理由について考えると、以下のような戦略的および技術的な要因が考えられます。
1. プライバシーとセキュリティの重視
Appleはプライバシーとセキュリティを非常に重視する企業です。他社製のLLMを採用することは、データの管理やプライバシー保護の観点でリスクが伴います。Appleはユーザーデータを外部に依存することなく、自社内で管理することを好むため、他社のモデルを採用しない方針を取った可能性があります。
2. カスタマイズと統合
Appleのエコシステムは、ハードウェアとソフトウェアの緊密な統合が特徴です。他社製のLLMを採用すると、Appleの製品やサービスとの統合が難しくなる可能性があります。自社で開発したモデルであれば、より柔軟にカスタマイズでき、Apple独自のエコシステムに最適化できる利点があります。
3. 技術的な優位性の確保
Appleは他社に依存せず、独自の技術を開発することで競争力を高める戦略を取ることが多いです。特にAIやLLMの分野では、技術的な優位性を確保するために自社開発を進めることで、長期的な競争力を維持しようとする意図があると考えられます。
4. コストとライセンス
他社製のLLMを採用すると、ライセンス料や使用料が発生する可能性があります。これにより、コストが増加するだけでなく、他社のビジネスモデルに依存するリスクも生じます。自社開発であれば、これらのコストを抑えることができ、長期的にはコスト効率が良くなります。
5. 開発の柔軟性
他社製のLLMを使用すると、その技術の制約に縛られることがあります。自社開発であれば、Appleのニーズに合わせて柔軟に機能を追加したり、改良したりすることができます。これにより、Appleが独自のビジョンに沿った製品やサービスを提供しやすくなります。
6. 他社との競争
LLMの分野では、GoogleやOpenAIなどの他社が強力なプレイヤーとして存在します。Appleが他社製のLLMを採用すると、これらの競合他社に技術的な依存をすることになり、競争上の不利を招く可能性があります。自社開発を選択することで、独自の競争優位性を保つことができます。
これらの要因を考慮すると、Appleが他社製LLMを採用せず、自社開発に注力した理由が理解できます。プライバシー保護、カスタマイズの柔軟性、コスト効率、技術的優位性の確保など、Appleの長期的な戦略に基づいた決定と考えられます。
いずれも納得のいく理由だ。単にフレームワークを作って選択可能にしたところで、プライバシー、セキュリティの問題は付きまとうし、デバイスやユーザーの行動から得られる情報をどのように他社のサーバに安全に渡すかというクリティカルな問題は発生する。
仮に主要LLMの開発企業のどこかと長期的な提携をしたとしても、今後のコンピューティングにおける最もコアな部分をそこに牛耳られることになる。それは避けたいだろう。
LLMは超強力なマシンを回しっぱなしにするわけだから、コストだけでなく、2030年までにカーボンニュートラル達成を目標としているAppleの姿勢とは相入れない部分もある。マザーネイチャーに怒られてしまいそうだ。
WWDC24直前にはOpenAIまたはGoogleとの全面的な提携やがうわさされていたが、ふたを開けてみれば、自社製LLMをデバイスに密結合させ、自社製クラウドとも統合したApple Intelligenceの壮大な計画が明らかになった。
Copyright © ITmedia, Inc. All Rights Reserved.