新型iPad Proの最大の特徴が、周囲の奥行きを正確に認識できるLiDAR機能。右側列の上から2番目のカメラのようなものがそれだ。
撮影:伊藤有
2020年のWWDCで、アップルは非常に多くの新戦略を発表した。その多くは初日の基調講演で発表されたが、一方でアップルが基調講演のなかでは「あえて」ほとんど触れなかったことがある。その領域でアップルは2020年も非常に興味深いいくつもの成果を上げており、2020年秋以降の新OSと新製品の上で、活躍する……と想像できるものだ。
その領域とは「AR(拡張現実)」だ。アップルがARで現在なにをしようとしているのか、開発者向けに広く公開されたビデオなどから読み取っていこう。
ARKitは最新の「LiDAR」センサーで激変した
アップルのAR技術は「ARKit 4」に進化。
出典:アップル
iPhoneとiPadには「ARKit」という、ARを実現するための技術(フレームワーク、枠組み)が搭載されている。そのため、現行OSが搭載されたすべてのiPhone・iPadでは気軽にさまざまなARアプリが使える。
今回の「iOS 14」「iPadOS 14」では、そのフレームワークが「ARKit 4」に進化している。
ARKit4では特に、3月に発売された新型iPad Proで初搭載した「LiDAR」センサーを活用する技術が強化された。LiDARとは、レーザー光が物体に反射して手元に戻ってくるまでの時間を計測することで物体との距離を測るセンサーの1つだ。
従来、iPhoneやiPadは「カメラからの画像」を解析して物体までの距離や立体構造を把握していたのだが、iPad ProではLiDARを搭載することで、より素早く、より正確な位置認識が可能になった。
3月発売のiPad Proに搭載された「LiDAR」では、レーザー光が戻ってくるまでの時間を計測して正確な距離を測る。
出典:アップル
ARKit4ではそれがさらに強化される。どうなるのかは、下記の画像を見ていただくのがわかりやすい。
次の2つの写真の中央に写っている長椅子は、かなり自然に見えるもののCGだ。ARKit4を使って実際の風景にCGを重ねている。よく見ると、周りの家具や人に「CGのモデルが隠れている」のがわかるだろう。
自分から手前にあるもので物体が隠れることを、CG技術では「オクルージョン」と呼ぶ。LiDARとARKit4の組み合わせでは、オクルージョンの正確さが増し、CGが自然に実景の中へと溶け込む。
中央の長椅子はCG。
出典:アップル
だが、ほかの家具や人にうまく隠れ、実景に溶け込んでいる。
出典:アップル
同時に実現されるのが「奥行きの測定」だ。次の画像は、LiDARとARKit4の組み合わせで取得された「周囲の奥行き」だ。
青い部分ほど自分に近く、奥は赤く表現されている。ソファの形状に合わせて奥行き情報が変わっている点にも注目だ。このようなデータが一瞬で取れているから、正確なオクルージョンもできる。
ARKit4を使い、LiDAR で把握した風景。
出典:アップル
赤いところほど奥で、青いところほど近い。
出典:アップル
これらの機能は単にARに使えるだけではなく、空間の把握が必要な用途には広く活用できる。例えば、建物の中で高さや長さを測る際に使える。今までもこうしたことは可能だったが、画像認識以上に精度の高い技術の導入で、より実用性が増す。
LiDARの正確な距離把握を使い、建物の中の特定の位置の大きさを正確に素早く測る、といった用途が考えられる。
出典:アップル
実際の空間にCGを置く「Location Anchor」
「Location Anchor」を使い、実際の風景にCGオブジェクトを紐付けて配置。後日、他の人がここに行って特定のアプリから見た時でも、その時の風景にCGが重なって表示される。
出典:アップル
ARKit 4の実現した技術で、最も大きな可能性を秘めているのが「Location Anchor」という機能だ。ARはこれまで、目の前の風景の中にCGの物体を「仮に置く」イメージに近かった。
だが、Location Anchorでは、実際の世界の特定の場所にCGの物体を置ける。すると、他の人が別の時にやってきても、同じ場所に同じCGモデルを見られるのだ。
例えば、以下の画像では、サンフランシスコ市内でゴールデン・ゲートブリッジにも近い「フェリービルディング」の前に、CGの物体を配置している。適切なアプリを使えば、このCGは実景と同じように「その場所に行けば誰もが見られる」ものになる。
ここで使うのは、アップルが自社の「マップ」のために集めている3Dでの地図データだ。緯度経度の情報だけでなく、こうした情報と組み合わせることで「今どこにいてどの方向を向いているのか」を認識し、その情報を使って、物体を正確に配置することを狙っている。
出典:アップル
アップルが「マップ」のために集めている3Dの地図データから、今見ている風景がどこでどちらを向いているのかを判断する。
出典:アップル
同様の技術をマイクロソフトは「Spatial Anchor」として提供しており、位置情報ゲーム「ポケモンGO」で知られるナイアンティックも、現実の空間を3Dデータ化する技術を含めた「地球規模のリアルワールドARプラットフォーム」を開発中だ。
グーグルはスマホ版のGoogleマップに、周囲の風景を認識して歩く方向をARで指し示す「ライブビュー」というナビ機能を提供している。
この技術はARの実用性を高めるためには必須のものだ。ARを使ったナビなどはもちろんだが、広告や野外イベントなど、応用範囲は非常に広い。
だから、各社は技術開発を加速しているのだが、アップルもついにこの領域へと手を伸ばし、AR技術の実用性を高めようとしているのだ。
ただし、残念ながら、アップルのLocal Anchorを使うには、アップルが「3Dの地図を整備し終わった場所」である必要がある。現状ではサンフランシスコやニューヨークなど、一部の都市に限られる。日本での展開はもう少し先になりそうだ。
手や体をカメラが認識、アプリの中で活用
虹色に見えるのが手の関節構造。カメラからの画像認識で把握し、ユーザーインターフェースなどに活用する。
出典:アップル
ARKitでもできていることをさらに拡張する動きもあった。手や体の認識だ。
以下の画像のように、iPhoneのカメラを使って体の構造を認識し、動きを解析してアプリの動作などに活かせる。手の認識であれば、空間への文字の手書きや絵文字のハンドジェスチャー認識などに使える。
出典:アップル
手を認識することで、ハンドサインで絵文字を入力したり、空間に文字を描いたりできる。
出典:アップル
認識可能なのは一人だけではなく、複数の人の情報を同時に認識することもできる。
従来、こうした技術は「ARKit」の中でやっていたのだが、それだけでなく、機械学習のフレームワーク側にも用意されたため、カメラの画像だけで認識した上で、「その映像に写っているのがなにか」といった情報をアプリで活用することが可能になる。
出典:アップル
手や人の認識は、同時に一人だけでなく複数人でも問題ない。
出典:アップル
「U1」チップでセンチ単位の位置・方向認識を実現
iPhone 11にはUWBを使う「U1」というチップが搭載されている。
出典:アップル
iPad Proに搭載されている「LiDAR」同様、一部のアップル製品にしか搭載されていないにもかかわらず、今後の可能性が期待されているのが「UWB(Ultra WideBand)」という技術だ。2019年秋発売の「iPhone 11」シリーズで、UWBを実現する「U1」というアップルオリジナルの半導体が初めて搭載された。
今はあまり活用されていないが、iOS 14には、このU1をアプリから使う方法が実装された。
U1を使えば、相手の位置や方向を正確に把握可能になる。
出典:アップル
UWBは微弱な電波を使った通信技術だが、現在は主に「相手の位置や方向」を正確に認識するために使う。今もBluetoothで似たようなことはできて、新型コロナウィルス感染症対策用の「接触確認アプリ」などでも利用されている。
しかし、BluetoothとUWBでは、検知可能な精度が全く異なる。Bluetoothは1mから数十センチが限界で、方向も認識しづらい。だが、UWBを使えば精度は劇的に高まる。
以下はU1を使って作られたアプリのデモだ。近くにあるスマホまでの距離と方向を正確に認識しているだけでなく、スマホとの距離を「1センチ単位」で把握している。
U1をアプリで活用した例。指定したスマホまでの距離がセンチ単位で表示され、相手のいる方向も顔文字の方向で示されている。
出典:アップル
これが可能になれば、忘れ物を探したり、目の前の相手にだけ写真や情報を渡したり、ということが、簡単にできる。今もiPhoneやMacからファイルを送信する「AirDrop」機能で使われているが、それが色々なアプリで活用可能になる。
2020年は「Macの年」、その裏で進める「スマートグラス」の準備
WWDC2020の公式サイト。開発者向けの公開動画からは、最新OSの動作やテクノロジーの解説が山ほどある。
出典:アップル
これらの技術は、それぞれは「アプリで使われれば便利になる機能」でしかない。しかし、どれもある意味向いている方向は同じだ。
簡単に言えば、どの技術も「現実とスマホの中、ネットの向こうの情報をさらに密につなぎ、生活を楽にする」ものだ。スマホやタブレットに搭載されているセンサーを増やし、さらにその活用の幅を広げる技術といっていいだろう。
さらには、デバイスが今のような「板」の形でなくなったらどうだろう?
いわゆる「ARを使ったスマートグラス」では、どれも重要な価値を持つ技術になる。これらの技術を、数年がかりで着実に整備し続けているアップルが、スマートグラスの領域で「なにか」を考えていない、とは思えない流れだ。
2020年はアップルにとって、「Macを自社のAppleシリコンへと移行する」という大事業を控えた年になる。特にWWDCではそこにメッセージを集中させた。
ARを使ったスマートグラスは、部品メーカーなどの動向を見ても、2020年や2021年の早い時期に出てくるようなことはなさそうだ。開発者に向けた基盤整備は重要だが、まだ一般にアピールすべき年ではない。アップルはそのように考えたのではないだろうか。
だが、ここまで環境が整えば、少なくとも、U1やLiDARのような技術が「一部の製品だけのもの」と考えるのは難しくなる。より多くのアップル製品、具体的には次のiPhoneに標準搭載される可能性は高くなった、と筆者は考えている。
(文・西田宗千佳)
西田宗千佳:1971年福井県生まれ。フリージャーナリスト。得意ジャンルは、パソコン・デジタルAV・家電、そしてネットワーク関連など「電気かデータが流れるもの全般」。取材・解説記事を中心に、主要新聞・ウェブ媒体などに寄稿する他、年数冊のペースで書籍も執筆。テレビ番組の監修なども手がける。主な著書に「ポケモンGOは終わらない」(朝日新聞出版)、「ソニー復興の劇薬」(KADOKAWA)、「ネットフリックスの時代」(講談社現代新書)、「iPad VS. キンドル 日本を巻き込む電子書籍戦争の舞台裏」(エンターブレイン)がある。