この記事の3行まとめ
Appleは、2023年6月5日(現地時間)に開催されたWWDC23でiOS用のObject Captureを発表しました。
Object Captureは撮影画像から3Dモデルを生成する機能です。iPhoneまたはiPadで異なる角度の写真を撮影し、Object Capture APIに渡すことで3Dモデルが生成されます。WWDC21で発表された際はMacOSのみの機能でしたが、WWDC23でiOSで3Dモデルを生成可能なObject Capture APIが発表されました。
セッションでは、新しいObject Capture APIを使ったサンプルアプリのデモが行われました。iPhoneで撮影した花瓶の3Dモデルが生成されている様子が確認できるほか新機能についても紹介されています。
LiDAR(※)を使用することで、写真のみではキャプチャーしきれなかった質感のあるオブジェクトにも対応できるようになりました。LiDARでは点群データを取得するため、画像から得るRGBの情報と組み合わせることで、今まで出来なかったキャプチャーが可能になりました。
※光を照射し、反射光の情報をもとに対象物までの距離や形状を計測する技術。LiDARスキャナーはiPhone 12 Pro以降のProシリーズに搭載されている
Guide captureは、画像やLiDARデータを自動的にキャプチャーする機能です。キャプチャー中にフィードバックを返す機能やオブジェクトを反転させる必要があるかなどのガイド機能が含まれています。ユーザーがシャッターを切る必要はなく、自動でキャプチャーされた画像の中から3Dモデル生成に適切な画像を選択するため、多くの角度から撮影することがポイントとなりそうです。
これらの機能のほかにObject Capture APIの使い方や、モデル再構築機能の強化点についても紹介されています。詳細は、WWDC23「Meet Object Capture for iOS」をご確認ください。
WWDC23「Meet Object Capture for iOS」