2024年6月11日、Appleは毎年開催している開発者会議「WWDC24」の基調講演で、新しいパーソナルAI「Apple Intelligence」を公開、各種Apple製品に搭載する予定と発表しました。
そして2024年10月29日、ついにそのベータ版がリリースされました。(リリース時点では米国英語のみ対応)
世界中の注目を集めている「空間コンピューティング」を実現する「Apple Vision Pro」にももちろん搭載される・・・と思いきや、どうも雲行きが怪しいようです。
一方でMetaは、2024年7月24日にMeta Quest 3に「Meta AI」を搭載することを発表しています。なにやら楽しそうなデモ動画も公開しています。
さて、空間コンピューティングおよびXRとAIの連係は今後、どのようになっていくのでしょうか?
Apple Intelligenceとは?
Appleが開催した「WWDC24」における最大の注目発表が「Apple Intelligence」でした。ご存知のように、「生成AI」という技術が登場し、ここ数年で世界を変革させるほどの存在になっています。
OpenAIの「ChatGPT」、Googleの「Gemini」、Microsoftの「Copilot」などなど、主要なIT企業が生成AIの提供を開始する中、Appleは生成AIサービスの提供に出遅れている状況でした。
そういう状況でWWDC24にてAIについての発表がある、という事前情報があれば、注目が集まるのは当然というものでしょう。「ChatGPTを超えるAIモデルをAppleが開発した!」などという噂すら飛び交ったほどです。
そしていよいよ発表されたApple Intelligenceは「パーソナルなインテリジェンス」とAppleが定義するAIシステムでした。生成AIの先駆企業が提供しているのは、大型のデータセンターで実行されるサーバーベースのAIサービスです。
それに対して、Apple Intelligenceは基本的にサーバーを介することなく、MacやiPhone、iPadといったAppleのデバイス上で動作するApple独自のプロセッサー、いわゆるApple Silicon上の「Neural Engine」上で動作する「オンデバイスAI」です。
そしてApple Intelligenceは、生成AIのように何かをつくり出すことを主力にするのではなく、あくまで日常的にAppleデバイスを利用するユーザーをサポートする役目を担うAIです。
デバイス内に保存されたユーザーの行動や、これまで録りためた写真や動画、チャットやメールのやり取りといった情報をソースとして学習し、ユーザーのパーソナルなパートナーとなるAIとして利用できるのがApple Intelligenceなのです。
2011年に発売開始されたiPhone 4Sに搭載されて以降、Appleデバイスの音声アシスタントとして活躍してきた「Siri」も、Apple Intelligenceによってより「賢く」なるとされています。
こういったApple Intelligenceの仕様を考慮すると、AppleのAI戦略は生成AIの先駆企業とは大きく異なり、他の生成AIサービスとは単純に比較できるものでもないでしょう。
Apple IntelligenceはVision Proに搭載されない?
そして当サイトの読者の皆さんであれば、そんなパーソナルなAI体験を得られるだろうApple Intelligenceが、Apple Vision Proに搭載されることで空間コンピューティング体験もまた豊かになると期待するのではないでしょうか。
ところが、冒頭で触れたようにApple Intelligenceが現行のApple Vision Proに搭載される可能性はほとんどないと推測されています。米・BloombergもApple Intelligenceが発表された直後にそのことを記事で指摘しています。
その理由はまず、AppleがApple Intelligenceに対応するデバイスについて実に明確に公表していたからです。
そして、事前の発表通り、Apple Intelligenceは2024年10月に登場した「iOS 18」「iPadOS 18」「macOS Sequoia」に組み込まれました。
対応するデバイスは、「iPhone 15 Pro/Pro Max」および「iPhone 16」シリーズとM1チップ以降を搭載したiPadとMacとされています。iPadについてより具体的なモデルとしては、第5世代以降の「13インチiPad Pro」「12.9インチiPad Pro」、そして第3世代以降の「11インチiPad Pro」、第5世代以降の「iPad Air」です。
ちなみに、2024年10月29日のリリース時点では、米国英語のみの対応ですが、使用地域の制限はなく、日本でもSiriとデバイスの言語を「英語(米国)」に設定すれば使用可能です。
日本語を含むその他言語への対応は今後1年にわたって開始予定とされています。
しかしやはり、Apple Vision ProはApple Intelligenceの対象デバイスには含まれていませんでした。Appleのパーソナルなインテリジェンス体験をApple Vision Proでも得られると期待していたユーザーにとっては大きな失望となったことでしょう。
Apple Vision ProにもApple SiliconのM2チップおよびNeural Engineは搭載されているのですが、現時点では、visionOSのバージョンアップに伴う対応なども明言されていません。
海外メディア・CNETの記事では、Apple Vision Proによる空間コンピューティング環境でApple Intelligenceを活用するためには、搭載されるプロセッサーの能力向上に加え、カメラを利用するAPIの改善が必要ではないかと推測していますが、それはApple Vision Proの次世代機になりそうとも言及しています。
Metaは Meta AIの搭載を明言
一方でMetaは、Meta Quest向けに「Meta AI」を搭載することを発表しました。
Meta AIは、AIアシスタントとして「Instagram」「Facebook」「Messenger」「WhatsApp」に追加されています。ただ英語圏のみでのサービス提供で、2024年10月時点では日本では利用できません。
Meta AIもMetaの各種サービスやアプリ内でアシスタントの役割を果たすことが主力ですが、Metaの開発したLLM(大規模言語モデル)「Llama 3」をベースにしていて、画像を生成する機能もあります。
なおMeta AIはApple Intelligenceとは異なり、サーバーのAIシステムを介して利用します。
Meta Questに搭載されるMeta AIは「Meta Horizon OS」に実装されることになっていて、現在は、米国とカナダのみでテストローンチされています。
XRとAIの融合はユーザーに何をもたらすのか
なおMetaはすでに、スマートグラス「Ray-Ban Meta」にベータ版ではありますがAIアシスタント「Meta AI with Vision」を搭載済みです。
Meta AI with Visionは、Ray-Ban MetaのカメラとAIを活用し、目視している看板の文字を翻訳したり、視界中のモノ(たとえば建造物や洋服など)について検索したりでき、それらの操作は音声で実行可能です。
おそらくMeta QuestでもRay-Ban Metaと同様にMeta AI with Visionの各種機能を利用できることになるでしょう。
Meta QuestでMeta AI with Visionを使うデモ動画が公開されていて、Meta AIが視界にある物体について音声で説明したり、バスケットボールのプレイに適した場所を教えたり、ショートパンツに合わせたコーディネートを提案したりしている様子がわかります。
このデモ動画では、Meta Questを介して「実際に見えているモノ」、そして「実際には見えないけれど仮想空間に存在するモノ」についてそれぞれAIがサポートしています。
つまり現時点では、XRとAIとが融合することで「できたらいいな」と思えることがこのMetaが公開しているデモ動画に集約されているのではないでしょうか。
XRゴーグルを通して見えている「モノ」に対して、現実か仮想かに関わらず、AIからサポートを受けてさまざまなことが実行できたら、XR空間はよりリッチで楽しい体験にあふれることでしょう。
今のところApple Vision Proでは、Apple IntelligenceをはじめAIと空間コンピューティングとの連係について明確になっていることはありませんが、Meta Quest 3+Meta AIがXRとAIの融合した体験を実現して牽引することで、なにか新しい動きが見えることを期待したいものですね。