
SamsungのGalaxy S24シリーズがAIの祭典を席巻した後、ChatGPTやGoogle Bardといったツールを支えるディープラーニングと大規模言語モデル(LLM)の魔法を次に活用するのはAppleかもしれません。Financial Timesの業界分析レポートによると、AppleはiPhone向けAI機能の開発に向けて、活発な買収、チーム再編、そして新規採用を続けています。
おすすめ動画
こうしたAI関連買収の中心となるのは、デバイス上で動作するバーチャルアシスタントのSiriかもしれない。Siriは最近、はるかに賢くなったGoogleアシスタントに大きく競争力を奪われている。そして、AppleもGoogleと同じ道を辿り、自社のデジタルアシスタントを強力に強化していくようだ。
GoogleはすでにBardの生成AI機能をGoogleアシスタントに組み込んでおり、刷新されたエクスペリエンスはAndroidとiOSの両方のデバイスでまもなく利用可能になります。では、BardはGoogleアシスタントによって具体的に何を変えるのでしょうか?
Google アシスタントが Siri の進路を予測?

基盤となるPaLM-2大規模言語モデルのマルチモーダル機能により、Bard搭載アシスタントはまもなくテキスト、音声、そしてメディアベースの入力に対応できるようになります。これは、Pixel 8およびGalaxy S24シリーズのスマートフォンに搭載予定の「Circle to Search」機能にも含まれるGoogle Lensによるマルチ検索機能と捉えていただければ幸いです。
さらに、Bard搭載アシスタントは、Gmailやドキュメントなどの人気のGoogleサービスにも統合されます。アップグレードされたアシスタントは、画面上のコンテンツを常に認識し、画面に表示されている写真に基づいて適切なソーシャルメディア投稿を作成するなど、状況に応じたタスクを実行します。
Financial Timesの報道によると、SiriはまもなくLLMを搭載する予定とのことです。これは、MetaのLlama、OpenAIのGPT、GoogleのPaLMといったライセンス製品ではなく、Appleが独自に開発するものです。注目すべきは、Appleが今年初めにコロンビア大学の専門家と共同で「Ferret」と呼ばれる大規模言語モデルをひっそりとリリースしていることです。
オンデバイスは今シーズンのAIトレンド

Appleのもう一つの重点は、LLMベースのタスクをデバイス上で実行することにあるようだ。これは、GoogleのGemini Nanoモデルを搭載したPixel 8 ProやGalaxy S24に似ている。その利点は、AI処理がクラウドとの連携にインターネット接続を必要としなくなるため、処理速度が劇的に向上するだけでなく、ユーザーデータがデバイスから外部に漏れることがないため、プライバシーも強化される点だ。
昨年のブルームバーグの報道では、Appleが独自の言語モデルに基づいた「Apple GPT」と呼ばれる技術に取り組んでいると報じられていましたが、これは社内テストに限定されていました。AppleのAI開発は2024年にようやく実を結ぶ可能性があります。また、同じブルームバーグの別の報道では、AI搭載のSiriアバターが今年、おそらくiOS 18のリリースに合わせて登場する可能性があると指摘されています。
AppleはSiriをよりスマートで応答性の高いものにするだけでなく、生成AIの機能をメッセージアプリなどのより多くのアプリに統合することを目指しています。SamsungとGoogleは、Magic Compose、スタイル提案、チャットでのリアルタイムオフライン翻訳といった魅力的な機能を通じて、その実装方法を既に垣間見せています。

今のところ、Appleは自社製品、特にiPhoneにAIをいつ、どのように実装する予定なのかを具体的に明らかにしていない。しかし、競合他社の動向を見れば、今年後半に開催される次回の開発者会議WWDCで、Appleがその一端を垣間見せても不思議ではないだろう。
興味深いことに、AppleはiPhone 15 ProとiPhone 15 Proに搭載されているA17 Proを含む最新チップのAI性能について熱く語ってきました。Appleはついに、現世代のフラッグシップモデルから、デバイス内AIとよりスマートなSiriの基盤を築くかもしれません。