Watch

Appleの内部関係者がiOS 18のAI機能がどのように機能するかを明らかにした

Appleの内部関係者がiOS 18のAI機能がどのように機能するかを明らかにした
iPhone 15 Pro Max を外側に裏返しに置いたところ。ナチュラル チタニウム カラーが目立ちます。
ジョー・マリング / デジタルトレンド

Appleの世界開発者会議(WWDC)が近づくにつれ、同社のAI開発をめぐる議論は熱を帯びてきた。スマートフォンやコンピューター関連ブランドがAIの巧妙な機能ばかりに注目する中、Appleは異例にもAI関連の話題には沈黙を守っており、Appleが時代に乗り遅れたのではないかとの懸念が広がっている。

しかし、新たなレポートにより、Apple の AI の夢が今年後半の iOS 18 アップデートでどのように実現されるのか、詳しく知ることができました。

AppleのAI計画に関する新たな詳細

Apple iPhone 15 Plus のホーム画面。
アンディ・ボクソール / デジタルトレンド

Appleもこの分野に積極的に取り組んでいるようだが、ライバルとは少し異なるアプローチをとっているようだ。「Appleは大規模な言語モデル(生成AI機能の基盤となるアルゴリズム)を開発しており、あらゆる兆候から、それが完全にデバイス上で実行されることが示唆されている。つまり、この技術はクラウドではなく、iPhone内部のプロセッサによって駆動されるということだ」とブルームバーグは報じている。

「AppleGPT」というコードネームで呼ばれる社内ツールの噂は、しばらく前から流れています。しかし、AppleはGoogleやMicrosoft(OpenAIと提携)がChatGPT、Copilot、Geminiといったツールで達成したような高度な技術レベルには、まだ達していないようです。これは、Appleが目立たない製品ではなく、SamsungやOnePlusと同様にGoogleからGemini AIのライセンスをiPhone向けに取得する可能性があるという最近の報道にも当てはまります。

iPhone の Siri。
SiriのAI革命は来るのか?あらゆる兆候がWWDCでの発表を示唆している。 ナディーム・サルワール / Digital Trends

しかし、AppleはAIの万能薬を売り込むのではなく、より慎重なアプローチを取ろうとしているようだ。「チャットボットやその他のAI生成ツールの力を誇示するのではなく、Appleはこれらの技術が人々の日常生活にどのように役立つかを示す計画だ」とブルームバーグの報道は付け加えている。

ChatGPTが登場し、AI革命の火付け役となって以来、リアルな画像の生成や音声の複製、テキストからフォトリアリスティックな動画の作成、バーチャルパートナーとして変態的なチャットなど、あらゆる機能を備えたAIツールが氾濫するのを目の当たりにしてきました。しかし、最大の疑問は、これらの派手な機能が、一般消費者にとって日常的にどれほど実用的かつ有益なものなのかということです。

しかし、だからといってAppleがAI競争で優位に立とうとしていないわけではありません。むしろその逆です。ここ数ヶ月、Appleは音声コマンドによるメディア編集などの機能を持つMGIEと呼ばれるAIツールに関する複数の研究論文を発表しています。また、MM1というマルチモーダル大規模言語モデルについても詳述しており、これは「強化された文脈内学習と複数画像推論」への扉を開きます。

AppleはAI競争でどこまで進んでいるのか?

iPhone 14の背面にあるAppleロゴ。
ジョー・マリング / デジタルトレンド

最近、私たちはAppleの研究成果を分析しました。これは、画面上のコンテンツを理解し、それに応じてユーザーを支援するAIに焦点を当てたものです。X(旧Twitter)のAppleエンジニアによる以下のスレッドでは、GoogleのGemini AIモデルなどの競合製品と比較したAppleの進歩が詳しく説明されています。

これはまだ始まりに過ぎません。チームは既に次世代モデルの開発に全力で取り組んでいます。このプロジェクトに貢献してくださった皆様に心より感謝申し上げます。

— ブランドン・マッキンジー(@mckbrando)2024年3月15日

他の論文では、プライバシーとセキュリティの領域におけるAIについて議論されており、これはAppleにとって驚くべきことではありません。前述のデバイス上でのアプローチは、このプライバシーアプローチ全体の中核を成しています。AIモデルをデバイス上で実行することで、iPhoneからデータが外部に漏れることがなくなります。これは、ユーザーからのリクエストをクラウドサーバーに送信する戦略とは対照的です。クラウドサーバーは、人間とAIのインタラクションチェーン全体を遅くする要因にもなります。

さらに、Appleは既にコアハードウェアを準備しています。同社は2017年からiPhoneにニューラル・プロセッシング・ユニット(NPU)を搭載しています。これは専用のAIアクセラレータ・ハードウェアで、GoogleのPixelスマートフォンに搭載されているTensor Processing Unit(TPU)と同様に動作し、現在ではGeminiモデルをデバイス上で実行できるようになりました。興味深いことに、Appleもかなり前から基盤の構築に着手していました。

WWDC 2022において、同社は「TransformerアーキテクチャのオープンソースリファレンスPyTorch実装」と称するものをリリースしました。Transformerは、生成AI技術全体を支える基盤ツールです。Financial Timesの記事は、2017年にGoogleの研究論文から生まれたTransformer技術について、優れた(そして分かりやすい)解説となっています。この年は、iPhone XにNPUが搭載された年でもあります。

ブルームバーグの最新報道によると、Appleは6月に開催されるWWDC 2024でAIへの取り組みを垣間見せる予定だ。デバイス上で生成されるAIのアプローチは、Googleが最近Googleアシスタントの強化に取り組んでいるように、Siriをより賢くすることになるのだろうか?それは時が経てば分かるだろう。

Forbano
Forbano is a contributing author, focusing on sharing the latest news and deep content.