
水曜日に開催されたMeta Connect 2024で、CEOのマーク・ザッカーバーグ氏が壇上に上がり、同社の人工知能(AI)における最新の進歩について語った。「おそらくAI関連で最大のニュース」とザッカーバーグ氏が表現するこのニュースで、同氏はGoogleのGemini LiveやOpenAIのAdvanced Voice Modeに直接対抗する「Natural Voice Interactions」を発表した。
「音声はテキストよりもAIとやり取りする上ではるかに自然な方法になると思います」とザッカーバーグ氏はコメントした。「音声は、私たちがAIとやり取りする最も頻繁な方法の一つ、あるいは最も頻繁な方法の一つになる可能性を秘めていると思います」。ザッカーバーグ氏はまた、この新機能がInstagram、WhatsApp、Messenger、Facebookを含むMetaの主要アプリ全体で本日よりユーザー向けに展開を開始することも発表した。

「Meta AIは、最先端のAIモデルを提供するだけでなく、それらのモデルに無制限にアクセスでき、当社の様々な製品やアプリに簡単に無料で統合できることで、この分野で他社と差別化を図っています」とザッカーバーグ氏は述べた。「Meta AIは、世界で最も利用されているAIアシスタントになる軌道に乗っています。月間アクティブユーザー数は5億人に迫っており、一部の大国ではまだサービスを開始していません。」
おすすめ動画
Gemini LiveやAdvanced Voice Modeと同様に、Natural Voice Interactionsでは、ユーザーはテキストプロンプトを使わずにチャットボットと直接話すことができます。ユーザーは、どもったり、言い直したり、AIの話を遮ったり、他の人間と話すのと同じように話すことができ、チャットボットは会話を続けてくれます。この新機能では、AIの声も選択可能で、ジョン・シナ、ジュディ・デンチ女史、クリステン・ベル、キーガン・マイケル・キー、オークワフィナなど、様々な著名人から選ぶことができます。Metaが以前自然言語チャットに参入した際に、このラインナップを覚えている方もいるかもしれません。そのサービスは、ユーザーから「不気味」「非現実的」との評価を受け、8月に終了しました。

ザッカーバーグ氏はステージ上でこの機能のライブデモを行い、チャットボットに簡単な質問をいくつか投げかけ、AIは満足のいく回答を返しました。AIの話し方は、これまでの「アドバンスド・ボイス・モード」で見られたような話し方と比べるとややぎこちなく、会話らしさに欠けるように感じられましたが、それでもSiriの単調なイントネーションよりははるかに優れていました。しかし、ザッカーバーグ氏がAIを「オークワフィナ」と呼んだ時、記者はそれが誰の声なのかに気づきました。
水曜日に発表されたAI関連ニュースの中で、ナチュラルボイスインタラクションは「おそらく最大の」ものだったが、それだけが発表されたわけではない。ザッカーバーグ氏はまた、MetaのLlamaモデルがマルチモーダル化に伴いバージョン3.2に到達したことも明らかにした。Llama 3.2 11Bと90B(それぞれトレーニングに使用されたパラメータの数を示す)は、チャートやグラフの解釈、画像内のアセットの識別、画像キャプションの生成が可能になった。
残念ながら、これらの新モデルはヨーロッパでは利用できません。これは、Meta社がEUの「予測不可能な」規制環境と分類している状況によるもので、同社がAIモデルの学習にヨーロッパのデータを使用することができないためです。同社はヨーロッパで、Llama 3.2 1Bと3Bと呼ばれる非常に軽量なモデル2種類をリリースします。どちらもヨーロッパのデータで学習されていません。これらのモデルはスマートフォンやその他のエッジデバイス向けに構築されています。
そして、一見不可解な理由から、MetaはAIが生成した画像(一部にはあなたの肖像が含まれる可能性があります)をFacebookやInstagramのフィードに直接表示する新機能を試験的に導入すると発表しました。これらの「あなたのために作られた」画像は、ユーザーにそのまま共有するか、アプリ内でリアルタイムに繰り返し共有するかを選択するよう促します。
「フィードは、フォローしている人、つまり友達向けのコンテンツとして始まったという傾向が、時間の経過とともに高まってきたと思います」と、ザッカーバーグ氏は最近のThe Vergeのインタビューで語った。「そこに、『さて、AIシステムが生成した、皆さんが興味を持ちそうなコンテンツも表示します』というレイヤーが加わるのです。…それがどれだけ大きくなるかは、実行力と質にかかっています。」