アドバンスドボイスモードは、ChatGPTの機能の一つで、テキストベースのプロンプトウィンドウや音声によるやり取りを必要とせず、AIチャットボットとリアルタイムで人間のような会話をすることができます。2024年7月に一部のPlus加入者向けにリリースされました。
同社によると、この機能は「より自然でリアルタイムな会話を提供し、いつでも会話に割り込むことができ、ユーザーの感情を感知して反応します」とのこと。会話中に息継ぎをしたり、人間の笑い声を真似したりすることも可能です。さらに嬉しいことに、まだ利用していない方も、近日中に利用可能になる予定です。
おすすめ動画
いつ詳細モードが利用できるようになりますか?
GPT-4oの紹介
OpenAIは当初、待望のAdvanced Voice機能を一部のChatGPT-Plus加入者向けにリリースしました。同社は最終的に2024年秋までにすべてのPlus加入者に展開し、メールとChatGPTアプリ内で通知を送信しました。これはChatGPT-Plusの機能ですが、まだ試したことがない方はアプリから先行公開できます。
携帯電話で高度な音声モードを実行するには何が必要ですか?

Plusサブスクリプションに加えて、ユーザーはAndroid端末(アプリバージョン1.2024.206以降)、またはiOS 16.4以降とアプリバージョン1.2024.206以降を搭載したiPhoneが必要です。残念ながら、適切な機器を用意するだけでは、アルファリリースフェーズへの参加を保証することはできません。さらに、OpenAIはユーザーを選定する方法や理由について、詳細を明らかにしていません。
アルファリリースの抽選に当選された場合、OpenAIからメールでお知らせいたします。また、ChatGPTモバイルアプリの右下隅にツールチップが表示され、新機能を選択できます。
OpenAI は私の会話をモデルトレーニングに利用するつもりですか?
もちろんです。アルファリリース期間中、OpenAIは、アプリのデータ共有オプションをまだオフにしていない限り、高度な音声モードによる会話の音声を活用してモデルをトレーニングする予定です。
ChatGPTのデータ共有をオプトアウトするのは実はとても簡単です。モバイルアプリで設定メニューの「データコントロール」タブに移動し、「全員の音声品質を向上させる」のチェックを外してください。
高度な音声モードはどのくらいの頻度で、どのくらい使用できますか?
ChatGPTの高度な音声モードを10分間体験
OpenAIによると、Advanced Voiceの入力と出力にはそれぞれ1日の使用制限があるが、具体的な時間については明記されておらず、「正確な制限は変更される可能性がある」とのことだ。とはいえ、Himels Techというユーザーは、10分近くにわたってAIと会話する動画をすでに投稿している。
AI は、チャットの残り時間が 3 分になるとユーザーに通知し、会話を終了してユーザーを標準の音声インターフェースに戻します。
高度な音声モードでは何ができて、何ができないのでしょうか?
カーン!!!!!! pic.twitter.com/xQ8NdEojSX
—イーサン・スーティン (@EthanSutin) 2024 年 7 月 30 日
アドバンスドボイスモードの本質は、テキストベースのクエリで既に使用されているGPT-4o大規模言語モデルと同じモデルを操作するための、新たな方法です。つまり、ChatGPTでできることのほとんど全てが、アドバンスドボイスでも、面白い声で実行できるということです。ビートボックスからストーリーテリング、そしてものすごい速さでカウントダウンまで、この新機能は徹底的にテストされており、アドバンスドボイスモードへの反応は好意的です。
ただし、この新モードでユーザーが実行できる操作には、安全上の制限と機能制限があります。例えば、Advanced Voiceを使用して新しい記憶を作成したり、カスタム指示を使用したり、GPTにアクセスしたりすることはできません。AIは過去のAdvanced Voiceでの会話を記憶し、会話の詳細を思い出すことができますが、テキストプロンプトや標準の音声モードで行われた過去のチャットにはまだアクセスできません。
さらに、アドバンスドボイスは、どんなに頼んでも歌ってくれません。同社によると、「クリエイターの権利を尊重するため、アドバンスドボイスモードが歌を含む音楽コンテンツで応答するのを防ぐため、新しいフィルターを含むいくつかの緩和策を導入しました」とのことです。
高度な音声モードは素晴らしい新機能ですが、ChatGPTとGoogle Geminiを比較するとどうでしょうか?詳しくは比較をご覧ください。