
これまで、PCに専用のAIハードウェアを搭載する正当性を見出すのは困難でした。Nvidiaは、Nvidia GPUのハードウェアを活用してAIモデルを実行するローカルAIチャットボット「Chat with RTX」でこの状況を変えようとしています。
ChatGPTのようなツールに比べて独自の利点がいくつかありますが、それでもいくつか奇妙な問題を抱えています。AIチャットボットにありがちな癖があるだけでなく、Chat with RTXには改善の余地があることを示唆する大きな問題もあります。
おすすめ動画
RTXとのチャット
Chat with RTX について最もよく聞かれる疑問は、「ChatGPT とどう違うのか?」ということです。Chat with RTX はローカル 大規模言語モデル (LLM) です。TensorRT-LLM 互換モデル(Mistral と Llama 2 がデフォルトで含まれています)を使用し、それらをローカルデータに適用します。さらに、実際の計算はクラウドではなく、グラフィックカード上でローカルに実行されます。Chat with RTX には、Nvidia RTX 30 シリーズまたは 40 シリーズ GPU と、少なくとも 8GB の VRAM が必要です。
ローカルモデルは、いくつかの独自の機能を実現します。まず、Chat with RTXに独自のデータを読み込みます。ドキュメントが詰まったフォルダを作成し、Chat with RTXでそのフォルダを参照することで、そのデータに基づいてモデルと対話できます。これにより、Bing ChatやChatGPTのような一般的な回答ではなく、詳細なドキュメントに関する情報をモデルが提供できるようになります。

そして、実際にうまくいきました。NvidiaのDLSS 3、AMDのFSR 2、IntelのXeSSを詳細に説明した様々な研究論文が入ったフォルダを読み込み、それらの違いについて具体的な質問をしてみました。Bing Chatのようなサービスではよくある手法ですが、インターネットをスクレイピングして違いを説明する記事を書き換えるのではなく、Chat with RTXは実際の研究論文に基づいた詳細な回答を提供してくれました。
Chat with RTXが研究論文から情報を抽出できたこと自体には驚きませんでしたが、その情報を非常に巧みに抽出できたことには驚きました。私が提供した資料は、まさに研究論文であり、学術的な用語や、頭を悩ませるような数式、論文自体には説明されていない詳細な情報への言及が満載でした。それにもかかわらず、Chat with RTXは論文を分かりやすい情報へと分解してくれました。
Chat with RTXをYouTube動画や再生リストに向けると、トランスクリプトから情報が抽出されます。このツールの真価は、その集中力にあります。ChatGPTのように何でもかんでも質問するのではなく、セッションを一方向に集中させることができます。
もう一つの利点は、すべてがローカルで行われることです。クエリをサーバーに送信したり、ドキュメントをアップロードしてモデルのさらなる学習に利用されてしまうことを心配する必要はありません。これは、AIモデルとのやり取りにおける合理的なアプローチです。PC上のデータを使用し、モデルの反対側で何が起こっているかを気にすることなく、必要な質問をすることができます。
ただし、「Chat with RTX」のローカルアプローチにはいくつか欠点があります。最も明白なのは、最新のNvidia GPUと少なくとも8GBのVRAMを搭載した高性能なPCが必要になることです。さらに、約100GBの空き容量も必要です。「Chat with RTX」は使用するモデルを実際にダウンロードするため、かなりのディスク容量を消費します。
幻覚
Chat with RTX に問題がないとは思っていませんでしたよね? ほぼすべてのAIツールで見られるように、AIからの完全に間違った応答には一定の許容範囲があり、Chat with RTX も例外ではありません。Nvidiaは最近のNvidiaニュース記事のサンプルを新規インストール時に提供していますが、それでもAIは常に正確だったわけではありません。

例えば、上の画像では、モデルは Counter-Strike 2 がDLSS 3をサポートしていると表示していますが、実際にはサポートしていません。モデルは、参照しているDLSS 3.5の記事と、データセットに含まれるCounter-Strike 2 に言及している別の記事との間に何らかの関連性を見出しているとしか考えられません。

より深刻な制約は、Chat with RTX が利用できるのはサンプルデータのみであるということです。そのため、小規模なデータセット内のバイアスによって誤った回答が導かれるという奇妙な状況が発生します。例えば、上記のモデルでは、ある回答では DLSS フレーム生成はゲームプレイに追加の遅延をもたらさないと述べているのに対し、次の回答ではフレーム補間はゲームプレイに追加の遅延をもたらすと述べているのが分かります。DLSS フレーム生成はフレーム補間を使用します。

上記の別の回答で、Chat with RTXはDLSS 3の動作にNvidia Reflexは不要だと述べていますが、これは事実ではありません。繰り返しますが、このモデルは私が提供したデータに基づいており、完璧ではありません。これは、Chat with RTXのように焦点が狭い場合でも、AIモデルが真顔で間違っている可能性があることを改めて認識させてくれます。
こういった奇妙な現象はある程度予想していましたが、Chat with RTXはそれでも私を驚かせました。様々なセッションの様々な場面で、私が提供したデータとは全く関係のないランダムな質問をしてみました。ほとんどの場合、モデルが回答するには情報が不足しているという返答が返ってきました。なるほど、納得です。

ある状況を除いて、モデルは答えを出しました。デフォルトデータを使って靴紐の結び方を尋ねたところ、モデルはステップバイステップの説明と、ACEに関するNvidiaのブログ記事への参照を示しました(Nvidiaは、このプレリリース版では参照ファイルが誤っている場合があると指摘しています)。その直後に再度質問したところ、コンテキスト情報が不足しているという、いつもの回答が返ってきました。
何が起こっているのかよく分かりません。モデルにこの質問に答えられる何かがあるのかもしれませんし、あるいはどこか別の場所から詳細を取得しているのかもしれません。いずれにせよ、Chat with RTX がユーザーから提供されたデータだけ を使用しているわけではないことは明らかです。少なくとも、他の場所から情報を取得する機能があります。YouTube 動画について質問し始めてから、そのことがさらに明確になりました。
YouTube事件
Chat with RTXの興味深い点の一つは、YouTube動画のトランスクリプトを読み取れることです。このアプローチにはいくつか制限があります。重要なのは、モデルが認識するのはトランスクリプトのみであり、実際の動画は認識されないということです。動画内でトランスクリプトに含まれていない出来事が起こった場合、モデルはそれを認識しません。この制限があるにもかかわらず、これは非常にユニークな機能です。
しかし、問題がありました。Chat with RTXで全く新しいセッションを開始したにもかかわらず、以前リンクした動画が記憶されていたのです。Chat with RTXは現在または過去の会話の文脈を記憶するはずがないので、このようなことは起きないはずです。

少し面倒なことになるかもしれないので、何が起こったのかを詳しく説明します。最初のセッションでは、YouTubeチャンネル「Commander at Home」の動画にリンクしました。マジック:ザ・ギャザリングのチャンネルで、動画では説明されていない複雑なトピックに対してChat with RTXがどのように反応するかを見てみたかったのです。予想通り、うまくいきませんでしたが、重要なのはそこではありません。
古い動画を削除し、NVIDIAのCEOであるジェンスン・フアン氏との1時間にわたるインタビューにリンクしました。リンクにアクセスした後、データベースを再構築するための専用ボタンをクリックしました。これは、Chat with RTXに新しいデータについて話していることを伝えているようなものです。前回と同じように、「この動画は何についてですか?」と尋ねることで会話を開始しましたが、リンクしたNVIDIAの動画ではなく、以前のCommander at Homeの動画に基づいた回答でした。

データベースの再構築を3回試みましたが、結果はいつも同じでした。最終的に、Chat with RTXを完全に終了し、全く新しいセッションを開始しました。もう一度Nvidiaのビデオへのリンクを貼り、トランスクリプトをダウンロードして、ビデオの内容について質問してみました。すると、やはりCommander at Homeのビデオについてという答えが返ってきました。

Chat with RTXにNvidiaのビデオについて回答を得られたのは、そのビデオについて具体的な質問をしたときだけでした。しばらくチャットした後も、ビデオの内容について尋ねると、必ずCommander at Homeのビデオに関する回答が返ってきました。このセッションでは、Chat with RTXはそのビデオリンクを一切 確認していませんでした。
Nvidiaによると、これはChat with RTX がダウンロードしたすべての トランスクリプトを読み込むためとのことです。トランスクリプトはローカルのフォルダに保存され、新しいセッションを開始しても、入力したすべての動画に関する質問に引き続き回答します。トランスクリプトは手動で削除する必要があります。
さらに、Chat with RTXは、複数の動画トランスクリプトがある場合、一般的な質問には対応しきれません。動画の内容について質問したところ、Chat with RTXは私が「Commander at Home」動画について質問していると判断し、その動画を参照するようにしました。少し分かりにくいですが、特に以前にYouTubeリンクを入力したことがある場合は、チャットしたいトランスクリプトを手動で選択する必要があります。
有用性を見つける
Chat with RTXは、少なくとも、ローカルハードウェアを活用してAIモデルを活用する方法を示すデモです。これは、過去1年間PCに大きく欠けていた機能です。複雑な設定は必要なく、AIモデルに関する深い知識も必要ありません。インストールして、最新のNvidia GPUさえあれば、すぐに使えます。
Chat with RTXの有用性を正確に判断するのは難しい。多くの場合、ChatGPTのようなクラウドベースのツールの方が、アクセスできる情報の範囲が広いという点で、明らかに優れている。その有用性は実際に使ってみなければわからない。解析すべき文書が大量にあったり、YouTube動画を視聴する時間がないような場合、Chat with RTXはクラウドベースのツールでは得られない何かを提供してくれる。ただし、AIチャットボット特有の癖を尊重することが前提だ。
しかし、これはあくまでデモです。NvidiaはChat with RTXを通じて、ローカルAIモデルの機能を実証しており、開発者が自らローカルAIアプリを試用するのに十分な関心を集めることを期待しています。