ChatGPTが登場したとき、人々は驚嘆し、GPT-3.5大規模言語モデルを搭載したAIチャットボットとしての自然言語処理能力に感銘を受けました。しかし、待望のGPT-4大規模言語モデルが登場すると、AIで実現可能だと考えていた可能性は大きく広がり、AGI(汎用人工知能)の黎明期の兆しだと考える人もいました。
GPT-4とは何ですか?
GPT-4はOpenAIによって開発された最新世代の言語モデルであり、GPT-4oは最新の特定バージョンです。これは、以前はGPT-3.5をベースにしていたChatGPTで使用されている技術をさらに進化させたものですが、その後アップデートされています。つまり、GPT-4はGPT-3.5よりも優れています。GPTはGenerative Pre-trained Transformerの略で、人工ニューラルネットワークを用いて人間のように文章を書くディープラーニング技術です。
おすすめ動画
OpenAIによると、この次世代言語モデルは、創造性、視覚入力、そしてより長いコンテキストという3つの主要領域においてChatGPTよりも優れているとのことです。創造性の面では、GPT-4はクリエイティブなプロジェクトにおける作成とユーザーとのコラボレーションの両方において、はるかに優れているとOpenAIは述べています。これらの例としては、音楽、脚本、テクニカルライティング、さらには「ユーザーのライティングスタイルの学習」などが挙げられます。
GPT-4 開発者ライブストリーム
より長いコンテキストもこの点に影響します。GPT-4は現在、ユーザーからの最大12万8千トークンのテキストを処理できます。GPT-4にウェブリンクを送信し、そのページのテキストと対話するように指示することも可能です。OpenAIによると、これは長文コンテンツの作成や「拡張された会話」に役立つとのことです。
GPT-4はアップロードされた画像を表示・分析することもできます。GPT-4のウェブサイトで提供されている例では、チャットボットにいくつかのベーキング材料の画像が与えられ、それらを使って何が作れるかを尋ねています。しかし、ChatGPTは同じようにビデオクリップを分析することはできません。

OpenAIはまた、GPT-4は前世代に比べて使用上の安全性が大幅に向上したと述べています。OpenAI自身の内部テストでは、GPT-4は事実に基づいた回答を40%多く生成できる一方で、「許可されていないコンテンツのリクエストに応答する」可能性は82%も低いと報告されています。
OpenAIは、これらの進歩を実現するために人間からのフィードバックを得て訓練されてきたと述べ、「AIの安全性やセキュリティなどの分野で初期フィードバックを得るために50人以上の専門家と協力した」と主張している。
リリース後数週間で、ユーザーはGPT-4を使って実現した素晴らしい成果を投稿しました。新しい言語の発明、現実世界への脱出方法の解説、アプリ用の複雑なアニメーションをゼロから作成するなどです。あるユーザーは、HTMLとJavaScriptを組み合わせて、わずか60秒でPongの実用バージョンをGPT-4に作成したそうです。
犬とGPT-4oの出会い
GPT-4の推論機能により、OpenAIはここ数ヶ月でChatGPTプラットフォームに多数の新機能と可能性を展開してきました。例えば9月には、待望の「Advanced Voice Mode」をリリースしました。これにより、ユーザーはテキストベースのプロンプトを必要とせずにAIと会話できるようになります。この機能は10月下旬にPCとMacのデスクトップに導入されました。OpenAIは現在、デバイスのカメラからのビデオフィードをAVMのインターフェースに統合する作業も進めています。
同社は最近、2つの新しい検索機能もリリースしました。チャット履歴検索では、ユーザーはAIとの過去の会話の詳細を参照・再生できます。一方、ChatGPT検索は、Google検索のようにウェブサイトのリストを表示するのではなく、ユーザーのクエリに対して会話形式で最新の回答を直接提供するためにウェブを検索します。GPT検索の初期段階では、システムが正確な回答を返すのに苦労しており、やや期待外れの結果となっています。
OpenAIはまた、1月に新しいAIエージェント機能を展開する予定だ。この機能により、チャットボットは会議の要約やフォローアップのアクションリストの生成、航空券、レストラン、ホテルの予約など、独立したアクションを実行できるようになる。ただし、このリリースはOpenAIの次世代モデル(コード名「Orion」)のリリースと同時期になる可能性がある。
GPT-4の使い方

GPT-4は、OpenAIが提供するすべてのサブスクリプションプランですべてのユーザーが利用できます。無料プランのユーザーは、フルGPT-4モデル(3時間以内に約80チャット)への限定的なアクセスが可能です。その後、クールダウンタイマーがリセットされるまで、より小型で機能の少ないGPT-4o miniに切り替わります。GPT-4への追加アクセスとDall-Eによる画像生成を利用するには、ChatGPT Plusにアップグレードしてください。20ドルの有料サブスクリプションにアップグレードするには、ChatGPTのサイドバーにある「Plusにアップグレード」をクリックしてください。クレジットカード情報を入力すると、GPT-4とLLMの旧バージョンを切り替えることができます。
お金を払いたくない場合でも、GPT-4の強力さを体験する方法はいくつかあります。まず、MicrosoftのBing Chatの一部として試してみることができます。Microsoftは、完全に無料で利用できるBing ChatでGPT-4を使用していることを明らかにしました。ただし、Bing Chatには一部のGPT-4機能が欠けており、Microsoft独自の技術と組み合わされていることは明らかです。それでも、拡張されたLLMとそれに付随する高度なインテリジェンスにはアクセスできます。Bing Chatは無料ですが、1セッションあたり15チャット、1日あたり150セッションまでに制限されていることに注意してください。
質問回答サイト Quora など、現在 GPT-4 を使用しているアプリケーションは他にもたくさんあります。
GPT-4 はいつリリースされましたか?

GPT-4は3月13日に正式に発表され、Microsoftも事前に確認していました。ChatGPT-PlusサブスクリプションとMicrosoft Copilotを通じてユーザーに初めて提供されました。GPT-4は、「開発者がアプリケーションやサービスを構築するための」APIとしても提供されています。既にGPT-4を導入している企業には、Duolingo、Be My Eyes、Stripe、Khan Academyなどがあります。GPT-4の最初の公開デモはYouTubeでライブ配信され、その新機能が披露されました。
GPT-4o miniとは何ですか?
GPT-4o miniは、OpenAIのGPT-4モデルラインの最新版です。より大規模なGPT-4oモデルの簡素化版であり、モデル全体のパワーを活用するよりも、高速な推論速度が重視される、シンプルだが大量のタスクに適しています。
GPT-4o miniは2024年7月にリリースされ、ChatGPTでユーザーがGPT-4oの3時間クエリ制限に達した際に使用するデフォルトモデルとして、GPT-3.5に取って代わりました。Artificial Analysisのデータによると、4o miniはMMLU推論ベンチマークにおいて、GoogleのGemini 1.5 FlashやAnthropicのClaude 3 Haikuといった同規模の小型モデルを大幅に上回る性能を発揮しました。
GPT-4 は GPT-3.5 よりも優れていますか?
ChatGPTの無料版は元々GPT 3.5モデルをベースにしていましたが、2024年7月現在、ChatGPTはGPT-4o miniで動作します。より大規模なGPT-4oモデルの簡素化されたこのバージョンは、GPT-3.5 Turboよりもはるかに優れています。より多くの入力を理解して応答でき、より多くの安全対策が講じられ、より簡潔な回答を提供し、運用コストは60%削減されています。
GPT-4 API
GPT-4は、過去にOpenAIに少なくとも1回支払いを行った開発者向けにAPIとして提供されています。OpenAIは、開発者がAPIを通じて利用できるGPT-4の複数のバージョンと、レガシーGPT-3.5モデルを提供しています。OpenAIはGPT-4o miniのリリース時に、GPT-3.5は開発者が引き続き利用できるものの、最終的にはオフラインになると発表しました。具体的な時期については明らかにしていません。
このAPIは主に新しいアプリを開発する開発者向けですが、消費者にも混乱を招いています。Plexでは、ChatGPTをPlexの音楽プレーヤー「Plexamp」に統合できますが、そのためにはChatGPT APIキーが必要です。これはChatGPT Plusとは別途購入する必要があるため、APIアクセスを取得するには開発者アカウントに登録する必要があります。
GPT-4 は悪化していますか?
GPT-4はリリース当初、人々に大きな衝撃を与えましたが、その後数ヶ月でその回答の質が低下していることに気づいたユーザーもいました。開発者コミュニティの重要人物もこの現象に気づき、OpenAIのフォーラムにも直接投稿されました。しかし、これはあくまで逸話的なものであり、OpenAIの幹部はXにまで出て、この仮説を否定しようとしました。OpenAIによると、これはすべて私たちの頭の中の問題だそうです。
いいえ、GPT-4を愚かにしたわけではありません。むしろその逆で、新しいバージョンごとに以前のバージョンよりも賢くしています。
現在の仮説: 頻繁に使用すると、以前は気づかなかった問題に気づき始めます。
—ピーター・ウェリンダー (@npew) 2023 年 7 月 13 日
その後発表された研究では、モデルのアップデートに伴い回答の質が実際に低下していることが示唆されました。3月と6月のGPT-4を比較したところ、研究者たちはGPT-4の精度が97.6%から2.4%に低下したことを確認できました。
2024年11月、GPT-4oの能力が再び疑問視されるようになりました。「昨日、OpenAIのGPT-4oリリースに対する独自の評価を完了しましたが、8月のGPT-4oリリースよりも大幅に低い評価スコアを一貫して測定しています」とArtificial Analysisは当時Xの投稿で発表し、モデルのArtificial Analysis Quality Indexスコアが同社のより小規模なGPT-4oミニモデルと同等に低下したことを指摘しました。GPT-4oのGPQA Diamondベンチマークにおけるパフォーマンスも同様に11ポイント低下し、51%から39%に低下し、MATHベンチマークでは78%から69%に低下しました。研究者たちは逆に、GPT-4oのユーザークエリへの応答時間は同期間内にほぼ2倍になったことを発見しました。
GPT-4 の視覚入力はどこにありますか?
GPT-4で最も期待されている機能の一つは視覚入力です。これにより、ChatGPT Plusはテキストだけでなく画像にも対応できるようになり、モデルは真にマルチモーダルになります。GPT-4が分析・操作するための画像のアップロードは、ドキュメントのアップロードと同じくらい簡単です。コンテキストウィンドウの左側にあるクリップアイコンをクリックし、画像ソースを選択して、プロンプトに添付するだけです。
GPT-4 の制限は何ですか?
OpenAIはGPT-4の新機能について議論する一方で、この新しい言語モデルの限界についても言及しています。以前のバージョンのGPTと同様に、OpenAIによると、最新モデルにも「社会的バイアス、幻覚、敵対的プロンプト」といった問題が残っているとのことです。
つまり、GPT-4は完璧ではないということです。間違った答えを出すこともあり、その限界を示す例はオンラインで数多く公開されています。しかし、OpenAIは、これらはすべて同社が解決に取り組んでいる問題であり、一般的にGPT-4は答えを出す際に「創造性が低い」ため、事実を捏造する可能性が低いと述べています。
もう一つの大きな制約は、GPT-4モデルが2023年12月までのインターネットデータで学習されていたことです(GPT-4oと4o miniは同年10月にサポート終了)。しかし、GPT-4はWeb検索を実行できるため、事前学習済みのデータセットに頼るだけでなく、インターネットからより最近の事実を簡単に検索して追跡することができます。
GPT-4o は GPT-4 ファミリーの最新リリース (新しい o1 は除く) であり、GPT-5 はまだリリースされる予定です。