チャットGPT-4oが登場しました。
https://openai.com/index/hello-gpt-4o/
2024年5月13日に、新しいフラッグシップモデル「GPT-4o」の発表されました。
有料のChatGPT Plusを使っている私は、GPT-4oを使うことができました。
本記事では、GPT-4oのアップデート内容や使い方を紹介します。
GPT-4oを含め、2024/5/13に発表されたアップデート内容とは
まずは、2024/5/13に発表されたアップデート内容を紹介します。
- 新モデル「GPT-4o」が発表された。無料ユーザーも使える
- GPTs、GPT Store、GPT-4が無料開放された
- macOS向けにChatGPTのデスクトップアプリが公開された
上記のとおり、GPT-4oの発表だけでなく、「GPTs、GPT Store、GPT-4が無料開放される」というニュースも発表されました。
無料ユーザーと有料ユーザーの違いはどうなる?
今回のアップデートによると、今後は以下のようになります。
無料ユーザー | 有料ユーザー | |
---|---|---|
GPT-3.5 | ◯ | ◯ |
GPT-4 | x → ◯ | ◯ |
GPT-4o | x → ◯ | x → ◯ 上限回数は無料ユーザーの5倍 |
GPTs の利用 | x → ◯ | ◯ |
GPTs の作成 | x | ◯ |
音声会話 | x → ◯ | ◯ |
画像生成 | x | ◯ |
画像認識 | x → ◯ | ◯ |
ファイルのアップロード | x → ◯ | ◯ |
データ分析 | x → ◯ | ◯ |
ブラウジング | x → ◯ | ◯ |
macデスクトップアプリ | x | x → ◯ |
メモリ機能 | x | ◯ |
カスタム指示 | ◯ | ◯ |
引用 | ◯ | ◯ |
一度に入力できる文字数 | 少ない (5000文字くらい) | 多い (1万文字くらい) |
一時チャット | ◯ | ◯ |
アーカイブ | ◯ | ◯ |
他アプリとの接続 | x | ◯ |
キーボードショートカット | ◯ | ◯ |
ChatGPT GPT-4o とは
GPT-4oは、Open AIが提供する対話型生成AIサービスで、GPT-4 Turboの後継モデル。
2024年5月13日に発表されました。
「o」はOmni modelのことを指します。
Omniとは「全方位モデル」(いわゆるマルチモーダル)で、つまりGPT-4oの特徴は、
- 文字
- 画像
- 音声
のすべてを認識できること。
GPT-4などでもこうした仕組みはあったが、GPT-4oではさらにその処理スピードが向上しました。
特に、
- 画像
- 音声
を理解する能力が高いです。
音声ではなしかけると人間と同じくらいの反応速度で会話できるように設計されています。
実際のデモ
GPT-4oはいつから使えるのか?
2024/5/14時点では、有料のChatGPT PlusやChatGPT Teamのユーザー向けに展開を開始しています。
無料版ChatGPTユーザーに対しても、1日で利用できるメッセージの数に制限をつけつつも今後展開する予定。
GPT-4oで変わったことは?
- 回答のクオリティーが上がった
- 生成スピードが速くなった(GPT-4 Turbo と比較して 2 倍高速)
- レート制限が上がった(GPT-4 Turbo と比較して 5倍)
- APIの料金が安くなった(GPT-4 Turbo と比較して 半分に)
- 視覚と音声の理解能力が上がった
GPT-4oを他のAIとの実力比較
以下のグラフで、ピンクがGPT-4oです。
GPT-4o はテキスト、推論、コーディング インテリジェンスに関して GPT-4 Turbo レベルのパフォーマンスを達成すると同時に、多言語、オーディオ、ビジョン機能に関して最高水準です。
推論の改善 – GPT-4o は、MMLU (一般知識の質問) で 88.7% という新たな高スコアを記録しました。
ChatGPT GPT-4oで何が良くなるのか
ユーザー体験の向上
GPT-4oを使用することで、ユーザーは写真や音声を用いた命令や探索、分析ができるようになります。
例えば、外国語のメニューの写真を撮り、GPT-4oに話しかけて翻訳させる。さらにそこからその国の食文化や歴史を解説させる……といった感じ。
なお、写真や音声はChatGPTのスマホアプリから読み込ませたり、Web版にアップロードすることができる。
ライブデモで注目を集めたのは、GPT-4oの新しいビデオと音声機能で大幅に強化されたVoice Mode(音声モード)でした。
これまでのVoice Modeとは異なり、ユーザーはより自然な会話を体験できるようになりました。
例えば、ユーザーは音声アシスタントの会話に割り込んだり、さまざまな音声で話させたりすることができます。
デモでは、紙に書いた数式を見せて、数学のテーマで人間とAIが会話しています。直接的に答えをAIが出すのではなく、どうやった数学の公式問題を解けるのか手助けしています。
デモ
Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN
— OpenAI (@OpenAI) May 13, 2024
Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx
堀江さんのYouTube動画
これ、まじで驚く。
デスクトップアプリ
また、OpenAIは無料・ユーザー向けに同日PC版アプリのリリースも発表。まずはChatGPT Plusユーザーを対象にmacOS版の提供を開始するが、今後数週間で対象ユーザーを広げていく予定。
アプリを導入すると、キーボード ショートカット(Option+Spaceキー)でChatGPTをすぐに呼び出したり、スクリーンショットを即座に共有できる。
Windows版アプリについては2024年後半にリリース予定。
GPT-4oには今後動画やオーディオファイルの読み込み機能も追加される予定で、発表会では画面共有機能で別のアプリの映像をリアルタイムでChatGPTに送信して、議論をするというデモが披露されました。
デスクトップアプリの詳細は以下をご覧ください。
ChatGPT GPT-4o の使い方
実際に、ChatGPT GPT-4oを使ってみました。
GPT-4o の使い方1: テキストでのやりとり
ChatGPTを開くと、以下のメッセージがでてきました。
で、チャット画面を開くと、左上のモデルを選ぶメニューで、GPT-4oが選択できるようになってますね。
なお、スマホのアプリでも、画面上部の言語モデルをクリックすると、GPT-4oを選択できるようになりました。
UIの違い
GPT-4oを選ぶと以下の感じ。見た目はこれまでと同じ。
応答速度の違い
ためしに以下の質問を投げてみました。
chatgptとは何かを2000字程度で教えて下さい。
以下のように回答がかえってきました。動画ですので、再生してみてください。
おー!、GPT4のときよりも、スピードが速くなってます!
回答のクオリティー
GPT4の回答は以下でした。
対して、GPT-4oの回答は以下でした。
う〜ん、GPT-4oの回答のほうがやや詳しい気はするが、だいたい同じかな。
GPT-4o の使い方2: 音声会話
コマンド入力欄の横にあるヘッドホンのマークを押すと、音声会話ができるようになります。
英語でし話かければ、英会話の練習もできます。
ChatGPTを使えば、英会話スクールに行く必要がなくなりますね。詳しくは以下をご覧ください。
GPT-4o の使い方3: オーディオ機能
追記:2024/9/27
ChatGPT Advanced Voice Modeがリリースされました。詳細は以下の記事をご覧ください。
とりいそぎ以上。
今後、記事をアップデートしていきます。