GPT-4o:OpenAIが最新言語モデルを公開、ユーザーは無料で利用可能
ソーシャルメディアやその他のフォーラムで、OpenAIが私たちのために何を用意しているのかについて多くの憶測が飛び交っていたが、昨日、OpenAIはついに、これまでで最新かつ最も強力なLLMであるGPT-4o(’o’はomniの意)を公開した。 GPT-4oの発表イベントを見逃した方のために、GPT-4oの能力と提供する機能について説明しよう。
強化されたオーディオ、テキスト、視覚機能
GPT-4ターボは強力なモデルだが、1つ欠点がある。 GPT-3.5ターボと比較すると、GPT-4ターボはまだかなり遅い。 GPT-4oはこの欠点に対処し、GPT-4ターボより2倍速い。 これにより、音声、テキスト、視覚からのデータの統合を含む、より広範なユースケースが広がり、マルチモーダルからオムニモーダルへと一歩前進する。 マルチモーダルとオムニモーダルの主な違いは、オムニモーダルでは3つのソースをシームレスに並行運用できることだ。
また、これらの機能強化により、音声変調、皮肉を理解する能力、自然な会話能力を向上させた音声を生成できるようになった。
ChatGPTユーザーは、価格を下げて無料でご利用いただけます。
GPT-4oは従来のGPT-4ターボより効率的で高速であるが、GPT-4ターボの半分の価格(API)であるため、GPT-4oは5.00米ドル/1Mインプットトークン、15.00米ドル/1Mアウトプットトークンとなる。 より良い価格設定により、コンテキストのウィンドウは128kトークンとなり、知識のカットオフは2023年10月となった。
GPT-4oはすべてのChatGPTユーザーが無料で利用できます(ChatGPT PlusユーザーはGPT-4oの上限が5倍になります)。 これと並行して、オープンAIはChatGPTデスクトップアプリも発表した。このアプリでは、ユーザーはGPT-4oの視覚機能を利用して、スクリーンに表示されるコンテンツを読み解くことができる。 ユーザーはデスクトップアプリを使ってChatGPTと話すこともできる。
GPT-4oデモ
OpenAIによると、GPT-4oへのアクセスは今後数週間かけて段階的に展開され、ChatGPT Plusのユーザーは優先的かつ早期にアクセスできるようになるという。 このモデルの真の可能性を理解するのは、今後数週間のうちにアクセスできるようになってからだ。 エキサイティングな時間が待っている!