GPT-4o : OpenAI dévoile son dernier modèle de langage, disponible gratuitement pour les utilisateurs

Après une tonne de spéculations sur les médias sociaux et d’autres forums sur ce qu’OpenAI nous réserve, hier, OpenAI a finalement révélé son dernier et plus puissant LLM à ce jour – GPT-4o (‘o’ pour omni). Au cas où vous auriez manqué l’événement de lancement de GPT-4o, nous allons passer en revue les capacités de GPT-4o et les fonctionnalités qu’il offre.

Capacités audio, texte et vision améliorées

GPT-4 Turbo est un modèle puissant, mais il présente un inconvénient : la latence. Comparé à GPT-3.5 Turbo, GPT-4 Turbo est toujours considérablement plus lent. Le GPT-4o remédie à cet inconvénient et est deux fois plus rapide que le GPT-4 Turbo. Cela ouvre un éventail plus large de cas d’utilisation impliquant l’intégration de données provenant de la parole, du texte et de la vision, ce qui permet de passer d’une approche multimodale à une approche omni-modale. La principale différence entre le multimodal et l’omnimodal est que dans l’omnimodal, les trois sources peuvent être exploitées en parallèle de manière transparente.

Ces améliorations permettent également au modèle de générer des discours avec une modulation vocale améliorée, la capacité de comprendre les sarcasmes et des capacités de conversation naturelle améliorées.

Prix réduit et disponible gratuitement pour les utilisateurs de ChatGPT

Bien que le GPT-4o soit plus efficace et plus rapide que le GPT-4 Turbo, il est deux fois moins cher (API) que le GPT-4 Turbo, ce qui signifie que le GPT-4o coûtera 5,00 USD/1M de jetons d’entrée et 15,00 USD/1M de jetons de sortie. Avec l’amélioration de la tarification, la fenêtre contextuelle est maintenant de 128k tokens, et la date limite de connaissance est octobre 2023.

Cerise sur le gâteau, le GPT-4o sera disponible gratuitement pour tous les utilisateurs de ChatGPT (les utilisateurs de ChatGPT Plus bénéficieront d’un plafond de 5x pour le GPT-4o). Parallèlement, OpenAI a également dévoilé l’application de bureau ChatGPT, qui permettra aux utilisateurs d’exploiter les capacités visuelles de GPT-4o pour lire et comprendre le contenu affiché à l’écran. Les utilisateurs pourront également communiquer avec ChatGPT à l’aide de l’application de bureau.

GPT-4o Demo

 

OpenAI a indiqué que l’accès à GPT-4o se ferait par étapes au cours des prochaines semaines, les utilisateurs de ChatGPT Plus bénéficiant d’un accès prioritaire et précoce au modèle. Nous ne comprendrons le véritable potentiel de ce modèle que lorsque nous y aurons accès dans les semaines à venir. Des moments passionnants vous attendent !

More From Our Blog

Du chatbot au moteur de recherche : comment la recherche ChatGPT d'OpenAI change la donne

Du chatbot au moteur de recherche : comment la recherche ChatGPT d'OpenAI change la donne

L’évolution des recherches sur le web alimentées par l’IA La dernière innovation d’OpenAI, ChatGPT Search, marque une avancée significative dans les capacités de recherche web pilotées par l’IA. Cette fonctionnalité int...

Read More
Sortie du Nemotron 70B de Nvidia AI : OpenAI et Anthropic doivent-ils avoir peur ?

Sortie du Nemotron 70B de Nvidia AI : OpenAI et Anthropic doivent-ils avoir peur ?

Nvidia a discrètement présenté son dernier modèle d’intelligence artificielle, le Nemotron 70B, qui fait des vagues dans le secteur de l’intelligence artificielle en surpassant des modèles bien établis comme le GPT-4 d’OpenAI ...

Read More

Build Your Own Business AI

Get Started Free
Top