{"id":32408,"date":"2023-11-07T18:37:44","date_gmt":"2023-11-07T18:37:44","guid":{"rendered":"https:\/\/meetcody.ai\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/"},"modified":"2023-11-16T11:49:18","modified_gmt":"2023-11-16T11:49:18","slug":"gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important","status":"publish","type":"post","link":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/","title":{"rendered":"Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?"},"content":{"rendered":"<p><span style=\"font-weight: 400;\">C&#8217;est l\u00e0 qu&#8217;intervient GPT-4 Vision (GPT-4V), une avanc\u00e9e r\u00e9volutionnaire d&#8217;OpenAI qui combine la puissance de l&#8217;apprentissage profond et de la vision par ordinateur.  <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ce mod\u00e8le va au-del\u00e0 de la compr\u00e9hension du texte et s&#8217;int\u00e9resse au contenu visuel. Alors que le GPT-3 excellait dans la compr\u00e9hension des textes, le GPT-4 Vision fait un bond monumental en int\u00e9grant des \u00e9l\u00e9ments visuels dans son r\u00e9pertoire.  <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dans ce blog, nous explorerons le monde captivant de la vision GPT-4, en examinant ses applications potentielles, la technologie sous-jacente et les consid\u00e9rations \u00e9thiques associ\u00e9es \u00e0 ce puissant d\u00e9veloppement de l&#8217;IA.<\/span><\/p>\n<h2><b>Qu&#8217;est-ce que le GPT-4 Vision (GPT-4V) ?<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">GPT-4 Vision, souvent appel\u00e9 GPT-4V, repr\u00e9sente une avanc\u00e9e significative dans le domaine de l&#8217;intelligence artificielle. Il s&#8217;agit d&#8217;int\u00e9grer des modalit\u00e9s suppl\u00e9mentaires, telles que des images, dans de grands mod\u00e8les linguistiques (LLM). Cette innovation ouvre de nouveaux horizons \u00e0 l&#8217;intelligence artificielle, car les MAIT multimodaux ont le potentiel d&#8217;\u00e9tendre les capacit\u00e9s des syst\u00e8mes bas\u00e9s sur le langage, d&#8217;introduire de nouvelles interfaces et de r\u00e9soudre un plus large \u00e9ventail de t\u00e2ches, offrant en fin de compte des exp\u00e9riences uniques aux utilisateurs. Il s&#8217;appuie sur les succ\u00e8s de GPT-3, un mod\u00e8le r\u00e9put\u00e9 pour sa compr\u00e9hension du langage naturel. Le GPT-4 Vision conserve non seulement cette compr\u00e9hension du texte, mais \u00e9tend \u00e9galement ses capacit\u00e9s de traitement et de g\u00e9n\u00e9ration de contenu visuel.  <\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Voici une d\u00e9mo de l&#8217;API gpt-4-vision que j&#8217;ai construite <a href=\"https:\/\/twitter.com\/bubble?ref_src=twsrc%5Etfw\"> dans@bubble<\/a> en 30 min.<\/p>\n<p>Il prend une URL, la convertit en image et l&#8217;envoie par l&#8217;interm\u00e9diaire de l&#8217;API Vision pour r\u00e9pondre avec des suggestions d&#8217;optimisation de page d&#8217;atterrissage personnalis\u00e9es.  <a href=\"https:\/\/t.co\/dzRfMuJYsp\">pic.twitter.com\/dzRfMuJYsp<\/a><\/p>\n<p>&#8211; Seth Kramer (@sethjkramer) <a href=\"https:\/\/twitter.com\/sethjkramer\/status\/1721662666056315294?ref_src=twsrc%5Etfw\">6 novembre 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">Ce mod\u00e8le d&#8217;IA multimodale poss\u00e8de la capacit\u00e9 unique de comprendre les informations textuelles et visuelles. Voici un aper\u00e7u de son immense potentiel :<\/span><\/p>\n<h3><b>R\u00e9ponse aux questions visuelles (VQA)<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Le GPT-4V peut r\u00e9pondre \u00e0 des questions sur des images, par exemple : &#8220;Quel est ce chien ?&#8221; ou &#8220;Que se passe-t-il sur cette image ?&#8221;.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">a commenc\u00e9 \u00e0 jouer avec l&#8217;API de vision gpt-4 <a href=\"https:\/\/t.co\/vZmFt5X24S\">pic.twitter.com\/vZmFt5X24S<\/a><\/p>\n<p>&#8211; Ibelick (@Ibelick) <a href=\"https:\/\/twitter.com\/Ibelick\/status\/1721654235752763878?ref_src=twsrc%5Etfw\">6 novembre 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h3><b>Classification des images<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Il peut identifier des objets et des sc\u00e8nes dans les images, en distinguant les voitures, les chats, les plages, etc.<\/span><\/p>\n<h3><b>L\u00e9gende des images<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Le GPT-4V peut g\u00e9n\u00e9rer des descriptions d&#8217;images, en cr\u00e9ant des phrases telles que &#8220;Un chat noir assis sur un canap\u00e9 rouge&#8221; ou &#8220;Un groupe de personnes jouant au volley-ball sur la plage&#8221;.<\/span><\/p>\n<h3><b>Traduction d&#8217;images<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Le mod\u00e8le peut traduire d&#8217;une langue \u00e0 l&#8217;autre le texte contenu dans les images.<\/span><\/p>\n<h3><b>Cr\u00e9ation litt\u00e9raire<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">La GPT-4V ne se limite pas \u00e0 comprendre et \u00e0 g\u00e9n\u00e9rer du texte ; elle peut \u00e9galement cr\u00e9er divers formats de contenu cr\u00e9atif, notamment des po\u00e8mes, des codes, des scripts, des pi\u00e8ces musicales, des courriels et des lettres, et incorporer des images de mani\u00e8re transparente.<\/span><\/p>\n<p><b><br \/>\n  <i>En savoir plus : <\/i><br \/>\n<\/b><a href=\"https:\/\/meetcody.ai\/blog\/openais-dev-day-reveals-updates-128k-context-pricing-leaks\/\"><br \/>\n  <b><br \/>\n    <i>Contexte GPT-4 Turbo 128K : Tout ce qu&#8217;il faut savoir<\/i><br \/>\n  <\/b><br \/>\n<\/a><\/p>\n<h2><b>Comment acc\u00e9der \u00e0 GPT-4 Vision ?<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">L&#8217;acc\u00e8s \u00e0 GPT-4 Vision se fait principalement par le biais d&#8217;API fournies par OpenAI. Ces API permettent aux d\u00e9veloppeurs d&#8217;int\u00e9grer le mod\u00e8le dans leurs applications et d&#8217;en exploiter les capacit\u00e9s pour diverses t\u00e2ches. OpenAI propose diff\u00e9rents niveaux de prix et plans d&#8217;utilisation pour GPT-4 Vision, ce qui le rend accessible \u00e0 de nombreux utilisateurs. La disponibilit\u00e9 de GPT-4 Vision par le biais d&#8217;API la rend polyvalente et adaptable \u00e0 divers cas d&#8217;utilisation.<\/span><\/p>\n<h2><b>Combien co\u00fbte GPT-4 Vision ?<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Le prix de GPT-4 Vision peut varier en fonction de l&#8217;utilisation, du volume et des API ou services sp\u00e9cifiques que vous choisissez.  <\/span><a href=\"https:\/\/meetcody.ai\/blog\/openai-devday-announcements-live-stream-conference\/\"><span style=\"font-weight: 400;\">OpenAI<\/span><\/a><span style=\"font-weight: 400;\">  fournit g\u00e9n\u00e9ralement des informations tarifaires d\u00e9taill\u00e9es sur son site web officiel ou sur son portail de d\u00e9veloppeurs. Les utilisateurs peuvent explorer les niveaux de prix, les limites d&#8217;utilisation et les options d&#8217;abonnement pour d\u00e9terminer le plan le plus appropri\u00e9.<\/span><\/p>\n<h2><b>Quelle est la diff\u00e9rence entre GPT-3 et GPT-4 Vision ?<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Le GPT-4 Vision repr\u00e9sente une avanc\u00e9e significative par rapport au GPT-3, principalement en ce qui concerne sa capacit\u00e9 \u00e0 comprendre et \u00e0 g\u00e9n\u00e9rer du contenu visuel. Alors que le GPT-3 se concentrait sur la compr\u00e9hension et la g\u00e9n\u00e9ration de textes, le GPT-4 Vision int\u00e8gre de mani\u00e8re transparente le texte et les images dans ses capacit\u00e9s. Voici les principales diff\u00e9rences entre les deux mod\u00e8les :<\/span><\/p>\n<h3><b>Capacit\u00e9 multimodale<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">GPT-4 Vision peut traiter et comprendre simultan\u00e9ment du texte et des images, ce qui en fait une v\u00e9ritable IA multimodale. Le GPT-3, en revanche, se concentre principalement sur le texte.<\/span><\/p>\n<h3><b>Compr\u00e9hension visuelle<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">GPT-4 Vision peut analyser et interpr\u00e9ter des images, en fournissant des descriptions d\u00e9taill\u00e9es et des r\u00e9ponses \u00e0 des questions sur le contenu visuel. Le GPT-3 n&#8217;a pas cette capacit\u00e9, car il op\u00e8re principalement dans le domaine du texte.<\/span><\/p>\n<h3><b>G\u00e9n\u00e9ration de contenu<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Alors que le GPT-3 est capable de g\u00e9n\u00e9rer des contenus textuels, le GPT-4 Vision passe \u00e0 la vitesse sup\u00e9rieure en incorporant des images dans des contenus cr\u00e9atifs, qu&#8217;il s&#8217;agisse de po\u00e8mes, de codes, de scripts ou de compositions musicales.<\/span><\/p>\n<h3><b>Traduction bas\u00e9e sur l&#8217;image<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">GPT-4 Vision peut traduire le texte d&#8217;une image d&#8217;une langue \u00e0 l&#8217;autre, une t\u00e2che qui d\u00e9passe les capacit\u00e9s de GPT-3.<\/span><\/p>\n<h2><b>Quelle est la technologie utilis\u00e9e par GPT-4 Vision ?<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">Pour appr\u00e9cier pleinement les capacit\u00e9s de GPT-4 Vision, il est important de comprendre la technologie qui sous-tend sa fonctionnalit\u00e9. \u00c0 la base, GPT-4 Vision s&#8217;appuie sur des techniques d&#8217;apprentissage profond, en particulier des r\u00e9seaux neuronaux.  <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Le mod\u00e8le comprend plusieurs couches de n\u0153uds interconnect\u00e9s, imitant la structure du cerveau humain, ce qui lui permet de traiter et de comprendre efficacement de vastes ensembles de donn\u00e9es. Les principaux composants technologiques de GPT-4 Vision sont les suivants :<\/span><\/p>\n<h3><b>1. Architecture du transformateur<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Comme ses pr\u00e9d\u00e9cesseurs, GPT-4 Vision utilise l&#8217;architecture du transformateur, qui excelle dans le traitement des donn\u00e9es s\u00e9quentielles. Cette architecture est id\u00e9ale pour le traitement des informations textuelles et visuelles et constitue une base solide pour les capacit\u00e9s du mod\u00e8le.<\/span><\/p>\n<h3><b>2. Apprentissage multimodal<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">La caract\u00e9ristique principale de GPT-4 Vision est sa capacit\u00e9 d&#8217;apprentissage multimodal. Cela signifie que le mod\u00e8le peut traiter simultan\u00e9ment du texte et des images, ce qui lui permet de g\u00e9n\u00e9rer des descriptions textuelles d&#8217;images, de r\u00e9pondre \u00e0 des questions sur le contenu visuel et m\u00eame de g\u00e9n\u00e9rer des images sur la base de descriptions textuelles. La fusion de ces modalit\u00e9s est la cl\u00e9 de la polyvalence de GPT-4 Vision.<\/span><\/p>\n<h3><b>3. Pr\u00e9-entra\u00eenement et mise au point<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Le GPT-4 Vision est soumis \u00e0 un processus de formation en deux phases. Dans la phase de pr\u00e9formation, il apprend \u00e0 comprendre et \u00e0 g\u00e9n\u00e9rer du texte et des images en analysant de vastes ensembles de donn\u00e9es. Par la suite, il subit un r\u00e9glage fin, un processus de formation sp\u00e9cifique au domaine qui affine ses capacit\u00e9s pour les applications.<\/span><\/p>\n<p><b><br \/>\n  <i>Voici LLaVA : <\/i><br \/>\n<\/b><a href=\"https:\/\/meetcody.ai\/blog\/meet-llava-the-new-competitor-to-gpt-4-vision\/\"><br \/>\n  <b><br \/>\n    <i>Le nouveau concurrent du GPT-4 Vision<\/i><br \/>\n  <\/b><br \/>\n<\/a><\/p>\n<h2><b>Conclusion<\/b><\/h2>\n<p><span style=\"font-weight: 400;\">GPT-4 Vision est un nouvel outil puissant qui a le potentiel de r\u00e9volutionner un large \u00e9ventail d&#8217;industries et d&#8217;applications.  <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Au fur et \u00e0 mesure de son d\u00e9veloppement, il est probable qu&#8217;il devienne encore plus puissant et polyvalent, ouvrant de nouveaux horizons aux applications bas\u00e9es sur l&#8217;IA. N\u00e9anmoins, le d\u00e9veloppement et le d\u00e9ploiement responsables de GPT-4 Vision, tout en \u00e9quilibrant l&#8217;innovation et les consid\u00e9rations \u00e9thiques, sont primordiaux pour garantir que cet outil puissant profite \u00e0 la soci\u00e9t\u00e9.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Alors que nous entrons \u00e0 grands pas dans l&#8217;\u00e8re de l&#8217;IA, il est imp\u00e9ratif d&#8217;adapter nos pratiques et nos r\u00e9glementations afin d&#8217;exploiter tout le potentiel de la vision GPT-4 pour l&#8217;am\u00e9lioration de l&#8217;humanit\u00e9.<\/span><\/p>\n<p><b><br \/>\n  <i>En savoir plus : <\/i><br \/>\n<\/b><a href=\"https:\/\/meetcody.ai\/blog\/open-ai-chatgpt-enterprise-pricing-buy-benefits-compare\/\"><br \/>\n  <b><br \/>\n    <i>L&#8217;entreprise ChatGPT d&#8217;OpenAI : Co\u00fbt, avantages et s\u00e9curit\u00e9<\/i><br \/>\n  <\/b><br \/>\n<\/a><\/p>\n<h2><b>Foire aux questions (FAQ)<\/b><\/h2>\n<h3><b>1. Qu&#8217;est-ce que la vision GPT et comment fonctionne-t-elle pour la reconnaissance d&#8217;images ?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">GPT Vision est une technologie d&#8217;intelligence artificielle qui analyse automatiquement les images pour identifier des objets, du texte, des personnes, etc. Les utilisateurs n&#8217;ont qu&#8217;\u00e0 t\u00e9l\u00e9charger une image, et GPT Vision peut fournir des descriptions du contenu de l&#8217;image, permettant ainsi la conversion de l&#8217;image en texte.<\/span><\/p>\n<h3><b>2. Quelles sont les capacit\u00e9s d&#8217;OCR de GPT Vision et quels types de texte peuvent \u00eatre reconnus ?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">GPT Vision dispose d&#8217;une technologie OCR (Reconnaissance Optique de Caract\u00e8res) \u00e0 la pointe de l&#8217;industrie qui permet de reconna\u00eetre avec pr\u00e9cision le texte dans les images, y compris le texte manuscrit. Il peut convertir des textes imprim\u00e9s et manuscrits en textes \u00e9lectroniques avec une grande pr\u00e9cision, ce qui le rend utile dans divers sc\u00e9narios.<\/span><\/p>\n<p>&nbsp;<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">GPT-4-Vision est \u00e9galement tr\u00e8s performant en mati\u00e8re de lecture de texte ! J&#8217;ai pu juste \u00e9crire quelques instructions dans les marges de mon simulacre et il les a suivies \ud83e\udd2f. Il ajoute du Javascript et rend les \u00e9tats de survol rouges ! <a href=\"https:\/\/t.co\/PmcS0u4xOT\">pic.twitter.com\/PmcS0u4xOT<\/a><\/p>\n<p>&#8211; Sawyer Hood (@sawyerhood) <a href=\"https:\/\/twitter.com\/sawyerhood\/status\/1721924480304603320?ref_src=twsrc%5Etfw\">7 novembre 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h3><b>3. GPT Vision peut-il analyser des tableaux et des graphiques complexes ?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Oui, GPT Vision peut analyser des diagrammes et des graphiques complexes, ce qui le rend utile pour des t\u00e2ches telles que l&#8217;extraction d&#8217;informations \u00e0 partir de visualisations de donn\u00e9es.<\/span><\/p>\n<h3><b>4. Le GPT-4V prend-il en charge la reconnaissance interlinguistique pour le contenu des images ?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Oui, le GPT-4V prend en charge la reconnaissance multilingue, y compris les principales langues internationales telles que le chinois, l&#8217;anglais, le japonais, etc. Il peut reconna\u00eetre avec pr\u00e9cision le contenu des images dans diff\u00e9rentes langues et les convertir en descriptions textuelles correspondantes.<\/span><\/p>\n<h3><b>5. Dans quels sc\u00e9narios d&#8217;application les capacit\u00e9s de reconnaissance d&#8217;images du GPT-4V peuvent-elles \u00eatre utilis\u00e9es ?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Les capacit\u00e9s de reconnaissance d&#8217;images du GPT-4V ont de nombreuses applications, notamment le commerce \u00e9lectronique, la num\u00e9risation de documents, les services d&#8217;accessibilit\u00e9, l&#8217;apprentissage des langues, etc. Il peut aider les particuliers et les entreprises \u00e0 traiter des t\u00e2ches \u00e0 forte intensit\u00e9 d&#8217;images afin d&#8217;am\u00e9liorer l&#8217;efficacit\u00e9 de leur travail.<\/span><\/p>\n<h3><b>6. Quels types d&#8217;images le GPT-4V peut-il analyser ?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Le GPT-4V peut analyser diff\u00e9rents types d&#8217;images, y compris des photos, des dessins, des diagrammes et des graphiques, \u00e0 condition que l&#8217;image soit suffisamment claire pour \u00eatre interpr\u00e9t\u00e9e.<\/span><\/p>\n<h3><b>7. Le GPT-4V peut-il reconna\u00eetre du texte dans des documents manuscrits ?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Oui, le GPT-4V peut reconna\u00eetre du texte dans des documents manuscrits avec une grande pr\u00e9cision, gr\u00e2ce \u00e0 sa technologie OCR avanc\u00e9e.<\/span><\/p>\n<h3><b>8. Le GPT-4V permet-il la reconnaissance de textes en plusieurs langues ?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">Oui, le GPT-4V prend en charge la reconnaissance multilingue et peut reconna\u00eetre du texte dans plusieurs langues, ce qui le rend adapt\u00e9 \u00e0 un large \u00e9ventail d&#8217;utilisateurs.<\/span><\/p>\n<h3><b>9. Quelle est la pr\u00e9cision du GPT-4V en mati\u00e8re de reconnaissance d&#8217;images ?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">La pr\u00e9cision de la reconnaissance d&#8217;images par le GPT-4V varie en fonction de la complexit\u00e9 et de la qualit\u00e9 de l&#8217;image. Il a tendance \u00e0 \u00eatre tr\u00e8s pr\u00e9cis pour les images plus simples comme les produits ou les logos et s&#8217;am\u00e9liore continuellement avec l&#8217;entra\u00eenement.<\/span><\/p>\n<h3><b>10. Y a-t-il des limites d&#8217;utilisation pour le GPT-4V ?<\/b><\/h3>\n<p><span style=\"font-weight: 400;\">&#8211; Les limites d&#8217;utilisation de GPT-4V d\u00e9pendent du plan d&#8217;abonnement de l&#8217;utilisateur. Les utilisateurs gratuits peuvent avoir un nombre limit\u00e9 d&#8217;invites par mois, tandis que les plans payants peuvent offrir des limites plus \u00e9lev\u00e9es ou aucune limite. En outre, des filtres de contenu sont en place pour pr\u00e9venir les cas d&#8217;utilisation pr\u00e9judiciable.<\/span><\/p>\n<h2>Trivia (ou pas ?!)<\/h2>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">GPT-4V + TTS = AI Sports narrator \ud83e\ude84\u26bd\ufe0f<\/p>\n<p>A transmis chaque image d&#8217;une vid\u00e9o de football \u00e0 gpt-4-vision-preview, et a demand\u00e9 de g\u00e9n\u00e9rer une narration \u00e0 l&#8217;aide d&#8217;une simple incitation.<\/p>\n<p>Pas d&#8217;\u00e9dition, c&#8217;est ce qui est sorti du mod\u00e8le (aka peut \u00eatre BEAUCOUP MEILLEUR) <a href=\"https:\/\/t.co\/KfC2pGt02X\">pic.twitter.com\/KfC2pGt02X<\/a><\/p>\n<p>&#8211; Gonzalo Espinoza Graham \ud83c\udff4\u200d\u2620\ufe0f (@geepytee) <a href=\"https:\/\/twitter.com\/geepytee\/status\/1721705524176257296?ref_src=twsrc%5Etfw\">7 novembre 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>C&#8217;est l\u00e0 qu&#8217;intervient GPT-4 Vision (GPT-4V), une avanc\u00e9e r\u00e9volutionnaire d&#8217;OpenAI qui combine la puissance de l&#8217;apprentissage profond et de la vision par ordinateur. Ce mod\u00e8le va au-del\u00e0 de la compr\u00e9hension du texte et s&#8217;int\u00e9resse au contenu visuel. Alors que le GPT-3 excellait dans la compr\u00e9hension des textes, le GPT-4 Vision fait un bond monumental en<a class=\"excerpt-read-more\" href=\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/\" title=\"ReadVision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?\">&#8230; Read more &raquo;<\/a><\/p>\n","protected":false},"author":1,"featured_media":32400,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[89,195],"tags":[446,383,447],"class_list":["post-32408","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-intelligence-artificielle","category-outils-dia","tag-gpt-4v-fr","tag-ia-ouverte","tag-vision-gpt-4"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v21.8 (Yoast SEO v24.2) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?<\/title>\n<meta name=\"description\" content=\"GPT-4 Vision (GPT-4V), une avanc\u00e9e r\u00e9volutionnaire d&#039;OpenAI, combine la puissance de l&#039;apprentissage profond avec la vision par ordinateur. Ses caract\u00e9ristiques sont les suivantes\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?\" \/>\n<meta property=\"og:description\" content=\"GPT-4 Vision (GPT-4V), une avanc\u00e9e r\u00e9volutionnaire d&#039;OpenAI, combine la puissance de l&#039;apprentissage profond avec la vision par ordinateur. Ses caract\u00e9ristiques sont les suivantes\" \/>\n<meta property=\"og:url\" content=\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/\" \/>\n<meta property=\"og:site_name\" content=\"Cody - The AI Trained on Your Business\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-07T18:37:44+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2023-11-16T11:49:18+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/gpt4v-gpt-4-vision-features.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1156\" \/>\n\t<meta property=\"og:image:height\" content=\"648\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Oriol Zertuche\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@oriol003\" \/>\n<meta name=\"twitter:site\" content=\"@meetcodyai\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Oriol Zertuche\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/\"},\"author\":{\"name\":\"Oriol Zertuche\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749\"},\"headline\":\"Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?\",\"datePublished\":\"2023-11-07T18:37:44+00:00\",\"dateModified\":\"2023-11-16T11:49:18+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/\"},\"wordCount\":2122,\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/gpt4v-gpt-4-vision-features.png\",\"keywords\":[\"gpt-4v\",\"IA ouverte\",\"vision gpt-4\"],\"articleSection\":[\"Intelligence artificielle\",\"Outils d'IA\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/\",\"url\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/\",\"name\":\"Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/gpt4v-gpt-4-vision-features.png\",\"datePublished\":\"2023-11-07T18:37:44+00:00\",\"dateModified\":\"2023-11-16T11:49:18+00:00\",\"description\":\"GPT-4 Vision (GPT-4V), une avanc\u00e9e r\u00e9volutionnaire d'OpenAI, combine la puissance de l'apprentissage profond avec la vision par ordinateur. Ses caract\u00e9ristiques sont les suivantes\",\"breadcrumb\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#primaryimage\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/gpt4v-gpt-4-vision-features.png\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/gpt4v-gpt-4-vision-features.png\",\"width\":1156,\"height\":648,\"caption\":\"GPT-4 with Vision (GPT-4V), a groundbreaking advancement by OpenAI, combines the power of deep learning with computer vision.\u00a0Its features are\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/meetcody.ai\/fr\/home-v2\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/meetcody.ai\/#website\",\"url\":\"https:\/\/meetcody.ai\/\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"description\":\"AI Powered Knowledge Base for Employees\",\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/meetcody.ai\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/meetcody.ai\/#organization\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"url\":\"https:\/\/meetcody.ai\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"width\":\"1024\",\"height\":\"1024\",\"caption\":\"Cody AI - The AI Trained on Your Business\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/x.com\/meetcodyai\",\"https:\/\/discord.com\/invite\/jXEVDcFxqs\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749\",\"name\":\"Oriol Zertuche\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g\",\"caption\":\"Oriol Zertuche\"},\"description\":\"Oriol Zertuche is the CEO of CODESM and Cody AI. As an engineering student from the University of Texas-Pan American, Oriol leveraged his expertise in technology and web development to establish renowned marketing firm CODESM. He later developed Cody AI, a smart AI assistant trained to support businesses and their team members. Oriol believes in delivering practical business solutions through innovative technology.\",\"sameAs\":[\"https:\/\/meetcody.ai\",\"https:\/\/www.linkedin.com\/in\/oriolzertuche\/\",\"https:\/\/x.com\/oriol003\"],\"url\":\"https:\/\/meetcody.ai\/fr\/blog\/author\/alien\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?","description":"GPT-4 Vision (GPT-4V), une avanc\u00e9e r\u00e9volutionnaire d'OpenAI, combine la puissance de l'apprentissage profond avec la vision par ordinateur. Ses caract\u00e9ristiques sont les suivantes","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/","og_locale":"fr_FR","og_type":"article","og_title":"Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?","og_description":"GPT-4 Vision (GPT-4V), une avanc\u00e9e r\u00e9volutionnaire d'OpenAI, combine la puissance de l'apprentissage profond avec la vision par ordinateur. Ses caract\u00e9ristiques sont les suivantes","og_url":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/","og_site_name":"Cody - The AI Trained on Your Business","article_published_time":"2023-11-07T18:37:44+00:00","article_modified_time":"2023-11-16T11:49:18+00:00","og_image":[{"width":1156,"height":648,"url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/gpt4v-gpt-4-vision-features.png","type":"image\/png"}],"author":"Oriol Zertuche","twitter_card":"summary_large_image","twitter_creator":"@oriol003","twitter_site":"@meetcodyai","twitter_misc":{"Written by":"Oriol Zertuche","Est. reading time":"10 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#article","isPartOf":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/"},"author":{"name":"Oriol Zertuche","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749"},"headline":"Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?","datePublished":"2023-11-07T18:37:44+00:00","dateModified":"2023-11-16T11:49:18+00:00","mainEntityOfPage":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/"},"wordCount":2122,"publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"image":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/gpt4v-gpt-4-vision-features.png","keywords":["gpt-4v","IA ouverte","vision gpt-4"],"articleSection":["Intelligence artificielle","Outils d'IA"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/","url":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/","name":"Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?","isPartOf":{"@id":"https:\/\/meetcody.ai\/#website"},"primaryImageOfPage":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#primaryimage"},"image":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/gpt4v-gpt-4-vision-features.png","datePublished":"2023-11-07T18:37:44+00:00","dateModified":"2023-11-16T11:49:18+00:00","description":"GPT-4 Vision (GPT-4V), une avanc\u00e9e r\u00e9volutionnaire d'OpenAI, combine la puissance de l'apprentissage profond avec la vision par ordinateur. Ses caract\u00e9ristiques sont les suivantes","breadcrumb":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#primaryimage","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/gpt4v-gpt-4-vision-features.png","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/gpt4v-gpt-4-vision-features.png","width":1156,"height":648,"caption":"GPT-4 with Vision (GPT-4V), a groundbreaking advancement by OpenAI, combines the power of deep learning with computer vision.\u00a0Its features are"},{"@type":"BreadcrumbList","@id":"https:\/\/meetcody.ai\/fr\/blog\/gpt-4-avec-vision-de-quoi-est-il-capable-et-pourquoi-est-ce-important\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/meetcody.ai\/fr\/home-v2\/"},{"@type":"ListItem","position":2,"name":"Vision GPT-4 : De quoi est-elle capable et pourquoi est-elle importante ?"}]},{"@type":"WebSite","@id":"https:\/\/meetcody.ai\/#website","url":"https:\/\/meetcody.ai\/","name":"Cody AI - The AI Trained on Your Business","description":"AI Powered Knowledge Base for Employees","publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/meetcody.ai\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/meetcody.ai\/#organization","name":"Cody AI - The AI Trained on Your Business","url":"https:\/\/meetcody.ai\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","width":"1024","height":"1024","caption":"Cody AI - The AI Trained on Your Business"},"image":{"@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/meetcodyai","https:\/\/discord.com\/invite\/jXEVDcFxqs"]},{"@type":"Person","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749","name":"Oriol Zertuche","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g","caption":"Oriol Zertuche"},"description":"Oriol Zertuche is the CEO of CODESM and Cody AI. As an engineering student from the University of Texas-Pan American, Oriol leveraged his expertise in technology and web development to establish renowned marketing firm CODESM. He later developed Cody AI, a smart AI assistant trained to support businesses and their team members. Oriol believes in delivering practical business solutions through innovative technology.","sameAs":["https:\/\/meetcody.ai","https:\/\/www.linkedin.com\/in\/oriolzertuche\/","https:\/\/x.com\/oriol003"],"url":"https:\/\/meetcody.ai\/fr\/blog\/author\/alien\/"}]}},"_links":{"self":[{"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/posts\/32408","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/comments?post=32408"}],"version-history":[{"count":1,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/posts\/32408\/revisions"}],"predecessor-version":[{"id":32469,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/posts\/32408\/revisions\/32469"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/media\/32400"}],"wp:attachment":[{"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/media?parent=32408"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/categories?post=32408"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/tags?post=32408"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}