{"id":32516,"date":"2023-11-17T21:13:29","date_gmt":"2023-11-17T21:13:29","guid":{"rendered":"https:\/\/meetcody.ai\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/"},"modified":"2023-11-17T21:13:29","modified_gmt":"2023-11-17T21:13:29","slug":"falcon-180b-et-40b-cas-dutilisation-performances-et-differences","status":"publish","type":"post","link":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/","title":{"rendered":"Falcon 180B et 40B : cas d&#8217;utilisation, performances et diff\u00e9rences"},"content":{"rendered":"<p><span data-preserver-spaces=\"true\">Falcon LLM se distingue non seulement par ses prouesses techniques, mais aussi par sa nature open-source, qui rend les capacit\u00e9s d&#8217;IA avanc\u00e9es accessibles \u00e0 un public plus large.  <\/span><span data-preserver-spaces=\"true\">Elle propose une s\u00e9rie de mod\u00e8les, dont les Falcon 180B, 40B, 7.5B et 1.3B. Chaque mod\u00e8le est adapt\u00e9 \u00e0 des capacit\u00e9s de calcul et \u00e0 des cas d&#8217;utilisation diff\u00e9rents.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Le mod\u00e8le 180B, par exemple, est le plus grand et le plus puissant, adapt\u00e9 aux t\u00e2ches complexes, tandis que le mod\u00e8le 1,3B offre une option plus accessible pour les applications moins exigeantes.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">La nature open-source de Falcon LLM, en particulier ses mod\u00e8les <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-7b\">7B<\/a> et 40B, \u00e9limine les obstacles \u00e0 l&#8217;acc\u00e8s \u00e0 la technologie de l&#8217;IA. Cette approche favorise un \u00e9cosyst\u00e8me de l&#8217;IA plus inclusif o\u00f9 les individus et les organisations peuvent d\u00e9ployer ces mod\u00e8les dans leur propre environnement, encourageant l&#8217;innovation et la diversit\u00e9 dans les applications de l&#8217;IA.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Saint Faucon ! \ud83e\udd2f<\/p>\n<p>Un Falcon 7B LLM fonctionne sur M1 Mac avec CoreML \u00e0 plus de 4 tokens\/sec. C&#8217;est tout.  <a href=\"https:\/\/t.co\/9lmigrQIiY\">pic.twitter.com\/9lmigrQIiY<\/a><\/p>\n<p>&#8211; Itamar Golan \ud83e\udd13 (@ItakGol) <a href=\"https:\/\/twitter.com\/ItakGol\/status\/1665063564711800832?ref_src=twsrc%5Etfw\">3 juin 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2><span data-preserver-spaces=\"true\">Qu&#8217;est-ce que le Falcon 40B ?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Falcon 40B fait partie de la suite Falcon Large Language Model (LLM), sp\u00e9cialement con\u00e7ue pour combler le foss\u00e9 entre une grande efficacit\u00e9 de calcul et des capacit\u00e9s d&#8217;IA avanc\u00e9es. Il s&#8217;agit d&#8217;un mod\u00e8le d&#8217;IA g\u00e9n\u00e9ratif avec 40 milliards de param\u00e8tres, offrant un \u00e9quilibre entre les performances et les exigences en mati\u00e8re de ressources.  <\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Pr\u00e9sentation du Falcon-40B ! \ud83d\ude80<\/p>\n<p>En t\u00eate du classement Open-LLM, Falcon-40B a surpass\u00e9 LLaMA, SableLM, MPT, etc.<\/p>\n<p>Disponible dans l&#8217;\u00e9cosyst\u00e8me HuggingFace, il est super facile de l&#8217;utiliser ! \ud83d\ude80<\/p>\n<p>Regardez \u00e7a \ud83d\udc47 <a href=\"https:\/\/t.co\/YyXpXvNKKC\">pic.twitter.com\/YyXpXvNKKC<\/a><\/p>\n<p>&#8211; Akshay \ud83d\ude80 (@akshay_pachaar) <a href=\"https:\/\/twitter.com\/akshay_pachaar\/status\/1662798406161682432?ref_src=twsrc%5Etfw\">28 mai 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2><span data-preserver-spaces=\"true\">Que peut faire le Falcon LLM 40B ?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Falcon 40B est capable d&#8217;accomplir un large \u00e9ventail de t\u00e2ches, notamment la g\u00e9n\u00e9ration de contenu cr\u00e9atif, la r\u00e9solution de probl\u00e8mes complexes, les op\u00e9rations de service \u00e0 la client\u00e8le, l&#8217;assistance virtuelle, la traduction linguistique et l&#8217;analyse des sentiments.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Ce mod\u00e8le est particuli\u00e8rement remarquable pour sa capacit\u00e9 \u00e0 automatiser les t\u00e2ches r\u00e9p\u00e9titives et \u00e0 am\u00e9liorer l&#8217;efficacit\u00e9 dans diverses industries. Le <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-40b\">Falcon 40B<\/a>, en tant que logiciel libre, offre un avantage significatif en termes d&#8217;accessibilit\u00e9 et d&#8217;innovation, ce qui permet de l&#8217;utiliser et de le modifier librement \u00e0 des fins commerciales.<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"The BEST Open Source LLM? (Falcon 40B)\" width=\"1200\" height=\"675\" src=\"https:\/\/www.youtube.com\/embed\/-IV1NTGy6Mg?start=1&#038;feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" allowfullscreen><\/iframe><\/p>\n<h2><span data-preserver-spaces=\"true\">Comment le Falcon 40B a-t-il \u00e9t\u00e9 d\u00e9velopp\u00e9 et form\u00e9 ?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Entra\u00een\u00e9 sur l&#8217;\u00e9norme ensemble de donn\u00e9es <a href=\"https:\/\/huggingface.co\/datasets\/tiiuae\/falcon-refinedweb\">REFINEDWEB<\/a> (1 000 milliards de jetons), le d\u00e9veloppement de Falcon 40 B a n\u00e9cessit\u00e9 une utilisation intensive des GPU et un traitement sophistiqu\u00e9 des donn\u00e9es. Falcon 40B a subi son processus d&#8217;entra\u00eenement sur AWS SageMaker en utilisant 384 GPU A100 40GB, en employant une approche de parall\u00e9lisme 3D qui combine le parall\u00e9lisme tensoriel (TP=8), le parall\u00e9lisme de pipeline (PP=4), et le parall\u00e9lisme de donn\u00e9es (DP=12) avec ZeRO. Cette phase de formation a d\u00e9but\u00e9 en d\u00e9cembre 2022 et s&#8217;est d\u00e9roul\u00e9e sur deux mois.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Cette formation a dot\u00e9 le mod\u00e8le d&#8217;une compr\u00e9hension exceptionnelle de la langue et du contexte, \u00e9tablissant ainsi une nouvelle norme dans le domaine du traitement du langage naturel.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">La conception architecturale de Falcon 40B est bas\u00e9e sur le cadre de GPT -3, mais elle incorpore des modifications significatives pour am\u00e9liorer ses performances. Ce mod\u00e8le utilise les ench\u00e2ssements positionnels rotatifs pour am\u00e9liorer sa compr\u00e9hension des contextes de s\u00e9quence.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Ses m\u00e9canismes d&#8217;attention sont compl\u00e9t\u00e9s par l&#8217;attention multi-requ\u00eate et FlashAttention pour un traitement enrichi. Dans le bloc d\u00e9codeur, Falcon 40B int\u00e8gre des configurations d&#8217;attention parall\u00e8le et de perceptron multicouche (MLP), en utilisant une approche de normalisation \u00e0 deux couches pour maintenir un \u00e9quilibre entre l&#8217;efficacit\u00e9 et l&#8217;efficience du calcul.<\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Qu&#8217;est-ce que le Falcon 180B ?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Le Falcon 180B repr\u00e9sente l&#8217;apog\u00e9e de la suite Falcon LLM, avec un nombre impressionnant de 180 milliards de param\u00e8tres. Ce mod\u00e8le de d\u00e9codeur causal uniquement est entra\u00een\u00e9 sur un nombre massif de 3,5 trillions de tokens de RefinedWeb, ce qui en fait l&#8217;un des LLM open-source les plus avanc\u00e9s disponibles. Il a \u00e9t\u00e9 construit par  <\/span><a class=\"editor-rtfLink\" href=\"https:\/\/www.tii.ae\/\" target=\"_blank\" rel=\"noopener\"><br \/>\n  <span data-preserver-spaces=\"true\">TII<\/span><br \/>\n<\/a><span data-preserver-spaces=\"true\">.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Il excelle dans un large \u00e9ventail de t\u00e2ches de traitement du langage naturel, offrant des capacit\u00e9s in\u00e9gal\u00e9es en mati\u00e8re de raisonnement, de codage, de comp\u00e9tence et de tests de connaissance.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Sa formation sur le vaste ensemble de donn\u00e9es RefinedWeb, qui comprend une gamme vari\u00e9e de sources de donn\u00e9es telles que des documents de recherche, des textes juridiques, des nouvelles, de la litt\u00e9rature et des conversations sur les m\u00e9dias sociaux, garantit sa comp\u00e9tence dans diverses applications.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Le lancement du Falcon 180 B marque une \u00e9tape importante dans le d\u00e9veloppement de l&#8217;IA, avec des performances remarquables en mati\u00e8re de compr\u00e9hension du langage multit\u00e2che et de tests de r\u00e9f\u00e9rence, rivalisant et m\u00eame d\u00e9passant d&#8217;autres mod\u00e8les propri\u00e9taires de premier plan.<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Introducing Falcon 180B: The World&#039;s Most Powerful Open LLM!\" width=\"1200\" height=\"675\" src=\"https:\/\/www.youtube.com\/embed\/9MArp9H2YCM?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" allowfullscreen><\/iframe><\/p>\n<h2><span data-preserver-spaces=\"true\">Comment fonctionne le Falcon 180B ?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">It\u00e9ration avanc\u00e9e du mod\u00e8le Falcon 40B de TII, le mod\u00e8le Falcon 180B fonctionne comme un mod\u00e8le de langage auto-r\u00e9gressif avec une architecture de transformateur optimis\u00e9e.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Entra\u00een\u00e9 sur 3,5 trillions de donn\u00e9es, ce mod\u00e8le inclut des donn\u00e9es web provenant de RefinedWeb et d&#8217;Amazon SageMaker.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Le Falcon 180B int\u00e8gre un cadre d&#8217;entra\u00eenement distribu\u00e9 personnalis\u00e9 appel\u00e9 Gigatron, qui utilise le parall\u00e9lisme 3D avec l&#8217;optimisation ZeRO et les noyaux Trion personnalis\u00e9s. Le d\u00e9veloppement de cette technologie a n\u00e9cessit\u00e9 beaucoup de ressources, utilisant jusqu&#8217;\u00e0 4096 GPU pour un total de 7 millions d&#8217;heures GPU. Gr\u00e2ce \u00e0 cet entra\u00eenement intensif, le Falcon 180B est environ 2,5 fois plus grand que ses homologues tels que le Llama 2.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Deux versions distinctes du Falcon 180B sont disponibles : le mod\u00e8le standard 180B et le 180B-Chat. Le premier est un mod\u00e8le pr\u00e9-entra\u00een\u00e9, ce qui permet aux entreprises de l&#8217;adapter \u00e0 des applications sp\u00e9cifiques. Le dernier, <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-180b-chat\">180B-Chat<\/a>, est optimis\u00e9 pour les instructions g\u00e9n\u00e9rales et a \u00e9t\u00e9 affin\u00e9 sur des ensembles de donn\u00e9es p\u00e9dagogiques et conversationnelles, ce qui le rend adapt\u00e9 aux t\u00e2ches d&#8217;assistance.<\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Quelles sont les performances du Falcon 180B ?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">En termes de performances, le Falcon 180B a consolid\u00e9 la position des \u00c9mirats arabes unis dans l&#8217;industrie de l&#8217;IA en fournissant des r\u00e9sultats de premier ordre et en surpassant de nombreuses solutions existantes.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Il a obtenu d&#8217;excellents r\u00e9sultats au classement Hugging Face et rivalise \u00e9troitement avec des mod\u00e8les propri\u00e9taires tels que le PaLM-2 de Google. Malgr\u00e9 un l\u00e9ger retard par rapport \u00e0 GPT-4, l&#8217;entra\u00eenement intensif du Falcon 180 B sur un vaste corpus de textes permet une compr\u00e9hension exceptionnelle de la langue et une ma\u00eetrise de diverses t\u00e2ches linguistiques, ce qui pourrait r\u00e9volutionner l&#8217;entra\u00eenement des robots de l&#8217;IA g\u00e9n\u00e9rique.<\/span><br \/>\n<span data-preserver-spaces=\"true\">Ce qui distingue Falcon 180B, c&#8217;est son architecture ouverte, qui permet d&#8217;acc\u00e9der \u00e0 un mod\u00e8le dot\u00e9 d&#8217;un vaste ensemble de param\u00e8tres, favorisant ainsi la recherche et l&#8217;exploration dans le domaine du traitement du langage. Cette capacit\u00e9 offre de nombreuses possibilit\u00e9s dans des secteurs tels que les soins de sant\u00e9, la finance et l&#8217;\u00e9ducation.<\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Comment acc\u00e9der au Falcon 180B ?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">L&#8217;acc\u00e8s au Falcon 180B est possible via <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-180b\">HuggingFace<\/a> et le site web de TII, y compris la pr\u00e9visualisation exp\u00e9rimentale de la version chat. AWS offre \u00e9galement un acc\u00e8s via le <a href=\"https:\/\/docs.aws.amazon.com\/sagemaker\/latest\/dg\/studio-jumpstart.html\">service Amazon SageMaker JumpStart<\/a>, ce qui simplifie le d\u00e9ploiement du mod\u00e8le pour les utilisateurs professionnels.  <\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Falcon 40B vs 180B : Quelle est la diff\u00e9rence ?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Les mod\u00e8les pr\u00e9-entra\u00een\u00e9s et d&#8217;<a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-40b-instruct\">instruction du<\/a> Falcon-40B sont disponibles sous la licence Apache 2.0, tandis que les mod\u00e8les pr\u00e9-entra\u00een\u00e9s et d&#8217;instruction du Falcon-180B sont disponibles sous la licence TII. Voici 4 autres diff\u00e9rences essentielles entre les Falcon 40B et 180B :<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">1. Taille et complexit\u00e9 du mod\u00e8le<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">Falcon 40B compte 40 milliards de param\u00e8tres, ce qui en fait un mod\u00e8le puissant mais plus facile \u00e0 g\u00e9rer en termes de ressources informatiques.  <\/span><span data-preserver-spaces=\"true\">Le Falcon 180B, quant \u00e0 lui, est un mod\u00e8le beaucoup plus grand avec 180 milliards de param\u00e8tres, offrant des capacit\u00e9s et une complexit\u00e9 accrues.<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">2. Formation et utilisation des donn\u00e9es<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">Falcon 40B est form\u00e9 sur 1 000 milliards de jetons, ce qui lui permet d&#8217;avoir une compr\u00e9hension \u00e9tendue du langage et du contexte.  <\/span><span data-preserver-spaces=\"true\">Falcon 180B va plus loin en s&#8217;entra\u00eenant sur 3,5 trillions de tokens, ce qui permet d&#8217;obtenir un mod\u00e8le linguistique plus nuanc\u00e9 et plus sophistiqu\u00e9.<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">3. Applications et cas d&#8217;utilisation<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">Falcon 40B convient \u00e0 un large \u00e9ventail d&#8217;applications g\u00e9n\u00e9rales, notamment la g\u00e9n\u00e9ration de contenu, le service client\u00e8le et la traduction.  <\/span><span data-preserver-spaces=\"true\">Le Falcon 180B est plus apte \u00e0 g\u00e9rer des t\u00e2ches complexes n\u00e9cessitant un raisonnement et une compr\u00e9hension plus approfondis, ce qui le rend id\u00e9al pour les projets de recherche et de d\u00e9veloppement avanc\u00e9s.<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">4. Besoins en ressources<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">Falcon 40B n\u00e9cessite moins de puissance de calcul pour fonctionner, ce qui le rend accessible \u00e0 un plus grand nombre d&#8217;utilisateurs et de syst\u00e8mes.  <\/span><span data-preserver-spaces=\"true\">Le Falcon 180B, en raison de sa taille et de sa complexit\u00e9, exige des ressources de calcul nettement plus importantes et vise des applications haut de gamme et des environnements de recherche.<\/span><\/p>\n<p><em><strong>En savoir plus : <a href=\"https:\/\/meetcody.ai\/blog\/falcon-llm-180b-40b-open-source-ai\/\">L&#8217;utilisation commerciale, la technologie Open-Source et l&#8217;avenir de Falcon LLM<\/a><\/strong><\/em><\/p>\n<h2>F-FAQ (Foire aux questions de Falcon)<\/h2>\n<h3>1. Qu&#8217;est-ce qui distingue Falcon LLM des autres grands mod\u00e8les linguistiques ?<\/h3>\n<p>Le Falcon LLM, en particulier ses mod\u00e8les Falcon 180B et 40B, se distingue par sa nature open-source et son \u00e9chelle impressionnante. Falcon 180B, avec 180 milliards de param\u00e8tres, est l&#8217;un des plus grands mod\u00e8les open-source disponibles, form\u00e9 sur un nombre stup\u00e9fiant de 3,5 trillions de jetons. Cette formation approfondie permet une compr\u00e9hension exceptionnelle de la langue et une polyvalence dans les applications. En outre, l&#8217;utilisation par Falcon LLM de technologies innovantes telles que l&#8217;attention multi-requ\u00eate et les noyaux Trion personnalis\u00e9s dans son architecture am\u00e9liore son efficacit\u00e9 et son efficience.<\/p>\n<h3>2. Comment fonctionne le m\u00e9canisme d&#8217;attention multi-requ\u00eates du Falcon 40B ?<\/h3>\n<p>Falcon 40B utilise un m\u00e9canisme unique d&#8217;attention multi-requ\u00eates, dans lequel une seule paire de cl\u00e9s et de valeurs est utilis\u00e9e pour toutes les t\u00eates d&#8217;attention, ce qui diff\u00e8re des sch\u00e9mas d&#8217;attention multi-t\u00eates traditionnels. Cette approche am\u00e9liore l&#8217;\u00e9volutivit\u00e9 du mod\u00e8le pendant l&#8217;inf\u00e9rence sans avoir d&#8217;impact significatif sur le processus de pr\u00e9formation, am\u00e9liorant ainsi la performance et l&#8217;efficacit\u00e9 globales du mod\u00e8le.<\/p>\n<h3>3. Quelles sont les principales applications des Falcon 40B et 180B ?<\/h3>\n<p>Le Falcon 40B est polyvalent et convient \u00e0 diverses t\u00e2ches, notamment la g\u00e9n\u00e9ration de contenu, le service \u00e0 la client\u00e8le et la traduction. Le Falcon 180B, plus avanc\u00e9, excelle dans les t\u00e2ches complexes qui requi\u00e8rent un raisonnement approfondi, telles que la recherche avanc\u00e9e, le codage, l&#8217;\u00e9valuation des comp\u00e9tences et le contr\u00f4le des connaissances. Sa formation approfondie sur divers ensembles de donn\u00e9es en fait \u00e9galement un outil puissant pour la formation de robots Gen-AI.<\/p>\n<h3>4. Falcon LLM peut-il \u00eatre personnalis\u00e9 pour des cas d&#8217;utilisation sp\u00e9cifiques ?<\/h3>\n<p>Oui, l&#8217;un des principaux avantages de Falcon LLM est sa nature open-source, qui permet aux utilisateurs de personnaliser et d&#8217;affiner les mod\u00e8les pour des applications sp\u00e9cifiques. Le mod\u00e8le Falcon 180B, par exemple, existe en deux versions : un mod\u00e8le standard pr\u00e9-entra\u00een\u00e9 et une version optimis\u00e9e pour le chat, chacun r\u00e9pondant \u00e0 des besoins diff\u00e9rents. Cette flexibilit\u00e9 permet aux organisations d&#8217;adapter le mod\u00e8le \u00e0 leurs besoins sp\u00e9cifiques.<\/p>\n<h3>5. Quelles sont les exigences informatiques pour l&#8217;ex\u00e9cution des mod\u00e8les Falcon LLM ?<\/h3>\n<p>L&#8217;ex\u00e9cution des mod\u00e8les Falcon LLM, en particulier les variantes les plus grandes comme le Falcon 180B, n\u00e9cessite des ressources informatiques consid\u00e9rables. Par exemple, Falcon 180B a besoin d&#8217;environ 640 Go de m\u00e9moire pour l&#8217;inf\u00e9rence, et sa grande taille le rend difficile \u00e0 ex\u00e9cuter sur des syst\u00e8mes informatiques standard. Cette forte demande de ressources doit \u00eatre prise en compte lors de la planification de l&#8217;utilisation du mod\u00e8le, en particulier pour les op\u00e9rations continues.<\/p>\n<h3>6. Comment le programme Falcon LLM contribue-t-il \u00e0 la recherche et au d\u00e9veloppement dans le domaine de l&#8217;IA ?<\/h3>\n<p>Le cadre open-source de Falcon LLM contribue de mani\u00e8re significative \u00e0 la recherche et au d\u00e9veloppement de l&#8217;IA en fournissant une plateforme pour la collaboration et l&#8217;innovation \u00e0 l&#8217;\u00e9chelle mondiale. Les chercheurs et les d\u00e9veloppeurs peuvent contribuer au mod\u00e8le et l&#8217;affiner, ce qui permet des avanc\u00e9es rapides dans le domaine de l&#8217;IA. Cette approche collaborative permet \u00e0 Falcon LLM de rester \u00e0 la pointe de la technologie de l&#8217;IA et de s&#8217;adapter \u00e0 l&#8217;\u00e9volution des besoins et des d\u00e9fis.<\/p>\n<h3>7. Qui gagnera entre Falcon LLM et LLaMA ?<\/h3>\n<p>Dans cette comparaison, Falcon appara\u00eet comme le mod\u00e8le le plus avantageux. La taille r\u00e9duite de Falcon rend son entra\u00eenement et son utilisation moins intensifs en termes de calcul, ce qui est important pour ceux qui recherchent des solutions d&#8217;IA efficaces. Il excelle dans des t\u00e2ches telles que la g\u00e9n\u00e9ration de textes, la traduction de langues et un large \u00e9ventail de cr\u00e9ation de contenu cr\u00e9atif, faisant preuve d&#8217;un haut degr\u00e9 de polyvalence et de comp\u00e9tence. En outre, la capacit\u00e9 de Falcon \u00e0 faciliter les t\u00e2ches de codage accro\u00eet encore son utilit\u00e9 dans diverses applications technologiques.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Vous vous souvenez de LLaMA-2 ?<\/p>\n<p>C&#8217;\u00e9tait le meilleur LLM open-source du mois dernier.<\/p>\n<p>PLUS JAMAIS !<\/p>\n<p>Bienvenue \u00e0 Falcon-180B !<\/p>\n<p>J&#8217;ai effectu\u00e9 une comparaison<\/p>\n<p>GPT-4 vs. Falcon-180B<\/p>\n<p>Les r\u00e9sultats sont inattendus !<\/p>\n<p>(\u00e0 mettre en signet pour r\u00e9f\u00e9rence ult\u00e9rieure)<\/p>\n<p>\u27a4 Falcon sonne moins robotique<\/p>\n<p>Le style d&#8217;\u00e9criture par d\u00e9faut de ChatGPT&#8230; <a href=\"https:\/\/t.co\/OqdcIvEBMe\">pic.twitter.com\/OqdcIvEBMe<\/a><\/p>\n<p>&#8211; Luke Skyward (@Olearningcurve) <a href=\"https:\/\/twitter.com\/Olearningcurve\/status\/1700034041368498196?ref_src=twsrc%5Etfw\">8 septembre 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\nD&#8217;autre part, LLaMA, tout en \u00e9tant un mod\u00e8le formidable en soi, est confront\u00e9 \u00e0 certaines limites dans cette comparaison. Sa taille plus importante se traduit par un co\u00fbt de calcul plus \u00e9lev\u00e9, tant pour la formation que pour l&#8217;utilisation, ce qui peut constituer un facteur important pour les utilisateurs disposant de ressources limit\u00e9es. En termes de performances, LLaMA n&#8217;atteint pas tout \u00e0 fait l&#8217;efficacit\u00e9 de Falcon dans la g\u00e9n\u00e9ration de textes, la traduction de langues et la cr\u00e9ation de divers types de contenus cr\u00e9atifs. En outre, ses capacit\u00e9s ne s&#8217;\u00e9tendent pas aux t\u00e2ches de codage, ce qui limite son applicabilit\u00e9 dans les sc\u00e9narios o\u00f9 une assistance \u00e0 la programmation est n\u00e9cessaire.<\/p>\n<p>Bien que Falcon et LLaMA soient tous deux impressionnants dans leurs domaines respectifs, la conception plus petite et plus efficace de Falcon, associ\u00e9e \u00e0 son \u00e9ventail plus large de capacit\u00e9s, y compris le codage, lui conf\u00e8re un avantage dans cette comparaison.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Falcon LLM se distingue non seulement par ses prouesses techniques, mais aussi par sa nature open-source, qui rend les capacit\u00e9s d&#8217;IA avanc\u00e9es accessibles \u00e0 un public plus large. Elle propose une s\u00e9rie de mod\u00e8les, dont les Falcon 180B, 40B, 7.5B et 1.3B. Chaque mod\u00e8le est adapt\u00e9 \u00e0 des capacit\u00e9s de calcul et \u00e0 des cas<a class=\"excerpt-read-more\" href=\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/\" title=\"ReadFalcon 180B et 40B : cas d&#8217;utilisation, performances et diff\u00e9rences\">&#8230; Read more &raquo;<\/a><\/p>\n","protected":false},"author":1,"featured_media":32503,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[89,195],"tags":[559,561,537,539,538],"class_list":["post-32516","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-intelligence-artificielle","category-outils-dia","tag-falcon-180b-fr","tag-falcon-40b-fr","tag-faucon-ai","tag-grand-modele-linguistique","tag-llm-fr"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v21.8 (Yoast SEO v24.2) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Falcon 180B et 40B : cas d&#039;utilisation, performances et diff\u00e9rences<\/title>\n<meta name=\"description\" content=\"D\u00e9couvrez les capacit\u00e9s et les applications du Falcon 180B et du Falcon 40B. D\u00e9couvrez leurs performances, leurs cas d&#039;utilisation et leurs diff\u00e9rences de fonctionnalit\u00e9s.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/\" \/>\n<meta property=\"og:locale\" content=\"fr_FR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Falcon 180B et 40B : cas d&#039;utilisation, performances et diff\u00e9rences\" \/>\n<meta property=\"og:description\" content=\"D\u00e9couvrez les capacit\u00e9s et les applications du Falcon 180B et du Falcon 40B. D\u00e9couvrez leurs performances, leurs cas d&#039;utilisation et leurs diff\u00e9rences de fonctionnalit\u00e9s.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/\" \/>\n<meta property=\"og:site_name\" content=\"Cody - The AI Trained on Your Business\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-17T21:13:29+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1156\" \/>\n\t<meta property=\"og:image:height\" content=\"648\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Oriol Zertuche\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@oriol003\" \/>\n<meta name=\"twitter:site\" content=\"@meetcodyai\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Oriol Zertuche\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"13 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/\"},\"author\":{\"name\":\"Oriol Zertuche\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749\"},\"headline\":\"Falcon 180B et 40B : cas d&#8217;utilisation, performances et diff\u00e9rences\",\"datePublished\":\"2023-11-17T21:13:29+00:00\",\"dateModified\":\"2023-11-17T21:13:29+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/\"},\"wordCount\":2606,\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"keywords\":[\"Falcon 180b\",\"Falcon 40b\",\"faucon ai\",\"Grand mod\u00e8le linguistique\",\"llm\"],\"articleSection\":[\"Intelligence artificielle\",\"Outils d'IA\"],\"inLanguage\":\"fr-FR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/\",\"url\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/\",\"name\":\"Falcon 180B et 40B : cas d'utilisation, performances et diff\u00e9rences\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"datePublished\":\"2023-11-17T21:13:29+00:00\",\"dateModified\":\"2023-11-17T21:13:29+00:00\",\"description\":\"D\u00e9couvrez les capacit\u00e9s et les applications du Falcon 180B et du Falcon 40B. D\u00e9couvrez leurs performances, leurs cas d'utilisation et leurs diff\u00e9rences de fonctionnalit\u00e9s.\",\"breadcrumb\":{\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#breadcrumb\"},\"inLanguage\":\"fr-FR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#primaryimage\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"width\":1156,\"height\":648,\"caption\":\"capabilities and applications of Falcon 180B and Falcon 40B\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/meetcody.ai\/fr\/home-v2\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Falcon 180B et 40B : cas d&#8217;utilisation, performances et diff\u00e9rences\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/meetcody.ai\/#website\",\"url\":\"https:\/\/meetcody.ai\/\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"description\":\"AI Powered Knowledge Base for Employees\",\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/meetcody.ai\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"fr-FR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/meetcody.ai\/#organization\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"url\":\"https:\/\/meetcody.ai\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"width\":\"1024\",\"height\":\"1024\",\"caption\":\"Cody AI - The AI Trained on Your Business\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/x.com\/meetcodyai\",\"https:\/\/discord.com\/invite\/jXEVDcFxqs\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749\",\"name\":\"Oriol Zertuche\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"fr-FR\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g\",\"caption\":\"Oriol Zertuche\"},\"description\":\"Oriol Zertuche is the CEO of CODESM and Cody AI. As an engineering student from the University of Texas-Pan American, Oriol leveraged his expertise in technology and web development to establish renowned marketing firm CODESM. He later developed Cody AI, a smart AI assistant trained to support businesses and their team members. Oriol believes in delivering practical business solutions through innovative technology.\",\"sameAs\":[\"https:\/\/meetcody.ai\",\"https:\/\/www.linkedin.com\/in\/oriolzertuche\/\",\"https:\/\/x.com\/oriol003\"],\"url\":\"https:\/\/meetcody.ai\/fr\/blog\/author\/alien\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Falcon 180B et 40B : cas d'utilisation, performances et diff\u00e9rences","description":"D\u00e9couvrez les capacit\u00e9s et les applications du Falcon 180B et du Falcon 40B. D\u00e9couvrez leurs performances, leurs cas d'utilisation et leurs diff\u00e9rences de fonctionnalit\u00e9s.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/","og_locale":"fr_FR","og_type":"article","og_title":"Falcon 180B et 40B : cas d'utilisation, performances et diff\u00e9rences","og_description":"D\u00e9couvrez les capacit\u00e9s et les applications du Falcon 180B et du Falcon 40B. D\u00e9couvrez leurs performances, leurs cas d'utilisation et leurs diff\u00e9rences de fonctionnalit\u00e9s.","og_url":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/","og_site_name":"Cody - The AI Trained on Your Business","article_published_time":"2023-11-17T21:13:29+00:00","og_image":[{"width":1156,"height":648,"url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","type":"image\/png"}],"author":"Oriol Zertuche","twitter_card":"summary_large_image","twitter_creator":"@oriol003","twitter_site":"@meetcodyai","twitter_misc":{"Written by":"Oriol Zertuche","Est. reading time":"13 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#article","isPartOf":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/"},"author":{"name":"Oriol Zertuche","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749"},"headline":"Falcon 180B et 40B : cas d&#8217;utilisation, performances et diff\u00e9rences","datePublished":"2023-11-17T21:13:29+00:00","dateModified":"2023-11-17T21:13:29+00:00","mainEntityOfPage":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/"},"wordCount":2606,"publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"image":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","keywords":["Falcon 180b","Falcon 40b","faucon ai","Grand mod\u00e8le linguistique","llm"],"articleSection":["Intelligence artificielle","Outils d'IA"],"inLanguage":"fr-FR"},{"@type":"WebPage","@id":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/","url":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/","name":"Falcon 180B et 40B : cas d'utilisation, performances et diff\u00e9rences","isPartOf":{"@id":"https:\/\/meetcody.ai\/#website"},"primaryImageOfPage":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#primaryimage"},"image":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","datePublished":"2023-11-17T21:13:29+00:00","dateModified":"2023-11-17T21:13:29+00:00","description":"D\u00e9couvrez les capacit\u00e9s et les applications du Falcon 180B et du Falcon 40B. D\u00e9couvrez leurs performances, leurs cas d'utilisation et leurs diff\u00e9rences de fonctionnalit\u00e9s.","breadcrumb":{"@id":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#breadcrumb"},"inLanguage":"fr-FR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/"]}]},{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#primaryimage","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","width":1156,"height":648,"caption":"capabilities and applications of Falcon 180B and Falcon 40B"},{"@type":"BreadcrumbList","@id":"https:\/\/meetcody.ai\/fr\/blog\/falcon-180b-et-40b-cas-dutilisation-performances-et-differences\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/meetcody.ai\/fr\/home-v2\/"},{"@type":"ListItem","position":2,"name":"Falcon 180B et 40B : cas d&#8217;utilisation, performances et diff\u00e9rences"}]},{"@type":"WebSite","@id":"https:\/\/meetcody.ai\/#website","url":"https:\/\/meetcody.ai\/","name":"Cody AI - The AI Trained on Your Business","description":"AI Powered Knowledge Base for Employees","publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/meetcody.ai\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"fr-FR"},{"@type":"Organization","@id":"https:\/\/meetcody.ai\/#organization","name":"Cody AI - The AI Trained on Your Business","url":"https:\/\/meetcody.ai\/","logo":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","width":"1024","height":"1024","caption":"Cody AI - The AI Trained on Your Business"},"image":{"@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/meetcodyai","https:\/\/discord.com\/invite\/jXEVDcFxqs"]},{"@type":"Person","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749","name":"Oriol Zertuche","image":{"@type":"ImageObject","inLanguage":"fr-FR","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g","caption":"Oriol Zertuche"},"description":"Oriol Zertuche is the CEO of CODESM and Cody AI. As an engineering student from the University of Texas-Pan American, Oriol leveraged his expertise in technology and web development to establish renowned marketing firm CODESM. He later developed Cody AI, a smart AI assistant trained to support businesses and their team members. Oriol believes in delivering practical business solutions through innovative technology.","sameAs":["https:\/\/meetcody.ai","https:\/\/www.linkedin.com\/in\/oriolzertuche\/","https:\/\/x.com\/oriol003"],"url":"https:\/\/meetcody.ai\/fr\/blog\/author\/alien\/"}]}},"_links":{"self":[{"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/posts\/32516","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/comments?post=32516"}],"version-history":[{"count":0,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/posts\/32516\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/media\/32503"}],"wp:attachment":[{"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/media?parent=32516"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/categories?post=32516"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/meetcody.ai\/fr\/wp-json\/wp\/v2\/tags?post=32516"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}