Author: Om Kamath

Om Kamath

GPT-4o : OpenAI dévoile son dernier modèle de langage, disponible gratuitement pour les utilisateurs

GPT-4o

Après une tonne de spéculations sur les médias sociaux et d’autres forums sur ce qu’OpenAI nous réserve, hier, OpenAI a finalement révélé son dernier et plus puissant LLM à ce jour – GPT-4o (‘o’ pour omni). Au cas où vous auriez manqué l’événement de lancement de GPT-4o, nous allons passer en revue les capacités de GPT-4o et les fonctionnalités qu’il offre.

Capacités audio, texte et vision améliorées

GPT-4 Turbo est un modèle puissant, mais il présente un inconvénient : la latence. Comparé à GPT-3.5 Turbo, GPT-4 Turbo est toujours considérablement plus lent. Le GPT-4o remédie à cet inconvénient et est deux fois plus rapide que le GPT-4 Turbo. Cela ouvre un éventail plus large de cas d’utilisation impliquant l’intégration de données provenant de la parole, du texte et de la vision, ce qui permet de passer d’une approche multimodale à une approche omni-modale. La principale différence entre le multimodal et l’omnimodal est que dans l’omnimodal, les trois sources peuvent être exploitées en parallèle de manière transparente.

Ces améliorations permettent également au modèle de générer des discours avec une modulation vocale améliorée, la capacité de comprendre les sarcasmes et des capacités de conversation naturelle améliorées.

Prix réduit et disponible gratuitement pour les utilisateurs de ChatGPT

Bien que le GPT-4o soit plus efficace et plus rapide que le GPT-4 Turbo, il est deux fois moins cher (API) que le GPT-4 Turbo, ce qui signifie que le GPT-4o coûtera 5,00 USD/1M de jetons d’entrée et 15,00 USD/1M de jetons de sortie. Avec l’amélioration de la tarification, la fenêtre contextuelle est maintenant de 128k tokens, et la date limite de connaissance est octobre 2023.

Cerise sur le gâteau, le GPT-4o sera disponible gratuitement pour tous les utilisateurs de ChatGPT (les utilisateurs de ChatGPT Plus bénéficieront d’un plafond de 5x pour le GPT-4o). Parallèlement, OpenAI a également dévoilé l’application de bureau ChatGPT, qui permettra aux utilisateurs d’exploiter les capacités visuelles de GPT-4o pour lire et comprendre le contenu affiché à l’écran. Les utilisateurs pourront également communiquer avec ChatGPT à l’aide de l’application de bureau.

GPT-4o Demo

 

OpenAI a indiqué que l’accès à GPT-4o se ferait par étapes au cours des prochaines semaines, les utilisateurs de ChatGPT Plus bénéficiant d’un accès prioritaire et précoce au modèle. Nous ne comprendrons le véritable potentiel de ce modèle que lorsque nous y aurons accès dans les semaines à venir. Des moments passionnants vous attendent !

Groq et Llama 3 : Un duo qui change la donne

Il y a quelques mois, une nouvelle entreprise baptisée “Groq” a émergé de nulle part, faisant une percée dans le secteur de l’IA. Ils ont fourni une plate-forme permettant aux développeurs d’accéder aux LPU en tant que moteurs d’inférence pour les LLM, en particulier ceux à code source ouvert tels que Llama, Mixtral et Gemma. Dans ce blog, nous allons explorer ce qui rend Groq si spécial et nous plonger dans les merveilles qui se cachent derrière les LPU.

Qu’est-ce que Groq ?

“Groq a pour mission d’établir la norme en matière de vitesse d’inférence GenAI, en aidant les applications d’IA en temps réel à voir le jour aujourd’hui. – Le site web de Groq

Groq n’est pas une entreprise qui développe des LLM comme GPT ou Gemini. Groq se concentre plutôt sur l’amélioration des fondements de ces grands modèles de langage, à savoir le matériel sur lequel ils fonctionnent. Il sert de “moteur d’inférence”. Actuellement, la plupart des LLM sur le marché utilisent des GPU traditionnels déployés sur des serveurs privés ou dans le nuage. Bien que ces GPU soient chers et puissants, provenant d’entreprises telles que Nvidia, ils reposent toujours sur l’architecture GPU traditionnelle, qui peut ne pas être adaptée de manière optimale à l’inférence LLM (bien qu’ils restent puissants et préférés pour les modèles d’entraînement).

Le moteur d’inférence fourni par Groq fonctionne sur des LPU (Language Processing Units).

Qu’est-ce qu’un LPU ?

Une unité de traitement du langage est une puce spécialement conçue pour les LLM et repose sur une architecture unique combinant CPU et GPU pour transformer le rythme, la prévisibilité, la performance et la précision des solutions d’IA pour les LLM.

LPUs Unité de traitement du langage de Groq

Caractéristiques principales d’un système LPU. Crédits : Groq

Un système LPU a autant ou plus de capacité de calcul qu’un processeur graphique (GPU) et réduit le temps de calcul par mot, ce qui permet de générer plus rapidement des séquences de texte.

Caractéristiques d’un moteur d’inférence LPU telles que listées sur le site web de Groq :

  • Des performances séquentielles exceptionnelles
  • Architecture à cœur unique
  • Mise en réseau synchrone maintenue même pour les déploiements à grande échelle
  • Possibilité de compiler automatiquement >50B LLMs
  • Accès instantané à la mémoire
  • Haute précision maintenue même à des niveaux de précision inférieurs

Services fournis par Groq :

  1. GroqCloud : LPUs sur le nuage
  2. GroqRack : rack 42U avec jusqu’à 64 puces interconnectées
  3. GroqNode : Système de calcul évolutif prêt à l’emploi en rack 4U comprenant huit accélérateurs GroqCard™ interconnectés.
  4. GroqCard : Une seule puce dans un format standard PCIe Gen 4×16 pour une intégration sans problème dans les serveurs.

“Contrairement au CPU qui a été conçu pour effectuer un type de tâche complètement différent de l’IA, ou au GPU qui a été conçu sur la base du CPU pour faire quelque chose qui ressemble à l’IA par accident, ou au TPU qui a modifié le GPU pour le rendre meilleur pour l’IA, Groq est dès le départ, selon les premiers principes, un système informatique pour l’IA”- Daniel Warfield, Towards Data Science

Pour en savoir plus sur les différences entre les LPU, les GPU, les TPU et les CPU, nous vous recommandons de lire cet article complet écrit par Daniel Warfield pour Towards Data Science.

Quel est l’intérêt de Groq ?

Les LLM sont incroyablement puissants, capables d’accomplir des tâches allant de l’analyse de données non structurées à la réponse à des questions sur la beauté des chats. Toutefois, leur principal inconvénient réside actuellement dans le temps de réponse. Le temps de réponse plus lent entraîne une latence significative lors de l’utilisation des LLM dans les processus backend. Par exemple, l’extraction de données d’une base de données et leur affichage au format JSON est actuellement beaucoup plus rapide lorsqu’elle est effectuée à l’aide d’une logique traditionnelle plutôt qu’en passant les données par un LLM pour les transformer. Cependant, l’avantage des LLM réside dans leur capacité à comprendre et à traiter les exceptions de données.

Grâce à l’incroyable vitesse d’inférence offerte par Groq, cet inconvénient des LLM peut être considérablement réduit. Cela permet d’améliorer et d’élargir les cas d’utilisation des LLM et de réduire les coûts, car avec une LPU, vous serez en mesure de déployer des modèles à source ouverte dont le fonctionnement est beaucoup moins coûteux et dont les temps de réponse sont très rapides.

Llama 3 sur Groq

Il y a quelques semaines, Meta a dévoilé sa dernière itération du logiciel libre LLM-Llama 3, déjà puissant et très performant. Outre les améliorations habituelles en matière de vitesse, de compréhension des données et de génération de jetons, deux améliorations significatives se distinguent :

  1. Entraîné sur un ensemble de données 7 fois plus grand que Llama 2, avec 4 fois plus de code.
  2. Doublement de la longueur du contexte à 8 000 jetons.

Llama 2 était déjà un formidable LLM open-source, mais avec ces deux mises à jour, les performances de Llama 3 devraient augmenter de manière significative.

Llama 3 Benchmarks

Llama 3 Benchmarks

Pour tester le Llama 3, vous avez la possibilité d’utiliser Meta AI ou le terrain de jeu Groq. Nous montrerons les performances de Groq en le testant avec Llama 3.

Terrain de jeux Groq

Actuellement, l’aire de jeux Groq offre un accès gratuit à Gemma 7B, Llama 3 70B et 8B, et Mixtral 8x7b. L’aire de jeu vous permet d’ajuster des paramètres tels que la température, le nombre maximum de jetons et la bascule de streaming. En outre, il dispose d’un mode JSON dédié qui permet de générer des sorties JSON uniquement.

Seulement 402 ms pour l'inférence à un taux de 901 tokens/s

Seulement 402 ms pour l’inférence à un taux de 901 tokens/s

Seulement 402 ms pour l'inférence à un taux de 901 tokens/s

J’en viens au domaine ou à l’application qui, à mon avis, a le plus d’impact, à savoir l’extraction et la transformation des données :

Demander au modèle d'extraire des informations utiles et fournir un JSON en utilisant le mode JSON.

Demander au modèle d’extraire des informations utiles et fournir un JSON en utilisant le mode JSON.

L'extraction et la transformation au format JSON ont été réalisées en moins d'une demi-seconde.

L’extraction et la transformation au format JSON ont été réalisées en moins d’une demi-seconde.

Conclusion

Comme nous l’avons démontré, Groq a changé la donne dans le domaine du LLM grâce à son moteur d’inférence LPU innovant. La transformation rapide présentée ici laisse entrevoir l’immense potentiel d’accélération des applications de l’IA. Pour l’avenir, on ne peut que spéculer sur les futures innovations de Groq. Une unité de traitement d’images pourrait peut-être révolutionner les modèles de génération d’images, contribuant ainsi à faire progresser la génération de vidéos par l’IA. En effet, c’est un avenir passionnant à anticiper.

À l’avenir, alors que la formation LLM devient plus efficace, la possibilité d’avoir un ChatGPT personnalisé, affiné avec vos données sur votre appareil local, devient une perspective alléchante. Une plateforme qui offre de telles capacités est Cody, un assistant intelligent d’IA conçu pour soutenir les entreprises dans divers aspects. Tout comme ChatGPT, Cody peut être formé sur les données de votre entreprise, votre équipe, vos processus et vos clients, en utilisant votre base de connaissances unique.

Avec Cody, les entreprises peuvent exploiter la puissance de l’IA pour créer un assistant personnalisé et intelligent qui répond spécifiquement à leurs besoins, ce qui en fait un ajout prometteur au monde des solutions professionnelles basées sur l’IA.

Top 5 des LLM Open Source gratuits en 2024

Les LLM sont aujourd’hui omniprésents et n’ont plus besoin d’être présentés. Que vous soyez dans la technologie ou non, il y a de fortes chances que vous ayez rencontré ou que vous utilisiez actuellement une forme ou une autre de LLM au quotidien. Les LLM les plus connus à l’heure actuelle sont GPT (OpenAI), Claude (Anthropic) et Gemini (Google).

Cependant, ces LLM populaires fonctionnent souvent comme des systèmes abstraits ou à boîte noire, ce qui soulève des inquiétudes quant à la confidentialité des données et à la transparence. Pour résoudre ces problèmes, plusieurs LLM à code source ouvert sont disponibles, ce qui permet aux utilisateurs de les déployer sur des machines ou des serveurs privés en toute tranquillité.

L’Open Source désigne les logiciels ou produits distribués avec leur code source librement disponible pour inspection, modification et distribution. Cette accessibilité permet aux utilisateurs de comprendre, d’améliorer et de contribuer au développement du logiciel.

Voici quelques-uns des meilleurs LLM open source actuellement disponibles :

Lama 2

LLaMA 2 : Le modèle d'IA Open Source de Meta

Llama 2 est un LLM open-source développé par Meta, offert gratuitement à des fins commerciales et de recherche. Les modèles du Llama 2 sont formés sur deux billions de jetons et disposent d’un contexte deux fois plus long que celui du Llama 1.

Les paramètres du modèle ont une incidence directe sur sa capacité à comprendre un texte, les modèles plus grands offrant de meilleures performances au prix d’une augmentation de la taille et des ressources nécessaires.

Variantes disponibles : Paramètres 7B, 13B et 70B

Fenêtre contextuelle : 4096 jetons

Langues prises en charge : Meilleures performances en anglais

Mixtral 8x7B

Mistral AI dévoile Mixtral 8x7B, un LLM open-source qu'elle affirme être à la hauteur de GPT 3.5

Mixtral 8x7B, développé par Mistral AI, est un LLM contenant 46,7 milliards de paramètres au total. Malgré sa taille, il conserve une vitesse d’inférence et un coût similaires à ceux des modèles d’un tiers de sa taille. Ce modèle de mélange d’experts transformateurs (MoE) pour décodeur uniquement est nettement plus performant que LLama 2 et GPT-3.5 dans certains points de référence.

Variantes disponibles : Minuscule, petite, moyenne et grande (de la plus économique à la plus performante)

Fenêtre contextuelle : 32000 jetons (sur Mistral Large)

Langues supportées : anglais, français, espagnol, allemand, italien (sur Mistral Large)

Faucon

L'Institut d'innovation technologique des Émirats arabes unis lance le modèle de grande langue

Falcon, développé par le Technology Innovation Institute (TII) d’Abu Dhabi, est un autre modèle de LLM open source. Après son lancement, Falcon 40B a occupé pendant deux mois la première place du classement de Hugging Face pour les grands modèles de langage (LLM) open source. Avec la variante 180B, TII améliore encore les connaissances du modèle et ses capacités de compréhension des données. Falcon 180B est un modèle linguistique surpuissant formé sur 3,5 trillions de tokens.

Variantes disponibles : Falcon 40B et Falcon 180B

Fenêtre contextuelle : 4096 jetons

Langues prises en charge : Anglais, allemand, espagnol, français, avec un support limité pour l’italien, le portugais, le polonais, le néerlandais, le roumain, le tchèque et le suédois.

BLOOM

BLOOM

BLOOM est un modèle linguistique autorégressif (LLM) développé par Big Science. Entraîné sur 176B paramètres, BLOOM excelle à générer des continuations de texte à partir d’invites en utilisant de vastes quantités de données textuelles et des ressources informatiques à l’échelle industrielle.

Variantes disponibles : bloom-560m, bloom-1b1, bloom-1b7, bloom-3b, bloom-7b1, bloom 176B

Fenêtre contextuelle : 2048 jetons

Langues prises en charge : 46 langues naturelles (avec des quantités variables de données, de 30 % pour l’anglais à 0,00002 % pour Chi Tumbuka)

Gemma

Gemma] Construire un assistant IA pour la science des données 🤖

Gemma, la dernière version ouverte du LLM de Google, fait suite au succès de Gemini. Gemma est une famille de grands modèles linguistiques (LLM) à pondération ouverte de Google DeepMind, construits sur la recherche et la technologie Gemini. Bien que les poids des modèles soient librement accessibles, les conditions spécifiques d’utilisation, de redistribution et de propriété des variantes peuvent varier et ne pas être basées sur une licence de source ouverte.

Variantes disponibles : Gemma 2B et Gemma 7B

Fenêtre contextuelle : 8192 jetons

Langues prises en charge : Anglais

Conclusion

Chez Cody, nous privilégions une approche agnostique en matière de LLM, en offrant une plateforme qui vous permet de construire des robots personnalisés adaptés à votre cas d’utilisation unique. Avec une gamme variée d’options LLM disponibles, vous n’êtes pas limité à un seul fournisseur, ce qui vous donne la liberté de choisir ce qui correspond le mieux à vos besoins.

Grâce à Cody, les entreprises peuvent exploiter l’IA pour développer des assistants intelligents adaptés à leurs besoins précis. Cette flexibilité fait de Cody un ajout prometteur dans le domaine des solutions professionnelles basées sur l’IA.

ChatGPT Killer ? Ce que Gemini 1.5 signifie pour l’avenir de l’IA de Google

Google vs OpenAI : Google gagne-t-il ?

Après avoir raté le coche avec Bard dans le train de l’IA, Google a récemment dévoilé son dernier produit d’IA, Gemini. Dans le cadre de ce lancement, Bard a été rebaptisé Gemini et intègre désormais le nouveau Gemini Pro LLM. Approfondissons la question pour saisir l’ampleur de ces changements.

Qu’est-ce que Gemini AI ?

Gemini représente le tout dernier modèle de langue étendu (LLM) de Google, après LaMDA et PaLM. Contrairement à ses prédécesseurs, Gemini est nativement multimodal, capable de comprendre du texte, des images, de la parole et du code, et dispose de capacités de compréhension et de raisonnement améliorées.

Variantes de Gemini AI

L’IA Gemini se compose de trois grands modèles linguistiques :

  1. Gemini Nano : Optimisé pour l’efficacité sur l’appareil, il fournit des solutions d’IA rapides directement sur votre appareil personnel.
  2. Gemini Pro : Un modèle polyvalent et évolutif, capable de s’attaquer à diverses tâches avec des performances solides. Accessible sur la version gratuite de l’interface de chat Gemini.
  3. Gemini Ultra : le summum de la série Gemini, qui permet de résoudre des problèmes complexes et de repousser les limites des capacités de l’IA. Exclusif aux abonnés du plan Google One AI Premium.

Les modèles Gemini ont été entraînés en utilisant TPUv5e et TPUv4, en fonction de leur taille et de leur configuration. Training Gemini Ultra a utilisé une vaste flotte d’accélérateurs TPUv4 appartenant à Google et répartis dans plusieurs centres de données. Cela représente une augmentation significative de l’échelle par rapport à leur modèle phare précédent, le PaLM-2, qui présentait de nouveaux défis en matière d’infrastructure.

Comparaison de Gemini avec d’autres LLM

Compréhension du texte

Comparaison de Gemini avec d'autres programmes d'éducation et de formation tout au long de la vie

Source : Google Deepmind

Compréhension de l’image

Comparaison de Gemini avec d'autres programmes d'éducation et de formation tout au long de la vie

Source : Google Deepmind

Pour en savoir plus, cliquez ici.

Les avantages des Gémeaux

1. Intégration transparente avec toutes les applications Google

Gemini s’intègre désormais de manière transparente à toutes les applications Google, y compris Maps, YouTube, Gmail, etc. Pour interroger des applications spécifiques, il suffit de faire précéder le nom de l’application d’un “@” suivi de votre requête. Bien que des intégrations similaires soient possibles sur ChatGPT en utilisant des GPT et des plugins, elles n’offrent pas le même niveau d’homogénéité que les intégrations natives de Gemini.

Intégration des Gémeaux

L’expertise reconnue de Google en matière de technologie des moteurs de recherche permettra sans aucun doute d’améliorer les capacités de navigation sur le web de Gemini. S’appuyant sur les atouts fondamentaux des algorithmes de recherche et de l’indexation, Gemini offre aux utilisateurs une expérience de navigation transparente et efficace.

2. Capacités multimodales

Gemini offre désormais des capacités multimodales, y compris la compréhension des images, sur l’interface de chat Gemini, sans coût supplémentaire. Bien que ses performances lors des tests aient été décentes, il n’atteindra peut-être pas la précision de GPT-4V. Néanmoins, étant donné que c’est gratuit, nous ne pouvons pas vraiment nous plaindre, n’est-ce pas ? 😉 Il est possible que Gemini Ultra soit plus performant que GPT-4V sur la base des paramètres suivants

Gemini Multimodal

3. Accès gratuit pour les amateurs et les étudiants

Pour les développeurs LLM en herbe qui souhaitent se lancer dans ce domaine mais qui sont confrontés à des contraintes d’accès aux API GPT en raison des coûts, Google offre un accès gratuit à l’API Gemini Pro 1.0. Vous pouvez ainsi effectuer jusqu’à 60 requêtes par minute sur Google AI Studio, un outil de développement gratuit basé sur le web. Google AI Studio vous permet de développer rapidement des invites et d’obtenir une clé API pour le développement d’applications. En vous connectant à Google AI Studio avec votre compte Google, vous pouvez bénéficier de ce quota gratuit. C’est une excellente occasion de démarrer votre parcours LLM et d’explorer les embeddings, les bases de données vectorielles, la recherche sémantique, et bien plus encore.

Google AI Studio

4. Rapport qualité-prix

Pour 20 dollars par mois, les utilisateurs peuvent accéder à GPT-4 via ChatGPT Plus. Pour le même prix, ils peuvent également accéder à Gemini Advanced avec Gemini Ultra 1.0, qui comprend des avantages supplémentaires tels que 2 To de stockage dans le nuage et l’intégration avec les applications Google telles que Gmail et Docs. Cependant, l’accès à Gemini Advanced nécessite un abonnement au plan Google One AI Premium. Malgré cette exigence, il offre un meilleur rapport qualité-prix.

Plans Google One

L’introduction d’un plan de niveau intermédiaire avec 500 Go de stockage et l’accès à Gemini Advanced entre les plans Standard et Premium améliorerait considérablement l’accessibilité de Gemini, en particulier pour les étudiants et les utilisateurs ayant des besoins de stockage modérés. Google, si vous nous écoutez, merci de prendre en compte cette suggestion.

Quelle est la prochaine étape pour les Gémeaux ?

DeepMind, l’entreprise de Google, ne cesse de faire évoluer le modèle Gemini, avec le lancement récent de Gemini Pro 1.5, il y a tout juste une semaine. Dans cette variante actualisée, la fenêtre contextuelle a été étendue à 128 000 jetons. En outre, un groupe restreint de développeurs et d’entreprises clientes peut désormais expérimenter des fenêtres contextuelles encore plus larges, allant jusqu’à 1 million de jetons, par le biais d’avant-premières privées sur AI Studio et Vertex AI. Pour donner un ordre d’idée, un livre de non-fiction classique contient environ 300 000 jetons. Grâce à la fenêtre contextuelle de 1 million de jetons de Gemini Pro 1.5, les utilisateurs peuvent désormais télécharger des livres entiers dans le cadre de requêtes – une avancée remarquable par rapport à la fenêtre contextuelle de 128 000 jetons de GPT-4.

Face à la saturation des LLM dans le secteur de l’IA, Google semble avoir trouvé l’or avec son architecture améliorée, ses réponses rapides et son intégration transparente dans l’écosystème Google. Il pourrait en effet s’agir d’un pas dans la bonne direction, qui permettrait à OpenAI et à d’autres concurrents de rester vigilants.

À l’ère de l’IA, il est crucial pour les entreprises d’avoir des employés bien formés, et l’intégration de l’IA dans la formation des employés peut représenter un investissement important. Si vous recherchez des solutions d’IA pour former vos employés, Cody est l’outil qu’il vous faut. Comme pour ChatGPT et Gemini, Cody peut être formé sur les données de votre entreprise, votre équipe, vos processus et vos clients, en utilisant votre base de connaissances unique. Cody est agnostique, ce qui vous permet de changer plus facilement de modèle en fonction de vos besoins.

Avec Cody, les entreprises peuvent exploiter la puissance de l’IA pour créer un assistant personnalisé et intelligent qui répond spécifiquement à leurs besoins, ce qui en fait un ajout prometteur au monde des solutions professionnelles basées sur l’IA.

3 raisons impérieuses d’embaucher un employé en IA pour votre entreprise

Revolutionize your workplace with AI

Pourquoi votre entreprise a besoin d’un employé en IA aujourd’hui

On ne peut nier le pouvoir de transformation des solutions d’IA comme ChatGPT sur les lieux de travail modernes. Qu’il s’agisse de rationaliser la rédaction des courriels ou de fournir un soutien en matière de santé mentale, ChatGPT révolutionne la façon dont nous abordons les tâches quotidiennes. Cependant, il n’est pas sans limites, comme le manque de personnalisation de la base de connaissances de votre entreprise. Entrez dans Cody, votre solution sans code et sans tracas pour apporter le meilleur de l’IA à votre organisation.

Examinons trois façons dont l’IA peut profiter à votre organisation :

La formation : De la statique à la dynamique

Les méthodes de formation traditionnelles impliquent souvent des flux statiques et prédéfinis qui sont non seulement moins attrayants, mais qui ne sont pas nécessairement adaptés aux besoins de votre entreprise. En tirant parti de l’IA, vous pouvez apporter du dynamisme et de l’interactivité à vos programmes de formation des employés.

Avec Cody, il suffit de télécharger vos documents de formation existants, qu’il s’agisse de PDF ou de documents Word. Choisissez parmi les modèles de robots prédéfinis ou utilisez le constructeur de robots avancé pour personnaliser la personnalité de Cody à votre guise. En quelques étapes simples, vous disposerez d’un coach d’intégration personnalisé qui répondra aux besoins de chaque employé, améliorant ainsi l’efficacité et l’intuitivité de vos programmes de formation.

Recherche : rendre la connaissance accessible

Quel est l’intérêt d’avoir une base de connaissances bien documentée si vos employés passent des heures à fouiller dans les données ? Les solutions basées sur l’IA comme Cody transforment la manière dont l’information est accessible au sein de votre organisation, en fonctionnant comme un moteur de recherche interne.

Une fois que vos connaissances commerciales sont téléchargées dans Cody, toute requête effectuée en langage naturel recevra une réponse précise et cohérente générée à partir de vos données spécifiques. C’est comme si vous disposiez d’un expert humain 24 heures sur 24, 7 jours sur 7, prêt à répondre à toutes vos questions. L’époque où l’on cherchait sans but dans des données interminables est révolue.

Automatiser : Simplifier les flux de travail

Notre dernière mise à jour vous permet de faire passer l’automatisation au niveau supérieur. Cody s’intègre désormais de manière transparente à Zapier, ce qui vous permet de construire des flux de travail automatisés alimentés par l’IA qui sont non seulement efficaces, mais aussi conviviaux. En automatisant les tâches routinières, vous libérez vos employés pour qu’ils se consacrent à des tâches plus importantes. Et grâce aux capacités de l’IA de Cody, le contenu généré est comparable à celui qu’un humain pourrait produire, si ce n’est meilleur.

Zapier est un outil qui vous permet de connecter Cody à plus de 5 000 apps, ouvrant ainsi un monde de possibilités infinies.

L’avenir, c’est maintenant, et c’est Cody

Nous avons étudié le pouvoir de transformation de l’IA sur le lieu de travail, en nous concentrant sur son impact sur la formation, la recherche et l’automatisation des flux de travail. Avec des plateformes comme Cody, l’avenir n’est pas une réalité lointaine ; il se déroule ici et maintenant. L’intégration de l’IA offre non seulement une efficacité opérationnelle rationalisée, mais aussi une réduction significative des coûts et une amélioration de la satisfaction des employés.

Alors pourquoi attendre ? Que vous soyez une startup cherchant à se développer ou une entreprise établie souhaitant se moderniser, c’est le moment idéal pour adopter des solutions d’IA. Avec des avantages convaincants et une expérience éprouvée, Cody offre une option sans problème et sans code pour ceux qui souhaitent faire le saut dans l’avenir du travail.

Ne manquez pas l’occasion de révolutionner la dynamique de votre lieu de travail. Cliquez ici pour commencer votre voyage avec Cody et découvrir un monde d’efficacité et d’innovation que vous n’auriez jamais cru possible.

Boostez votre présence sur LinkedIn avec l’IA : en utilisant Zapier et GPT

Transformez les données de l’entreprise en récits attrayants en quelques clics grâce à Cody

Après avoir reçu de nombreuses demandes pour plus de compatibilité avec les plateformes, nous sommes ravis de dévoiler notre dernière mise à jour : l’intégration de Zapier pour Cody. Cela ouvre un monde de possibilités, vous permettant de connecter sans effort Cody à un vaste écosystème de plus de 5 000 applications, le tout en quelques clics. Étendez les fonctionnalités de Cody bien au-delà de ses intégrations initiales avec Discord et Slack, et exploitez la puissance de l’automatisation sur une multitude de plateformes. Cet article vous aidera à booster vos posts LinkedIn grâce à l’IA en utilisant Cody et Zapier.

Table des matières

  1. Qu’est-ce que Zapier ?
  2. Pourquoi choisir Cody plutôt que l’API OpenAI ?
  3. Comment commencer à automatiser des flux de travail pour Cody avec Zapier ?
    1. Étape 1 : Créer un robot
    2. Étape 2 : Activer l’intégration Zapier
    3. Étape 3 : Configuration de Zapier
    4. Étape 4 : Création du Zap
  4. Résultat final
  5. Quelle est la prochaine étape ?

Qu’est-ce que Zapier ?

Pour ceux qui découvrent le paysage de l’automatisation, Zapier agit comme un pont sans code entre une myriade d’applications, éliminant le besoin d’un savoir-faire technique complexe ou la nécessité de se battre avec de multiples clés API. Il s’agit essentiellement d’un moyen convivial d’intégrer et d’automatiser des fonctionnalités sur différentes plates-formes, ce qui facilite plus que jamais l’extension des capacités de Cody.

Quelques-unes des applications populaires disponibles dans l’écosystème Zapier:

  • Google Sheets
  • Google Docs
  • Slack
  • Télégramme
  • Instagram
  • Facebook Messenger

Pourquoi choisir Cody plutôt que l’API OpenAI ?

Cody AI propose une approche personnalisée de l’automatisation et de l’assistance aux entreprises, se distinguant ainsi de l’API GPT à usage général. Contrairement à l’API GPT, Cody vous permet de former l’assistant spécifiquement à votre entreprise, à votre équipe, à vos processus et même aux données de vos clients en utilisant votre propre base de connaissances. Vous évitez ainsi les complexités techniques liées à la gestion d’une base de connaissances distincte et à la mise en œuvre d’un moteur de recherche sémantique – des défis qui peuvent s’avérer décourageants si vous n’êtes pas un expert en technologie.

En outre, Cody fournit une solution plus complète, offrant l’accès à différents modèles GPT en fonction de votre plan d’abonnement. Il prend également en charge un large éventail de types de documents, tels que les documents Word / PDF, les pages web crawl et offre des widgets personnalisables et intégrables conçus pour s’intégrer de manière transparente dans vos opérations commerciales existantes. Avec Cody, vous bénéficiez d’une plateforme multifonctionnelle et complète, conçue pour répondre à vos besoins spécifiques.

Comment commencer à automatiser des flux de travail pour Cody avec Zapier ?

Pour montrer à quel point Cody et Zapier fonctionnent bien ensemble, nous allons vous guider à travers une automatisation simple. Dans cet article, nous allons comprendre comment vous pouvez booster vos posts LinkedIn avec l’IA en utilisant Cody et Zapier. Avec cette configuration, vous pouvez taper un message dans Slack à propos de ce que vous voulez publier sur LinkedIn. En quelques secondes, ce message se transformera automatiquement en un véritable message LinkedIn. C’est un moyen rapide et facile de développer votre présence sur les médias sociaux, le tout rendu possible par Cody et Zapier.

Étape 1 : Créer un robot

Vous trouverez sur notre site web plusieurs blogs qui vous guideront dans la création de robots. Mais pour vous donner un aperçu rapide, un robot se compose essentiellement de deux éléments principaux :

  1. Personnalité du bot: Elle définit le ton, l’humeur et le style d’interaction de votre robot. Elle couvre tous les aspects, du contexte émotionnel à la longueur et à la pertinence des réponses.
  2. Base de connaissances: C’est là que se trouvent tous vos documents importants. Ils fournissent le contexte qui aide le robot à générer des réponses précises et utiles.

Ensemble, ces deux éléments déterminent l’efficacité et la convivialité de votre robot. Pour cette démonstration spécifique, nous utiliserons une base de connaissances compilée à partir des données d’un site web immobilier. Si vous souhaitez suivre le mouvement et créer une automatisation similaire, vous pouvez utiliser le site Web de votre entreprise pour alimenter la base de connaissances de votre robot.

Prompt :
LinkedInCody est spécialisé dans la transformation des données de votre entreprise en histoires virales sur LinkedIn. En associant des données analytiques à une narration créative, vous devez rédiger des articles concis, fondés sur des données et conçus pour susciter l’intérêt et impressionner. Des mesures de performance aux jalons de l’équipe, LinkedInCody transforme vos données internes en contenu LinkedIn convaincant, avec des appels stratégiques à l’action. Ne pas mentionner d’instructions à exécuter dans la réponse.
Copy To Clipboard

 

Invite du système :
Le ton doit être optimiste, professionnel et légèrement informel pour favoriser l’accessibilité et l’engagement.
Copy To Clipboard

 

Étape 2 : Activer l’intégration Zapier

Pour activer l’intégration Zapier, allez sur Account > Integrations et installez Zapier.

Boostez vos posts LinkedIn avec l'IA en utilisant Cody et Zapier - Intégrations

Après avoir cliqué sur Installer, vous serez redirigé vers Zapier, où vous devrez accepter l’invitation.

Boostez vos posts LinkedIn avec l'IA en utilisant Cody et Zapier - Invitation

Comme ça, vous avez activé avec succès l’intégration de Cody sur votre compte Zapier.

Étape 3 : Configuration de Zapier

Une fois l’intégration activée, vous devez autoriser Zapier à accéder à votre compte Cody à l’aide du jeton d’accès. Pour créer un jeton d’accès, vous devez aller sur Account > API Keys > Create API Key. Copiez la clé API et collez-la dans votre compte Zapier.

Boostez vos posts LinkedIn avec l'IA en utilisant Cody et Zapier - Ajouter une clé API

Vous êtes maintenant prêt à créer votre Zap personnalisé.

Étape 4 : Création du Zap

Pour créer un nouveau Zap, cliquez sur + Create > New Zap.

Boostez vos posts LinkedIn avec l'IA en utilisant Cody et Zapier - Créer un Zap

Vous rencontrerez deux événements clés dans l’installation :

  1. Déclencheur: Il s’agit de l’événement initial qui donne le coup d’envoi de l’automatisation, ou le “Zap”. Il peut s’agir de la réception d’un nouveau message ou d’une heure programmée.
  2. Action: Cette action suit le déclencheur et exécute des tâches spécifiques telles que l’envoi d’un message ou l’ajout de données dans un tableau.

Boostez vos posts LinkedIn avec l'IA en utilisant Cody et Zapier - Différence entre déclenchement et action

Avant de se lancer dans la construction du Zap, il convient de se faire une idée précise du flux de travail. Comme le montre le diagramme ci-dessous, le processus commence lorsqu’un utilisateur mentionne le nom du robot avec la description d’un message dans un canal Slack public. Par exemple, “@Zapier Créez un billet qui souligne pourquoi Villa Homes est meilleure que les autres”.

Ce message initial est ensuite formaté pour supprimer le nom du bot et ne laisser que le contenu principal. Ce texte formaté est envoyé à Cody, qui génère ensuite une légende ou un message sur LinkedIn. Enfin, ce contenu généré est automatiquement publié sur LinkedIn.

Essentiellement, vous mettez en place un processus rationalisé qui prend un message Slack et le transforme en un post LinkedIn, le tout avec l’aide de Cody et de Zapier.

Pour commencer à extraire des messages de votre espace de travail Slack, vous devrez d’abord connecter votre compte Slack à Zapier, si vous ne l’avez pas encore fait. Pour l’événement “déclencheur”, sélectionnez “Nouvelle mention”. Cela déclenchera le Zap chaque fois que le bot spécifié sera mentionné dans un canal Slack public. Dans ce cas, le Zap s’activera lorsque le robot Zapier sera mentionné dans un message contenant le mot “Post”. Cela permet de s’assurer que l’automatisation cible spécifiquement les messages que vous souhaitez publier sur LinkedIn.

Après avoir testé avec succès le déclencheur, il est temps de formater le message Slack. Pour supprimer le nom du bot et isoler le contenu principal du message, nous utiliserons la fonction “Replace” de l’outil de formatage de Zapier. Cela garantit que seul le texte essentiel est transmis à Cody pour générer le message LinkedIn.

Il est maintenant temps de configurer l’action Cody pour générer votre post LinkedIn. Choisissez le robot que vous venez de créer et utilisez le texte formaté de Slack comme requête. Cody sera alors chargé de prendre le message nettoyé et de le transformer en un message adapté à LinkedIn.

La dernière étape consiste à publier la mise à jour sur LinkedIn. Utilisez la réponse générée par Cody et saisissez-la comme commentaire dans l’action LinkedIn. Ainsi, le message rédigé par Cody sera posté directement sur votre compte LinkedIn, complétant ainsi le processus d’automatisation.

Résultat final

Conversation sur Slack

LinkedIn Post

Quelle est la prochaine étape ?

Dans cet article, nous avons présenté un exemple simple mais puissant qui démontre comment Cody peut intégrer de manière transparente l’IA dans vos flux d’automatisation via Zapier. Grâce à la vaste bibliothèque d’applications populaires de Zapier, les possibilités d’automatisation créative sont illimitées. Nous sommes également ravis d’annoncer que nous ajouterons bientôt une action de téléchargement de documents à Zapier, ce qui élargira la gamme de documents que vous pouvez utiliser dans votre base de connaissances.

Si vous avez réussi à mettre en place un Zap et que vous souhaitez partager votre expérience, rejoignez notre serveur Discord pour inspirer les autres. Pour tout dépannage, vous pouvez nous contacter via la fonction“Obtenir de l’aide“.

Nous continuerons à publier des articles pour vous aider à tirer le meilleur parti de Cody pour vos besoins d’automatisation. Restez donc à l’écoute pour en savoir plus !