Author: Om Kamath

Om Kamath

L’interprète de code : Un nouveau pas pour ChatGPT

Cover Photo

Comment l’interprète de code de ChatGPT fait passer l’IA au niveau supérieur

Alors que le buzz autour de ChatGPT semblait se calmer, OpenAI a ravivé l’excitation en dévoilant une nouvelle fonctionnalité révolutionnaire. Cette amélioration a ajouté une nouvelle dimension aux capacités de l’IA, réaffirmant le potentiel illimité de cette technologie.

Auparavant, les capacités de ChatGPT étaient principalement limitées à la compréhension et à la fourniture de texte, y compris de code. Cette capacité, bien qu’impressionnante, était limitée dans sa portée. Il pourrait aider les utilisateurs à comprendre la syntaxe du code, les assister dans le débogage et même leur fournir des extraits de code pour effectuer certaines tâches. Cependant, il n’a pas réussi à exécuter les blocs de code pour fournir les résultats finaux. Il s’agit essentiellement d’un éditeur de code très intelligent, mais pas d’un programmeur à part entière.

Avec l’arrivée de la nouvelle fonctionnalité, l’interprète de code, ChatGPT est maintenant capable de faire plus que simplement comprendre le code. Il peut comprendre des instructions en langage naturel, convertir ces instructions en code, exécuter le code et répondre avec les résultats finaux.

Comment Code Interpreter change la donne en matière de programmation

La dernière nouveauté d’OpenAI, l’interprète de code, a récemment été introduite dans l’univers de ChatGPT (plus précisément, dans le modèle GPT-4). Cette fonction permet l’exécution en direct du code Python dans un environnement Python en bac à sable. On pourrait croire qu’il s’agit d’une fonctionnalité taillée sur mesure pour les programmeurs, mais en réalité, c’est un outil polyvalent qui peut aider un large éventail d’utilisateurs à accomplir diverses tâches.

L’interprète de code est bien plus qu’un simple outil intégré à l’interface de chat pour l’exécution de code. Il s’agit d’un outil polyvalent qui permet aux utilisateurs de tester des extraits de code, de déboguer et même d’enrichir leur parcours d’apprentissage du code. L’exécution a lieu dans l’environnement sandbox du ChatGPT. En outre, l’interprète de code peut être un outil efficace pour automatiser des tâches et s’intégrer à d’autres API.

L’avantage le plus important de la fonction d’interprétation de code réside sans doute dans son potentiel d’amélioration de la productivité et de gain de temps. Les utilisateurs peuvent rapidement tester et déboguer leur code sans avoir à jongler entre différents logiciels ou outils. Cela s’avère particulièrement utile pour les développeurs engagés dans des projets complexes qui nécessitent des tests et des itérations fréquents. En éliminant le besoin de changer d’outil, l’interprète de code aide les développeurs à capitaliser sur leur temps, augmentant ainsi leur productivité.

De la théorie à la pratique : Les applications réelles de l’interprète de code

L’interprète de code dans ChatGPT a plusieurs cas d’utilisation. Voici quelques exemples :

  1. Analyse des données : L’interprète de code révolutionne l’analyse des données en vous permettant de rédiger des invites dans un langage simple et clair. Cette approche conviviale fait de l’analyse des données une tâche facile, même pour ceux qui n’ont pas d’expertise en programmation. Sa polyvalence s’étend de la segmentation des clients à l’analyse des actions et des crypto-monnaies, en passant par la conversion de vos données en cartes thermiques.
  2. Analyses quantitatives automatisées : De manière ingénieuse, l’interprète de code est capable d’automatiser des analyses quantitatives complexes, de fusionner et de nettoyer des données, et de raisonner sur des données à la manière d’un être humain. Cette puissante fonctionnalité en fait un outil indispensable pour l’automatisation des tâches et les opérations de codage.
  3. Génération de graphiques : L’interpréteur de code se distingue par sa capacité à créer des graphiques et des diagrammes d’aspect professionnel sans qu’aucune connaissance en programmation ne soit nécessaire. Cela s’avère inestimable pour visualiser les données et les présenter de manière succincte et claire.
  4. Bibliothèques Python : Une autre caractéristique remarquable de l’interpréteur de code est sa capacité à importer et à utiliser une variété de bibliothèques Python, ce qui améliore encore vos tâches d’automatisation. Cette disposition vous permet d’exploiter les fonctionnalités de bibliothèques populaires pour l’analyse de données, l’apprentissage automatique, etc.

En incorporant l’interprète de code dans ChatGPT, vous ne rationalisez pas seulement vos tâches d’automatisation, mais vous effectuez également l’analyse des données et l’exécution du code directement dans l’interface de ChatGPT. Il s’agit d’un outil pratique et puissant pour automatiser des tâches et travailler avec du code.

Étapes pour activer l’interpréteur de code

Embarquons pour un voyage passionnant afin de débloquer la nouvelle fonctionnalité de ChatGPT, l’interprète de code. Cette innovation révolutionne non seulement le paysage de l’IA, mais la rend également plus accessible et plus facile à utiliser. Voici un guide étape par étape pour activer cette fonction fantastique.

Étape 1 : Accès à la fonctionnalité

Passez à ChatGPT Plus en sélectionnant Upgrade to ChatGPT Plus. Pour lancer le processus, il suffit de cliquer sur l’option ‘Paramètres’ dans votre interface ChatGPT. Cherchez l’onglet ‘Beta Features’ pour explorer le trésor de fonctionnalités offertes par ChatGPT.

Étape 2 : Activation de l’interpréteur de code

Dans les “fonctions bêta”, vous trouverez l’option “Interprète de code”. Il suffit de cliquer sur la case à cocher située à côté pour activer cette fonction. N’oubliez pas qu’un grand pouvoir s’accompagne d’une grande responsabilité. Veillez à l’utiliser à bon escient !

Étape 3 : Confirmer et appliquer

Après avoir activé l'”interprète de code”, veillez à enregistrer vos modifications. Cliquez sur “Appliquer” pour confirmer vos modifications, et voilà ! Vous avez activé avec succès l’interprète de code et vous êtes prêt à découvrir le niveau supérieur de l’IA.

Utilisation de documents avec GPT

Et si vous ne voulez pas que GPT code pour vous et que vous l’entraîniez plutôt sur vos données ? Rencontrez Cody, votre IA personnalisée qui agit comme un ChatGPT adapté à votre entreprise. Cody est un assistant intelligent d’IA spécialement conçu pour les entreprises. Il peut être formé à partir de votre propre base de connaissances, y compris les processus de votre entreprise, les informations relatives à votre équipe et les données relatives à vos clients. Cody peut soutenir votre équipe en répondant aux questions, en fournissant une assistance créative, en résolvant les problèmes et en lançant des idées. Ses capacités vont au-delà des recherches par mots clés et des réponses régurgitées, permettant des interactions plus personnalisées et tenant compte du contexte. Cody peut également s’intégrer à vos outils préférés et fournir des réponses instantanées à vos questions commerciales en analysant les documents accumulés.

Vous voulez en savoir plus sur Cody ou vous avez besoin d’aide ? Nous disposons d’une variété de ressources pour vous aider à tirer le meilleur parti de cette plateforme innovante. Rejoignez notre communauté Discord pour échanger avec d’autres utilisateurs de Cody et notre équipe d’experts, ou approfondissez nos capacités sur notre Blog. Et si vous avez besoin d’une aide personnalisée, notre équipe d’assistance est toujours prête à vous aider. Visitez notre centre d’aide pour consulter les FAQ ou pour soumettre une demande d’assistance. Pour en savoir plus sur nous et sur la façon dont Cody redéfinit les limites de l’IA, consultez notre site web.

Vos données sont en sécurité chez nous

Notre engagement en matière de sécurité des données et de respect de la vie privée.

ChatGPT est devenu synonyme d’intelligence artificielle, et même les personnes qui n’étaient pas familiarisées avec l’IA acquièrent aujourd’hui des connaissances à ce sujet. Sa popularité a grimpé en flèche, amenant les entreprises et les particuliers à rechercher des robots d’IA similaires à ChatGPT, mais adaptés à leurs propres données. Chez Cody AI, notre objectif est de simplifier et de rationaliser ce processus, en éliminant la nécessité de se plonger dans les aspects techniques complexes de l’IA tout en restant au fait des dernières innovations.

L’intégrité et la sécurité des données constituent une préoccupation majeure des particuliers et des entreprises qui utilisent l’IA pour leurs cas d’utilisation personnalisés. La construction de modèles linguistiques tels que GPT nécessite l’utilisation de vastes ensembles de données d’entraînement, ce qui peut soulever des inquiétudes légitimes quant à la confidentialité des données. Chez Cody AI, nous comprenons et respectons ces préoccupations, et nous donnons la priorité à la protection de vos données et de votre vie privée.

Pour comprendre comment Cody garantit la sécurité de vos données tout au long du processus, décomposons le parcours en trois sections : Documents, Embeddings et Modèle.

Documents

Cody utilise le service sécurisé et privé Amazon Simple Storage Service (S3) pour stocker vos documents dans la phase initiale avant leur traitement ultérieur. S3 assure le chiffrement de tous les téléchargements d’objets dans tous les buckets, ce qui garantit la conformité avec divers programmes tels que PCI-DSS, HIPAA/HITECH, FedRAMP, la directive européenne sur la protection des données et FISMA. Cela garantit que vos données restent protégées et conformes aux exigences réglementaires. Les documents téléchargés sur Cody suivent le protocole SSE-S3 (Server-Side Encryption), ce qui permet un accès exclusif à vous et aux membres de votre équipe, garantissant ainsi la confidentialité des données et le respect de la vie privée.

Emboîtements

Les embeddings sont essentiellement une représentation de vos données sous forme de vecteurs (listes de nombres). Les données fournies à Cody n’étant pas structurées, leur conversion en enchâssements permet d’accélérer les recherches sémantiques. Pour en savoir plus sur la façon dont Cody génère des réponses à partir de vos documents, consultez cet article.

Pour stocker ces vecteurs ou embeddings, Cody s’appuie sur Pinecone, une base de données vectorielle sécurisée à laquelle font confiance certaines des plus grandes entreprises.

Pinecone offre des fonctions de sécurité robustes telles que :

  1. Certification SOC2 Type II
  2. Conformité au GDPR
  3. Tests de pénétration de routine pour vérifier les vulnérabilités.
  4. Conteneurs Kubernetes isolés sur une infrastructure AWS entièrement gérée et sécurisée pour le stockage des données.

Modèle

Cody AI s’appuie sur les modèles GPT d’OpenAI, notamment GPT-3.5, GPT-3.5 16K et GPT-4, pour générer des réponses. En raison de ressources limitées, ces modèles ne sont pas hébergés sur les serveurs de Cody. Au lieu de cela, ils utilisent les API fournies par OpenAI (également utilisées pour créer des embeddings pour vos documents et vos requêtes). Lors de l’élaboration des réponses, seule la partie spécifique des données correspondant à la question posée est envoyée dans la demande, au lieu de transmettre tous les documents. Cette approche garantit un traitement efficace, l’intégrité des données et minimise les transferts de données inutiles. Un mécanisme de sécurité supplémentaire fourni par l’API est que vos données ne seront pas utilisées pour former un modèle linguistique existant ou nouveau. Cela garantit que vos données restent limitées à votre robot et ne sont pas utilisées à des fins d’apprentissage de modèles.

À partir du 1er mars 2023, nous apportons deux modifications à nos politiques d’utilisation et de conservation des données :
1. OpenAI n’utilisera pas les données soumises par les clients via notre API pour entraîner ou améliorer nos modèles, à moins que vous ne décidiez explicitement de partager vos données avec nous à cette fin. Vous pouvez accepter de partager des données.
2. Toutes les données envoyées par l’intermédiaire de l’API seront conservées à des fins de contrôle des abus et des mauvaises utilisations pendant un maximum de 30 jours, après quoi elles seront supprimées (à moins que la loi n’en dispose autrement).

Source : OpenAI

Cet engagement constitue un niveau de confidentialité supplémentaire et garantit la confidentialité et la sécurité de vos données. Pour en savoir plus, vous pouvez lire cet article.

Conclusion

Si l’on considère l’ensemble de ces trois facteurs, Cody AI fait preuve d’une approche bien construite en matière de sécurité et de conformité des données, garantissant la sécurité de vos données à 99 %. À une époque où la confidentialité des données est de la plus haute importance, nous nous efforçons d’aller au-delà pour garantir la sécurité totale de vos données.

Si vous avez des commentaires ou des questions concernant Cody AI et la sécurité de ses données, n’hésitez pas à nous contacter via Get Help. Vous êtes également invité à rejoindre notre communauté Discord, où vous pourrez apporter des contributions précieuses et participer à des discussions.

Comment entraîner GPT sur des données Excel gratuitement ? (Beta)

Un guide pour ajouter des données Excel à votre base de connaissances Cody et à la formation ChatGPT gratuitement.

Avant de commencer à former Cody sur les données Excel de votre entreprise, il est nécessaire de clarifier quelques concepts pour garantir les meilleures réponses de votre robot. Les GPT (Generative Pre-Trained Transformers) sont des modèles de langage formés sur des ensembles de données étendus pour prédire le mot suivant dans une phrase ou une expression afin de la compléter. Ils sont spécifiquement formés sur des ensembles de données en langage naturel comprenant de larges échantillons de données conversationnelles ou littérales non structurées. Contrairement aux modèles statistiques tels que la régression linéaire, les TPG ne sont pas compétents pour prédire des nombres à l’aide de données d’apprentissage logiques. Par exemple, si vous entraînez GPT sur un ensemble de données qui affirme que 2+2=5, il répondra en affirmant que 2+2=5 sans chercher à comprendre l’incohérence logique (ce n’est qu’un exemple ; OpenAI traite de telles requêtes avec des réponses précises). Ceci, associé à une autre limitation des LLM, à savoir les hallucinations, crée un environnement qui ne se prête pas aux calculs mathématiques.

Maintenant que vous comprenez les limites de GPT, laissez-nous vous guider à travers un processus d’entraînement de GPT sur des données Excel gratuitement. Nous avons développé une méthode pour ajouter des données Excel ou CSV à votre base de connaissances Cody. Comme indiqué précédemment, GPT excelle dans la compréhension du langage naturel, nous allons donc convertir les données Excel dans un format lisible qui peut être facilement consommé par le modèle linguistique.

Étape 1 : Transformation des données Excel

Récupérez les données CSV ou Excel sur lesquelles vous souhaitez former votre robot et convertissez-les en fichier texte à l’aide de cet utilitaire que nous avons créé. L’utilitaire convertit les données Excel en un fichier texte en annotant les données avec les en-têtes correspondants. L’annotation des cellules par des en-têtes permet au modèle de langage de mieux comprendre le contexte, car il est fort probable que les en-têtes soient ignorés en raison de la segmentation des documents lors de la phase de prétraitement.

Eg.

Données Excel :

Données textuelles :

{The Name is ‘John’. The Age is ‘16’.}, {The Name is ‘Marie’. The Age is ‘18’.}

Le fichier texte généré suit un format similaire à JSON mais avec un style plus littéraire pour donner une impression plus humaine. Bien que cette solution soit actuellement au stade expérimental et ne soit pas encore intégrée à l’application Cody, elle fonctionne bien avec les trois modèles de TPG, mais nous continuons d’explorer de meilleures solutions à cette fin.

Interface de l’utilitaire :

CSV/Excel to TXT converter for Cody for Training GPT on Excel data for free

Exemple de données CSV :

Exemple de données CSV pour la formation GPT sur des données Excel gratuitement

Il est recommandé de nettoyer les données avant de les transformer afin d’obtenir des réponses de meilleure qualité de la part de votre robot.

Interface utilisateur du convertisseur pour l'entraînement GPT sur des données Excel gratuitement

Après avoir téléchargé les données CSV ou Excel dans l’utilitaire, vous pouvez prévisualiser les données avant de générer le fichier texte compatible GPT.

Lignes par partie : Pour les grands ensembles de données, il est conseillé de diviser l’ensemble de données en plusieurs parties. Cette division améliore la recherche sémantique et la qualité des réponses.

Inclure les références de cellules : Si vous souhaitez que le fichier texte contienne les références des cellules Excel, vous pouvez sélectionner cette option. Le robot peut ensuite se référer à ces références de cellules lorsqu’il crée des guides étape par étape pour les actions qui peuvent être effectuées dans Excel. Par exemple, il peut générer une formule pour trouver la médiane.

Un dossier zip compressé sera généré et contiendra toutes les parties de vos données Excel au format .txt.

Fichiers générés pour la formation GPT sur des données Excel gratuitement

Étape 2 : Ajout des données à la base de connaissances Cody

Pour ajouter les données transformées à la base de connaissances Cody, procédez comme suit :

  1. Allez dans l’application Cody et naviguez jusqu’à la section “Contenu”.
  2. Créez un nouveau dossier dans la base de connaissances où vous souhaitez stocker les données.
  3. Une fois le dossier créé, naviguez à l’intérieur de celui-ci.
  4. Cliquez sur le bouton “Upload” pour télécharger les données transformées.
  5. Sélectionnez tous les fichiers de données transformées de votre stockage local que vous souhaitez ajouter à la base de connaissances.
  6. Confirmez la sélection et lancez le processus de téléchargement.
  7. Les fichiers de données transformés seront téléchargés et ajoutés à la base de connaissances de Cody, dans le dossier que vous avez créé. Lorsque les documents ont été appris avec succès, le statut du document s’affiche avec la mention “appris”.

Fichiers texte téléchargés pour Training GPT on Excel data for free

Étape 3 : Mise en place de la personnalité du bot

Comme il s’agit encore d’une phase expérimentale, nous travaillons à l’amélioration de l’invite avant de l’ajouter au mode modèle.

Prompt :

Vous êtes Data Cody, un analyste de données d’IA pour mon entreprise. Votre objectif principal est de tirer des conclusions à partir des données Excel qui vous sont fournies. Les références des cellules Excel peuvent être données sous la forme $Cell. Ne pas mentionner la référence de la cellule dans les réponses. L’information contenue dans “{}” est un enregistrement. Si l’on vous demande les détails d’un enregistrement spécifique, énoncez-les sous forme de pointeurs.

Invite du système :

Essayez de répondre d’une manière humaine lorsque vous êtes interrogé sur un détail. Ne justifiez pas vos réponses.

Ce processus fonctionne bien avec les trois modèles GPT, donc même si vous êtes sur le plan gratuit, vous pouvez l’essayer. Toutefois, il convient de noter que les modèles GPT-3.5 16K et GPT-4 ont tendance à mieux comprendre les données. Si vous êtes satisfait des réponses que vous obtenez avec le plan gratuit, mais que vous souhaitez bénéficier d’une plus grande souplesse dans le formatage des réponses et de la possibilité de comparer plusieurs enregistrements, le passage à GPT-3.5 16K ou à GPT-4 peut s’avérer bénéfique. La fenêtre contextuelle supplémentaire fournie par ces modèles permet une analyse et une manipulation plus complètes des données.

Démonstration

Démonstration gratuite de la formation GPT sur des données Excel

Référence pour la première requête :

Référence pour la deuxième requête :

Limites

La possibilité de télécharger des fichiers Excel ou CSV vers Cody n’en fait pas une alternative directe aux tableurs tels que Google Sheets ou Microsoft Excel. Il existe plusieurs limitations à prendre en compte lorsque l’on travaille avec des données structurées dans Cody :

  1. Hallucinations lors de tâches analytiques : Les tâches impliquant des calculs statistiques ou analytiques, comme demander à Cody des moyennes, des médianes ou des valeurs min/max, peuvent donner lieu à des réponses incorrectes. Cody n’effectue pas de calculs en temps réel et peut fournir des résultats inexacts. Les récentes mises à jour d’OpenAI, comme l’interpréteur de code et l’appel de fonction, pourraient améliorer cette situation à l’avenir.
  2. Erreur lors de la comparaison des enregistrements : Dans certains cas, Cody peut rencontrer des difficultés pour extraire des données de différents segments du document, ce qui entraîne des réponses indiquant que l’information n’est pas disponible. Ce scénario est plus probable avec le modèle GPT-3.5 disponible dans le plan gratuit. Le passage aux plans Basic ou Premium vous permet d’utiliser le modèle GPT-3.5 16K ou le modèle GPT-4. Ces deux modèles ont des fenêtres contextuelles plus larges et peuvent potentiellement remédier à cette limitation.

Conclusion

Malgré ces limites, ce processus est particulièrement utile pour les scénarios dans lesquels les données de la FAQ de votre entreprise ou d’autres données littérales, telles que les données de formation des employés, sont stockées au format Excel ou CSV. Cody peut être entraîné sur ces données sans aucune modification. Cody est également performant lorsqu’il s’agit de récupérer les détails d’un seul enregistrement, de décrire les données ou de fournir des suggestions basées sur des informations déduites d’ensembles de données numériques tels que des bilans ou des chiffres de vente.

En tant que solution provisoire pour la formation de Cody sur des données Excel ou CSV, nous vous remercions de nous faire part de vos commentaires sur cette approche. Nous apprécions votre contribution et vous encourageons à partager vos idées avec nous sur notre serveur Discord ou en nous contactant par le biais de la fonction Obtenir de l’aide. Nous sommes impatients de connaître votre expérience et d’en apprendre davantage grâce à vos commentaires. Nous espérons que vous avez apprécié notre approche de la formation GPT sur les données Excel gratuitement. Consultez nos blogs pour en savoir plus sur Cody.

 

Intégration de l’IA dans Discord

Mise en place de Cody pour Discord. C’est parti !

Alors que nous cherchons continuellement à améliorer l’expérience des utilisateurs, nous sommes ravis d’annoncer un nouvel ajout monumental à notre arsenal de fonctionnalités : l’intégration fluide et transparente de Cody AI pour Discord. Reconnue comme l’une des intégrations les plus attendues, nous faisons passer vos serveurs Discord au niveau supérieur. Que vous cherchiez à alimenter des discussions passionnées sur les jeux, à accéder à des ressources universitaires pour vos devoirs ou simplement à avoir des échanges interactifs, Cody AI est votre assistant dévoué.

Comment ajouter Cody AI à votre serveur Discord :

  1. Pour inviter le bot sur votre serveur, utilisez le lien suivant
    lien
    ou vous pouvez visiter la section des intégrations dans les paramètres de Cody AI.
  2. Connectez-vous à votre compte Discord.
  3. Sélectionnez le serveur sur lequel vous souhaitez ajouter le robot Cody.
  4. Définissez la clé de l’API à l’aide de l’option /set-cody-token dans n’importe quel canal de texte. Le jeton AI de Cody ne peut être défini que par les administrateurs du serveur. Si vous avez besoin d’aide pour obtenir la clé API, consultez cet article.Mise en place de Discord AI
  5. Affectez un bot à un canal de texte à l’aide de la fonction /assign-bot commande. Vous pouvez utiliser cette commande pour différents canaux afin de définir des bots différents pour chaque canal.Sélection de votre robot Discord
  6. Pour poser des questions à votre robot, tapez simplement @Cody suivi de votre question. Cody AI créera un nouveau fil de discussion dans le canal pour répondre à votre question. Tous les messages de ce fil de discussion seront considérés comme des historiques de discussion. Si vous souhaitez entamer une nouvelle conversation, quittez le fil de discussion et mentionnez @Cody encore une fois.Discord AI Thread

Votre avis compte

Nous nous sommes toujours appuyés sur les commentaires des utilisateurs. Vos idées et vos expériences nous guident. Alors que vous naviguez dans l’intégration Cody-Discord, nous vous invitons à nous faire part de vos réflexions et de vos suggestions. Connectez-vous avec nous sur notre propre
serveur Discord
ou contactez-nous via le bouton Obtenir de l’aide dans l’application web de Cody AI. Votre voyage avec Cody sur Discord est important pour nous, et nous souhaitons le rendre aussi enrichissant que possible. Pour plus d’intégrations, lisez notre nouvelle intégration ai Zapier.

 

Intégration de l’IA dans Slack

Dans le monde numérique d’aujourd’hui, qui évolue rapidement, l’intégration de l’IA dans nos outils de communication quotidiens n’est pas seulement un luxe, c’est une nécessité. Conscients de ce besoin, nous sommes ravis d’annoncer l’intégration de l’IA dans Slack avec Cody. Cette intégration est conçue pour améliorer l’expérience Slack pour les entreprises et les sociétés qui en dépendent fortement pour leur communication. En intégrant des Cody bots formés sur des documents d’entreprise, les utilisateurs peuvent désormais profiter d’un processus de communication plus rationalisé et efficace au sein de leurs espaces de travail Slack.

Comment intégrer Cody AI à votre espace de travail Slack

  1. Ajoutez le Cody Bot à votre espace de travail Slack en accédant à vos paramètres Cody > Integrations et en cliquant sur Install Slack.Intégration de l'IA dans Slack
  2. Obtenez la clé API à partir de Cody Settings > API Keys en cliquant sur Create API Key.
  3. Dans votre espace de travail Slack, recherchez votre application Cody et définissez la clé API dans la section Accueil.Intégration de l'API Slack AI
  4. Allez dans n’importe quel canal de votre espace de travail et utilisez la commande
    /assign-bot
    pour affecter un bot de votre compte Cody à ce canal.Sélectionnez votre Slack AI Bot
  5. Pour poser des questions à votre robot, tapez simplement @Cody suivi de votre question. Cody créera un nouveau fil de discussion dans le canal pour répondre à votre question. Tous les messages de ce fil de discussion seront considérés comme des historiques de discussion. Si vous souhaitez entamer une nouvelle conversation, quittez le fil de discussion et mentionnez @Cody encore une fois.Poser une question à Cody Fil élargi

 

L’avenir des intégrations de l’IA de Cody

Cette intégration AI Slack marque l’une de nos aventures pionnières dans les intégrations d’applications tierces. La demande écrasante et la popularité de cette fonction parmi nos utilisateurs ont été la force motrice de sa création. Et ce n’est que le début ! Nous sommes actuellement en train de développer des fonctionnalités et des intégrations supplémentaires, notamment pourDiscord et Zapier. Ces mises à jour passionnantes seront déployées dans un avenir proche.

Votre retour d’information est important

Votre avis et votre retour d’expérience nous sont précieux. Ils déterminent l’orientation de nos innovations et veillent à ce que nous offrions toujours ce qu’il y a de mieux. Nous vous invitons à nous faire part de vos réflexions et de vos expériences concernant cette intégration. Connectez-vous avec nous sur notre serveur Discord ou utilisez le bouton “Obtenir de l’aide” de notre application.

Anatomie d’une personnalité bot

Conseils pour créer un robot qui fait exactement ce que vous voulez.

Il est essentiel de reconnaître que lors de la construction de robots qui utilisent des modèles de langage, la patience est cruciale, surtout au début. Une fois que vous avez établi une base solide, il devient plus facile d’ajouter des éléments supplémentaires. Construire des robots avec Cody, c’est un peu comme peindre sur une toile. Il faut un certain degré de créativité et une certaine compréhension des principes fondamentaux pour ajouter sa touche personnelle au robot.

Le paramètre principal qui permet à votre robot d’adopter un style de pensée particulier est l’Invitation à la personnalité. La personnalité du robot est façonnée par divers facteurs, notamment la distribution des jetons, le score de pertinence, etc. Cependant, la demande de personnalité est l’aspect le plus distinct et le plus créatif, car elle peut être personnalisée différemment par chaque utilisateur. Les utilisateurs ont la liberté de créer et d’affiner la personnalité du robot en fonction de leurs besoins spécifiques.

La liberté est quelque chose que nous apprécions tous, mais lorsque l’on part d’une page blanche, elle peut aussi devenir intimidante et conduire à l’ambiguïté quant à l’endroit où commencer. Si vous ressentez la même chose, ne vous inquiétez pas ; ce blog devrait vous aider à créer un meilleur message de personnalité. Nous commencerons par présenter la structure recommandée pour les messages-guides, puis nous proposerons des exemples de messages-guides.

Nom

Il est toujours utile de commencer par donner un nom à votre robot. Le fait de donner un nom à votre robot ajoute une touche humaine, en particulier lorsque vous accueillez les utilisateurs ou que vous répondez à des questions relatives au robot.

Propositions :

Votre nom est [Name of your Bot].
OU
Vous êtes ‘[Name of your Bot]’.

Description

La description du robot lui permet de connaître le contexte qui sera fourni par la base de connaissances. La prise en compte du contexte fournit au robot un cadre pour répondre aux questions tout en gardant à l’esprit un domaine spécifique.

Propositions :

Votre tâche principale consiste à [specify the domain].
OU
Votre objectif principal est de m’aider à [specify the domain].

Remarque : le nom et la description du robot définis dans la section générale sont uniquement destinés à permettre à l’utilisateur de différencier plusieurs robots. Le robot lui-même n’a pas connaissance de ces paramètres. Il est donc nécessaire de définir explicitement le nom et la description du robot dans l’invite de personnalité afin d’établir son identité et ses caractéristiques.

Frontières

L’un des inconvénients potentiels de l’utilisation de LLM formés sur de grands ensembles de données est la tendance à générer des réponses hallucinées. Il est important de noter que les données utilisées pour générer les réponses ne sont pas utilisées pour affiner ou reformuler le LLM à la demande de Cody. Au lieu de cela, il sert de référence contextuelle pour interroger le LLM, ce qui permet d’obtenir des réponses plus rapides et de préserver la confidentialité des données.

Pour s’assurer que le robot ne se réfère pas à des points de données de l’ensemble de données LLM original, qui peuvent se chevaucher avec des domaines ou des concepts similaires, nous devons délimiter le contexte strictement à notre base de connaissances.

Propositions :

La base de connaissances est votre seule source d’information.
OU
Vous êtes réticent à faire des affirmations, sauf si elles sont mentionnées dans la base de connaissances.

Dans certains cas, le robot n ‘a pas besoin d’une base de connaissances ou l’utilise comme source de référence. Dans ce cas, l’invite sera considérablement modifiée.

Prompt :

Votre principale source de référence est la base de connaissances.

Éléments de réponse

Les caractéristiques de la réponse générée par le robot peuvent également être contrôlées par la personnalité du robot dans une certaine mesure. Il peut s’agir de définir le ton, la longueur, la langue et le type de réponse que vous attendez de votre robot.

Propositions :

1. Ton : Vous devez répondre de manière [polite/friendly/professional].

2. Longueur : Les réponses doivent être rédigées en [pointers/paragraphs].

3. Langue : Répondre à l’utilisateur [in the same language/specify different language].

4. Type : Fournir à l’utilisateur des réponses à l’adresse [creative/professional/precise].

Vous êtes libre d’expérimenter différentes combinaisons et caractéristiques. Les exemples fournis ne le sont qu’à des fins d’apprentissage, et les possibilités sont infinies.

Les médias

L’une des caractéristiques les plus intéressantes de Cody est la possibilité d’intégrer des médias dans les réponses. Lorsque vous intégrez des médias tels que des images, des GIF ou des vidéos, il est toujours recommandé d’importer les médias dans un document séparé ou d’importer l’intégralité du document brut à l’aide de l’éditeur de texte Cody intégré, dans lequel vous pouvez ajouter des médias. Vous pouvez soit copier/coller les médias, soit les intégrer dans le document à l’aide d’URL.

Une image illustrant les boutons des médias.

Après avoir importé avec succès les médias, vous devez les spécifier dans l’invite de la personnalité de notre robot. L’invite peut être divisée en deux parties : Initialisation et Illustration.

Propositions :

Initialisation :
Incorporer, le cas échéant, le site [images/videos/both] de la base de connaissances.

Illustration :
Ajoutez des images à l’aide de la balise <img> et des vidéos à l’aide de la balise <iframe.>
Par exemple :
<img src=”[Image URL]”>
<iframe src=”[Video URL]”></iframe>

Repli sur soi

Il peut arriver que le robot ne parvienne pas à trouver un contenu pertinent pour répondre à la question posée par l’utilisateur. Il est toujours plus sûr de définir des solutions de repli pour de tels scénarios afin d’éviter de fournir des informations trompeuses ou incorrectes à l’utilisateur (applicable uniquement dans les cas d’utilisation où une base de connaissances existe).

Propositions :

1. S’abstenir de mentionner “base de connaissances non structurées” ou des noms de fichiers au cours de la conversation.

2. Dans les cas où une réponse définitive n’est pas disponible, [Define fallback].

OU

Si vous ne trouvez pas d’informations pertinentes dans la base de connaissances ou si l’utilisateur pose des questions sans rapport avec le sujet et qui ne font pas partie de la base de connaissances, [Define fallback].

Étapes (facultatif)

Si vous souhaitez que votre robot suive une chronologie ou un flux conversationnel spécifique, vous pouvez facilement le définir à l’aide d’étapes. Cette approche est particulièrement utile lorsque vous utilisez votre robot à des fins de formation ou de dépannage. Chaque étape représente une phase ou un stade particulier de la conversation, ce qui vous permet de contrôler la progression et de vous assurer que le robot fournit les informations ou l’assistance souhaitées de manière systématique.

Prompt :

Suivez ces étapes lors de la conversation avec l’utilisateur :

1. [Step 1]

2. [Step 2]

3. [Step 3]

Remarque : lors de la définition des étapes, il est recommandé d’activer la“recherche vectorielle inversée” pour améliorer les réponses et d’attribuer un nombre suffisant de jetons à l’historique de la discussion. Cela permet au modèle de prendre en compte l’historique de la conversation, y compris les commentaires de l’utilisateur et la réponse précédente du robot, lorsqu’il génère une réponse.

Saisie des données (en option)

Cette invite, en harmonie avec le flux conversationnel (étapes), est particulièrement bénéfique lorsque le cas d’utilisation de votre robot tourne autour de scénarios d’assistance ou de recrutement. Actuellement, il n’y a pas de mémoire à long terme ou de connectivité de base de données dans Cody qui puisse capturer les données et les stocker en vue d’une consommation analytique. À l’avenir, avec les nouvelles mises à jour de l’API OpenAI, comme l’appel de fonction, nous apporterons certainement de nouvelles fonctionnalités pour pouvoir capturer et stocker les données à plus long terme.

Pour l’instant, vous pouvez accéder aux chats des utilisateurs de votre bot (par le biais de widgets) en naviguant vers les chats“Invités” dans la section des chats. Vous pouvez ensuite analyser manuellement les données capturées pour obtenir des informations supplémentaires.

Prompt :

Recueillez les données suivantes auprès des utilisateurs :

– [Field 1]

– [Field 2]

– [Field 3]

– [Field 4]

Posez une question à la fois. Une fois que vous avez recueilli toutes les informations nécessaires, terminez la conversation en disant merci et en affichant les données recueillies. N’oubliez pas que votre tâche consiste uniquement à collecter des données.

Formatage des réponses*

Une petite fonctionnalité astucieuse de Cody est la prise en charge du formatage des réponses des robots à l’aide de balises markdown ou HTML. En fournissant à votre robot un modèle de format HTML ou markdown dans la personnalité du robot, celui-ci tentera de formater les réponses en conséquence, le cas échéant.

Prompt :

Format de la réponse :

<h1>[Field Name]</h1>

<p>[Field Name]</p>

<p>[Field Name]</p>

*Le formatagefonctionne mieux sur GPT-4

Exemple d’invite

Cody comme robot de génération de leads

Anatomie d'un message (étiqueté).

 

Chat de démonstration affichant l'invite en cours d'utilisation.

Cody, un robot marketing

Cody comme robot d’entraînement

Pour en savoir plus sur les invites de personnalité, veuillez consulter nos cas d’utilisation, qui contiennent des invites détaillées ainsi que leurs paramètres.

Conclusion

Si vous utilisez le plan gratuit de Cody, il est possible que le robot ne respecte plus l’invite ou qu’il ignore simplement certains paramètres en raison de la fenêtre contextuelle plus petite ou du manque de cohérence. Nous recommandons à chacun d’utiliser le plan gratuit uniquement à des fins d’essai ou comme phase de transition pour comprendre l’utilisation de Cody et déterminer s’il convient à votre entreprise.

Lors de l’élaboration des messages-guides pour votre robot, il est également important de rester concis et d’éviter d’incorporer tous les paramètres mentionnés dans l’article. Le nombre de jetons disponibles étant limité et l’invite de personnalité consommant également des jetons, il convient de les construire judicieusement. N’hésitez pas à modifier les instructions données dans cet article en fonction de vos besoins et de vos préférences. Vous avez découvert quelque chose de nouveau ? Vous pouvez toujours nous en faire part et nous serons heureux d’en discuter.

Ceci n’était qu’une introduction au vaste paysage de la création de personnalités de robots. Les LLM s’améliorent de jour en jour et il reste encore beaucoup à faire pour exploiter pleinement leur potentiel. Ce voyage est une nouvelle expérience pour chacun d’entre nous. Au fur et à mesure que nous expérimentons, apprenons et mettons en œuvre de nouveaux cas d’utilisation et scénarios, nous les partagerons avec vous par le biais d’articles et de tutoriels. Pour plus de ressources, vous pouvez également consulter notre Centre d’aide et n’hésitez pas à poser toutes vos questions concernant Cody en rejoignant notre communauté Discord. Consultez également nos blogs précédents pour obtenir d’autres informations intéressantes.