Author: Om Kamath

Om Kamath

El intérprete de códigos: Un nuevo salto para ChatGPT

Cover Photo

El intérprete de código de ChatGPT lleva la inteligencia artificial al siguiente nivel

Justo cuando parecía que el revuelo en torno a ChatGPT se estaba calmando, OpenAI ha reavivado el entusiasmo desvelando una nueva y revolucionaria función. Esta mejora ha añadido una nueva dimensión a las capacidades de la IA, reafirmando el ilimitado potencial de esta tecnología.

Anteriormente, las capacidades de ChatGPT se limitaban principalmente a comprender y proporcionar texto con código incluido. Esta capacidad, aunque impresionante, tenía un alcance limitado. Podría ayudar a los usuarios con la sintaxis del código, asistir en la depuración e incluso proporcionar fragmentos de código para abordar determinadas tareas. Sin embargo, no llegó a ejecutar los bloques de código para proporcionar resultados finales. Básicamente, era como un editor de código muy inteligente, pero no un programador en toda regla.

Con la llegada de la nueva función, el intérprete de código, ChatGPT es ahora capaz de algo más que de entender código. Puede comprender instrucciones en lenguaje natural, convertir estas instrucciones en código, ejecutar el código y responder con los resultados finales.

Cómo Code Interpreter está cambiando las reglas del juego de la programación

La última incorporación de OpenAI, la función de intérprete de código, se ha introducido recientemente en el universo ChatGPT (precisamente, dentro del modelo GPT-4). Esta función permite la ejecución en vivo de código Python dentro de un entorno Python aislado. Puede parecer una funcionalidad hecha a medida para programadores, pero en realidad es una herramienta versátil que puede ayudar a un amplio espectro de usuarios a realizar diversas tareas.

El intérprete de código es mucho más que una herramienta integrada en la interfaz de chat para la ejecución de código. Se trata de una instalación polivalente que permite a los usuarios probar fragmentos de código, depurar e incluso enriquecer su viaje de aprendizaje de la programación. La ejecución tiene lugar dentro del entorno sandbox de ChatGPT. Además, el intérprete de código puede ser una herramienta eficaz para automatizar tareas e integrarse con otras API.

Podría decirse que la ventaja más destacada de la función de intérprete de código reside en su potencial para aumentar la productividad y ahorrar tiempo. Los usuarios pueden probar y depurar rápidamente su código sin la molestia de hacer malabarismos entre distintos programas o herramientas. Esto resulta especialmente beneficioso para los desarrolladores de proyectos complejos que requieren pruebas e iteraciones frecuentes. Al eliminar la necesidad de cambiar de herramienta, el intérprete de código ayuda a los desarrolladores a rentabilizar su tiempo y aumentar su productividad.

De la teoría a la práctica: Aplicaciones reales de Code Interpreter

El intérprete de código de ChatGPT tiene varios usos. He aquí algunos ejemplos:

  1. Análisis de datos: El intérprete de código revoluciona el análisis de datos al permitirle escribir indicaciones en un lenguaje llano y sencillo. Este enfoque de fácil manejo convierte el análisis de datos en una tarea sin esfuerzo, incluso para quienes no tienen conocimientos de programación. Su versatilidad abarca desde la segmentación de clientes y el análisis de acciones y criptomonedas, hasta la conversión de sus datos en mapas de calor.
  2. Análisis cuantitativos automatizados: Ingeniosamente, el Intérprete de Códigos es capaz de automatizar intrincados análisis cuantitativos, fusionar y depurar datos, y razonar sobre los datos de forma similar a la humana. Esta potente función la convierte en una herramienta indispensable para la automatización de tareas y operaciones de código.
  3. Generación de gráficos: El Code Interpreter destaca por su capacidad para crear gráficos y diagramas de aspecto profesional sin necesidad de tener conocimientos de programación. Esto resulta inestimable para visualizar datos y presentarlos de forma sucinta y clara.
  4. Bibliotecas Python: Otra característica notable del Intérprete de Código es su capacidad para importar y utilizar una variedad de bibliotecas Python, mejorando aún más sus tareas de automatización. Esta disposición le permite aprovechar la funcionalidad de bibliotecas populares para el análisis de datos, el aprendizaje automático y mucho más.

Al incorporar el intérprete de código en ChatGPT, no sólo agiliza sus tareas de automatización, sino que también realiza análisis de datos y ejecución de código directamente en la interfaz de ChatGPT. Se erige como una herramienta cómoda y potente para automatizar tareas y trabajar con código.

Pasos para activar el intérprete de código

Embarquémonos en el emocionante viaje de desbloquear la nueva función de ChatGPT, el Intérprete de Códigos. Esta innovación pionera no sólo está revolucionando el panorama de la IA, sino que también la está haciendo más accesible y fácil de usar. Aquí tienes una guía paso a paso para activar esta fantástica función.

Paso 1: Acceso a la función

Actualice a ChatGPT Plus seleccionando Actualizar a ChatGPT Plus. Iniciar el proceso es tan sencillo como hacer clic en la opción “Configuración” de la interfaz de ChatGPT. Busca la pestaña “Características Beta” para explorar el tesoro de funcionalidades que ofrece ChatGPT.

Paso 2: Activar el intérprete de código

Dentro de las ‘Características Beta’, encontrarás la opción ‘Intérprete de Código’. Basta con hacer clic en la casilla situada junto a ella para activar esta función. Recuerda que un gran poder conlleva una gran responsabilidad. Asegúrese de utilizarlo con prudencia.

Paso 3: Confirmar y solicitar

Después de activar el “Intérprete de código”, asegúrese de guardar los cambios. Haz clic en “Aplicar” para confirmar los cambios y ¡listo! Has activado con éxito el Intérprete de Código, listo para experimentar el siguiente nivel de IA.

Utilización de documentos con GPT

Bueno, ¿y si no quieres que GPT codifique por ti y en su lugar lo entrenas con tus datos? Conoce a Cody, tu IA personalizada que actúa como un ChatGPT a la medida de tu negocio. Cody es un asistente inteligente diseñado específicamente para empresas. Puede formarse sobre su propia base de conocimientos, incluidos los procesos de su empresa, la información de su equipo y los datos de sus clientes. Cody puede ayudar a su equipo respondiendo preguntas, proporcionando asistencia creativa, resolviendo problemas y aportando ideas. Sus capacidades van más allá de las búsquedas por palabras clave y las respuestas regurgitadas, permitiendo interacciones más personalizadas y conscientes del contexto. Cody también puede integrarse con sus herramientas favoritas y ofrecer respuestas instantáneas a sus preguntas empresariales mediante el análisis de los documentos acumulados.

¿Quieres saber más sobre Cody o necesitas ayuda? Tenemos una gran variedad de recursos para ayudarte a sacar el máximo partido de esta innovadora plataforma. Únete a nuestra comunidad de Discord para relacionarte con otros usuarios de Cody y con nuestro equipo de expertos, o profundiza en nuestras capacidades en nuestro Blog. Y si necesita ayuda personalizada, nuestro equipo de asistencia está siempre dispuesto a ayudarle. Visite nuestro Centro de ayuda para consultar las preguntas más frecuentes o enviar una solicitud de asistencia. Descubra más sobre nosotros y sobre cómo Cody está redefiniendo los límites de la IA en nuestro sitio web.

Sus datos están seguros con nosotros

Nuestro compromiso con la seguridad y la privacidad de los datos.

ChatGPT se ha convertido en sinónimo de Inteligencia Artificial, e incluso aquellos que antes no estaban familiarizados con la IA ahora están adquiriendo conocimientos sobre ella. Su popularidad se ha disparado, llevando a empresas y particulares a buscar bots de IA similares a ChatGPT pero adaptados a sus propios datos. En Cody AI, nuestro objetivo es simplificar y agilizar este proceso, eliminando la necesidad de profundizar en los complejos tecnicismos de la IA al tiempo que nos mantenemos al día de las últimas innovaciones.

Una preocupación importante entre los particulares y las empresas que utilizan la IA para sus casos de uso personalizados es la integridad y seguridad de sus datos. La creación de modelos lingüísticos como GPT requiere el uso de extensos conjuntos de datos de entrenamiento, lo que puede suscitar preocupaciones válidas sobre la privacidad de los datos. En Cody AI, entendemos y respetamos estas preocupaciones, y damos prioridad a la protección de sus datos y su privacidad.

Para entender cómo Cody garantiza la seguridad de tus datos durante todo el proceso, vamos a desglosar el recorrido en tres secciones: Documentos, Incrustaciones y Modelo.

Documentos

Cody utiliza el servicio seguro y privado Amazon Simple Storage Service (S3 ) para almacenar sus documentos en la fase inicial antes de su posterior procesamiento. S3 garantiza el cifrado de todas las cargas de objetos a todos los buckets, manteniendo el cumplimiento de varios programas como PCI-DSS, HIPAA/HITECH, FedRAMP, Directiva de protección de datos de la UE y FISMA. Esto garantiza que sus datos permanezcan protegidos y cumplan los requisitos normativos. Los documentos cargados en Cody siguen el protocolo SSE-S3 (Server-Side Encryption), que permite un acceso exclusivo a ti y a los miembros de tu equipo, garantizando la confidencialidad y privacidad de los datos.

Incrustaciones

Las incrustaciones son esencialmente una representación de sus datos en forma de vectores (listas de números). Dado que los datos proporcionados a Cody no están estructurados, convertirlos en incrustaciones permite realizar recuperaciones y búsquedas semánticas más rápidas. Para saber más sobre cómo Cody genera respuestas a partir de tus documentos, consulta este artículo.

Para almacenar estos vectores o incrustaciones, Cody recurre a Pinecone, una base de datos de vectores segura en la que confían algunas de las mayores empresas.

Pinecone ofrece sólidas funciones de seguridad como:

  1. Certificación SOC2 Tipo II
  2. Cumplimiento del GDPR
  3. Pruebas de penetración rutinarias para comprobar vulnerabilidades.
  4. Contenedores Kubernetes aislados en una infraestructura de AWS totalmente administrada y segura para almacenar datos.

Modelo

Cody AI aprovecha los modelos GPT de OpenAI, incluidos GPT-3.5, GPT-3.5 16K y GPT-4, para generar respuestas. Debido a limitaciones de recursos, estos modelos no están alojados en los servidores nativos de Cody. En su lugar, utilizan las API proporcionadas por OpenAI (también utilizadas para crear incrustaciones para sus documentos y consultas). Al generar las respuestas, sólo se envía en la solicitud la parte específica de los datos pertinentes para la pregunta formulada, en lugar de transmitir todos los documentos. Este planteamiento garantiza un procesamiento eficaz, la integridad de los datos y minimiza las transferencias de datos innecesarias. Un mecanismo de seguridad adicional que ofrece la API es que sus datos no se utilizarán para entrenar ningún modelo lingüístico existente o nuevo. Esto garantiza que sus datos permanezcan restringidos a su bot y no se utilicen para el entrenamiento de modelos.

A partir del 1 de marzo de 2023, introduciremos dos cambios en nuestras políticas de uso y conservación de datos:
1. OpenAI no utilizará los datos enviados por los clientes a través de nuestra API para entrenar o mejorar nuestros modelos, a menos que decida explícitamente compartir sus datos con nosotros para este fin. Puedes optar por compartir datos.
2. Los datos enviados a través de la API se conservarán a efectos de control de abusos y usos indebidos durante un máximo de 30 días, transcurridos los cuales se eliminarán (salvo que la ley exija lo contrario).

Fuente: OpenAI

Este compromiso proporciona una capa adicional de confidencialidad y garantiza la privacidad y seguridad de sus datos. Para saber más, puede leer este artículo.

Conclusión

Si se tienen en cuenta los tres factores juntos, Cody AI demuestra un enfoque bien construido de la seguridad de los datos y el cumplimiento normativo, garantizando la seguridad del 99% de sus datos. En una época en la que la privacidad de los datos es de suma importancia, nos esforzamos por ir más allá para garantizar la total seguridad de sus datos.

Si tienes algún comentario o pregunta sobre Cody AI y la seguridad de sus datos, no dudes en ponerte en contacto con nosotros a través de Obtener ayuda. También le invitamos a unirse a nuestra comunidad de Discord, donde podrá hacer valiosas aportaciones y participar en debates.

¿Cómo entrenar GPT en datos de Excel de forma gratuita? (Beta)

Una guía para añadir datos de Excel a su base de conocimientos Cody y formación ChatGPT gratis.

Antes de empezar a entrenar a Cody con los datos de Excel de su empresa, es necesario aclarar algunos conceptos para garantizar las mejores respuestas de su bot. Los GPT (Generative Pre-Trained Transformers) son modelos lingüísticos entrenados en amplios conjuntos de datos para predecir la siguiente palabra de una frase u oración con el fin de completarla. Se entrenan específicamente en conjuntos de datos de lenguaje natural que comprenden grandes muestras de datos conversacionales o literales no estructurados. A diferencia de los modelos estadísticos como la Regresión Lineal, los GPT no son competentes en la predicción de números utilizando datos de entrenamiento lógicos. Por ejemplo, si entrenas a GPT en un conjunto de datos que afirma que 2+2=5, responderá afirmando que 2+2=5 sin intentar comprender la incoherencia lógica (esto es sólo un ejemplo; OpenAI maneja este tipo de consultas con respuestas precisas). Esto, unido a otra limitación de los LLM, que son las alucinaciones, crea un entorno poco propicio para los cálculos matemáticos.

Ahora que comprende las limitaciones de GPT, permítanos guiarle a través de un proceso de entrenamiento gratuito de GPT en datos de Excel. Hemos desarrollado un método para añadir datos Excel o CSV a su base de conocimientos Cody. Como ya se ha mencionado, GPT destaca en la comprensión del lenguaje natural, por lo que convertiremos los datos de Excel a un formato legible que pueda ser consumido fácilmente por el modelo lingüístico.

Paso 1: Transformación de los datos de Excel

Coge los datos CSV o Excel con los que quieres entrenar a tu Bot y conviértelos en un archivo de texto usando esta utilidad creada por nosotros. La utilidad convierte los datos de Excel en un archivo de texto anotando los datos con sus cabeceras correspondientes. Anotar los elementos de la celda con encabezados permite al modelo lingüístico comprender mejor el contexto, ya que existe una alta probabilidad de que los encabezados se omitan debido a la segmentación del documento en la fase de preprocesamiento.

Ej.

Datos Excel:

Datos de texto:

{The Name is ‘John’. The Age is ‘16’.}, {The Name is ‘Marie’. The Age is ‘18’.}

El archivo de texto generado sigue un formato similar a JSON pero con un estilo más literario para proporcionar una sensación más humana. Aunque esta solución se encuentra actualmente en fase experimental y aún no está integrada en la aplicación Cody, funciona bien con los tres modelos de GPT, pero seguimos explorando mejores soluciones para este fin.

Interfaz de utilidad:

CSV/Excel to TXT converter for Cody for Training GPT on Excel data for free

Muestra de datos CSV:

Muestra de datos CSV para la formación gratuita de GPT en datos Excel

Se recomienda limpiar los datos antes de la transformación para obtener la mejor calidad de respuestas de su bot.

Interfaz de usuario del conversor para Training GPT en datos Excel gratuito

Después de cargar los datos CSV o Excel en la utilidad, puede previsualizar los datos antes de generar el archivo de texto compatible con GPT.

Filas por parte: Para conjuntos de datos más grandes, es aconsejable dividir el conjunto de datos en varias partes. Esta división mejora la búsqueda semántica y aumenta la calidad de las respuestas.

Incluir referencias de celdas: Si desea que el archivo de texto incluya referencias a celdas de Excel, puede seleccionar esta opción. El bot puede entonces referirse a estas referencias de celdas al crear guías paso a paso para las acciones que se pueden realizar en Excel. Por ejemplo, puede generar una fórmula para hallar la mediana.

Se generará una carpeta zip comprimida que contendrá todas las partes de tus datos excel en formato .txt.

Ficheros generados gratuitamente para Training GPT sobre datos Excel

Paso 2: Añadir los datos a su base de conocimientos Cody

Para añadir los datos transformados a la base de conocimientos de Cody, siga estos pasos:

  1. Vaya a la aplicación Cody y navegue hasta la sección “Contenido”.
  2. Cree una nueva carpeta dentro de la base de conocimientos donde desee almacenar los datos.
  3. Una vez creada la carpeta, navega dentro de ella.
  4. Haga clic en el botón “Cargar” para cargar los datos transformados.
  5. Seleccione todos los archivos de datos transformados de su almacenamiento local que desee añadir a la base de conocimientos.
  6. Confirme la selección e inicie el proceso de carga.
  7. Los archivos de datos transformados se cargarán y se añadirán a la Base de Conocimientos de Cody, almacenados en la carpeta que haya creado. Una vez que los documentos se hayan aprendido correctamente, el estado del documento se mostrará como “aprendido”.

Archivos de texto cargados para Training GPT on Excel data de forma gratuita

Paso 3: Configurar la personalidad del bot

Como aún se encuentra en fase experimental, estamos trabajando para mejorar el aviso antes de añadirlo al modo de plantilla.

Prompt:

Eres Data Cody, un analista de datos de IA para mi empresa. Su objetivo principal es generar inferencias a partir de los datos de Excel que se le han proporcionado. Las referencias a las celdas de Excel pueden darse en forma de $Cell. No mencione la referencia de la celda en las respuestas. La información contenida en ‘{}’ es un registro. Si le preguntan por los detalles de un registro concreto, enumérelos en punteros.

Pregunta del sistema:

Intente responder de forma humana cuando le pregunten por cualquier detalle. No justifiques tus respuestas.

Este proceso funciona bien con los tres modelos de GPT, así que aunque estés en el plan gratuito, puedes probarlo. No obstante, cabe señalar que los modelos GPT-3.5 16K y GPT-4 tienden a comprender mejor los datos. Si está satisfecho con las respuestas que recibe en el plan gratuito, pero desea más flexibilidad en el formato de las respuestas y la posibilidad de comparar varios registros, la actualización a GPT-3.5 16K o GPT-4 puede ser beneficiosa. La ventana contextual adicional que ofrecen estos modelos permite un análisis y una manipulación más exhaustivos de los datos.

Demo

Demostración gratuita de formación GPT sobre datos Excel

Referencia para la primera consulta:

Referencia para la segunda consulta:

Limitaciones

La posibilidad de cargar archivos Excel o CSV en Cody no lo convierte en una alternativa directa a herramientas de hojas de cálculo como Google Sheets o Microsoft Excel. Hay que tener en cuenta varias limitaciones al trabajar con datos estructurados en Cody:

  1. Alucinaciones durante tareas analíticas: Las tareas que implican cálculos estadísticos o analíticos, como preguntar a Cody por promedios, medianas o valores mínimo/máximo, pueden producir respuestas incorrectas. Cody no realiza cálculos en tiempo real y puede proporcionar resultados inexactos. Las recientes actualizaciones de OpenAI, como el intérprete de código y la llamada a funciones, pueden mejorar esto en el futuro.
  2. Error al comparar registros: En algunos casos, Cody puede encontrar dificultades para obtener datos de diferentes segmentos del documento, lo que da lugar a respuestas que indican que la información no está disponible. Este escenario es más probable con el modelo GPT-3.5 disponible en el plan gratuito. La actualización a los planes Basic o Premium le permite utilizar el modelo GPT-3.5 16K o el modelo GPT-4. Ambos modelos tienen ventanas de contexto más amplias y pueden resolver potencialmente esta limitación.

Conclusión

A pesar de estas limitaciones, este proceso es especialmente útil para situaciones en las que los datos de preguntas frecuentes de su empresa u otros datos literales, como los datos de formación de los empleados, se almacenan en formato Excel o CSV. Cody puede entrenarse con estos datos sin necesidad de modificaciones. Cody también ofrece buenos resultados cuando se obtienen detalles de un único registro, se describen los datos o se ofrecen sugerencias basadas en información inferida de conjuntos de datos numéricos como balances o cifras de ventas.

Como solución provisional para la formación de Cody sobre datos Excel o CSV, agradecemos enormemente sus comentarios sobre este enfoque. Valoramos tu opinión y te animamos a que la compartas con nosotros en nuestro servidor Discord o poniéndote en contacto con nosotros a través de la función Obtener ayuda. Estamos impacientes por conocer su experiencia y aprender más de sus comentarios. Espero que te haya gustado nuestro enfoque de la formación GPT en los datos de Excel de forma gratuita. Consulta nuestros blogs para saber más sobre Cody.

 

Integración de Discord AI

Configurando a Cody para Discord. ¡A jugar!

Como nuestro objetivo es mejorar continuamente la experiencia del usuario, estamos encantados de anunciar otra monumental adición a nuestro arsenal de características: una integración fluida y sin problemas de Cody AI para Discord. Reconocida como una de las integraciones más esperadas, llevamos tus servidores Discord al siguiente nivel. Tanto si buscas alimentar apasionadas discusiones sobre juegos, acceder a recursos académicos para hacer los deberes o simplemente tener compromisos interactivos, Cody AI es tu asistente dedicado.

Cómo añadir Cody AI a tu servidor Discord:

  1. Para invitar al bot a su servidor, utilice este
    enlace
    o puedes visitar la sección de integraciones en Cody AI Settings.
  2. Inicia sesión en tu cuenta de Discord.
  3. Seleccione el servidor en el que desea añadir el bot Cody.
  4. Establezca la clave de la API mediante la opción /set-cody-token en cualquier canal de texto. El Token Cody AI sólo puede ser configurado por los administradores del servidor. Si necesita ayuda para obtener la clave API, consulte este artículo.Configuración de la IA de Discord
  5. Asigna un bot a un canal de texto utilizando el botón /assign-bot mando. Puedes utilizar este comando para diferentes canales para establecer diferentes bots para cada canal.Selección del bot de Discordia
  6. Para hacer preguntas a tu bot, simplemente escribe @Cody seguido de su pregunta. Cody AI creará un nuevo hilo en el canal para responder a tu pregunta. Todos los mensajes de ese hilo serán considerados como Historial de Chat. Si desea iniciar una nueva conversación, salga del hilo y mencione @Cody otra vez.Hilo de Discordia AI

Su opinión cuenta

Siempre nos hemos alimentado de las opiniones de los usuarios. Sus ideas y experiencias son la luz que nos guía. Mientras navegas por la integración Cody-Discord, te invitamos a compartir tus opiniones y sugerencias. Conéctate con nosotros en nuestro
Servidor Discord
o ponte en contacto con nosotros a través del botón Obtener ayuda de la aplicación web de Cody AI. Tu viaje con Cody en Discord nos importa, y estamos deseando que sea lo más enriquecedor posible. Para más integraciones lea sobre nuestra nueva integración ai Zapier.

 

Integración de Slack AI

En el vertiginoso mundo digital actual, la integración de la IA en nuestras herramientas de comunicación diarias no es sólo un lujo, sino una necesidad. Reconociendo esta necesidad, estamos encantados de anunciar la función de integración AI Slack con Cody. Esta integración está diseñada para mejorar la experiencia de Slack para las empresas y corporaciones que dependen en gran medida de él para su comunicación. Gracias a la integración de bots de Cody entrenados en documentos empresariales, los usuarios pueden disfrutar ahora de un proceso de comunicación más ágil y eficiente en sus espacios de trabajo de Slack.

Cómo integrar Cody AI en su espacio de trabajo de Slack

  1. Añade el Bot Cody a tu espacio de trabajo Slack navegando a tu Configuración de Cody > Integraciones y haciendo clic en Instalar Slack.Integración de Slack AI
  2. Obtenga la Clave API desde Cody Settings > API Keys haciendo clic en Create API Key.
  3. En su espacio de trabajo de Slack, busque su aplicación Cody y establezca la clave API en la sección Inicio.Integración de la API Slack AI
  4. Ve a cualquier canal de tu área de trabajo y utiliza el comando
    /assign-bot
    para asignar un bot de tu cuenta Cody a ese canal.Seleccione su Slack AI Bot
  5. Para hacer preguntas a tu bot, simplemente escribe @Cody seguido de su pregunta. Cody creará un nuevo hilo en el canal para responder a tu pregunta. Todos los mensajes de ese hilo se considerarán Historial de Chat. Si desea iniciar una nueva conversación, salga del hilo y mencione @Cody otra vez.Preguntando a Cody Hilo expandido

 

El futuro de las integraciones de IA de Cody

Esta integración de Slack con IA es una de nuestras iniciativas pioneras en la integración de aplicaciones de terceros. La abrumadora demanda y la popularidad de esta función entre nuestros usuarios han sido la fuerza motriz de su creación. Y esto es sólo el principio. Actualmente estamos desarrollando funciones e integraciones adicionales, incluidas las de Discord y Zapier. Estas interesantes actualizaciones se pondrán en marcha próximamente.

Su opinión es importante

Sus opiniones y comentarios son muy valiosos para nosotros. Ellos marcan el rumbo de nuestras innovaciones y se aseguran de que siempre ofrezcamos lo mejor. Le invitamos a compartir sus opiniones y experiencias sobre esta integración. Conéctate con nosotros en nuestro servidor Discord o utiliza el botón “Obtener ayuda” de nuestra aplicación.

Anatomía de la personalidad de un robot

Consejos para crear un bot que haga justo lo que quieres.

Es esencial reconocer que cuando se construyen bots que utilizan modelos lingüísticos, la paciencia es crucial, especialmente al principio. Una vez establecida una base sólida, resulta más fácil añadir componentes adicionales. Construir robots con Cody es como pintar sobre un lienzo. Se requiere un cierto grado de creatividad y una cierta comprensión de los fundamentos para añadir tu toque personal al bot.

El parámetro principal que permite que tu bot adopte un estilo de pensamiento particular es el Prompt de Personalidad. La personalidad del bot depende de varios factores, como la distribución de tokens, la puntuación de relevancia, etc. Sin embargo, el indicador de personalidad es el aspecto más distintivo y creativo, ya que cada usuario puede personalizarlo de forma distinta. Los usuarios tienen libertad para crear y ajustar la personalidad del bot según sus necesidades específicas.

La libertad es algo que todos apreciamos, pero cuando se empieza con una pizarra en blanco, también puede resultar intimidante y generar ambigüedad sobre por dónde empezar. Si a usted le ocurre lo mismo, no se preocupe; este blog le ayudará a crear una personalidad más pronta. Comenzaremos con la estructura recomendada para las preguntas y, a continuación, presentaremos algunos ejemplos.

Nombre

Siempre es beneficioso empezar dando un nombre a tu bot. Ponerle un nombre a tu bot le da un toque humano, sobre todo al saludar a los usuarios o responder a preguntas relacionadas con el bot.

Sugerencias:

Su nombre es [Name of your Bot].
O
Usted es ‘[Name of your Bot]’.

Descripción

La descripción del bot lo hace consciente del contexto que se le proporcionará a través de la base de conocimientos. Ser consciente del contexto proporciona al bot un marco para responder a las preguntas teniendo en cuenta un dominio específico.

Sugerencias:

Su tarea principal es [specify the domain].
O
Su principal objetivo es ayudarme en [specify the domain].

Nota: El Nombre del Bot y la Descripción establecidos en la Sección General son sólo para la conveniencia del usuario para diferenciar entre múltiples bots. El propio bot desconoce estos ajustes. Por lo tanto, es necesario definir explícitamente el nombre y la descripción del bot dentro del Prompt de Personalidad para establecer su identidad y características.

Límites

Un posible inconveniente del uso de LLM entrenados en grandes conjuntos de datos es la tendencia a generar respuestas alucinadas. Es importante señalar que los datos utilizados para generar respuestas no se utilizan para que Cody ajuste o reentrene el LLM a demanda. En su lugar, sirve como referencia contextual para consultar el LLM, lo que da lugar a respuestas más rápidas y preserva la privacidad de los datos.

Para asegurarnos de que el bot no hace referencia a puntos de datos del conjunto de datos LLM original, que pueden solaparse con dominios o conceptos similares, tenemos que delimitar el contexto estrictamente a nuestra base de conocimientos.

Sugerencias:

La base de conocimientos es su única fuente de información.
O
Es reacio a hacer afirmaciones que no figuren en la base de conocimientos.

Puede haber algunos casos en los que el bot no necesite una base de conocimientos o la utilice como fuente de referencia. En tales casos, la indicación cambiará considerablemente.

Prompt:

Su principal fuente de referencia es la base de conocimientos.

Características de la respuesta

Las características de la respuesta generada por el bot también pueden ser controladas hasta cierto punto por la personalidad del bot. Puede consistir en definir el tono, la longitud, el lenguaje y el tipo de respuesta que esperas de tu bot.

Sugerencias:

1. Tono: Debes responder de manera [polite/friendly/professional].

2. Longitud: Las respuestas deben estar en [pointers/paragraphs].

3. Idioma: Responder al usuario [in the same language/specify different language].

4. Tipo: Proporciona al usuario las respuestas de [creative/professional/precise].

Puede experimentar con distintas combinaciones y características. Los ejemplos proporcionados son sólo para su aprendizaje, y las posibilidades son infinitas.

Medios de comunicación

Una de las características más interesantes de Cody es la posibilidad de incrustar medios en las respuestas. Al incrustar medios como imágenes, GIF o vídeos, siempre se recomienda importar los medios a un documento aparte o importar todo el documento sin procesar utilizando el editor de texto incorporado de Cody en el que se pueden añadir medios. Puede copiar/pegar los medios o incrustarlos en el documento mediante URL.

Una imagen que ilustra los botones multimedia.

Después de importar con éxito los medios de comunicación, es necesario especificar la misma en nuestra personalidad bot prompt. El aviso puede dividirse en dos partes: Inicialización e Ilustración.

Sugerencias:

Inicialización:
Incorporar [images/videos/both] pertinente de la base de conocimientos cuando sea conveniente.

Ilustración:
Añada imágenes con la etiqueta <img> y vídeos con <iframe>
Por ejemplo:
<img src=”[Image URL]”>
<iframe src=”[Video URL]”></iframe>

Fallbacks

Habrá ocasiones en las que el bot no pueda encontrar contenido relevante para la pregunta formulada por el usuario. Siempre es más seguro definir fallbacks para tales escenarios para evitar proporcionar información engañosa o incorrecta al usuario (sólo aplicable en casos de uso en los que exista una base de conocimientos).

Sugerencias:

1. Abstente de mencionar “base de conocimientos no estructurada” o nombres de archivos durante la conversación.

2. En los casos en que no se disponga de una respuesta definitiva, [Define fallback].

O

Si no puede encontrar información relevante en la base de conocimientos o si el usuario hace preguntas no relacionadas que no forman parte de la base de conocimientos, [Define fallback].

Pasos (opcional)

Si quieres que tu bot siga una línea de tiempo o flujo conversacional específico, puedes definirlo fácilmente mediante pasos. Este enfoque es especialmente útil cuando se utiliza el bot con fines de formación o de resolución de problemas. Cada paso representa una fase o etapa concreta de la conversación, lo que le permite controlar la progresión y asegurarse de que el bot proporciona la información o asistencia deseada de forma sistemática.

Prompt:

Siga estos pasos mientras conversa con el usuario:

1. [Step 1]

2. [Step 2]

3. [Step 3]

Nota: Al definir los pasos, se recomienda activar la“Búsqueda vectorial inversa” para mejorar las respuestas y asignar un número adecuado de tokens al historial de chat. Esto permite al modelo tener en cuenta el historial de la conversación, incluida la entrada del usuario y la respuesta anterior del bot, a la hora de generar una respuesta.

Captura de datos (opcional)

Esta indicación, en armonía con el flujo conversacional (pasos), es especialmente beneficiosa cuando el caso de uso de su bot gira en torno a escenarios de asistencia o contratación. En la actualidad, Cody no dispone de memoria a largo plazo ni de conectividad a bases de datos que puedan capturar los datos y almacenarlos para su consumo analítico. En el futuro, con las nuevas actualizaciones de la API de OpenAI, como las llamadas a funciones, incorporaremos sin duda nuevas funciones para poder capturar y almacenar los datos durante más tiempo.

Por ahora, puedes acceder a los chats de los usuarios de tu bot (a través de widgets) navegando a los chats de‘Invitados‘ en la sección de chat. A continuación, puede analizar manualmente los datos capturados para obtener más información.

Prompt:

Recoge los siguientes datos de los usuarios:

– [Field 1]

– [Field 2]

– [Field 3]

– [Field 4]

Haz una pregunta cada vez. Una vez recopilada toda la información necesaria, cierra la conversación dando las gracias y mostrando los datos recogidos. Recuerde que su tarea consiste únicamente en recopilar datos.

Formato de la respuesta*.

Una pequeña e ingeniosa característica de Cody es que permite dar formato a las respuestas de los bots utilizando etiquetas markdown o HTML. Al proporcionar a tu bot una plantilla en formato HTML o Markdown en la personalidad del bot, éste intentará dar el formato adecuado a las respuestas, siempre que sea necesario.

Prompt:

Formato de respuesta:

<h1>[Field Name]</h1>

<p>[Field Name]</p>

<p>[Field Name]</p>

*El formatofunciona mejor en GPT-4

Ejemplo de pregunta

Cody como robot de generación de clientes potenciales

Anatomía de un aviso (etiquetado).

 

Chat de demostración que muestra el prompt en uso.

Cody como robot de marketing

Cody como robot de entrenamiento

Para saber más sobre los avisos de personalidad, consulta nuestros casos de uso, que contienen avisos detallados junto con sus ajustes paramétricos.

Conclusión

Si estás en el plan gratuito de Cody, existe la posibilidad de que el bot pierda adherencia a la indicación o simplemente ignore algunos parámetros debido a la ventana de contexto más pequeña o a la falta de coherencia. Recomendamos a todo el mundo que utilice el plan gratuito sólo a modo de prueba o como fase de transición para comprender el uso de Cody y determinar su idoneidad para su negocio.

A la hora de construir las instrucciones para tu bot, también es importante ser conciso y evitar incorporar todos los parámetros mencionados en el artículo. Como hay un límite en el número de fichas disponibles, y el indicador de personalidad también consume fichas, debes construirlas con criterio. Siéntete libre de cambiar las indicaciones de este artículo según tus necesidades y preferencias. ¿Ha descubierto algo nuevo? Siempre puede compartirlo con nosotros, y estaremos encantados de debatirlo.

Esto ha sido sólo una introducción al vasto panorama de la creación de personalidades bot. Los LLM mejoran continuamente con el paso de los días, y aún nos queda mucho camino por recorrer para aprovechar plenamente su potencial. Todo este viaje es una experiencia nueva para todos nosotros. A medida que sigamos experimentando, aprendiendo e implementando nuevos casos de uso y escenarios, los compartiremos con usted a través de artículos y tutoriales. Para obtener más recursos, también puedes consultar nuestro Centro de ayuda y no dudes en hacer cualquier pregunta que tengas sobre Cody uniéndote a nuestra comunidad de Discord. Consulte también nuestros blogs anteriores para obtener más información interesante.