Como nuestro objetivo es mejorar continuamente la experiencia del usuario, estamos encantados de anunciar otra monumental adición a nuestro arsenal de características: una integración fluida y sin problemas de Cody AI para Discord. Reconocida como una de las integraciones más esperadas, llevamos tus servidores Discord al siguiente nivel. Tanto si buscas alimentar apasionadas discusiones sobre juegos, acceder a recursos académicos para hacer los deberes o simplemente tener compromisos interactivos, Cody AI es tu asistente dedicado.
Cómo añadir Cody AI a tu servidor Discord:
Para invitar al bot a su servidor, utilice este enlace o puedes visitar la sección de integraciones en Cody AI Settings.
Inicia sesión en tu cuenta de Discord.
Seleccione el servidor en el que desea añadir el bot Cody.
Establezca la clave de la API mediante la opción /set-cody-token en cualquier canal de texto. El Token Cody AI sólo puede ser configurado por los administradores del servidor. Si necesita ayuda para obtener la clave API, consulte este artículo.
Asigna un bot a un canal de texto utilizando el botón /assign-bot mando. Puedes utilizar este comando para diferentes canales para establecer diferentes bots para cada canal.
Para hacer preguntas a tu bot, simplemente escribe @Cody seguido de su pregunta. Cody AI creará un nuevo hilo en el canal para responder a tu pregunta. Todos los mensajes de ese hilo serán considerados como Historial de Chat. Si desea iniciar una nueva conversación, salga del hilo y mencione @Cody otra vez.
Su opinión cuenta
Siempre nos hemos alimentado de las opiniones de los usuarios. Sus ideas y experiencias son la luz que nos guía. Mientras navegas por la integración Cody-Discord, te invitamos a compartir tus opiniones y sugerencias. Conéctate con nosotros en nuestro Servidor Discord o ponte en contacto con nosotros a través del botón Obtener ayuda de la aplicación web de Cody AI. Tu viaje con Cody en Discord nos importa, y estamos deseando que sea lo más enriquecedor posible. Para más integraciones lea sobre nuestra nueva integración ai Zapier.
En el vertiginoso mundo digital actual, la integración de la IA en nuestras herramientas de comunicación diarias no es sólo un lujo, sino una necesidad. Reconociendo esta necesidad, estamos encantados de anunciar la función de integración AI Slack con Cody. Esta integración está diseñada para mejorar la experiencia de Slack para las empresas y corporaciones que dependen en gran medida de él para su comunicación. Gracias a la integración de bots de Cody entrenados en documentos empresariales, los usuarios pueden disfrutar ahora de un proceso de comunicación más ágil y eficiente en sus espacios de trabajo de Slack.
Cómo integrar Cody AI en su espacio de trabajo de Slack
Añade el Bot Cody a tu espacio de trabajo Slack navegando a tu Configuración de Cody > Integraciones y haciendo clic en Instalar Slack.
Obtenga la Clave API desde Cody Settings > API Keys haciendo clic en Create API Key.
En su espacio de trabajo de Slack, busque su aplicación Cody y establezca la clave API en la sección Inicio.
Ve a cualquier canal de tu área de trabajo y utiliza el comando /assign-bot para asignar un bot de tu cuenta Cody a ese canal.
Para hacer preguntas a tu bot, simplemente escribe @Cody seguido de su pregunta. Cody creará un nuevo hilo en el canal para responder a tu pregunta. Todos los mensajes de ese hilo se considerarán Historial de Chat. Si desea iniciar una nueva conversación, salga del hilo y mencione @Codyotra vez.
El futuro de las integraciones de IA de Cody
Esta integración de Slack con IA es una de nuestras iniciativas pioneras en la integración de aplicaciones de terceros. La abrumadora demanda y la popularidad de esta función entre nuestros usuarios han sido la fuerza motriz de su creación. Y esto es sólo el principio. Actualmente estamos desarrollando funciones e integraciones adicionales, incluidas las de Discord y Zapier. Estas interesantes actualizaciones se pondrán en marcha próximamente.
Su opinión es importante
Sus opiniones y comentarios son muy valiosos para nosotros. Ellos marcan el rumbo de nuestras innovaciones y se aseguran de que siempre ofrezcamos lo mejor. Le invitamos a compartir sus opiniones y experiencias sobre esta integración. Conéctate con nosotros en nuestro servidor Discord o utiliza el botón “Obtener ayuda” de nuestra aplicación.
Consejos para crear un bot que haga justo lo que quieres.
Es esencial reconocer que cuando se construyen bots que utilizan modelos lingüísticos, la paciencia es crucial, especialmente al principio. Una vez establecida una base sólida, resulta más fácil añadir componentes adicionales. Construir robots con Cody es como pintar sobre un lienzo. Se requiere un cierto grado de creatividad y una cierta comprensión de los fundamentos para añadir tu toque personal al bot.
El parámetro principal que permite que tu bot adopte un estilo de pensamiento particular es el Prompt de Personalidad. La personalidad del bot depende de varios factores, como la distribución de tokens, la puntuación de relevancia, etc. Sin embargo, el indicador de personalidad es el aspecto más distintivo y creativo, ya que cada usuario puede personalizarlo de forma distinta. Los usuarios tienen libertad para crear y ajustar la personalidad del bot según sus necesidades específicas.
La libertad es algo que todos apreciamos, pero cuando se empieza con una pizarra en blanco, también puede resultar intimidante y generar ambigüedad sobre por dónde empezar. Si a usted le ocurre lo mismo, no se preocupe; este blog le ayudará a crear una personalidad más pronta. Comenzaremos con la estructura recomendada para las preguntas y, a continuación, presentaremos algunos ejemplos.
Nombre
Siempre es beneficioso empezar dando un nombre a tu bot. Ponerle un nombre a tu bot le da un toque humano, sobre todo al saludar a los usuarios o responder a preguntas relacionadas con el bot.
Sugerencias:
Su nombre es [Name of your Bot]. O
Usted es ‘[Name of your Bot]’.
Descripción
La descripción del bot lo hace consciente del contexto que se le proporcionará a través de la base de conocimientos. Ser consciente del contexto proporciona al bot un marco para responder a las preguntas teniendo en cuenta un dominio específico.
Sugerencias:
Su tarea principal es [specify the domain]. O
Su principal objetivo es ayudarme en [specify the domain].
Nota: El Nombre del Bot y la Descripción establecidos en la Sección General son sólo para la conveniencia del usuario para diferenciar entre múltiples bots. El propio bot desconoce estos ajustes. Por lo tanto, es necesario definir explícitamente el nombre y la descripción del bot dentro del Prompt de Personalidad para establecer su identidad y características.
Límites
Un posible inconveniente del uso de LLM entrenados en grandes conjuntos de datos es la tendencia a generar respuestas alucinadas. Es importante señalar que los datos utilizados para generar respuestas no se utilizan para que Cody ajuste o reentrene el LLM a demanda. En su lugar, sirve como referencia contextual para consultar el LLM, lo que da lugar a respuestas más rápidas y preserva la privacidad de los datos.
Para asegurarnos de que el bot no hace referencia a puntos de datos del conjunto de datos LLM original, que pueden solaparse con dominios o conceptos similares, tenemos que delimitar el contexto estrictamente a nuestra base de conocimientos.
Sugerencias:
La base de conocimientos es su única fuente de información. O
Es reacio a hacer afirmaciones que no figuren en la base de conocimientos.
Puede haber algunos casos en los que el bot no necesite una base de conocimientos o la utilice como fuente de referencia. En tales casos, la indicación cambiará considerablemente.
Prompt:
Su principal fuente de referencia es la base de conocimientos.
Características de la respuesta
Las características de la respuesta generada por el bot también pueden ser controladas hasta cierto punto por la personalidad del bot. Puede consistir en definir el tono, la longitud, el lenguaje y el tipo de respuesta que esperas de tu bot.
Sugerencias:
1. Tono: Debes responder de manera [polite/friendly/professional].
2. Longitud: Las respuestas deben estar en [pointers/paragraphs].
3. Idioma: Responder al usuario [in the same language/specify different language].
4. Tipo: Proporciona al usuario las respuestas de [creative/professional/precise].
Puede experimentar con distintas combinaciones y características. Los ejemplos proporcionados son sólo para su aprendizaje, y las posibilidades son infinitas.
Medios de comunicación
Una de las características más interesantes de Cody es la posibilidad de incrustar medios en las respuestas. Al incrustar medios como imágenes, GIF o vídeos, siempre se recomienda importar los medios a un documento aparte o importar todo el documento sin procesar utilizando el editor de texto incorporado de Cody en el que se pueden añadir medios. Puede copiar/pegar los medios o incrustarlos en el documento mediante URL.
Después de importar con éxito los medios de comunicación, es necesario especificar la misma en nuestra personalidad bot prompt. El aviso puede dividirse en dos partes: Inicialización e Ilustración.
Sugerencias:
Inicialización:
Incorporar [images/videos/both] pertinente de la base de conocimientos cuando sea conveniente.
Ilustración:
Añada imágenes con la etiqueta <img> y vídeos con <iframe>
Por ejemplo:
<img src=”[Image URL]”>
<iframe src=”[Video URL]”></iframe>
Fallbacks
Habrá ocasiones en las que el bot no pueda encontrar contenido relevante para la pregunta formulada por el usuario. Siempre es más seguro definir fallbacks para tales escenarios para evitar proporcionar información engañosa o incorrecta al usuario (sólo aplicable en casos de uso en los que exista una base de conocimientos).
Sugerencias:
1. Abstente de mencionar “base de conocimientos no estructurada” o nombres de archivos durante la conversación.
2. En los casos en que no se disponga de una respuesta definitiva, [Define fallback].
O
Si no puede encontrar información relevante en la base de conocimientos o si el usuario hace preguntas no relacionadas que no forman parte de la base de conocimientos, [Define fallback].
Pasos (opcional)
Si quieres que tu bot siga una línea de tiempo o flujo conversacional específico, puedes definirlo fácilmente mediante pasos. Este enfoque es especialmente útil cuando se utiliza el bot con fines de formación o de resolución de problemas. Cada paso representa una fase o etapa concreta de la conversación, lo que le permite controlar la progresión y asegurarse de que el bot proporciona la información o asistencia deseada de forma sistemática.
Prompt:
Siga estos pasos mientras conversa con el usuario:
1. [Step 1]
2. [Step 2]
3. [Step 3]
Nota: Al definir los pasos, se recomienda activar la“Búsqueda vectorial inversa” para mejorar las respuestas y asignar un número adecuado de tokens al historial de chat. Esto permite al modelo tener en cuenta el historial de la conversación, incluida la entrada del usuario y la respuesta anterior del bot, a la hora de generar una respuesta.
Captura de datos (opcional)
Esta indicación, en armonía con el flujo conversacional (pasos), es especialmente beneficiosa cuando el caso de uso de su bot gira en torno a escenarios de asistencia o contratación. En la actualidad, Cody no dispone de memoria a largo plazo ni de conectividad a bases de datos que puedan capturar los datos y almacenarlos para su consumo analítico. En el futuro, con las nuevas actualizaciones de la API de OpenAI, como las llamadas a funciones, incorporaremos sin duda nuevas funciones para poder capturar y almacenar los datos durante más tiempo.
Por ahora, puedes acceder a los chats de los usuarios de tu bot (a través de widgets) navegando a los chats de‘Invitados‘ en la sección de chat. A continuación, puede analizar manualmente los datos capturados para obtener más información.
Prompt:
Recoge los siguientes datos de los usuarios:
– [Field 1]
– [Field 2]
– [Field 3]
– [Field 4]
Haz una pregunta cada vez. Una vez recopilada toda la información necesaria, cierra la conversación dando las gracias y mostrando los datos recogidos. Recuerde que su tarea consiste únicamente en recopilar datos.
Formato de la respuesta*.
Una pequeña e ingeniosa característica de Cody es que permite dar formato a las respuestas de los bots utilizando etiquetas markdown o HTML. Al proporcionar a tu bot una plantilla en formato HTML o Markdown en la personalidad del bot, éste intentará dar el formato adecuado a las respuestas, siempre que sea necesario.
Prompt:
Formato de respuesta:
<h1>[Field Name]</h1>
<p>[Field Name]</p>
<p>[Field Name]</p>
*El formatofunciona mejor en GPT-4
Ejemplo de pregunta
Cody como robot de generación de clientes potenciales
Cody como robot de marketing
Cody como robot de entrenamiento
Para saber más sobre los avisos de personalidad, consulta nuestros casos de uso, que contienen avisos detallados junto con sus ajustes paramétricos.
Conclusión
Si estás en el plan gratuito de Cody, existe la posibilidad de que el bot pierda adherencia a la indicación o simplemente ignore algunos parámetros debido a la ventana de contexto más pequeña o a la falta de coherencia. Recomendamos a todo el mundo que utilice el plan gratuito sólo a modo de prueba o como fase de transición para comprender el uso de Cody y determinar su idoneidad para su negocio.
A la hora de construir las instrucciones para tu bot, también es importante ser conciso y evitar incorporar todos los parámetros mencionados en el artículo. Como hay un límite en el número de fichas disponibles, y el indicador de personalidad también consume fichas, debes construirlas con criterio. Siéntete libre de cambiar las indicaciones de este artículo según tus necesidades y preferencias. ¿Ha descubierto algo nuevo? Siempre puede compartirlo con nosotros, y estaremos encantados de debatirlo.
Esto ha sido sólo una introducción al vasto panorama de la creación de personalidades bot. Los LLM mejoran continuamente con el paso de los días, y aún nos queda mucho camino por recorrer para aprovechar plenamente su potencial. Todo este viaje es una experiencia nueva para todos nosotros. A medida que sigamos experimentando, aprendiendo e implementando nuevos casos de uso y escenarios, los compartiremos con usted a través de artículos y tutoriales. Para obtener más recursos, también puedes consultar nuestro Centro de ayuda y no dudes en hacer cualquier pregunta que tengas sobre Cody uniéndote a nuestra comunidad de Discord. Consulte también nuestros blogs anteriores para obtener más información interesante.
Cuando empieces a utilizar Cody, es posible que te sientas decepcionado o desanimado porque Cody no es capaz de generar las respuestas esperadas. En este breve blog, no profundizaremos en cómo deberías utilizar Cody, pero te daremos una idea aproximada de cómo Cody utiliza tus documentos para generar respuestas, de modo que puedas entender mejor el proceso de generación y experimentar con él.
Hay dos factores principales que afectan principalmente a la generación de respuestas utilizando sus documentos:
Agrupar
Ventana de contexto
Ambas terminologías, el chunking y la ventana contextual, están interrelacionadas. Se puede establecer una sencilla analogía para comparar la generación de respuestas con la cocción de alimentos. Los trozos pueden verse como las piezas individuales de verdura que se cortan, mientras que la ventana de contexto representa el tamaño del utensilio de cocina. Es importante cortar las verduras en trozos de tamaño óptimo para realzar el sabor general, y un utensilio más grande permite añadir más trozos de verdura.
¿Qué es la fragmentación?
En términos sencillos, la fragmentación es el acto de dividir el contenido en partes manejables para un uso eficiente de la memoria. Si ha leído nuestros blogs, sabrá que modelos como GPT requieren recursos considerables y, para hacer frente a las limitaciones de la ventana contextual, empleamos múltiples procesos como el chunking.
La fragmentación es un proceso que se realiza después de cargar los documentos en Cody. Divide o segmenta el documento en varios fragmentos, cada uno de los cuales contiene el contexto circundante pertinente. A estos trozos se les asignan etiquetas numéricas para facilitar el cálculo, lo que se conoce como incrustación. Es importante encontrar el tamaño óptimo de los trozos. Un tamaño de trozo menor reduce la relevancia del contexto, mientras que un tamaño de trozo mayor introduce más ruido. El algoritmo de troceado de Cody ajusta dinámicamente el tamaño del trozo en función de la distribución de tokens establecida por el usuario.
¿Cómo afecta la Ventana de Contexto a las respuestas del Bot?
En la calidad de las respuestas de los bots influyen varios factores, como el indicador de personalidad, la puntuación de relevancia, etc. La ventana contextual del modelo también desempeña un papel importante en la determinación de la calidad. La ventana de contexto se refiere a la cantidad de texto que un LLM (Modelo de Lenguaje) puede procesar en una sola llamada. Dado que Cody utiliza incrustaciones e inyección de contexto para generar respuestas utilizando modelos OpenAI, una ventana de contexto más amplia permite una mayor ingestión de datos por parte del modelo en cada consulta.
💡 Cada Consulta (≤ Ventana de Contexto) = Personalidad del Bot + Trozos de Conocimiento + Historial + Entrada del Usuario + Respuesta.
Ventanas contextuales de distintos modelos:
GPT-3.5: 4096 fichas (≈3500 palabras)
GPT-3.5 16K: 16000 fichas (≈13000 palabras)
GPT-4: 8000 fichas (≈7000 palabras)
Cuando la ventana contextual es más grande, permite una mayor proporción de cada parámetro, incluyendo Personalidad, Trozos, Historia, Entrada y Respuesta. Este contexto ampliado permite al robot generar respuestas más pertinentes, coherentes y creativas.
La última incorporación de Cody permite a los usuarios comprobar las citas de los documentos haciendo clic en el nombre del documento al final de las respuestas. Estas citas corresponden a los trozos obtenidos mediante la búsqueda semántica. Cody determina el umbral de trozos para el contexto basándose en la puntuación de relevancia establecida por el usuario. Si el usuario establece una puntuación de relevancia alta, Cody sólo utiliza los trozos que superan un umbral predefinido como contexto para generar la respuesta.
Ejemplo
Asumiendo un valor límite predefinido del 90% para una puntuación de relevancia alta, Cody descarta cualquier trozo con una puntuación de relevancia inferior al 90%. Recomendamos a los nuevos usuarios que empiecen con una puntuación de relevancia baja (baja o equilibrada), especialmente cuando utilicen documentos cargados (PDF, Powerpoints, Word, etc.) o sitios web. Los documentos o sitios web cargados pueden encontrar problemas de formato y legibilidad durante el preprocesamiento, lo que puede dar lugar a puntuaciones de relevancia más bajas. Formatear el documento utilizando nuestro editor de texto integrado en lugar de cargar documentos sin formato garantizará la máxima precisión y puntuación de confianza.
Si te ha parecido interesante este blog y quieres profundizar en los conceptos de ventana contextual y chunking, te recomendamos encarecidamente que leas este blog escrito por Kristian de All About AI. Para obtener más recursos, también puedes consultar nuestro Centro de ayuda y unirte a nuestra comunidad de Discord.
Una guía paso a paso para crear su propia IA que satisfaga las necesidades de su empresa.
Las aplicaciones de los bots son muy amplias y, con el aumento del uso de modelos generativos por parte de los bots, puede resultar tentador subirse al carro y construir tu propio ChatGPT. Con el lanzamiento de Cody, crear chatbots de IA nunca había sido tan fácil. La interfaz agnóstica de modelos y sin código de Cody trata de hacer accesible la IA personal a todos los ámbitos individuales y empresariales existentes. Sin embargo, aunque Cody se esfuerza por que todo el proceso sea lo más sencillo posible, puede resultar un poco intimidante para alguien que sea nuevo en el mundo de la IA. Por eso, en este blog, te explicamos de principio a fin cómo construir tu propio ChatGPT usando Cody. Le guiaremos a través de un caso práctico que le ayudará a iniciar su andadura en Cody con confianza.
El caso práctico
Construiremos un chatbot de inteligencia artificial con Cody que actuará como guía turístico. Será un valioso complemento para las empresas relacionadas con el turismo, ya que puede mejorar enormemente la experiencia del cliente. Pero el alcance de la creación de un chatbot con Cody no se limita a un solo ámbito empresarial. Los usuarios pueden experimentar con diferentes indicaciones para crear un bot adaptado a su propio negocio y también compartirlo con sus clientes después de leer este blog.
Requisitos
Contenido relacionado con su empresa (PDF, Word, sitio web o texto)
Cuenta en Cody (Plan recomendado: Premium)
15 minutos
Paso 1: Añadir datos a la base de conocimientos
Para añadir documentos a Train Cody según las necesidades de tu empresa, sigue estos pasos:
Vaya a la sección Contenido de la interfaz de Cody.
Crea una nueva carpeta para organizar tus documentos.
Existen tres métodos para añadir datos a la base de conocimientos:
Escribir: Utiliza el editor de texto integrado para introducir directamente el contenido.
Cargar: Cargue archivos PDF, Word o PowerPoint que contengan información relevante.
Importar sitio web: Esta función le permite rastrear el sitio web de su empresa y recopilar datos automáticamente. (Nota: Esta función sólo está disponible en los planes Premium y Avanzado ).
Para este tutorial concreto, utilizaremos una guía de Boston que incluye información sobre diversas atracciones turísticas, sus descripciones, horarios de funcionamiento, direcciones y preguntas frecuentes (FAQ).
Después de subir los documentos necesarios, podrás seguir su estado, que puede ser“aprendiendo” o“aprendido“. El estado indica si Cody está actualmente en proceso de aprendizaje de los documentos o si ha completado con éxito el proceso de aprendizaje. Una vez que Cody haya aprendido los documentos cargados, puedes pasar al siguiente paso, que consiste en construir el chatbot propiamente dicho.
Nota: Es fundamental asegurarse de que los documentos que proporcione sigan un formato específico que mejore la calidad de las respuestas generadas por Cody. Para saber más sobre el formato de documento recomendado, le recomendamos que lea la documentación proporcionada sobre directrices de formato.
Paso 2: Crear el propósito del bot
El propósito se divide a su vez en 3 partes:
Personalidad
La personalidad actúa como el cerebro del bot y desempeña un papel esencial en la generación de respuestas eficaces y útiles. Se compone de múltiples parámetros como Prompt, Relevance Score, Token Distribution, Prompt Persistence y Reverse Vector Search. Para una explicación detallada de estas terminologías, recomendamos consultar nuestro blog anterior, que ofrece información exhaustiva para los recién llegados a Cody. Cody ofrece dos opciones al usuario para crear la personalidad: Modo Plantilla y Modo avanzado.
El modo de plantilla proporciona a los usuarios indicaciones predefinidas, ofreciendo una cómoda solución plug-and-play. Para este tutorial y caso de uso, nos limitaremos a utilizar el Modo Avanzado ya que el caso de uso no está cubierto actualmente en el Modo Plantilla. En el futuro, tenemos previsto crear una biblioteca de avisos con sus casos de uso específicos, lo que ofrecerá aún más opciones a los usuarios y también añadirá más preajustes al Modo Plantilla.
Personalidad para el guía turístico de AI:
Pregunte a
Eres Cody Travel Guide, un asistente de inteligencia artificial dedicado a proporcionar información precisa sobre Boston. Su tarea principal es ayudarme proporcionándome respuestas fiables y claras a mis preguntas, basándose en la información disponible en la base de conocimientos como única fuente. Abstente de mencionar “base de conocimientos” o nombres de archivos durante la conversación. Es reacio a hacer afirmaciones a menos que estén expuestas o respaldadas por la base de conocimientos. Cuando no disponga de una respuesta definitiva, reconozca su incapacidad para contestar e infórmeme de que no puede responder. En lugar de decir “la información se basa en mis conocimientos”, basta con decir “disculpen si me he olvidado de algo”.
Intenta utilizar el siguiente formato para mostrar la información:
<h2> Nombre del lugar </h2>
<strong> Descripción: </strong> <br>
<strong> Dirección: </strong> <br>
<strong> Horario de trabajo: </strong> <br>
<strong> Información adicional: </strong> <br>
Visite la página <a href=’Insertar enlace’>< /a> para saber más.
Si se le pide un plan o itinerario de viaje personalizado, cree uno utilizando los horarios y la descripción que se proporcionan en este formato:
Nombre del lugar: <br>
Hora de visita: Hora de inicio-Hora de finalización <br>
Dirección: <br>
Puntuación de relevancia: Equilibrado
Distribución de fichas: 70-10-20 (Context-History-Response)
Persist Prompt: En
Búsqueda vectorial inversa: Off
💡 Si quieres dar un formato determinado a las respuestas de tu bot, Cody admite etiquetas Markdown y HTML, en las que puedes definir una plantilla de formato para tu bot.
Cada pregunta de personalidad debe seguir una estructura específica para obtener respuestas de calidad. Consejos importantes para elaborar un aviso eficaz con ejemplos:
→ Define las fallbacks:
“En lugar de decir ‘que la información se basa en mi base de conocimientos’, basta con decir ‘disculpen si me he saltado algo'”.
“Si no puede encontrar información relevante en la base de conocimientos, reconozca su incapacidad y sugiera ponerse en contacto con [Enter your website URL/contact no.]”
→ Delimita las fuentes:
“Utiliza la base de conocimientos como única fuente”.
“Su respuesta debe estar en el mismo idioma que mi petición, y no debe mencionar la palabra base de conocimientos durante la conversación”.
→ Define el objetivo:
“Su objetivo es proporcionarme asistencia y responder a mis preguntas sobre [Enter your business domain].”
“Evitar actividades no relacionadas o participar en discusiones no relacionadas con la base de conocimientos o la escritura creativa”.
Ejemplo de formulario para el servicio de atención al cliente:
📌 Eres Cody, un Asistente AI de Soporte de Sitios Web que trabaja para Villa Homes. Su objetivo es proporcionarme apoyo y responder a mis preguntas sobre Villa Homes, utilizando la base de conocimientos como única fuente.
Evitar actividades no relacionadas o participar en debates no relacionados con la base de conocimientos o la escritura creativa. Si no puedes encontrar información relevante en la base de conocimientos o si el usuario hace preguntas no relacionadas que no forman parte de la base de conocimientos, reconoce tu incapacidad y sugiere que contacte con el equipo de Villa Homes en el +40XXXXXXX
Su respuesta debe estar en el mismo idioma que mi solicitud, y no debe mencionar la palabra base de conocimientos durante la conversación.
Para saber más sobre la ingeniería de mejores prompts, lea este blog donde explicamos en detalle todos los fundamentos de Cody.
General
En esta sección, deberás definir el nombre y la descripción de tu bot, así como seleccionar el modelo que deseas utilizar con Cody. Puedes elegir entre tres modelos diferentes de OpenAI:
GPT-3.5
GPT-3.5 16K
GPT-4
Con el Plan Premium, tiene acceso a los tres modelos, lo que le da libertad para elegir el más adecuado a sus necesidades específicas. Es una opción práctica que permite aprovechar todas las posibilidades que ofrece Cody.
Utilizaremos el GPT-4, ya que es el modelo más avanzado disponible en la actualidad y se adapta perfectamente al caso de uso que vamos a demostrar gracias a su mayor creatividad.
Conocimientos
La carpeta creada en el primer paso debe estar vinculada a su bot específico en esta sección. Si ha creado varias carpetas que desea vincular, sólo tiene que seleccionar todas las carpetas en las que desee formar a Cody.
Es importante entender que Cody no es una caja negra con mente propia. Es un modelo que simplemente predice la siguiente palabra de la frase. Como dice el famoso dicho de la ciencia de datos:“Basura dentro, basura fuera“. Cuanto mejor configures la personalidad, definas las reglas del bot y limpies los datos que le proporciones, mejores respuestas generará. Con nuevas incorporaciones, como el modo de plantillas con varios preajustes, intentamos facilitar a los usuarios el proceso de indicación de la personalidad.
Paso 3: Probar y compartir el bot
Ahora viene la parte más emocionante. Probar y ensayar el robot que has construido tú mismo puede darte una gran sensación de logro. Hay dos formas de probar y compartir tu bot: creando un chat o utilizando el recién lanzado widget personalizable.
Para crear un widget de chat en sólo tres sencillos pasos:
Ve a la sección Bots de la interfaz de Cody.
Selecciona el bot que has creado y haz clic en los tres puntos ‘⋮’ para ver más opciones.
Haga clic en“Incrustar“.
Y ¡voilá! Has creado con éxito un Widget Cody personalizable.
Cuando utilizas un widget de Cody, tienes dos opciones para compartirlo con otros: Compartir enlace o Incrustar. Si no tienes un sitio web para tu negocio o si no te sientes cómodo modificando el código de tu sitio web, puedes compartir fácilmente el bot con tus clientes utilizando el enlace proporcionado.
Existen dos tipos de widgets integrables:
Inline Embed: Este tipo de widget se incrustará en un espacio específico de su sitio web. Ocupará el espacio necesario que requiera el widget dentro del elemento principal definido.
Pop-Up Embed: Este tipo de widget aparece como un icono flotante en su sitio web. Cuando un visitante hace clic en el icono, el widget se expande y se abre, permitiendo la interacción con el chatbot.
Ambos tipos de widgets incrustables proporcionan diferentes formas de integrar el bot Cody en tu sitio web, ofreciendo flexibilidad en cuanto a la utilización del espacio y la experiencia del usuario. Puede elegir el que mejor se adapte al diseño de su sitio web y a las preferencias de interacción del usuario.
Personalizar el widget
Nuestra última novedad ofrece a los usuarios total libertad y opciones de personalización para los widgets. Esto significa que puede adaptar el aspecto, el comportamiento y la experiencia general del usuario del widget a sus requisitos específicos y a su marca.
Las opciones de personalización incluyen:
Cabecera
Cambiar la disposición de la cabecera (Izquierda o Centro).
Añada el logotipo de su empresa
Color
Título
Subtítulo
Chat
Tamaño del mensaje (tamaño de la burbuja de chat)
Color de fondo del chat
Bot
Mensajes iniciales
Color de fondo del mensaje
Avatar Bot
Bot Color
Humano
Preguntas sugeridas
Color de fondo del mensaje
Compositor
Mensaje con marcador de posición
Icono del botón Enviar
Marca Cody (Sólo se puede eliminar en los planes Premium y Avanzado )
Lanzador
Talla
Posición de la pantalla
Color de fondo (color del botón flotante)
Icono
Cerrar icono
Todas estas opciones de personalización deberían hacer que Cody sea más personalizado y acorde con la estética de su negocio, lo que se traduce en una experiencia de usuario mucho mejor para sus clientes.
¡Eso es todo!
Crear y compartir un bot con Cody es ahora más fácil que nunca, con sólo tres sencillos pasos. Con la reciente introducción de las opciones de personalización de los widgets, nunca ha habido mejor momento para crear tu propio bot con Cody. La flexibilidad añadida en la personalización del widget te permite adaptar la apariencia y el comportamiento del bot a las necesidades específicas de tu negocio y de tu marca.
Trabajamos constantemente en el desarrollo y la introducción de funciones más interesantes para mejorar la experiencia de Cody. Nuestro equipo se dedica a hacer que todo el proceso de creación y despliegue de bots sea aún más fluido y fácil de usar. Esté atento a las próximas actualizaciones, ya que seguimos mejorando y perfeccionando la plataforma Cody. Para obtener más recursos, también puedes consultar nuestro Centro de ayuda y unirte a nuestra comunidad de Discord.
¿Deberías pasarte a la versión de pago de Cody? He aquí por qué querrías hacerlo.
Hace unos días, lanzamos un modelo más nuevo para todos nuestros usuarios de pago justo después del lanzamiento de OpenAI: GPT-3.5 16k. Por intimidante que pueda parecer, puede cambiar las reglas del juego de su empresa. En este blog, profundizaremos en los casos de uso de GPT-3.5 16k, exploraremos sus ventajas y destacaremos en qué se diferencia del modelo GPT-3.5 existente y del último GPT-4 de gama alta.
¿Qué es GPT-3.5 16K?
Si ya has utilizado la versión gratuita de Cody, puede que estés familiarizado con el modelo vainilla GPT-3.5, que utiliza el modelo gpt-3.5-turbo de OpenAI. Este modelo es la elección popular de muchos usuarios, ya que ofrece asequibilidad, velocidad y fiabilidad en la mayoría de los casos. Por otro lado, el GPT-3.5-16k utiliza el modelo gpt-3.5-turbo-16k de OpenAI, que es una extensión del gpt-3.5-turbo. La diferencia significativa radica en el aspecto “16k”.
¿Qué es 16K?
El sufijo “16K” indica que el modelo tiene una ventana contextual de 16.000 fichas, lo que supone un aumento significativo respecto a las 4.096 fichas actuales. En nuestro blog anterior, explicamos en detalle qué son las fichas. Una ventana contextual más pequeña en los modelos puede acarrear varias limitaciones, entre ellas:
Falta de relevancia: Con una ventana de contexto limitada, el modelo puede tener dificultades para captar y mantener la relevancia del contexto más amplio de una conversación o tarea.
Incapacidad para mantener el contexto: Una ventana de contexto más pequeña puede dificultar que el modelo recuerde y haga referencia a información de partes anteriores de una conversación, lo que provoca incoherencias y dificultades para mantener un diálogo coherente.
Restricciones en la longitud de las consultas: las ventanas contextuales más cortas imponen restricciones en la longitud de las consultas, lo que dificulta proporcionar información exhaustiva o formular preguntas complejas.
Limitaciones del contexto de la base de conocimientos: Una ventana de contexto más pequeña puede enfrentarse a limitaciones a la hora de incorporar conocimiento de documentos relevantes del conocimiento debido al límite de ingestión de datos.
Ventajas de una ventana contextual más grande
A algunas personas podría surgirles una pregunta: ¿Cómo es posible que GPT-3.5 pueda procesar más de 1.000 páginas web y documentos en Cody, a pesar de su capacidad de sólo 4.096 tokens? Con los avances en el campo de la IA generativa, proporcionar contexto no significa simplemente alimentar todo el documento tal cual a modelos lingüísticos como GPT-3.5 Turbo. Para preprocesar los datos se utilizan procesos backend como el chunking, los embeddings y las bases de datos vectoriales, que mantienen la relevancia dentro de los trozos y permiten al modelo navegar por la ventana de contexto predefinida.
En el escenario actual, una ventana de contexto más grande mejoraría el rendimiento general de la IA al acomodar entradas más grandes y complejas, reduciendo al mismo tiempo el número de transacciones de vector-almacenamiento necesarias para generar una respuesta. Dado que la ventana de contexto abarca tanto la entrada como la salida, una ventana más amplia también permitiría al modelo ofrecer respuestas elaboradas y coherentes manteniendo el contexto conversacional.
Una ventana de contexto más amplia también ayudaría a mitigar las alucinaciones que pueden producirse cuando se supera el límite de tokens en una conversación.
GPT-3.5 Turbo 16K frente a GPT-4
Aunque gpt-3.5-turbo-16k es la última versión de OpenAI, gpt-4 sigue superándola en varios aspectos, como la comprensión del contexto visual, la mejora de la creatividad, la coherencia y el rendimiento multilingüe. La única área en la que GPT-3.5-16k destaca es la ventana contextual, ya que GPT-4 está disponible actualmente en la variante de 8k, mientras que la variante de 32k se está lanzando gradualmente.
Mientras tanto, hasta que la versión de 32k de gpt-4 sea ampliamente accesible, la GPT-3.5-16k destaca por su mayor ventana contextual. Si busca específicamente un modelo que ofrezca una ventana contextual más amplia, el GPT-3.5-16k es la opción ideal.
Casos de uso de una ventana contextual más grande
Atención al cliente: Una ventana contextual más amplia mejora la memoria a corto plazo del modelo, lo que lo hace muy adecuado para aplicaciones de atención al cliente, cumplimentación de formularios y recogida de datos de usuarios. Permite al modelo mantener el contexto durante un periodo más largo, lo que da lugar a respuestas más pertinentes a las entradas de los usuarios, como nombres, ID de clientes, quejas y comentarios.
Formación de empleados: Aprovechar Cody para formar a los empleados resulta muy eficaz. La formación de los empleados suele implicar una gran cantidad de datos relacionados con las actividades, los pasos y los procesos empresariales. Para mantener la relevancia contextual a lo largo del programa de formación, se hace necesario incorporar todo el historial de conversaciones del alumno. Una ventana de contexto más amplia permite incluir más información histórica, lo que facilita una experiencia de formación más completa y eficaz.
Análisis de datos: Las tareas relacionadas con el análisis financiero y la inferencia estadística suelen requerir el procesamiento de grandes volúmenes de datos para extraer conclusiones significativas. Con una ventana de contexto mayor, el modelo puede retener más información relevante durante el cálculo, lo que da lugar a un análisis más coherente y preciso. Por ejemplo, la comparación de balances y del rendimiento global de una empresa año tras año puede ejecutarse de forma más eficaz con una ventana de contexto más amplia.
Comparación entre GPT-3.5 4K v/s 16K
Para demostrar las mejoras en el modelo de 16K, consultamos un archivo .csv de la Tabla Periódica que contiene 118 elementos y sus características.
De la comparación se desprende que GPT-3.5 4K fue incapaz de producir todos los elementos radiactivos en su respuesta y omitió algunos elementos. En cambio, GPT-3.5 16K produjo casi todos los elementos radiactivos presentes en la tabla proporcionada. Esto demuestra la mejor elaboración de las respuestas gracias a la mayor ventana de contexto. Esto ha sido sólo un pequeño vistazo al potencial que encierra la ventana contextual de 16k, con infinitas aplicaciones e implementaciones de la misma. Con GPT-4 32K en el pipeline, el modelo 16K puede facilitar una transición más suave a una ventana de contexto mayor.
¿Actualización?
La ventana contextual más grande es sin duda una actualización significativa y no un mero truco. La mejora de la comprensión del contexto desempeña un papel crucial en la mejora de la calidad de las respuestas, y una ventana de contexto más amplia desbloquea un potencial sustancial para estos modelos lingüísticos (LLM). Al permitir una comprensión más amplia de la historia de la conversación y de las pistas contextuales, los LLM pueden ofrecer resultados más precisos y adecuados al contexto.
Como ya se ha mencionado, la variante 16K de GPT-3.5 está disponible para todos los usuarios a partir del Plan Básico. Si llevas algún tiempo utilizando el plan Personal (gratuito), ya habrás experimentado las posibilidades que ofrece Cody. El Plan Básico ofrece una excelente relación calidad-precio, sobre todo si no necesita las funciones adicionales de GPT-4. Es adecuado para particulares que estén construyendo un bot como proyecto o prototipo para su negocio, con la opción añadida del modelo GPT-3.5 16K. En el futuro, cuando lancemos la variante GPT-4 32K, siempre podrás pasarte al plan Premium cuando necesites más tokens.
Para las grandes empresas, el Plan Avanzado es la opción más potente, ya que satisface las necesidades de uso intensivo de recursos y de gran volumen. Ofrece capacidades integrales para satisfacer las exigencias de las operaciones a gran escala.