Author: Om Kamath

Om Kamath

GPT-4o: OpenAI desvela su último modelo lingüístico, disponible gratuitamente para los usuarios

GPT-4o

Tras un montón de especulaciones en las redes sociales y otros foros sobre lo que OpenAI nos tiene reservado, ayer OpenAI reveló por fin su último y más potente LLM hasta la fecha: el GPT-4o (“o” de omni). Por si te perdiste el evento de lanzamiento de GPT-4o, repasemos las capacidades de GPT-4o y las funciones que ofrece.

Capacidades mejoradas de audio, texto y visión

GPT-4 Turbo es un modelo potente, pero tiene un inconveniente: la latencia. En comparación con la GPT-3.5 Turbo, la GPT-4 Turbo sigue siendo considerablemente más lenta. GPT-4o soluciona este inconveniente y es 2 veces más rápido que GPT-4 Turbo. Esto abre un espectro más amplio de casos de uso que implican la integración de datos de voz, texto y visión, dando un paso más allá de lo multimodal a lo omnimodal. La principal diferencia entre multimodal y omnimodal es que, en omnimodal, las tres fuentes pueden funcionar perfectamente en paralelo.

Estas mejoras también permiten al modelo generar habla con una modulación de voz mejorada, capacidad para entender el sarcasmo y habilidades conversacionales naturales mejoradas.

Precio reducido y disponible gratuitamente para los usuarios de ChatGPT

Aunque la GPT-4o es más eficaz y rápida que la GPT-4 Turbo saliente, tiene la mitad de precio (API) que la GPT-4 Turbo, lo que significa que la GPT-4o costará 5,00 US$/1M de fichas de entrada y 15,00 US$/1M de fichas de salida. Con la mejora de los precios, la ventana contextual es ahora de 128k tokens, y la fecha límite de conocimiento es octubre de 2023.

Como guinda del pastel, la GPT-4o estará disponible para todos los usuarios de ChatGPT de forma gratuita (los usuarios de ChatGPT Plus tendrán un límite de 5x para la GPT-4o). Junto a esto, OpenAI también presentó la aplicación de escritorio ChatGPT, que permitirá a los usuarios hacer uso de las capacidades de visión de GPT-4o para leer y comprender el contenido que se muestra en la pantalla. Los usuarios también podrán hablar con ChatGPT utilizando la aplicación de escritorio.

Demo GPT-4o

 

OpenAI ha declarado que está desplegando el acceso a GPT-4o por etapas a lo largo de las próximas semanas, y que los usuarios de ChatGPT Plus tendrán prioridad y acceso anticipado al modelo. Sólo comprenderemos el verdadero potencial de este modelo cuando tengamos acceso a él en las próximas semanas. ¡Nos esperan tiempos emocionantes!

Groq y Llama 3: Un dúo que cambia el juego

Hace un par de meses, una nueva empresa llamada “Groq” surgió aparentemente de la nada, haciendo un gran avance en la industria de la IA. Proporcionaron una plataforma para que los desarrolladores accedieran a las LPU como motores de inferencia para los LLM, especialmente los de código abierto como Llama, Mixtral y Gemma. En este blog, vamos a explorar qué hace que Groq sea tan especial y a profundizar en la maravilla que hay detrás de las LPU.

¿Qué es Groq?

“Groq tiene la misión de establecer el estándar para la velocidad de inferencia de GenAI, ayudando a que las aplicaciones de IA en tiempo real cobren vida hoy”. – El sitio web de Groq

Groq no es una empresa que desarrolle LLMs como GPT o Gemini. En cambio, Groq se centra en mejorar los fundamentos de estos grandes modelos lingüísticos: el hardware sobre el que funcionan. Sirve de “motor de inferencia”. Actualmente, la mayoría de los LLM del mercado utilizan GPU tradicionales desplegadas en servidores privados o en la nube. Aunque estas GPU son caras y potentes, y proceden de empresas como Nvidia, siguen basándose en la arquitectura tradicional de GPU, que puede no ser la más adecuada para la inferencia LLM (aunque siguen siendo potentes y las preferidas para los modelos de entrenamiento).

El motor de inferencia proporcionado por Groq funciona sobre LPUs – Unidades de Procesamiento del Lenguaje.

¿Qué es una LPU?

Una Unidad de Procesamiento Lingüístico es un chip diseñado específicamente para los LLM y se basa en una arquitectura única que combina CPU y GPU para transformar el ritmo, la previsibilidad, el rendimiento y la precisión de las soluciones de IA para los LLM.

LPU Unidad de Procesamiento Lingüístico de Groq

Atributos clave de un sistema LPU. Créditos: Groq

Un sistema LPU tiene tanto o más cálculo que un procesador gráfico (GPU) y reduce el tiempo de cálculo por palabra, lo que permite generar secuencias de texto más rápidamente.

Características de un motor de inferencia LPU según la lista del sitio web de Groq:

  • Rendimiento secuencial excepcional
  • Arquitectura mononúcleo
  • Red sincrónica que se mantiene incluso en despliegues a gran escala
  • Capacidad de autocompilación >50B LLMs
  • Acceso instantáneo a la memoria
  • Alta precisión que se mantiene incluso a niveles de precisión más bajos

Servicios prestados por Groq:

  1. GroqCloud: LPUs en la nube
  2. GroqRack: rack de 42U con hasta 64 chips interconectados
  3. GroqNode: Sistema informático escalable de 4U preparado para rack que incluye ocho aceleradores GroqCard™ interconectados
  4. GroqCard: Un único chip en un factor de forma estándar PCIe Gen 4×16 que proporciona una integración sin problemas en el servidor

“A diferencia de la CPU que se diseñó para hacer un tipo de tarea completamente diferente a la IA, o de la GPU que se diseñó basándose en la CPU para hacer algo parecido a la IA por accidente, o de la TPU que modificó la GPU para hacerla mejor para la IA, Groq es desde el principio, primeros principios, un sistema informático para la IA”- Daniel Warfield, Towards Data Science

Para saber más sobre en qué se diferencian las LPU de las GPU, las TPU y las CPU, te recomendamos que leas este completo artículo escrito por Daniel Warfield para Towards Data Science.

¿Para qué sirve Groq?

Los LLM son increíblemente potentes, capaces de realizar tareas que van desde analizar datos no estructurados hasta responder preguntas sobre la ternura de los gatos. Sin embargo, su principal inconveniente reside actualmente en el tiempo de respuesta. La lentitud del tiempo de respuesta provoca una latencia significativa cuando se utilizan LLM en procesos backend. Por ejemplo, obtener datos de una base de datos y mostrarlos en formato JSON es actualmente mucho más rápido cuando se hace utilizando la lógica tradicional en lugar de pasar los datos por un LLM para su transformación. Sin embargo, la ventaja de los LLM reside en su capacidad para comprender y manejar las excepciones de datos.

Con la increíble velocidad de inferencia que ofrece Groq, este inconveniente de los LLM puede reducirse enormemente. Esto abre casos de uso mejores y más amplios para los LLM y reduce los costes, ya que con una LPU podrás desplegar modelos de código abierto que son mucho más baratos de ejecutar con tiempos de respuesta realmente rápidos.

Llama 3 en Groq

Hace un par de semanas, Meta presentó su última iteración del ya potente y muy capaz LLM-Llama 3 de código abierto. Junto a las mejoras típicas de velocidad, comprensión de datos y generación de fichas, destacan dos mejoras significativas:

  1. Entrenado en un conjunto de datos 7 veces mayor que Llama 2, con 4 veces más código.
  2. Duplicada la longitud del contexto a 8.000 fichas.

Llama 2 ya era un formidable LLM de código abierto, pero con estas dos actualizaciones, se espera que el rendimiento de Llama 3 aumente significativamente.

Puntos de referencia de Llama 3

Puntos de referencia de Llama 3

Para probar Llama 3, tienes la opción de utilizar Meta AI o el patio de recreo Groq. Mostraremos el rendimiento de Groq probándolo con Llama 3.

Parque infantil Groq

Actualmente, el parque infantil Groq ofrece acceso gratuito a Gemma 7B, Llama 3 70B y 8B, y Mixtral 8x7b. El campo de juego te permite ajustar parámetros como la temperatura, el máximo de fichas y la alternancia de secuencias. Además, cuenta con un modo JSON dedicado para generar sólo salida JSON.

Sólo 402 ms para la inferencia a un ritmo de 901 tokens/s

Sólo 402 ms para la inferencia a un ritmo de 901 tokens/s

Sólo 402 ms para la inferencia a un ritmo de 901 tokens/s

Llegando al dominio/aplicación más impactante en mi opinión, la extracción y transformación de datos:

Pedir al modelo que extraiga información útil y proporcionar un JSON utilizando el modo JSON.

Pedir al modelo que extraiga información útil y proporcionar un JSON utilizando el modo JSON.

La extracción y transformación a formato JSON se completó en menos de medio segundo.

La extracción y transformación a formato JSON se completó en menos de medio segundo.

Conclusión

Como se ha demostrado, Groq ha surgido como un cambio de juego en el panorama del LLM con su innovador motor de inferencia LPU. La rápida transformación que aquí se muestra es un indicio del inmenso potencial para acelerar las aplicaciones de la IA. De cara al futuro, sólo cabe especular sobre las futuras innovaciones de Groq. Tal vez, una Unidad de Procesamiento de Imágenes podría revolucionar los modelos de generación de imágenes, contribuyendo a los avances en la generación de vídeo con IA. En efecto, es un futuro apasionante que anticipar.

De cara al futuro, a medida que la formación LLM sea más eficiente, la posibilidad de disponer de un ChatGPT personalizado, ajustado con tus datos en tu dispositivo local, se convierte en una perspectiva tentadora. Una plataforma que ofrece estas capacidades es Cody, un asistente inteligente de IA hecho a medida para ayudar a las empresas en diversos aspectos. Al igual que ChatGPT, Cody puede ser entrenado en los datos de su negocio, equipo, procesos y clientes, utilizando su base de conocimientos única.

Con Cody, las empresas pueden aprovechar el poder de la IA para crear un asistente personalizado e inteligente que atienda específicamente a sus necesidades, lo que lo convierte en una prometedora incorporación al mundo de las soluciones empresariales basadas en IA.

Los 5 mejores LLM gratuitos de código abierto en 2024

Los LLM son omnipresentes hoy en día y no necesitan presentación. Tanto si te dedicas a la tecnología como si no, lo más probable es que te hayas encontrado o estés utilizando alguna forma de LLM a diario. Los LLM más destacados en la actualidad son GPT de OpenAI, Claude de Anthropic y Gemini de Google.

Sin embargo, estos populares LLM funcionan a menudo como sistemas abstractos o de caja negra, lo que suscita preocupación por la privacidad y la transparencia de los datos. Para solucionar estos problemas, existen varios LLM de código abierto que permiten a los usuarios implantarlos en máquinas o servidores privados con toda tranquilidad.

Por código abierto se entiende el software o los productos distribuidos con su código fuente disponible libremente para su inspección, modificación y distribución. Esta accesibilidad permite a los usuarios comprender, mejorar y contribuir al desarrollo del software.

Estos son algunos de los mejores LLM de código abierto disponibles en la actualidad:

Llama 2

LLaMA 2: el modelo de IA de código abierto de Meta

Llama 2 es un LLM de código abierto desarrollado por Meta, que se ofrece gratuitamente con fines comerciales y de investigación. Los modelos Llama 2 se han entrenado con dos billones de fichas y tienen el doble de longitud de contexto que Llama 1.

Los parámetros del modelo influyen directamente en su capacidad de comprensión del texto, y los modelos más grandes ofrecen un mejor rendimiento a costa de un aumento de tamaño y de los recursos necesarios.

Variantes disponibles: Parámetros 7B, 13B y 70B

Ventana de contexto: 4096 fichas

Idiomas admitidos: Funciona mejor en inglés

Mixtral 8x7B

Mistral AI presenta Mixtral 8x7B, un LLM de código abierto que, según afirma, está a la altura de GPT 3.5

Mixtral 8x7B, desarrollado por Mistral AI, es un LLM que contiene 46,7B parámetros totales. A pesar de su tamaño, mantiene una velocidad de inferencia y un coste similares a los modelos de un tercio de su tamaño. Este modelo de Transformador de Mezcla de Expertos (MoE) supera con creces a LLama 2 y GPT-3.5 en algunas pruebas.

Variantes disponibles: Pequeño, Pequeño, Mediano y Grande (desde económico hasta de alto rendimiento)

Ventana de contexto: 32000 fichas (en Mistral Large)

Idiomas admitidos: Inglés, francés, español, alemán, italiano (en Mistral Large)

Halcón

El Instituto de Innovación Tecnológica de los Emiratos Árabes Unidos lanza un modelo de gran lenguaje

Falcon, desarrollado por el Technology Innovation Institute (TII) de Abu Dhabi, es otro de los principales LLM de código abierto. Tras su lanzamiento, Falcon 40B ocupó durante dos meses el primer puesto en la clasificación de Hugging Face de grandes modelos lingüísticos (LLM) de código abierto. Con la variante 180B, TII mejora aún más los conocimientos y la capacidad de comprensión de datos del modelo. Falcon 180B es un modelo lingüístico superpotente entrenado con 3,5 billones de tokens.

Variantes disponibles: Falcon 40B y Falcon 180B

Ventana de contexto: 4096 fichas

Idiomas admitidos: Inglés, alemán, español, francés, con soporte limitado para italiano, portugués, polaco, holandés, rumano, checo y sueco.

BLOOM

BLOOM

BLOOM es un Large Language Model (LLM) autorregresivo desarrollado por Big Science. BLOOM, entrenado en 176B parámetros, destaca en la generación de continuaciones de texto a partir de prompts utilizando grandes cantidades de datos de texto y recursos computacionales a escala industrial.

Variantes disponibles: bloom-560m, bloom-1b1, bloom-1b7, bloom-3b, bloom-7b1, bloom 176B

Ventana de contexto: 2048 fichas

Lenguas admitidas: 46 lenguas naturales (con cantidades variables de datos, desde el 30% del inglés hasta el 0,00002% del chi tumbuka).

Gemma

Gemma] Construyendo un asistente de IA para la ciencia de datos 🤖

Gemma, el último LLM abierto de última generación de Google, es la continuación del éxito de Gemini. Gemma es una familia de Large Language Models (LLM) de ponderación abierta de Google DeepMind, basada en la investigación y la tecnología de Gemini. Aunque los pesos del modelo son de libre acceso, las condiciones específicas de uso, redistribución y propiedad de variantes pueden variar y podrían no estar basadas en una licencia de código abierto.

Variantes disponibles: Gemma 2B y Gemma 7B

Ventana de contexto: 8192 fichas

Idiomas admitidos: Inglés

Conclusión

En Cody priorizamos un enfoque agnóstico del modelo cuando se trata de LLMs, ofreciendo una plataforma que te permite construir bots personalizados adaptados a tu caso de uso único. Con una amplia gama de opciones de LLM disponibles, no estás restringido a un único proveedor, lo que te da la libertad de elegir el que mejor se adapte a tus necesidades.

A través de Cody, las empresas pueden aprovechar la IA para desarrollar asistentes inteligentes adaptados a sus necesidades concretas. Esta flexibilidad convierte a Cody en una prometedora incorporación al ámbito de las soluciones empresariales basadas en IA.

¿Asesino de ChatGPT? Qué significa Gemini 1.5 para el futuro de la IA de Google

Google contra OpenAI: ¿Gana Google?

Tras no dar en el clavo con Bard en el tren de la IA, Google acaba de presentar su último producto de IA, Gemini. Como parte de este lanzamiento, Bard ha sido rebautizado como Gemini y ahora incorpora el nuevo Gemini Pro LLM. Profundicemos para comprender el alcance de estos cambios.

¿Qué es Gemini AI?

Gemini representa el nuevo modelo de lenguaje de gran tamaño (LLM) de Google, tras el lanzamiento de LaMDA y PaLM. A diferencia de sus predecesores, Gemini es multimodal de forma nativa, capaz de comprender texto, imágenes, voz y código, y cuenta con mayores capacidades de comprensión y razonamiento.

Variantes de Gemini AI

La IA Gemini consta de tres grandes modelos lingüísticos:

  1. Gemini Nano: Optimizado para la eficiencia en el dispositivo, ofrece soluciones rápidas de IA directamente en su dispositivo personal.
  2. Gemini Pro: Un modelo versátil y escalable, experto en abordar diversas tareas con un sólido rendimiento. Accesible en la versión gratuita de la interfaz de chat Gemini.
  3. Gemini Ultra: la cúspide de la serie Gemini, que potencia la resolución de problemas complejos y hace avanzar las fronteras de las capacidades de la IA. Exclusivo para suscriptores del Plan Google One AI Premium.

Los modelos Gemini se entrenaron con TPUv5e y TPUv4, según su tamaño y configuración. Training Gemini Ultra utilizó una gran flota de aceleradores TPUv4 propiedad de Google en varios centros de datos. Esto representa un importante aumento de escala con respecto a su anterior modelo insignia, el PaLM-2, que presentaba nuevos retos de infraestructura.

Comparación de Gemini con otros LLM

Comprensión textual

Comparación de Gemini con otros LLM

Fuente: Google Deepmind

Comprensión de la imagen

Comparación de Gemini con otros LLM

Fuente: Google Deepmind

Más información aquí.

Beneficios de Géminis

1. Integración perfecta con todas las aplicaciones de Google

Gemini se integra ahora a la perfección con todas las aplicaciones de Google, incluidas Maps, YouTube y Gmail, entre otras. Para consultar aplicaciones concretas, basta con anteponer “@” al nombre de la aplicación seguido de la consulta. Aunque se pueden conseguir integraciones similares en ChatGPT utilizando GPTs y Plugins, puede que no ofrezcan el mismo nivel de fluidez que las integraciones nativas de Gemini.

Integración de Géminis

La reconocida experiencia de Google en tecnología de motores de búsqueda se extiende sin duda a la mejora de las capacidades de navegación web de Gemini. Aprovechando los puntos fuertes de los algoritmos de búsqueda e indexación, Gemini ofrece a los usuarios una experiencia de navegación fluida y eficaz.

2. Capacidades multimodales

Gemini ofrece ahora capacidades multimodales, incluida la comprensión de imágenes, en la interfaz de chat de Gemini sin coste adicional. Aunque su rendimiento durante las pruebas fue decente, es posible que no alcance la precisión del GPT-4V. Sin embargo, dado que es gratis, no podemos quejarnos, ¿verdad? 😉 Existe la posibilidad de que Gemini Ultra supere a GPT-4V en función de las métricas

Gemini Multimodal

3. Acceso gratuito para aficionados y estudiantes

Google ofrece acceso gratuito a la API Gemini Pro 1.0 a los aspirantes a desarrolladores LLM que deseen sumergirse en este campo pero que tengan dificultades para acceder a las API de GPT debido a los costes. Con esto, puedes hacer hasta 60 consultas por minuto en Google AI Studio, una herramienta gratuita para desarrolladores basada en la web. Google AI Studio te permite desarrollar rápidamente mensajes y obtener una clave API para el desarrollo de aplicaciones. Si accedes a Google AI Studio con tu cuenta de Google, podrás beneficiarte de esta cuota gratuita. Se trata de una excelente oportunidad para iniciar tu andadura en el LLM y explorar incrustaciones, bases de datos vectoriales, búsqueda semántica y mucho más.

Google AI Studio

4. 4. Relación calidad-precio

Por 20 dólares al mes, los usuarios pueden acceder a GPT-4 a través de ChatGPT Plus. Alternativamente, por el mismo precio, pueden acceder a Gemini Advanced con Gemini Ultra 1.0, que incluye ventajas adicionales como 2 TB de almacenamiento en la nube e integración con Google Apps como Gmail y Docs. Sin embargo, para acceder a Gemini Advanced es necesario suscribirse al plan Google One AI Premium. A pesar de este requisito, ofrece un mayor valor por su dinero.

Planes Google One

La introducción de un plan de nivel medio con 500 GB de almacenamiento y acceso a Gemini Advanced entre los planes Standard y Premium mejoraría significativamente la accesibilidad de Gemini, especialmente para estudiantes y usuarios con necesidades moderadas de almacenamiento. Google, si estás escuchando, por favor considera esta sugerencia.

¿Qué le espera a Géminis?

DeepMind, de Google, no deja de desarrollar el modelo Gemini, y hace apenas una semana lanzó Gemini Pro 1.5. En esta variante actualizada, la ventana contextual se ha ampliado a 128.000 fichas. Además, un grupo selecto de desarrolladores y clientes empresariales pueden ahora experimentar con ventanas de contexto aún mayores, de hasta 1 millón de tokens, a través de vistas previas privadas en AI Studio y Vertex AI. Para ponerlo en perspectiva, un libro típico de no ficción contiene unas 300.000 fichas. Con la ventana de contexto de 1 millón de tokens de Gemini Pro 1.5, los usuarios ahora pueden cargar libros enteros en solicitudes de consulta, un avance notable en comparación con la ventana de contexto de 128.000 tokens de GPT-4.

En medio de la saturación de LLM en el sector de la IA, Google parece haber dado esta vez en el clavo con su arquitectura mejorada, sus respuestas rápidas y su perfecta integración en el ecosistema de Google. De hecho, podría ser un paso en la dirección correcta, manteniendo a OpenAI y a otros competidores alerta.

En esta era de la IA, es crucial que las empresas cuenten con empleados bien formados, e incorporar la IA a la formación de los empleados puede suponer una inversión importante. Si busca soluciones de IA para formar a sus empleados, Cody es la herramienta adecuada para usted. Al igual que ChatGPT y Gemini, Cody puede ser entrenado en los datos de su negocio, equipo, procesos y clientes, utilizando su base de conocimientos única. Cody es independiente del modelo, por lo que le resultará más fácil cambiar de modelo según sus necesidades.

Con Cody, las empresas pueden aprovechar el poder de la IA para crear un asistente personalizado e inteligente que atienda específicamente a sus necesidades, lo que lo convierte en una prometedora incorporación al mundo de las soluciones empresariales basadas en IA.

3 razones de peso para contratar a un empleado con IA para su empresa

Revolutionize your workplace with AI

Por qué su empresa necesita hoy un empleado con IA

No se puede negar el poder transformador de las soluciones de IA como ChatGPT en los lugares de trabajo modernos. Desde agilizar la redacción de correos electrónicos hasta proporcionar apoyo en salud mental, ChatGPT está revolucionando nuestra forma de abordar las tareas cotidianas. Sin embargo, no está exento de limitaciones, como la falta de personalización a la base de conocimientos específica de su empresa. Introduzca Cody, su solución sin código y sin complicaciones para llevar lo mejor de la IA a su organización.

Exploremos tres formas en que la IA puede beneficiar a su organización:

Formación: De lo estático a lo dinámico

Los métodos de formación tradicionales suelen implicar flujos estáticos y predefinidos que no sólo son menos atractivos, sino que además no están necesariamente adaptados a las necesidades de su empresa. Aprovechando la IA, puede aportar dinamismo e interactividad a sus programas de formación de empleados.

Con Cody, es tan sencillo como cargar los documentos de formación existentes, ya sean PDF o documentos de Word. Elige entre las plantillas de bot prediseñadas o utiliza el constructor de bots avanzado para personalizar la personalidad de Cody a tu gusto. En unos pocos pasos, dispondrá de un tutor de incorporación personalizado que se adaptará a las necesidades de cada empleado, mejorando así la eficacia y la intuitividad de sus programas de formación.

Búsqueda: hacer accesible el conocimiento

¿De qué sirve tener una base de conocimientos empresariales bien documentada si tus empleados se pasan horas rebuscando entre los datos? Las soluciones basadas en IA como Cody transforman el modo en que se accede a la información dentro de su organización, funcionando como un motor de búsqueda interno.

Una vez cargados en Cody sus conocimientos empresariales, cualquier consulta realizada en lenguaje natural recibirá una respuesta precisa y coherente generada a partir de sus datos específicos. Es como tener un experto humano 24 horas al día, 7 días a la semana, listo para atender todas sus consultas. Atrás quedaron los días de búsqueda sin rumbo a través de un sinfín de datos.

Automatización: Simplificar los flujos de trabajo

Nuestra última actualización le permite llevar la automatización al siguiente nivel. Cody ahora se integra perfectamente con Zapier, lo que le permite construir flujos de trabajo automatizados impulsados por IA que no solo son eficientes, sino también fáciles de usar. Al automatizar las tareas rutinarias, libera a sus empleados para que puedan centrarse en un trabajo más significativo. Y con las capacidades de IA de Cody, el contenido generado está a la altura de lo que podría producir un humano, si no mejor.

Zapier es una herramienta que permite conectar Cody con más de 5.000 apps, abriendo un mundo de posibilidades infinitas.

El futuro es ahora, y es Cody

Hemos profundizado en el poder transformador de la IA en el lugar de trabajo, centrándonos en su impacto en la formación, la búsqueda y la automatización de los flujos de trabajo. Con plataformas como Cody, el futuro no es una realidad lejana; está sucediendo aquí y ahora. La integración de la IA no sólo ofrece una mayor eficiencia operativa, sino también una reducción significativa de los costes y una mejora de la satisfacción de los empleados.

¿Por qué esperar? Tanto si se trata de una nueva empresa que busca crecer como de una empresa consolidada que quiere modernizarse, ahora es el momento perfecto para adoptar soluciones de IA. Con ventajas convincentes y un historial probado, Cody ofrece una opción sin complicaciones ni códigos para quienes buscan dar el salto al futuro del trabajo.

No pierda la oportunidad de revolucionar la dinámica de su lugar de trabajo. Haga clic aquí para iniciar su viaje con Cody y descubrir un mundo de eficacia e innovación que nunca creyó posible.

Impulsa tu presencia en LinkedIn con IA: usando Zapier y GPT

Convierta los datos de su empresa en atractivos relatos con sólo unos clics gracias a Cody

Después de recibir múltiples peticiones para una mayor compatibilidad de plataformas, estamos encantados de desvelar nuestra última actualización: integración Zapier para Cody. Esto abre un mundo de posibilidades, permitiéndole conectar sin esfuerzo a Cody con un vasto ecosistema de más de 5.000 aplicaciones, todo con unos pocos clics. Amplía las funcionalidades de Cody mucho más allá de sus integraciones originales con Discord y Slack, y aprovecha el poder de la automatización en multitud de plataformas. Este artículo te ayudará a potenciar tus publicaciones en LinkedIn con IA usando Cody y Zapier.

Índice

  1. ¿Qué es Zapier?
  2. ¿Por qué elegir Cody en lugar de la API OpenAI?
  3. ¿Cómo empezar a automatizar flujos de trabajo para Cody con Zapier?
    1. Paso 1: Crear un bot
    2. Paso 2: Activar la integración Zapier
    3. Paso 3: Configurar Zapier
    4. Paso 4: Crear el Zap
  4. Resultado final
  5. ¿Cuál debería ser su siguiente paso?

¿Qué es Zapier?

Para los nuevos en el panorama de la automatización, Zapier actúa como un puente sin código entre una miríada de aplicaciones, eliminando la necesidad de intrincados conocimientos técnicos o la lucha con múltiples claves API. Básicamente, se trata de una forma sencilla de integrar y automatizar funciones en varias plataformas, lo que facilita más que nunca la ampliación de las capacidades de Cody.

Algunas de las aplicaciones más populares disponibles en el ecosistema Zapier:

  • Hojas de cálculo de Google
  • Google Docs
  • Slack
  • Telegrama
  • Instagram
  • Facebook Messenger

¿Por qué elegir Cody en lugar de la API OpenAI?

Cody AI ofrece un enfoque a medida para la automatización y asistencia empresarial, diferenciándose de la API GPT de uso general. A diferencia de la API de GPT, Cody le permite formar al asistente específicamente en su negocio, su equipo, sus procesos e incluso los datos de sus clientes utilizando su propia base de conocimientos. Esto le ahorra las complejidades técnicas de mantener una base de conocimientos separada e implantar un motor de búsqueda semántica, retos que pueden resultar desalentadores si no es un experto en tecnología.

Además, Cody proporciona una solución más completa, ofreciendo acceso a diferentes modelos de GPT en función de su plan de suscripción. También es compatible con una amplia gama de tipos de documentos, como documentos Word/PDF, páginas web de rastreo y ofrece widgets personalizables e incrustables diseñados para integrarse perfectamente en sus operaciones empresariales existentes. Con Cody, obtendrá una plataforma con múltiples funciones y todo incluido orientada a satisfacer sus necesidades específicas.

¿Cómo empezar a automatizar flujos de trabajo para Cody con Zapier?

Para mostrar lo bien que Cody y Zapier trabajan juntos, te guiaremos a través de una sencilla automatización. En este artículo, entenderemos cómo puedes impulsar tus publicaciones de LinkedIn con IA usando Cody y Zapier. Con esta configuración, puedes escribir un mensaje en Slack sobre lo que quieres publicar en LinkedIn. En sólo unos segundos, ese mensaje se convertirá automáticamente en una publicación real de LinkedIn. Es una forma rápida y sencilla de ampliar tu presencia en las redes sociales, todo ello posible gracias a Cody y Zapier.

Paso 1: Crear un bot

En nuestro sitio web encontrarás varios blogs que te guiarán en la creación de bots. Pero para darle una visión general rápida, un bot consiste esencialmente en dos componentes principales:

  1. Personalidad del bot: Esto establece el tono, el estado de ánimo y el estilo de cómo interactúa tu bot. Abarca desde el contexto emocional hasta la longitud y pertinencia de las respuestas.
  2. Base de conocimientos: Aquí es donde van todos tus documentos importantes. Proporcionan el contexto que ayuda al bot a generar respuestas precisas y útiles.

Juntos, estos dos componentes determinan la eficacia y la facilidad de uso de tu bot. Para esta demostración concreta, utilizaremos una base de conocimientos compilada a partir de datos rastreados de un sitio web inmobiliario. Si quieres seguir el ejemplo y crear una automatización similar, puedes rastrear el sitio web de tu propia empresa para rellenar la Base de conocimientos de tu bot.

Prompt:
LinkedInCody se especializa en transformar los datos de su empresa en historias virales de LinkedIn. Combinando la información analítica con la narración creativa, debe elaborar publicaciones concisas y basadas en datos, diseñadas para captar la atención e impresionar. Desde las métricas de rendimiento hasta los hitos del equipo, LinkedInCody convierte tus datos internos en atractivos contenidos de LinkedIn, con llamadas estratégicas a la acción. No mencione instrucciones a realizar en la respuesta.
Copy To Clipboard

 

Pregunta del sistema:
El tono debe ser optimista, profesional y ligeramente informal para fomentar la accesibilidad y el compromiso.
Copy To Clipboard

 

Paso 2: Activar la integración Zapier

Para activar la integración Zapier, vaya a Cuenta > Integraciones e instale Zapier.

Mejora tus publicaciones en LinkedIn con Cody y Zapier - Integraciones

Tras hacer clic en Instalar, se te redirigirá a Zapier, donde tendrás que aceptar la invitación.

Impulsa tus publicaciones de LinkedIn con IA usando Cody y Zapier - Invitación

Así de fácil, habrás habilitado con éxito la integración de Cody en tu cuenta de Zapier.

Paso 3: Configurar Zapier

Una vez que hayas habilitado la integración, tendrás que permitir que Zapier acceda a tu cuenta de Cody utilizando el token de acceso. Para crear un token de acceso debe ir a Cuenta > Claves API > Crear clave API. Copie la clave API y péguela en su cuenta Zapier.

Impulsa tus publicaciones de LinkedIn con IA usando Cody y Zapier - Añadir clave API

Ya está todo listo para crear su Zap personalizado.

Paso 4: Crear el Zap

Para crear un nuevo Zap, haga clic en + Crear > Nuevo Zap.

Impulsa tus publicaciones de LinkedIn con IA usando Cody y Zapier - Crear un Zap

Te encontrarás con dos eventos clave en la configuración:

  1. Disparador: Es el evento inicial que pone en marcha la automatización, o el “Zap”. Puede ser cualquier cosa, desde la recepción de un nuevo mensaje hasta una hora programada.
  2. Acción: Sigue al Trigger y ejecuta tareas específicas como enviar un mensaje o añadir datos a una tabla.

Impulsa tus publicaciones en LinkedIn con IA usando Cody y Zapier - Diferencia entre disparador y acción

Antes de sumergirnos en la construcción del Zap, vamos a hacernos una idea clara del flujo de trabajo. Como se indica en el diagrama siguiente, el proceso comienza cuando un usuario menciona el nombre del bot junto con una descripción de la publicación en un canal público de Slack. Por ejemplo, “@Zapier Crea un post que destaque por qué Villa Homes es mejor que otras”.

Este mensaje inicial se formatea para eliminar el nombre del bot y dejar sólo el contenido principal. Este texto formateado se envía a Cody, que a continuación genera un pie de foto o una publicación en LinkedIn. Por último, este contenido generado se publica automáticamente en LinkedIn.

En esencia, estás configurando un proceso optimizado que toma un mensaje de Slack y lo transforma en una publicación de LinkedIn, todo con la ayuda de Cody y Zapier.

Para empezar a extraer mensajes de tu espacio de trabajo de Slack, primero tendrás que conectar tu cuenta de Slack a Zapier, si aún no lo has hecho. Para el evento “Activador”, seleccione ‘Nueva mención’. Esto activará el Zap cada vez que el bot especificado sea mencionado en un canal público de Slack. En este caso, el Zap se activará cuando el bot Zapier se mencione en un mensaje que incluya la palabra ‘Post’. Esto garantiza que la automatización se dirija específicamente a las publicaciones de LinkedIn deseadas.

Una vez que haya probado con éxito el activador, es hora de pasar a dar formato al mensaje de Slack. Para eliminar el nombre del bot y aislar el contenido principal del mensaje, utilizaremos la función “Reemplazar” que se encuentra en la herramienta de formateo de Zapier. Esto garantiza que sólo se transmita a Cody el texto esencial para generar la publicación en LinkedIn.

Ahora es el momento de configurar la acción Cody para generar tu publicación en LinkedIn. Elige el bot que acabas de crear y utiliza el texto formateado de Slack como consulta. Esto le indicará a Cody que tome el mensaje depurado y lo convierta en una publicación adaptada a LinkedIn.

El último paso es publicar la actualización en LinkedIn. Utiliza la respuesta generada por Cody e introdúcela como comentario en la acción de LinkedIn. Esto garantizará que el mensaje elaborado por Cody se publique directamente en tu cuenta de LinkedIn, completando así el proceso de automatización.

Resultado final

Conversación en Slack

LinkedIn Post

¿Cuál debería ser su siguiente paso?

En este artículo, hemos esbozado un ejemplo sencillo pero potente que demuestra cómo Cody puede integrar perfectamente la IA en sus flujos de trabajo de automatización a través de Zapier. Con la amplia biblioteca de aplicaciones populares de Zapier, el cielo es el límite para las posibilidades creativas de automatización. También nos complace anunciar que pronto añadiremos una acción de “Carga de documentos” a Zapier, lo que ampliará la gama de documentos que puede utilizar en su base de conocimientos.

Si has configurado con éxito un Zap y quieres compartir tu experiencia, únete a nuestro servidor Discord para inspirar a otros. Para solucionar cualquier problema, puede ponerse en contacto con nosotros a través de la función“Obtener ayuda“.

Seguiremos publicando artículos para ayudarle a sacar el máximo partido de Cody para sus necesidades de automatización empresarial. Estén atentos para saber más.