<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Om Kamath, Author at Cody - The AI Trained on Your Business</title>
	<atom:link href="https://meetcody.ai/es/blog/author/omkamath/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>AI Powered Knowledge Base for Employees</description>
	<lastBuildDate>Thu, 26 Mar 2026 18:07:39 +0000</lastBuildDate>
	<language>es-ES</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>

<image>
	<url>https://meetcody.ai/wp-content/uploads/2025/08/cropped-Cody-Emoji-071-32x32.png</url>
	<title>Om Kamath, Author at Cody - The AI Trained on Your Business</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Incrustación Gemini 2: el primer modelo de incrustación multimodal de Google</title>
		<link>https://meetcody.ai/es/blog/incrustacion-gemini-2-el-primer-modelo-de-incrustacion-multimodal-de-google/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Tue, 24 Mar 2026 03:02:17 +0000</pubDate>
				<category><![CDATA[Sin categorizar]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/incrustacion-gemini-2-el-primer-modelo-de-incrustacion-multimodal-de-google/</guid>

					<description><![CDATA[<p>Gemini Embedding 2: Características, Benchmarks, Precios y Cómo Empezar La semana pasada, Google publicó Géminis Incrustación 2, el primer modelo de incrustación multimodal nativo construido sobre la arquitectura Gemini. Si trabajas con incrustaciones de algún modo, esto merece tu atención. Tiene el potencial de alterar significativamente los procesos de incrustación multimodal en los que confían<a class="excerpt-read-more" href="https://meetcody.ai/es/blog/incrustacion-gemini-2-el-primer-modelo-de-incrustacion-multimodal-de-google/" title="ReadIncrustación Gemini 2: el primer modelo de incrustación multimodal de Google">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/es/blog/incrustacion-gemini-2-el-primer-modelo-de-incrustacion-multimodal-de-google/">Incrustación Gemini 2: el primer modelo de incrustación multimodal de Google</a> appeared first on <a href="https://meetcody.ai/es/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p style="text-align: center;"><em>Gemini Embedding 2: Características, Benchmarks, Precios y Cómo Empezar</em><!-- notionvc: c383b1b6-2ff8-40bd-8227-0a70d481c796 --></p>
<p>La semana pasada, Google publicó  <a href="https://meetcody.ai/blog/google-introduces-the-multimodal-gemini-ultra-pro-nano-models/">Géminis</a>  Incrustación 2, el primer modelo de incrustación multimodal nativo construido sobre la arquitectura Gemini. Si trabajas con incrustaciones de algún modo, esto merece tu atención. Tiene el potencial de alterar significativamente los procesos de incrustación multimodal en los que confían la mayoría de los equipos hoy en día.  </p>
<p>Hasta ahora, los modelos emblemáticos de incrustación de OpenAI, Cohere y Voyage se basaban principalmente en el texto. Existían algunas opciones multimodales &#8211; <a href="https://openai.com/index/clip/">CLIP</a> para la alineación imagen-texto, <a href="https://blog.voyageai.com/2026/01/15/voyage-multimodal-3-5/">Voyage Multimodal 3.5</a> para imágenes y vídeo &#8211; pero ninguna cubría todo el espectro de modalidades en un único espacio vectorial unificado. Normalmente, había que transcribir el audio antes de incrustarlo. El vídeo requería la extracción de fotogramas combinada con la incrustación de transcripciones por separado. Las imágenes vivían en su propio espacio vectorial.    </p>
<p>Gemini Incrustación 2 cambia esa ecuación. Un modelo, una llamada a la API, un espacio vectorial. </p>
<p>Profundicemos en las novedades.</p>
<h2>¿Qué es Gemini Incrustación 2?</h2>
<p><a href="https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-embedding-2/">Gemini Embedding 2</a> (<code>gemini-embedding-2-preview</code>) es el primer <a href="https://meetcody.ai/blog/text-embedding-models/">modelo de incrustación</a> completamente multimodal de Google DeepMind. Toma texto, imágenes, videoclips, grabaciones de audio y documentos PDF y los convierte todos en vectores que viven en el mismo espacio semántico compartido. </p>
<p>A diferencia de enfoques multimodales anteriores, como CLIP, que emparejan un codificador de visión con un codificador de texto y los alinean con aprendizaje contrastivo al final, Gemini Embedding 2 se construye sobre el propio modelo base Gemini. Esto significa que hereda una profunda comprensión intermodal desde la base. </p>
<div id="attachment_70663" style="width: 1034px" class="wp-caption aligncenter"><img fetchpriority="high" decoding="async" aria-describedby="caption-attachment-70663" class="wp-image-70663 size-full" src="https://meetcody.ai/wp-content/uploads/2026/03/embedding.png" alt="Incrustaciones multimodales" width="1024" height="587" srcset="https://meetcody.ai/wp-content/uploads/2026/03/embedding.png 1024w, https://meetcody.ai/wp-content/uploads/2026/03/embedding-300x172.png 300w, https://meetcody.ai/wp-content/uploads/2026/03/embedding-768x440.png 768w" sizes="(max-width: 1024px) 100vw, 1024px" /><p id="caption-attachment-70663" class="wp-caption-text">Imagen generada con Nano Banana</p></div>
<p><strong>Ejemplo práctico:</strong> Imagina que estás construyendo un Sistema de Gestión del Aprendizaje (SGA) con videotutoriales, conferencias de audio y guías escritas. Con Gemini Embedding 2, puedes almacenar las incrustaciones de todo este contenido en un único espacio vectorial y construir un <a href="https://meetcody.ai/blog/rag-private-clouds/">chatbot basado en RAG</a> que recupere <a href="https://meetcody.ai/blog/how-does-cody-generate-responses-using-your-documents/">trozos</a> relevantes de vídeos, audio y documentos por igual. Anteriormente, esto requería un proceso de incrustación de varias capas, e incluso entonces, sólo capturaba transcripciones, perdiéndose el contexto visual de un vídeo o el tono de voz de un orador.  </p>
<p>El modelo utiliza <a href="https://arxiv.org/abs/2205.13147">el Aprendizaje de Representación Matrioska</a>, lo que significa que no tienes que utilizar las 3072 dimensiones si no las necesitas. Puedes reducir la escala a 1536 o 768 y seguir obteniendo resultados utilizables. </p>
<p><em>El Aprendizaje de la Representación Matrioska (MRL) es una técnica para entrenar modelos de incrustación de modo que las representaciones aprendidas sean útiles no sólo en su dimensionalidad completa, sino también en varias dimensiones más pequeñas, anidadas unas dentro de otras como muñecas rusas matrioskas. Durante el entrenamiento, la función de pérdida se calcula no sólo sobre la incrustación completa, sino también sobre múltiples prefijos del vector de incrustación. Esto anima al modelo a empaquetar la información más importante en las dimensiones más tempranas, y cada dimensión posterior añade detalles de grano más fino: una estructura de grueso a fino.  </em></p>
<h2>Modalidades y límites de entrada admitidos</h2>
<p>El modelo acepta cinco tipos de entrada, todos ellos mapeados en el mismo espacio de incrustación:</p>
<table>
<thead>
<tr>
<th>Modalidad</th>
<th>Límite de entrada</th>
<th>Formatos</th>
</tr>
</thead>
<tbody>
<tr>
<td>Texto</td>
<td>Hasta 8.192 fichas</td>
<td>Texto sin formato</td>
</tr>
<tr>
<td>Imágenes</td>
<td>Hasta 6 imágenes por solicitud</td>
<td>PNG, JPEG</td>
</tr>
<tr>
<td>Vídeo</td>
<td>Hasta 120 segundos</td>
<td>MP4, MOV</td>
</tr>
<tr>
<td>Audio</td>
<td>Hasta 80 segundos (nativo, sin transcripción)</td>
<td>MP3, WAV</td>
</tr>
<tr>
<td>PDFs</td>
<td>Directamente incrustados</td>
<td>documentos PDF</td>
</tr>
</tbody>
</table>
<h2>Cómo se compara con los modelos existentes</h2>
<p><strong>TLDR:</strong> El nuevo modelo Gemini Embedding 2 de Google supera a sus competidores (su propio predecesor, Amazon Nova 2 y Voyage Multimodal 3.5) en casi todas las modalidades: texto, imagen, vídeo y voz. Su liderazgo es más convincente en la recuperación de vídeo y en la correspondencia imagen-texto. La única prueba en la que no gana es en la recuperación de documentos, en la que Voyage le aventaja ligeramente. La recuperación de texto hablado es una categoría que Gemini posee en solitario, ya que ningún competidor la soporta.   </p>
<p>Google publicó comparaciones comparativas con sus propios modelos heredados, Amazon Nova 2 Multimodal Embeddings y Voyage Multimodal 3.5. Aquí está el cuadro completo: </p>
<h3>Texto-Texto</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incrustación Gemini 2</th>
<th>incrustación-gemini-001</th>
<th>Amazon Nova 2</th>
<th>Viaje Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>MTEB Multilingüe (Tarea media)</td>
<td><strong>69.9</strong></td>
<td>68.4</td>
<td>63.8**</td>
<td>58.5***</td>
</tr>
<tr>
<td>Código MTEB (Tarea media)</td>
<td><strong>84.0</strong></td>
<td>76.0</td>
<td>*</td>
<td>*</td>
</tr>
</tbody>
</table>
<p>Gemini Incrustación 2 lidera en texto multilingüe por un cómodo margen y salta 8 puntos sobre su propio predecesor en recuperación de código. Ni Amazon Nova 2 ni Voyage informan de la puntuación de los códigos. </p>
<h3>Texto-Imagen</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incrustación Géminis 2</th>
<th>incrustación multimodal@001</th>
<th>Amazon Nova 2</th>
<th>Viaje Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>TextCaps (recuerdo@1)</td>
<td><strong>89.6</strong></td>
<td>74.0</td>
<td>76.0</td>
<td>79.4</td>
</tr>
<tr>
<td>Docci (retirada@1)</td>
<td><strong>93.4</strong></td>
<td>&#8211;</td>
<td>84.0</td>
<td>83.8</td>
</tr>
</tbody>
</table>
<p>Una clara ventaja en la recuperación de texto a imagen: más de 9 puntos por delante del competidor más cercano en ambas pruebas.</p>
<h3>Imagen-Texto</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incrustación Géminis 2</th>
<th>incrustación multimodal@001</th>
<th>Amazon Nova 2</th>
<th>Viaje Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>TextCaps (recuerdo@1)</td>
<td><strong>97.4</strong></td>
<td>88.1</td>
<td>88.9</td>
<td>88.6</td>
</tr>
<tr>
<td>Docci (retirada@1)</td>
<td><strong>91.3</strong></td>
<td>&#8211;</td>
<td>76.5</td>
<td>77.4</td>
</tr>
</tbody>
</table>
<p>La recuperación de imagen a texto muestra las mayores diferencias: casi 15 puntos por delante de Amazon Nova 2 en Docci.</p>
<h3>Documento de texto</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incrustación Géminis 2</th>
<th>incrustación multimodal@001</th>
<th>Amazon Nova 2</th>
<th>Viaje Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>ViDoRe v2 (ndcg@10)</td>
<td>64.9</td>
<td>28.9</td>
<td>60.6</td>
<td><strong>65.5**</strong></td>
</tr>
</tbody>
</table>
<p>El único punto de referencia en el que Voyage Multimodal 3.5 está por delante (autodeclarado). La recuperación de documentos está muy igualada entre los mejores modelos. </p>
<h3>Texto-Vídeo</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incrustación Géminis 2</th>
<th>incrustación multimodal@001</th>
<th>Amazon Nova 2</th>
<th>Viaje Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>Vatex (ndcg@10)</td>
<td><strong>68.8</strong></td>
<td>54.9</td>
<td>60.3</td>
<td>55.2</td>
</tr>
<tr>
<td>MSR-VTT (ndcg@10)</td>
<td><strong>68.0</strong></td>
<td>57.9</td>
<td>67.0</td>
<td>63.0**</td>
</tr>
<tr>
<td>Youcook2 (ndcg@10)</td>
<td><strong>52.5</strong></td>
<td>34.9</td>
<td>34.7</td>
<td>31.4**</td>
</tr>
</tbody>
</table>
<p>La recuperación de vídeo es donde Gemini Incrustación 2 saca más ventaja: más de 17 puntos por encima de Voyage en Youcook2 y más de 13 puntos en Vatex.</p>
<h3>Discurso-Texto</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incrustación Géminis 2</th>
</tr>
</thead>
<tbody>
<tr>
<td>MSEB (mrr@10)</td>
<td><strong>73.9</strong></td>
</tr>
<tr>
<td>MSEB ASR**** (mrr@10)</td>
<td><strong>70.4</strong></td>
</tr>
</tbody>
</table>
<p>La recuperación de texto hablado es totalmente indiscutible: ni Amazon ni Voyage la admiten. Se trata de una categoría que Gemini Embedding 2 domina por completo. </p>
<p><em>&#8211; puntuación no disponible ** autodeclarada *** voyage-3.5 **** El modelo ASR convierte las consultas de audio en texto</em></p>
<h2>Precios</h2>
<p>Actualmente, el modelo es gratuito durante la vista previa pública. Una vez en el nivel de pago, éste es el desglose: </p>
<table>
<thead>
<tr>
<th></th>
<th>Nivel gratuito</th>
<th>Nivel de pago (por 1M de fichas)</th>
</tr>
</thead>
<tbody>
<tr>
<td>Introducción de texto</td>
<td>Gratuito</td>
<td>$0.20</td>
</tr>
<tr>
<td>Introducción de imágenes</td>
<td>Gratis</td>
<td>0,45 $ (0,00012 $ por imagen)</td>
</tr>
<tr>
<td>Entrada de audio</td>
<td>Gratuito</td>
<td>6,50 $ (0,00016 $ por segundo)</td>
</tr>
<tr>
<td>Entrada de vídeo</td>
<td>Gratuito</td>
<td>12,00 $ (0,00079 $ por fotograma)</td>
</tr>
<tr>
<td>Se utiliza para mejorar los productos de Google</td>
<td>Sí</td>
<td>No</td>
</tr>
</tbody>
</table>
<h2><strong>Cómo empezar</strong></h2>
<p>El modelo ya está disponible en vista previa pública a través de la API de Géminis y Vertex AI con el ID de modelo  <code>gemini-embedding-2-preview</code>. Se integra con LangChain, LlamaIndex, Haystack, Weaviate, Qdrant, ChromaDB y Vector Search.</p>
<pre><code class="language-jsx">from google import genai
from google.genai import types

# For Vertex AI:
# PROJECT_ID='&lt;add_here&gt;'
# client = genai.Client(vertexai=True, project=PROJECT_ID, location='us-central1')

client = genai.Client()

with open("example.png", "rb") as f:
    image_bytes = f.read()

with open("sample.mp3", "rb") as f:
    audio_bytes = f.read()

# Embed text, image, and audio 
result = client.models.embed_content(
    model="gemini-embedding-2-preview",
    contents=[
        "What is the meaning of life?",
        types.Part.from_bytes(
            data=image_bytes,
            mime_type="image/png",
        ),
        types.Part.from_bytes(
            data=audio_bytes,
            mime_type="audio/mpeg",
        ),
    ],
)

print(result.embeddings)
</code></pre>
<h2>¡Pruébalo aquí!</h2>
<p>Hemos creado una <a href="https://gemini-2-trial.vercel.app">aplicación de</a> demostración en la que puedes probar el rendimiento de la recuperación multimodal de gemini-embedding-2.</p>
<p>Puedes obtener la Clave API accediendo a <a href="http://aistudio.google.com">aistudio.google.com</a>.</p>
<h2>Limitaciones a tener en cuenta</h2>
<ul>
<li>El modelo aún está en fase de preestreno público (la etiqueta &#8220;preestreno&#8221; significa que el precio y el comportamiento pueden cambiar antes de la AG).</li>
<li>La entrada de vídeo tiene un límite de 120 segundos y la de audio de 80 segundos.</li>
<li>El rendimiento en ámbitos especializados, como la garantía de calidad financiera, es más débil; evalúalo con tus datos específicos antes de comprometerte.</li>
<li>Para las canalizaciones de texto puro sin planes multimodales, puede que no esté justificado el sobrecoste respecto a los modelos de sólo texto.</li>
</ul>
<h2>Lo esencial</h2>
<p>Gemini Embedding 2 no es sólo una mejora incremental, es un cambio de categoría. Para los equipos que construyen sistemas RAG multimodales, búsquedas semánticas en distintos tipos de medios o bases de conocimiento unificadas, colapsa lo que solía ser un problema de varios modelos y tuberías en una sola llamada a la API. Si tus datos abarcan algo más que texto, éste es el modelo que debes evaluar primero.  </p>
<p>Construir RAG multimodal no debería significar coser desde cero modelos de incrustación, bases de datos vectoriales y lógica de recuperación. Si quieres una solución gestionada <a href="https://meetcody.ai/blog/rag-as-a-service-unlock-generative-ai-for-your-business/">de RAG como servicio</a> que se encargue del proceso de incrustación por ti, <a href="https://getcody.ai/">inscríbete</a> en la prueba gratuita de Cody y empieza a construir hoy mismo. </p>
<p><!-- notionvc: 1819203a-dd06-4804-9886-3355db49e8de --></p>
<p>The post <a href="https://meetcody.ai/es/blog/incrustacion-gemini-2-el-primer-modelo-de-incrustacion-multimodal-de-google/">Incrustación Gemini 2: el primer modelo de incrustación multimodal de Google</a> appeared first on <a href="https://meetcody.ai/es/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Gemini 2.5 Pro and GPT-4.5: Who Leads the AI Revolution?</title>
		<link>https://meetcody.ai/es/blog/gemini-2-5-pro-and-gpt-4-5-who-leads-the-ai-revolution/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 15:36:01 +0000</pubDate>
				<category><![CDATA[Sin categorizar]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gemini-2-5-pro-and-gpt-4-5-who-leads-the-ai-revolution/</guid>

					<description><![CDATA[<p>In 2025, the world of artificial intelligence has become very exciting, with big tech companies competing fiercely to create the most advanced AI systems ever. This intense competition has sparked a lot of new ideas, pushing the limits of what AI can do in thinking, solving problems, and interacting like humans. Over the past month,<a class="excerpt-read-more" href="https://meetcody.ai/es/blog/gemini-2-5-pro-and-gpt-4-5-who-leads-the-ai-revolution/" title="ReadGemini 2.5 Pro and GPT-4.5: Who Leads the AI Revolution?">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/es/blog/gemini-2-5-pro-and-gpt-4-5-who-leads-the-ai-revolution/">Gemini 2.5 Pro and GPT-4.5: Who Leads the AI Revolution?</a> appeared first on <a href="https://meetcody.ai/es/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p data-pm-slice="0 0 []">In 2025, the world of artificial intelligence has become very exciting, with big tech companies competing fiercely to create the most advanced AI systems ever. This intense competition has sparked a lot of new ideas, pushing the limits of what AI can do in thinking, solving problems, and interacting like humans. Over the past month, there have been amazing improvements, with two main players leading the way: Google&#8217;s Gemini 2.5 Pro and OpenAI&#8217;s GPT-4.5. In a big reveal in March 2025, Google introduced Gemini 2.5 Pro, which they call their smartest creation yet. It quickly became the top performer on the <a href="https://lmarena.ai/?p2l" target="_blank" rel="noopener noreferrer">LMArena</a> leaderboard, surpassing its competitors. What makes Gemini 2.5 special is its ability to carefully consider responses, which helps it perform better in complex tasks that require deep thinking.     </p>
<p>Not wanting to fall behind, OpenAI launched GPT-4.5, their largest and most advanced chat model so far. This model is great at recognizing patterns, making connections, and coming up with creative ideas. Early tests show that interacting with GPT-4.5 feels very natural, thanks to its wide range of knowledge and improved understanding of what users mean. OpenAI emphasizes GPT-4.5&#8217;s significant improvements in learning without direct supervision, designed for smooth collaboration with humans.   </p>
<p>These AI systems are not just impressive technology; they are changing how businesses operate, speeding up scientific discoveries, and transforming creative projects. As AI becomes a normal part of daily life, models like Gemini 2.5 Pro and GPT-4.5 are expanding what we think is possible. With better reasoning skills, less chance of spreading false information, and mastery over complex problems, they are paving the way for AI systems that truly support human progress.  </p>
<h2>Understanding Gemini 2.5 Pro</h2>
<p>On March 25, 2025, Google officially unveiled Gemini 2.5 Pro, described as their &#8220;most intelligent AI model&#8221; to date. This release marked a significant milestone in Google&#8217;s AI development journey, coming after <a href="https://meetcody.ai/blog/chatgpt-killer-what-gemini-means-for-googles-ai-future/" target="_blank" rel="noopener noreferrer">several iterations</a> of their 2.0 models. The release strategy began with the experimental version first, giving Gemini Advanced subscribers early access to test its capabilities.  </p>
<p><img decoding="async" class="aligncenter wp-image-50851 size-large" src="https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1024x629.jpg" alt="Gemini 2.5 Benchmarks" width="1024" height="629" srcset="https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1024x629.jpg 1024w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-300x184.jpg 300w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-768x472.jpg 768w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1536x943.jpg 1536w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-2048x1258.jpg 2048w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1055x648.jpg 1055w" sizes="(max-width: 1024px) 100vw, 1024px" /></p>
<p>What separates Gemini 2.5 Pro from its predecessors is its fundamental architecture as a &#8220;<a href="https://ai.google.dev/gemini-api/docs/thinking#:~:text=Gemini%202.5%20Pro%20Experimental%20and,them%20to%20solve%20complex%20tasks." target="_blank" rel="noopener noreferrer">thinking model.</a>&#8221; Unlike previous generations that primarily relied on trained data patterns, this model can actively reason through its thoughts before responding, mimicking human problem-solving processes. This represents a significant advancement in how AI systems process information and generate responses. </p>
<h3>Key Features and Capabilities:</h3>
<ol class="tight" data-tight="true">
<li><strong>Enhanced reasoning abilities</strong> &#8211; Capable of step-by-step problem solving across complex domains</li>
<li><strong>Expanded context window</strong> &#8211; 1 million token capacity (with plans to expand to 2 million)</li>
<li><strong>Native multimodality</strong> &#8211; Seamlessly processes text, images, audio, video, and code</li>
<li><strong>Advanced code capabilities</strong> &#8211; Significant improvements in web app creation and code transformation</li>
</ol>
<p>Gemini 2.5 Pro has established itself as a performance leader, debuting at the #1 position on the LMArena leaderboard. It particularly excels in benchmarks requiring advanced reasoning, scoring an industry-leading 18.8% on Humanity&#8217;s Last Exam without using external tools. In mathematics and science, it demonstrates remarkable competence with scores of 86.7% on AIME 2025 and 79.7% on GPQA diamond respectively.  </p>
<p>Compared to previous Gemini models, version 2.5 Pro represents a substantial leap forward. While Gemini 2.0 introduced important foundational capabilities, 2.5 Pro combines a significantly enhanced base model with improved post-training techniques. The most notable improvements appear in coding performance, reasoning depth, and contextual understanding—areas where earlier versions showed limitations.  </p>
<h2>Exploring GPT-4.5</h2>
<p>In April 2025, OpenAI introduced GPT-4.5, describing it as their &#8220;largest and most advanced chat model to date,&#8221; signifying a noteworthy achievement in the evolution of large language models. This research preview sparked immediate excitement within the AI community, with initial tests indicating that interactions with the model feel exceptionally natural, thanks to its extensive knowledge base and enhanced ability to comprehend user intent. </p>
<p>GPT-4.5 showcases significant advancements in unsupervised learning capabilities. OpenAI realized this progress by scaling both computational power and data inputs, alongside employing innovative architectural and optimization strategies. The model was trained on Microsoft Azure AI supercomputers, continuing a partnership that has enabled OpenAI to push the boundaries of possibility.  </p>
<h3>Core Improvements and Capabilities:</h3>
<ol class="tight" data-tight="true">
<li><strong>Enhanced pattern recognition</strong> &#8211; Significantly improved ability to recognize patterns, draw connections, and generate creative insights</li>
<li><strong>Reduced hallucinations</strong> &#8211; Less likely to generate false information compared to previous models like <a href="https://meetcody.ai/blog/gpt-4o-unveiled/" target="_blank" rel="noopener noreferrer">GPT-4o</a> and <a href="https://meetcody.ai/blog/openai-o3-vs-o1-the-future-of-ai-reasoning-and-safety-unveiled/" target="_blank" rel="noopener noreferrer">o1</a></li>
<li><strong>Improved &#8220;EQ&#8221;</strong> &#8211; Greater emotional intelligence and understanding of nuanced human interactions</li>
<li><strong>Advanced steerability</strong> &#8211; Better understanding of and adherence to complex user instructions</li>
</ol>
<p>OpenAI has placed particular emphasis on training GPT-4.5 for human collaboration. New techniques enhance the model&#8217;s steerability, understanding of nuance, and natural conversation flow. This makes it particularly effective in writing and design assistance, where it demonstrates stronger aesthetic intuition and creativity than previous iterations.  </p>
<p>In real-world applications, GPT-4.5 shows remarkable versatility. Its expanded knowledge base and improved reasoning capabilities make it suitable for a wide range of tasks, from detailed content creation to sophisticated problem-solving. OpenAI CEO Sam Altman has described the model in positive terms, highlighting its &#8220;unique effectiveness&#8221; despite not leading in all benchmark categories.  </p>
<p>The deployment strategy for GPT-4.5 reflects OpenAI&#8217;s measured approach to releasing powerful AI systems. Initially available to ChatGPT Pro subscribers and developers on paid tiers through various APIs, the company plans to gradually expand access to ChatGPT Plus, Team, Edu, and Enterprise subscribers. This phased rollout allows OpenAI to monitor performance and safety as usage scales up.  </p>
<h2>Performance Metrics: A Comparative Analysis</h2>
<p>When examining the technical capabilities of these advanced AI models, benchmark performance provides the most objective measure of their abilities. Gemini 2.5 Pro and GPT-4.5 each demonstrate unique strengths across various domains, with benchmark tests revealing their distinct advantages. </p>
<table>
<colgroup>
<col>
<col>
<col>
<col>
<col></colgroup>
<tbody>
<tr>
<th colspan="1" rowspan="1">Benchmark</th>
<th colspan="1" rowspan="1">Gemini 2.5 Pro (03-25)</th>
<th colspan="1" rowspan="1">OpenAI GPT-4.5</th>
<th colspan="1" rowspan="1">Claude 3.7 Sonnet</th>
<th colspan="1" rowspan="1">Grok 3 Preview</th>
</tr>
<tr>
<td colspan="1" rowspan="1">LMArena (Overall)</td>
<td colspan="1" rowspan="1">#1</td>
<td colspan="1" rowspan="1">2</td>
<td colspan="1" rowspan="1">21</td>
<td colspan="1" rowspan="1">2</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Humanity&#8217;s Last Exam (No Tools)</td>
<td colspan="1" rowspan="1">18.8%</td>
<td colspan="1" rowspan="1">6.4%</td>
<td colspan="1" rowspan="1">8.9%</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">GPQA Diamond (Single Attempt)</td>
<td colspan="1" rowspan="1">84.0%</td>
<td colspan="1" rowspan="1">71.4%</td>
<td colspan="1" rowspan="1">78.2%</td>
<td colspan="1" rowspan="1">80.2%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">AIME 2025 (Single Attempt)</td>
<td colspan="1" rowspan="1">86.7%</td>
<td colspan="1" rowspan="1">&#8211;</td>
<td colspan="1" rowspan="1">49.5%</td>
<td colspan="1" rowspan="1">77.3%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">SWE-Bench Verified</td>
<td colspan="1" rowspan="1">63.8%</td>
<td colspan="1" rowspan="1">38.0%</td>
<td colspan="1" rowspan="1">70.3%</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Aider Polyglot (Whole/Diff)</td>
<td colspan="1" rowspan="1">74.0% / 68.6%</td>
<td colspan="1" rowspan="1">44.9% diff</td>
<td colspan="1" rowspan="1">64.9% diff</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">MRCR (128k)</td>
<td colspan="1" rowspan="1">91.5%</td>
<td colspan="1" rowspan="1">48.8%</td>
<td colspan="1" rowspan="1">&#8211;</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
</tbody>
</table>
<p>Gemini 2.5 Pro shows exceptional strength in <a href="https://www.digitalocean.com/community/tutorials/understanding-reasoning-in-llms" target="_blank" rel="noopener noreferrer">reasoning-intensive</a> tasks, particularly excelling in long-context reasoning and knowledge retention. It significantly outperforms competitors on Humanity&#8217;s Last Exam, which tests the frontier of human knowledge. However, it shows relative weaknesses in code generation, agentic coding, and occasionally struggles with factuality in certain domains.  </p>
<p>GPT-4.5, conversely, demonstrates particular excellence in pattern recognition, creative insight generation, and scientific reasoning. It outperforms in the <a href="https://arxiv.org/abs/2311.12022" target="_blank" rel="noopener noreferrer">GPQA</a> diamond benchmark, showing strong capabilities in scientific domains. The model also exhibits enhanced emotional intelligence and aesthetic intuition, making it particularly valuable for creative and design-oriented applications. A key advantage is its reduced tendency to generate false information compared to its predecessors.   </p>
<p>In practical terms, Gemini 2.5 Pro represents the superior choice for tasks requiring deep reasoning, multimodal understanding, and handling extremely long contexts. GPT-4.5 offers advantages in creative work, design assistance, and applications where factual precision and natural conversational flow are paramount. </p>
<h2>Applications and Use Cases</h2>
<p>While benchmark performances provide valuable technical insights, the true measure of these advanced AI models lies in their practical applications across various domains. Both Gemini 2.5 Pro and GPT-4.5 demonstrate distinct strengths that make them suitable for different use cases, with organizations already beginning to leverage their capabilities to solve complex problems. </p>
<h3>Gemini 2.5 Pro in Scientific and Technical Domains</h3>
<p>Gemini 2.5 Pro&#8217;s exceptional reasoning capabilities and extensive context window make it particularly valuable for scientific research and technical applications. Its ability to process and analyze <a href="https://cloud.google.com/use-cases/multimodal-ai?hl=en" target="_blank" rel="noopener noreferrer">multimodal</a> data—including text, images, audio, video, and code—enables it to handle complex problems that require synthesizing information from diverse sources. This versatility opens up numerous possibilities across industries requiring technical precision and comprehensive analysis.  </p>
<ol class="tight" data-tight="true">
<li><strong>Scientific research and data analysis</strong> &#8211; Gemini 2.5 Pro&#8217;s strong performance on benchmarks like GPQA (79.7%) demonstrates its potential to assist researchers in analyzing complex scientific literature, generating hypotheses, and interpreting experimental results</li>
<li><strong>Software development and engineering</strong> &#8211; The model excels at creating web applications, performing code transformations, and developing complex programs with a 63.8% score on SWE-Bench Verified using custom agent setups</li>
<li><strong>Medical diagnosis and healthcare</strong> &#8211; Its reasoning capabilities enable analysis of medical imagery alongside patient data to support healthcare professionals in diagnostic processes</li>
<li><strong>Big data analytics and knowledge management</strong> &#8211; The 1 million token context window (expanding soon to 2 million) allows processing of entire datasets and code repositories in a single prompt</li>
</ol>
<h3>GPT-4.5&#8217;s Excellence in Creative and Communication Tasks</h3>
<p>In contrast, GPT-4.5 demonstrates particular strength in tasks requiring nuanced communication, creative thinking, and aesthetic judgment. OpenAI emphasized training this model specifically for human collaboration, resulting in enhanced capabilities for content creation, design assistance, and natural communication. </p>
<ol class="tight" data-tight="true">
<li><strong>Content creation and writing</strong> &#8211; GPT-4.5 shows enhanced aesthetic intuition and creativity, making it valuable for generating marketing copy, articles, scripts, and other written content</li>
<li><strong>Design collaboration</strong> &#8211; The model&#8217;s improved understanding of nuance and context makes it an effective partner in design processes, from conceptualization to refinement</li>
<li><strong>Customer engagement</strong> &#8211; With greater emotional intelligence, GPT-4.5 provides more appropriate and natural responses in customer service contexts</li>
<li><strong>Educational content development</strong> &#8211; The model excels at tailoring explanations to different knowledge levels and learning styles</li>
</ol>
<p>Companies across various sectors are already integrating these models into their workflows. Microsoft has incorporated OpenAI&#8217;s technology directly into its product suite, providing enterprise users with immediate access to GPT-4.5&#8217;s capabilities. Similarly, Google&#8217;s Gemini 2.5 Pro is finding applications in research institutions and technology companies seeking to leverage its reasoning and multimodal strengths.  </p>
<p>The complementary strengths of these models suggest that many organizations may benefit from utilizing both, depending on specific use cases. As these technologies continue to mature, we can expect to see increasingly sophisticated applications that fundamentally transform knowledge work, creative processes, and problem-solving across industries. </p>
<h2>The Future of AI: What&#8217;s Next?</h2>
<p>As Gemini 2.5 Pro and GPT-4.5 push the boundaries of what&#8217;s possible, the future trajectory of AI development comes into sharper focus. Google&#8217;s commitment to &#8220;building thinking capabilities directly into all models&#8221; suggests a future where reasoning becomes standard across AI systems. Similarly, OpenAI&#8217;s approach of &#8220;scaling unsupervised learning and reasoning&#8221; points to models with ever-expanding capabilities to understand and generate human-like content.  </p>
<p>The coming years will likely see AI models with dramatically expanded context windows beyond the current limits, more sophisticated reasoning, and seamless integration across all modalities. We may also witness the rise of truly autonomous AI agents capable of executing complex tasks with minimal human supervision. However, these advancements bring significant challenges. As AI capabilities increase, so too does the importance of addressing potential risks related to misinformation, privacy, and the displacement of human labor.   </p>
<p>Las consideraciones éticas deben seguir estando a la vanguardia del desarrollo de la IA. OpenAI reconoce que &#8220;cada aumento de las capacidades de los modelos es una oportunidad para hacerlos más seguros&#8221;, destacando la doble responsabilidad del avance y la protección. La comunidad de la IA tendrá que desarrollar marcos de gobernanza sólidos que fomenten la innovación y, al mismo tiempo, protejan contra el uso indebido.  </p>
<p>La revolución de la IA representada por Gemini 2.5 Pro y GPT-4.5 no ha hecho más que empezar. Aunque el ritmo de los avances suscita tanto entusiasmo como aprensión, una cosa está clara: el futuro de la IA no se definirá sólo por las capacidades tecnológicas, sino por cómo decidamos aprovecharlas en beneficio de los seres humanos. Dando prioridad a un desarrollo responsable que aumente el potencial humano en lugar de sustituirlo, podemos garantizar que la próxima generación de modelos de IA sirva como poderosa herramienta para el progreso colectivo.  </p>
<p>The post <a href="https://meetcody.ai/es/blog/gemini-2-5-pro-and-gpt-4-5-who-leads-the-ai-revolution/">Gemini 2.5 Pro and GPT-4.5: Who Leads the AI Revolution?</a> appeared first on <a href="https://meetcody.ai/es/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>GPT-4.5 vs Claude 3.7 Sonnet: Una inmersión profunda en los avances de la IA</title>
		<link>https://meetcody.ai/es/blog/gpt-4-5-vs-claude-3-7-sonnet-una-inmersion-profunda-en-los-avances-de-la-ia/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Sun, 02 Mar 2025 15:52:48 +0000</pubDate>
				<category><![CDATA[Sin categorizar]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gpt-4-5-vs-claude-3-7-sonnet-una-inmersion-profunda-en-los-avances-de-la-ia/</guid>

					<description><![CDATA[<p>El panorama de la inteligencia artificial evoluciona rápidamente, destacando dos modelos recientes: GPT-4.5 y Claude 3.7 Sonnet. Estos modelos lingüísticos avanzados representan saltos significativos en las capacidades de la IA, y cada uno de ellos aporta puntos fuertes únicos. La GPT-4.5 de OpenAI, aunque es una actualización menor, presume de mejoras en la reducción de<a class="excerpt-read-more" href="https://meetcody.ai/es/blog/gpt-4-5-vs-claude-3-7-sonnet-una-inmersion-profunda-en-los-avances-de-la-ia/" title="ReadGPT-4.5 vs Claude 3.7 Sonnet: Una inmersión profunda en los avances de la IA">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/es/blog/gpt-4-5-vs-claude-3-7-sonnet-una-inmersion-profunda-en-los-avances-de-la-ia/">GPT-4.5 vs Claude 3.7 Sonnet: Una inmersión profunda en los avances de la IA</a> appeared first on <a href="https://meetcody.ai/es/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="mb-2 text-3xl font-bold">El panorama de la inteligencia artificial <a href="https://www.chatbase.co/blog/ai-trends" target="_blank" rel="noopener noreferrer">evoluciona rápidamente</a>, destacando dos modelos recientes: GPT-4.5 y Claude 3.7 Sonnet. Estos modelos lingüísticos avanzados representan saltos significativos en las capacidades de la IA, y cada uno de ellos aporta puntos fuertes únicos. </div>
<div class="prose mt-8 max-w-full">
<p>La GPT-4.5 de OpenAI, aunque es una actualización menor, presume de <a href="https://research.aimultiple.com/future-of-large-language-models/" target="_blank" rel="noopener noreferrer">mejoras</a> en la reducción de las alucinaciones y la mejora de la conversación natural. Por otro lado, el Sonnet Claude 3.7 de Anthropic ha llamado la atención por sus excepcionales capacidades de codificación y su rentabilidad. Ambos modelos se dirigen a una amplia gama de usuarios, desde desarrolladores e investigadores hasta empresas que buscan soluciones de IA de vanguardia.  </p>
<p>A medida que estos modelos amplían los límites de lo que es posible en la IA, están remodelando las expectativas y las aplicaciones en diversos sectores, preparando el terreno para avances aún más transformadores en un futuro próximo.</p>
<h2>Características principales de GPT-4.5 y Claude 3.7 Sonnet</h2>
<p>Tanto GPT-4.5 como Claude 3.7 Sonnet aportan avances significativos al panorama de la IA, cada uno con sus puntos fuertes únicos. GPT-4.5, descrito como el &#8220;modelo más grande y con más conocimientos hasta la fecha&#8221; de OpenAI, se centra en ampliar el aprendizaje no supervisado para mejorar el conocimiento de las palabras y la intuición, reduciendo al mismo tiempo las alucinaciones. Este modelo destaca en la mejora de las capacidades de razonamiento y en la mejora de las interacciones de chat con una comprensión contextual más profunda.  </p>
<p>Por otra parte, Claude 3.7 Sonnet introduce un innovador <a href="https://www.wired.com/story/anthropic-world-first-hybrid-reasoning-ai-model/" target="_blank" rel="noopener noreferrer">modelo de razonamiento híbrido</a>, que permite tanto respuestas rápidas como un pensamiento extenso, paso a paso. Brilla especialmente en codificación y desarrollo web front-end, mostrando excelentes capacidades de seguimiento de instrucciones y razonamiento general. </p>
<h3>Mejoras clave:</h3>
<ul class="tight" data-tight="true">
<li><strong>GPT-4.5</strong>: Aprendizaje no supervisado mejorado y capacidades conversacionales</li>
<li><strong>Claude 3.7 Sonnet</strong>: Razonamiento híbrido avanzado y destreza de codificación superior</li>
<li><strong>Ambos modelos</strong>: Capacidades multimodales mejoradas y razonamiento adaptativo</li>
</ul>
<h2>Rendimiento y evaluación</h2>
<table>
<colgroup>
<col>
<col>
<col></colgroup>
<tbody>
<tr>
<th colspan="1" rowspan="1">Tarea</th>
<th colspan="1" rowspan="1">GPT-4.5 (vs 4o)</th>
<th colspan="1" rowspan="1">Claude 3,7 Soneto* (vs 3,5)</th>
</tr>
<tr>
<td colspan="1" rowspan="1">Codificación</td>
<td colspan="1" rowspan="1">Mejora</td>
<td colspan="1" rowspan="1">Supera significativamente</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Matemáticas</td>
<td colspan="1" rowspan="1">Mejora moderada</td>
<td colspan="1" rowspan="1">Mejor en los problemas AIME&#8217;24</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Razonamiento</td>
<td colspan="1" rowspan="1">Rendimiento similar</td>
<td colspan="1" rowspan="1">Rendimiento similar</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Multimodal</td>
<td colspan="1" rowspan="1">Rendimiento similar</td>
<td colspan="1" rowspan="1">Rendimiento similar</td>
</tr>
</tbody>
</table>
<p><em>* Sin pensar mucho</em></p>
<p>GPT-4.5 ha mostrado mejoras notables en las interacciones de chat y ha reducido las alucinaciones. Los probadores humanos han evaluado que es más precisa y objetiva que los modelos anteriores, lo que la convierte en un compañero de conversación más fiable. </p>
<p><img decoding="async" class="aligncenter wp-image-50752 size-full" src="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxcu8pbfgpg50z3vayf8qz2j48w88v2dsz64zmx0ceoewmsmdljsogue_2jaraxulupovh-9fvfu1difqlvifvpo6pgnzcskmyexz8rg-bojgew1ws9hh0jxjm4rxwrnuuf_eqngjq.avif" alt="Puntos de referencia GPT-4.5" width="1600" height="806"></p>
<p>Claude 3.7 Sonnet, por su parte, demuestra una eficiencia excepcional en aplicaciones en tiempo real y tareas de codificación. Ha alcanzado un rendimiento puntero en SWE-bench Verified y TAU-bench, demostrando su destreza en ingeniería de software y resolución de problemas complejos. Además, su mayor rendimiento en comparación con el GPT-4.5 lo hace especialmente adecuado para tareas que requieren respuestas rápidas y el procesamiento de grandes cantidades de datos.  </p>
<div id="attachment_50761" style="width: 1610px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-50761" class="wp-image-50761 size-full" src="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg.avif" alt="Claude 3.7 Puntos de referencia del soneto" width="1600" height="1452" srcset="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg.avif 1600w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-300x272.avif 300w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-1024x929.avif 1024w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-768x697.avif 768w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-1536x1394.avif 1536w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-714x648.avif 714w" sizes="auto, (max-width: 1600px) 100vw, 1600px" /><p id="caption-attachment-50761" class="wp-caption-text">Fuente: Antrópico</p></div>
<h2>Precios y accesibilidad</h2>
<p>La GPT-4.5, aunque presume de unas capacidades impresionantes, tiene un precio elevado. Su precio es 75 veces superior al de su predecesor, el GPT-4, sin una justificación clara de ese aumento sustancial. Esta estrategia de precios puede limitar su accesibilidad a muchos usuarios potenciales.  </p>
<p>En cambio, Claude 3.7 Sonnet ofrece una opción más asequible. Su estructura de precios es mucho más competitiva: </p>
<ol class="tight" data-tight="true">
<li>25 veces más barato para las fichas de entrada en comparación con GPT-4.5</li>
<li>10 veces más barato para las fichas de salida</li>
<li>Precios específicos: 3$ por millón de fichas de entrada y 15$ por millón de fichas de salida</li>
</ol>
<p>En cuanto a la disponibilidad, actualmente los usuarios y desarrolladores de GPT Pro pueden acceder a GPT-4.5 a través de la API, con planes para ampliar el acceso a usuarios Plus, instituciones educativas y equipos. Claude 3.7 Sonnet, sin embargo, ofrece una accesibilidad más amplia en todos los planes de Claude (Gratuito, Pro, Equipo, Empresa), así como a través de la API Antrópica, Amazon Bedrock y Vertex AI de Google Cloud. </p>
<p>Estas diferencias de precio y accesibilidad repercuten significativamente en la adopción potencial y los casos de uso de cada modelo, siendo Claude 3.7 Sonnet potencialmente atractivo para un mayor número de usuarios debido a su rentabilidad y mayor disponibilidad.</p>
<h2>Casos prácticos</h2>
<p>Tanto GPT-4.5 como Claude 3.7 Sonnet ofrecen capacidades únicas que se adaptan a diversas <a href="https://aloa.co/blog/large-language-model-applications" target="_blank" rel="noopener noreferrer">aplicaciones</a> del mundo real. GPT-4.5 destaca como <a href="https://meetcody.ai/use-cases/factual-research-assistant/">interlocutor</a> avanzado, superando a los modelos anteriores en precisión y reduciendo las alucinaciones. Su comprensión contextual mejorada lo hace ideal para la atención al cliente, la creación de contenidos y las experiencias de aprendizaje personalizadas.  </p>
<p>Por otra parte, Claude 3.7 Sonnet brilla en el ámbito de la codificación y el desarrollo de software. Sus capacidades de codificación agéntica, demostradas a través de <a href="https://docs.anthropic.com/en/docs/agents-and-tools/claude-code/overview" target="_blank" rel="noopener noreferrer">Claude Code</a>, automatizan tareas como la búsqueda de código, la ejecución de pruebas y el uso de herramientas de línea de comandos. Esto lo convierte en un activo inestimable para las empresas que buscan agilizar sus procesos de desarrollo.  </p>
<h2>Perspectivas de futuro y conclusión</h2>
<p>El lanzamiento de GPT-4.5 y Claude 3.7 Sonnet marca un hito importante en el desarrollo de la IA, sentando las bases para avances aún más revolucionarios. Aunque GPT-4.5 se considera una actualización menor, sienta las bases para futuros modelos con capacidades de razonamiento mejoradas. Claude 3.7 Sonnet, con su modelo de razonamiento híbrido, representa un cambio dinámico en el panorama de la IA, que puede influir en la dirección de futuros desarrollos.  </p>
<p>A medida que estos modelos sigan evolucionando, podemos anticipar nuevas mejoras en el aprendizaje no supervisado, las capacidades de razonamiento y las optimizaciones específicas de las tareas. La naturaleza complementaria del aprendizaje no supervisado y del razonamiento sugiere que los futuros modelos de IA mostrarán probablemente capacidades de resolución de problemas aún más sofisticadas. </p>
</div>
<p>The post <a href="https://meetcody.ai/es/blog/gpt-4-5-vs-claude-3-7-sonnet-una-inmersion-profunda-en-los-avances-de-la-ia/">GPT-4.5 vs Claude 3.7 Sonnet: Una inmersión profunda en los avances de la IA</a> appeared first on <a href="https://meetcody.ai/es/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Perplexity Comet: audaz salto a la búsqueda agéntica</title>
		<link>https://meetcody.ai/es/blog/perplexity-comet-audaz-salto-a-la-busqueda-agentica/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Thu, 27 Feb 2025 17:53:18 +0000</pubDate>
				<category><![CDATA[Sin categorizar]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/perplexity-comet-audaz-salto-a-la-busqueda-agentica/</guid>

					<description><![CDATA[<p>Perplexity, el gigante de los motores de búsqueda basados en IA, está causando sensación en el mundo de la tecnología con su última aventura: un revolucionario navegador web llamado Comet. Anunciado como &#8220;Un navegador para la búsqueda automática de Perplexity&#8221;, Comet representa un paso audaz en el competitivo mercado de los navegadores. Aunque los detalles<a class="excerpt-read-more" href="https://meetcody.ai/es/blog/perplexity-comet-audaz-salto-a-la-busqueda-agentica/" title="ReadPerplexity Comet: audaz salto a la búsqueda agéntica">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/es/blog/perplexity-comet-audaz-salto-a-la-busqueda-agentica/">Perplexity Comet: audaz salto a la búsqueda agéntica</a> appeared first on <a href="https://meetcody.ai/es/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="relative mt-8">
<div class="prose max-w-full">
<p>Perplexity, el gigante de los motores de búsqueda basados en IA, está causando sensación en el mundo de la tecnología con su última aventura: un revolucionario navegador web llamado Comet. Anunciado como &#8220;Un navegador para la búsqueda <a href="https://www.uipath.com/ai/agentic-ai" target="_blank" rel="noopener noreferrer">automática</a> de Perplexity&#8221;, Comet representa un paso audaz en el competitivo mercado de los navegadores. Aunque los detalles sobre su diseño y fecha de lanzamiento permanecen en secreto, la empresa ya ha lanzado una lista de inscripción, anunciando que Comet &#8220;llegará pronto&#8221;. </p>
<p>Este movimiento llega en un momento de importante crecimiento para Perplexity. La empresa, valorada en unos impresionantes 9.000 millones de dólares, procesa actualmente más de 100 millones de consultas semanales a través de su motor de búsqueda. La introducción de Comet significa la ambición de Perplexity de extender su influencia más allá de la búsqueda, remodelando potencialmente la forma en que los usuarios interactúan con la web. A medida que aumenta la expectación, Comet está a punto de convertirse en un elemento fundamental del ecosistema digital en expansión de Perplexity.   </p>
<h2>Características principales de Comet</h2>
<p>Comet aprovecha la &#8220;Búsqueda Agenética&#8221;, una potente capacidad que permite la ejecución autónoma de tareas. Esto significa que los usuarios pueden delegar en el navegador tareas complejas como reservar vuelos o gestionar reservas, mejorando significativamente la productividad. </p>
<p>Construido sobre una <a href="https://www.youtube.com/watch?v=SrJrd37xzBg" target="_blank" rel="noopener noreferrer">base de Chromium</a>, Comet garantiza la compatibilidad entre plataformas, proporcionando una experiencia fluida en dispositivos de escritorio y móviles. Esta elección de diseño combina la estabilidad de la tecnología establecida de los navegadores con las innovaciones de vanguardia en IA de Perplexity. </p>
<ul class="tight" data-tight="true">
<li><strong>Integración profunda de la investigación:</strong> Comet ofrece herramientas de análisis completas, que facilitan la investigación en profundidad directamente dentro del navegador.</li>
<li><strong>Procesamiento de la información en tiempo real:</strong> Los usuarios se benefician de información actualizada y completa con citas de las fuentes, lo que garantiza su exactitud y credibilidad.</li>
<li><strong>Amplias integraciones de aplicaciones:</strong> Con soporte para más de 800 aplicaciones, Comet pretende convertirse en un eje central para las actividades digitales de los usuarios.</li>
</ul>
<p>Al combinar la IA con las funciones tradicionales del navegador, Comet está llamado a transformar la forma en que los usuarios interactúan con la web, alterando potencialmente el panorama de la productividad y el procesamiento de la información. En palabras de Perplexity, Comet es realmente &#8220;un navegador para la búsqueda automática&#8221;, que promete una nueva era de navegación web inteligente. </p>
<h2>Posicionamiento estratégico y contexto de mercado</h2>
<p>Perplexity se aventura en el competitivo mercado de los navegadores con Comet, y se enfrenta a formidables desafíos por parte de empresas consolidadas como Google Chrome y navegadores emergentes mejorados con IA, como Dia de The Browser Company. Sin embargo, el posicionamiento único de Comet como navegador basado en Chromium y potenciado por IA, con capacidades avanzadas de automatización de tareas, lo diferencia de las ofertas tradicionales. </p>
<p>Mientras que Google Chrome cuenta con una base masiva de usuarios y funciones básicas de IA, Comet pretende diferenciarse por sus sofisticadas capacidades de IA, amplias integraciones de aplicaciones y profundas herramientas de investigación, todo ello sin necesidad de extensiones adicionales. Este enfoque podría atraer a los usuarios que buscan una experiencia de navegación más inteligente y racionalizada, desafiando potencialmente el dominio de Chrome en ciertos segmentos. </p>
<p>La estrategia de marketing de Perplexity para Comet aprovecha inteligentemente su actual base de usuarios del buscador, que ya procesa más de 100 millones de consultas semanales. Aprovechando esta audiencia establecida, Perplexity pretende facilitar una adopción más fluida de Comet, dándole potencialmente una ventaja significativa en adquisición de usuarios y compromiso en el competitivo panorama de los buscadores. </p>
<h2>Consideraciones legales y éticas</h2>
<p>Al aventurarse en el mercado de los navegadores con Comet, Perplexity se enfrenta no sólo a retos tecnológicos, sino también a importantes obstáculos legales y éticos. Recientemente, la empresa se ha visto envuelta en disputas legales con importantes editores sobre el uso de contenidos. Dow Jones, de News Corp, y el NY Post han presentado demandas contra Perplexity, acusándola de replicación no autorizada de contenidos y tachando a la empresa de &#8220;cleptocracia de contenidos&#8221;. Además, The New York Times ha emitido un aviso de cese y desistimiento, intensificando aún más la presión legal.   </p>
<p>En respuesta a estas acusaciones, Perplexity mantiene que respeta el contenido de los editores y ha introducido un programa de reparto de ingresos para los medios de comunicación. Esta medida parece un intento de abordar las preocupaciones y establecer una relación de mayor colaboración con los creadores de contenidos. Sin embargo, aún está por ver la eficacia de este programa para resolver disputas legales.  </p>
<h3>P: ¿Cuáles son las implicaciones éticas de la navegación web impulsada por la IA?</h3>
<p>R: La introducción de navegadores impulsados por IA como Comet plantea importantes cuestiones éticas sobre la privacidad de los datos y la autonomía del usuario. Los analistas de ciberseguridad, como Mark Thompson, han expresado su preocupación por cómo pueden recopilarse, procesarse y potencialmente compartirse <a href="https://www.ibm.com/think/topics/ai-ethics" target="_blank" rel="noopener noreferrer">los datos del usuario</a> cuando se utilizan herramientas de navegación impulsadas por IA. Dado que Comet promete revolucionar la interacción web mediante funciones como la búsqueda agéntica y amplias integraciones de aplicaciones, también amplifica la necesidad de prácticas transparentes en materia de datos y protecciones sólidas de la privacidad.  </p>
<h2>Opiniones de expertos y perspectivas del sector</h2>
<p>Mientras el navegador Comet de Perplexity se prepara para entrar en el mercado, los expertos están sopesando su posible impacto e implicaciones. La Dra. Sarah Chen, destacada investigadora de IA, sugiere que Comet podría alterar fundamentalmente la forma en que los usuarios interactúan con la información en línea, gracias a sus avanzadas <a href="https://meetcody.ai/blog/top-ai-web-browsing-agents/" target="_blank" rel="noopener noreferrer">capacidades de búsqueda agéntica</a>. Esta perspectiva concuerda con el rápido crecimiento de Perplexity, como demuestra el hecho de que su motor de búsqueda de IA procesa actualmente unos 100 millones de consultas semanales.  </p>
<p>A pesar de las preocupaciones, los observadores del sector prevén un crecimiento significativo de la integración de la IA en las tecnologías web. La valoración de 9.000 millones de dólares de Perplexity y su posicionamiento como principal competidor en el espacio de los motores de búsqueda de IA subrayan esta tendencia. Mientras Comet se prepara para su lanzamiento, no sólo representa un nuevo producto, sino un cambio potencial en la forma en que percibimos e interactuamos con Internet, equilibrando la innovación con la necesidad de una implementación responsable de la IA.  </p>
<h2>¿Transformará esto la búsqueda?</h2>
<p>La visión de la empresa de reinventar la navegación web, al igual que su enfoque de los motores de búsqueda, sugiere un futuro en el que los navegadores impulsados por la IA podrían convertirse en la norma. Con la rápida expansión de Perplexity y la introducción de productos innovadores, Comet está preparada para sacar provecho de la creciente tendencia a integrar la IA en las tecnologías web. </p>
<p>El mercado de los navegadores puede experimentar cambios significativos a medida que los usuarios se acostumbren a experiencias de navegación más inteligentes y orientadas a las tareas. El enfoque de Perplexity en las capacidades de búsqueda agéntica en Comet podría redefinir las interacciones digitales, agilizando potencialmente las tareas complejas en línea y remodelando los hábitos de navegación. A medida que la IA sigue impregnando diversos aspectos de la tecnología, Comet representa un audaz paso hacia un futuro en el que los navegadores web actúen como asistentes inteligentes, mejorando la productividad y transformando la forma en que navegamos por el mundo digital.  </p>
</div>
</div>
<p>The post <a href="https://meetcody.ai/es/blog/perplexity-comet-audaz-salto-a-la-busqueda-agentica/">Perplexity Comet: audaz salto a la búsqueda agéntica</a> appeared first on <a href="https://meetcody.ai/es/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
