<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Om Kamath, Author at Cody - The AI Trained on Your Business</title>
	<atom:link href="https://meetcody.ai/pt-br/blog/author/omkamath/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>AI Powered Knowledge Base for Employees</description>
	<lastBuildDate>Thu, 26 Mar 2026 18:07:37 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>

<image>
	<url>https://meetcody.ai/wp-content/uploads/2025/08/cropped-Cody-Emoji-071-32x32.png</url>
	<title>Om Kamath, Author at Cody - The AI Trained on Your Business</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Gemini Embedding 2: o primeiro modelo de incorporação multimodal do Google</title>
		<link>https://meetcody.ai/pt-br/blog/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Tue, 24 Mar 2026 03:02:17 +0000</pubDate>
				<category><![CDATA[Não categorizado]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google/</guid>

					<description><![CDATA[<p>Gemini Embedding 2: recursos, benchmarks, preços e como começar Na semana passada, o Google lançou Gémeos Embedding 2, o primeiro modelo de embedding nativamente multimodal criado na arquitetura Gemini. Se você trabalha com incorporações de alguma forma, isso merece sua atenção. Ele tem o potencial de interromper significativamente os pipelines de incorporação de vários modelos<a class="excerpt-read-more" href="https://meetcody.ai/pt-br/blog/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google/" title="ReadGemini Embedding 2: o primeiro modelo de incorporação multimodal do Google">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/pt-br/blog/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google/">Gemini Embedding 2: o primeiro modelo de incorporação multimodal do Google</a> appeared first on <a href="https://meetcody.ai/pt-br/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p style="text-align: center;"><em>Gemini Embedding 2: recursos, benchmarks, preços e como começar</em><!-- notionvc: c383b1b6-2ff8-40bd-8227-0a70d481c796 --></p>
<p>Na semana passada, o Google lançou  <a href="https://meetcody.ai/blog/google-introduces-the-multimodal-gemini-ultra-pro-nano-models/">Gémeos</a>  Embedding 2, o primeiro modelo de embedding nativamente multimodal criado na arquitetura Gemini. Se você trabalha com incorporações de alguma forma, isso merece sua atenção. Ele tem o potencial de interromper significativamente os pipelines de incorporação de vários modelos com os quais a maioria das equipes conta atualmente.  </p>
<p>Até agora, os principais modelos de incorporação da OpenAI, Cohere e Voyage eram baseados principalmente em texto. Havia algumas opções multimodais &#8211; <a href="https://openai.com/index/clip/">CLIP</a> para alinhamento imagem-texto, <a href="https://blog.voyageai.com/2026/01/15/voyage-multimodal-3-5/">Voyage Multimodal 3.5</a> para imagens e vídeo &#8211; mas nenhuma abrangia todo o espectro de modalidades em um único espaço vetorial unificado. Normalmente, o áudio tinha que ser transcrito antes da incorporação. O vídeo exigia a extração de quadros combinada com a incorporação de transcrições separadas. As imagens viviam inteiramente em seu próprio espaço vetorial.    </p>
<p>O Gemini Embedding 2 muda essa equação. Um modelo, uma chamada de API, um espaço vetorial. </p>
<p>Vamos ver o que há de novo.</p>
<h2>O que é o Gemini Embedding 2?</h2>
<p><a href="https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-embedding-2/">O Gemini Embedding 2</a> (<code>gemini-embedding-2-preview</code>) é o primeiro <a href="https://meetcody.ai/blog/text-embedding-models/">modelo de incorporação</a> totalmente multimodal do Google DeepMind. Ele usa texto, imagens, videoclipes, gravações de áudio e documentos PDF e converte todos eles em vetores que vivem no mesmo espaço semântico compartilhado. </p>
<p>Diferentemente de abordagens multimodais anteriores, como o CLIP, que emparelha um codificador de visão com um codificador de texto e os alinha com o aprendizado contrastivo no final, o Gemini Embedding 2 foi desenvolvido com base no próprio modelo de fundação do Gemini. Isso significa que ele herda uma profunda compreensão multimodal desde o início. </p>
<div id="attachment_70663" style="width: 1034px" class="wp-caption aligncenter"><img fetchpriority="high" decoding="async" aria-describedby="caption-attachment-70663" class="wp-image-70663 size-full" src="https://meetcody.ai/wp-content/uploads/2026/03/embedding.png" alt="Embeddings multimodais" width="1024" height="587" srcset="https://meetcody.ai/wp-content/uploads/2026/03/embedding.png 1024w, https://meetcody.ai/wp-content/uploads/2026/03/embedding-300x172.png 300w, https://meetcody.ai/wp-content/uploads/2026/03/embedding-768x440.png 768w" sizes="(max-width: 1024px) 100vw, 1024px" /><p id="caption-attachment-70663" class="wp-caption-text">Imagem gerada usando o Nano Banana</p></div>
<p><strong>Exemplo prático:</strong> Imagine que você está criando um Sistema de Gerenciamento de Aprendizagem (LMS) com tutoriais em vídeo, palestras em áudio e guias escritos. Com o Gemini Embedding 2, você pode armazenar embeddings de todo esse conteúdo em um único espaço vetorial e criar um <a href="https://meetcody.ai/blog/rag-private-clouds/">chatbot baseado em RAG</a> que recupera <a href="https://meetcody.ai/blog/how-does-cody-generate-responses-using-your-documents/">partes</a> relevantes de vídeos, áudios e documentos. Anteriormente, isso exigia um pipeline de incorporação em várias camadas e, mesmo assim, ele só capturava transcrições, deixando de lado o contexto visual de um vídeo ou o tom de voz de um locutor.  </p>
<p>O modelo usa o <a href="https://arxiv.org/abs/2205.13147">Matryoshka Representation Learning</a>, o que significa que você não precisa usar todas as 3072 dimensões se não precisar delas. Você pode reduzir para 1536 ou 768 e ainda assim obter resultados úteis. </p>
<p><em>O aprendizado de representação Matryoshka (MRL) é uma técnica para treinar modelos de incorporação de modo que as representações aprendidas sejam úteis não apenas em sua dimensionalidade total, mas também em várias dimensões menores, aninhadas umas dentro das outras como bonecas russas matryoshka. Durante o treinamento, a função de perda é calculada não apenas na incorporação completa, mas também em vários prefixos do vetor de incorporação. Isso incentiva o modelo a reunir as informações mais importantes nas primeiras dimensões, com cada dimensão subsequente adicionando detalhes mais refinados &#8211; uma estrutura de grosso a fino.  </em></p>
<h2>Modalidades suportadas e limites de entrada</h2>
<p>O modelo aceita cinco tipos de entrada, todos mapeados no mesmo espaço de incorporação:</p>
<table>
<thead>
<tr>
<th>Modalidade</th>
<th>Limite de entrada</th>
<th>Formatos</th>
</tr>
</thead>
<tbody>
<tr>
<td>Texto</td>
<td>Até 8.192 tokens</td>
<td>Texto simples</td>
</tr>
<tr>
<td>Imagens</td>
<td>Até 6 imagens por solicitação</td>
<td>PNG, JPEG</td>
</tr>
<tr>
<td>Vídeo</td>
<td>Até 120 segundos</td>
<td>MP4, MOV</td>
</tr>
<tr>
<td>Áudio</td>
<td>Até 80 segundos (nativo, sem transcrição)</td>
<td>MP3, WAV</td>
</tr>
<tr>
<td>PDFs</td>
<td>Incorporados diretamente</td>
<td>Documentos PDF</td>
</tr>
</tbody>
</table>
<h2>Como ele se compara aos modelos existentes</h2>
<p><strong>TLDR:</strong> O novo modelo Gemini Embedding 2 do Google supera seus concorrentes (seu próprio antecessor, o Amazon Nova 2 e o Voyage Multimodal 3.5) em quase todas as modalidades: texto, imagem, vídeo e fala. Ele lidera de forma mais convincente na recuperação de vídeo e na correspondência imagem-texto. O único parâmetro de comparação em que ele não vence é a recuperação de documentos, em que o Voyage está ligeiramente à frente. A recuperação de texto por fala é uma categoria que pertence exclusivamente ao Gemini, pois nenhum concorrente oferece suporte a ela.   </p>
<p>O Google publicou comparações de benchmark com seus próprios modelos legados, Amazon Nova 2 Multimodal Embeddings e Voyage Multimodal 3.5. Aqui está o quadro completo: </p>
<h3>Texto-Texto</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incorporação Gemini 2</th>
<th>gemini-embedding-001</th>
<th>Amazon Nova 2</th>
<th>Voyage Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>MTEB Multilíngue (tarefa média)</td>
<td><strong>69.9</strong></td>
<td>68.4</td>
<td>63.8**</td>
<td>58.5***</td>
</tr>
<tr>
<td>Código MTEB (tarefa média)</td>
<td><strong>84.0</strong></td>
<td>76.0</td>
<td>*</td>
<td>*</td>
</tr>
</tbody>
</table>
<p>O Gemini Embedding 2 é líder em texto multilíngue por uma margem confortável e salta 8 pontos em relação ao seu antecessor na recuperação de código. Nem o Amazon Nova 2 nem o Voyage apresentam pontuações de código. </p>
<h3>Texto-Imagem</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incorporação Gemini 2</th>
<th>multimodalembedding@001</th>
<th>Amazon Nova 2</th>
<th>Voyage Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>TextCaps (recall@1)</td>
<td><strong>89.6</strong></td>
<td>74.0</td>
<td>76.0</td>
<td>79.4</td>
</tr>
<tr>
<td>Docci (recall@1)</td>
<td><strong>93.4</strong></td>
<td>&#8211;</td>
<td>84.0</td>
<td>83.8</td>
</tr>
</tbody>
</table>
<p>Uma clara liderança na recuperação de texto para imagem &#8211; mais de 9 pontos à frente do concorrente mais próximo em ambos os benchmarks.</p>
<h3>Imagem-Texto</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incorporação Gemini 2</th>
<th>multimodalembedding@001</th>
<th>Amazon Nova 2</th>
<th>Voyage Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>TextCaps (recall@1)</td>
<td><strong>97.4</strong></td>
<td>88.1</td>
<td>88.9</td>
<td>88.6</td>
</tr>
<tr>
<td>Docci (recall@1)</td>
<td><strong>91.3</strong></td>
<td>&#8211;</td>
<td>76.5</td>
<td>77.4</td>
</tr>
</tbody>
</table>
<p>A recuperação de imagem para texto mostra as maiores lacunas &#8211; quase 15 pontos à frente do Amazon Nova 2 no Docci.</p>
<h3>Documento de texto</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incorporação Gemini 2</th>
<th>multimodalembedding@001</th>
<th>Amazon Nova 2</th>
<th>Voyage Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>ViDoRe v2 (ndcg@10)</td>
<td>64.9</td>
<td>28.9</td>
<td>60.6</td>
<td><strong>65.5**</strong></td>
</tr>
</tbody>
</table>
<p>O único parâmetro de comparação em que o Voyage Multimodal 3.5 está à frente (auto-relatado). A recuperação de documentos está próxima entre os principais modelos. </p>
<h3>Texto-Vídeo</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incorporação Gemini 2</th>
<th>multimodalembedding@001</th>
<th>Amazon Nova 2</th>
<th>Voyage Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>Vatex (ndcg@10)</td>
<td><strong>68.8</strong></td>
<td>54.9</td>
<td>60.3</td>
<td>55.2</td>
</tr>
<tr>
<td>MSR-VTT (ndcg@10)</td>
<td><strong>68.0</strong></td>
<td>57.9</td>
<td>67.0</td>
<td>63.0**</td>
</tr>
<tr>
<td>Você é o cozinheiro2 (ndcg@10)</td>
<td><strong>52.5</strong></td>
<td>34.9</td>
<td>34.7</td>
<td>31.4**</td>
</tr>
</tbody>
</table>
<p>A recuperação de vídeo é onde o Gemini Embedding 2 está mais à frente &#8211; mais de 17 pontos acima do Voyage no Youcook2 e mais de 13 pontos no Vatex.</p>
<h3>Discurso-Texto</h3>
<table>
<thead>
<tr>
<th>Métrica</th>
<th>Incorporação Gemini 2</th>
</tr>
</thead>
<tbody>
<tr>
<td>MSEB (mrr@10)</td>
<td><strong>73.9</strong></td>
</tr>
<tr>
<td>MSEB ASR**** (mrr@10)</td>
<td><strong>70.4</strong></td>
</tr>
</tbody>
</table>
<p>A recuperação de texto de fala é totalmente incontestável &#8211; nem a Amazon nem o Voyage oferecem suporte a ela. Essa é uma categoria que a Gemini Embedding 2 domina completamente. </p>
<p><em>&#8211; Pontuação não disponível ** Autorrelatada *** voyage-3.5 **** O modelo ASR converte consultas de áudio em texto</em></p>
<h2>Preços</h2>
<p>No momento, o modelo é gratuito durante a visualização pública. Quando você estiver no nível pago, veja o detalhamento: </p>
<table>
<thead>
<tr>
<th></th>
<th>Nível gratuito</th>
<th>Nível pago (por 1 milhão de tokens)</th>
</tr>
</thead>
<tbody>
<tr>
<td>Entrada de texto</td>
<td>Gratuito</td>
<td>$0.20</td>
</tr>
<tr>
<td>Entrada de imagem</td>
<td>Gratuito</td>
<td>US$ 0,45 (US$ 0,00012 por imagem)</td>
</tr>
<tr>
<td>Entrada de áudio</td>
<td>Gratuito</td>
<td>US$ 6,50 (US$ 0,00016 por segundo)</td>
</tr>
<tr>
<td>Entrada de vídeo</td>
<td>Gratuito</td>
<td>US$ 12,00 (US$ 0,00079 por quadro)</td>
</tr>
<tr>
<td>Usado para melhorar os produtos do Google</td>
<td>Sim</td>
<td>Não</td>
</tr>
</tbody>
</table>
<h2><strong>Primeiros passos</strong></h2>
<p>O modelo está disponível agora em visualização pública por meio da API Gemini e do Vertex AI com o ID do modelo  <code>gemini-embedding-2-preview</code>. Ele se integra com LangChain, LlamaIndex, Haystack, Weaviate, Qdrant, ChromaDB e Vector Search.</p>
<pre><code class="language-jsx">from google import genai
from google.genai import types

# For Vertex AI:
# PROJECT_ID='&lt;add_here&gt;'
# client = genai.Client(vertexai=True, project=PROJECT_ID, location='us-central1')

client = genai.Client()

with open("example.png", "rb") as f:
    image_bytes = f.read()

with open("sample.mp3", "rb") as f:
    audio_bytes = f.read()

# Embed text, image, and audio 
result = client.models.embed_content(
    model="gemini-embedding-2-preview",
    contents=[
        "What is the meaning of life?",
        types.Part.from_bytes(
            data=image_bytes,
            mime_type="image/png",
        ),
        types.Part.from_bytes(
            data=audio_bytes,
            mime_type="audio/mpeg",
        ),
    ],
)

print(result.embeddings)
</code></pre>
<h2>Experimente aqui!</h2>
<p>Criamos um <a href="https://gemini-2-trial.vercel.app">aplicativo</a> de demonstração no qual você pode testar o desempenho de recuperação multimodal do gemini-embedding-2.</p>
<p>Você pode obter a chave de API fazendo login em <a href="http://aistudio.google.com">aistudio.google.com</a>.</p>
<h2>Limitações a serem observadas</h2>
<ul>
<li>O modelo ainda está em pré-visualização pública (a tag &#8220;preview&#8221; significa que o preço e o comportamento podem mudar antes do GA).</li>
<li>A entrada de vídeo é limitada a 120 segundos e a de áudio a 80 segundos.</li>
<li>O desempenho em domínios de nicho, como o controle de qualidade financeiro, é mais fraco; avalie com base em seus dados específicos antes de se comprometer.</li>
<li>Para pipelines de texto puro sem planos multimodais, o prêmio de custo em relação aos modelos somente de texto pode não ser justificado.</li>
</ul>
<h2>O resultado final</h2>
<p>O Gemini Embedding 2 não é apenas uma melhoria incremental, é uma mudança de categoria. Para as equipes que criam sistemas RAG multimodais, pesquisa semântica em tipos de mídia ou bases de conhecimento unificadas, ele reduz o que costumava ser um problema de vários modelos e vários pipelines a uma única chamada de API. Se seus dados abrangem mais do que apenas texto, este é o modelo que você deve avaliar primeiro.  </p>
<p>Para criar um RAG multimodal, você não deve precisar costurar modelos de incorporação, bancos de dados vetoriais e lógica de recuperação do zero. Se você quiser uma solução gerenciada <a href="https://meetcody.ai/blog/rag-as-a-service-unlock-generative-ai-for-your-business/">de RAG como serviço</a> que lide com o pipeline de incorporação para você, <a href="https://getcody.ai/">inscreva-se</a> para a avaliação gratuita na Cody e comece a criar hoje mesmo. </p>
<p><!-- notionvc: 1819203a-dd06-4804-9886-3355db49e8de --></p>
<p>The post <a href="https://meetcody.ai/pt-br/blog/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google/">Gemini Embedding 2: o primeiro modelo de incorporação multimodal do Google</a> appeared first on <a href="https://meetcody.ai/pt-br/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Gemini 2.5 Pro e GPT-4.5: quem lidera a revolução da IA?</title>
		<link>https://meetcody.ai/pt-br/blog/gemini-2-5-pro-e-gpt-4-5-quem-lidera-a-revolucao-da-ia/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 15:36:01 +0000</pubDate>
				<category><![CDATA[Não categorizado]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gemini-2-5-pro-e-gpt-4-5-quem-lidera-a-revolucao-da-ia/</guid>

					<description><![CDATA[<p>Em 2025, o mundo da inteligência artificial se tornou muito empolgante, com grandes empresas de tecnologia competindo ferozmente para criar os sistemas de IA mais avançados de todos os tempos. Essa intensa competição gerou muitas ideias novas, ampliando os limites do que a IA pode fazer para pensar, resolver problemas e interagir como os humanos.<a class="excerpt-read-more" href="https://meetcody.ai/pt-br/blog/gemini-2-5-pro-e-gpt-4-5-quem-lidera-a-revolucao-da-ia/" title="ReadGemini 2.5 Pro e GPT-4.5: quem lidera a revolução da IA?">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/pt-br/blog/gemini-2-5-pro-e-gpt-4-5-quem-lidera-a-revolucao-da-ia/">Gemini 2.5 Pro e GPT-4.5: quem lidera a revolução da IA?</a> appeared first on <a href="https://meetcody.ai/pt-br/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p data-pm-slice="0 0 []">Em 2025, o mundo da inteligência artificial se tornou muito empolgante, com grandes empresas de tecnologia competindo ferozmente para criar os sistemas de IA mais avançados de todos os tempos. Essa intensa competição gerou muitas ideias novas, ampliando os limites do que a IA pode fazer para pensar, resolver problemas e interagir como os humanos. No último mês, houve melhorias incríveis, com dois participantes principais liderando o caminho: O Gemini 2.5 Pro do Google e o GPT-4.5 da OpenAI. Em uma grande revelação em março de 2025, o Google apresentou o Gemini 2.5 Pro, que eles chamam de sua criação mais inteligente até o momento. Ele rapidamente se tornou o melhor desempenho na tabela de classificação <a href="https://lmarena.ai/?p2l" target="_blank" rel="noopener noreferrer">da LMArena</a>, superando seus concorrentes. O que torna o Gemini 2.5 especial é sua capacidade de considerar cuidadosamente as respostas, o que o ajuda a ter um desempenho melhor em tarefas complexas que exigem raciocínio profundo.     </p>
<p>Não querendo ficar para trás, a OpenAI lançou o GPT-4.5, seu maior e mais avançado modelo de bate-papo até agora. Esse modelo é excelente para reconhecer padrões, fazer conexões e ter ideias criativas. Os primeiros testes mostram que a interação com o GPT-4.5 é muito natural, graças à sua ampla gama de conhecimentos e à melhor compreensão do que os usuários querem dizer. A OpenAI enfatiza os aprimoramentos significativos do GPT-4.5 no aprendizado sem supervisão direta, projetado para uma colaboração tranquila com humanos.   </p>
<p>Esses sistemas de IA não são apenas uma tecnologia impressionante; eles estão mudando a forma como as empresas operam, acelerando as descobertas científicas e transformando projetos criativos. À medida que a IA se torna uma parte normal da vida cotidiana, modelos como o Gemini 2.5 Pro e o GPT-4.5 estão expandindo o que pensamos ser possível. Com melhores habilidades de raciocínio, menos chances de espalhar informações falsas e domínio de problemas complexos, eles estão abrindo caminho para sistemas de IA que realmente apoiam o progresso humano.  </p>
<h2>Entendendo o Gemini 2.5 Pro</h2>
<p>Em 25 de março de 2025, o Google apresentou oficialmente o Gemini 2.5 Pro, descrito como seu &#8220;modelo de IA mais inteligente&#8221; até o momento. Esse lançamento representou um marco significativo na jornada de desenvolvimento de IA do Google, após <a href="https://meetcody.ai/blog/chatgpt-killer-what-gemini-means-for-googles-ai-future/" target="_blank" rel="noopener noreferrer">várias iterações</a> de seus modelos 2.0. A estratégia de lançamento começou com a versão experimental primeiro, dando aos assinantes do Gemini Advanced acesso antecipado para testar seus recursos.  </p>
<p><img decoding="async" class="aligncenter wp-image-50851 size-large" src="https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1024x629.jpg" alt="Benchmarks do Gemini 2.5" width="1024" height="629" srcset="https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1024x629.jpg 1024w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-300x184.jpg 300w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-768x472.jpg 768w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1536x943.jpg 1536w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-2048x1258.jpg 2048w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1055x648.jpg 1055w" sizes="(max-width: 1024px) 100vw, 1024px" /></p>
<p>O que separa o Gemini 2.5 Pro de seus antecessores é sua arquitetura fundamental como um<a href="https://ai.google.dev/gemini-api/docs/thinking#:~:text=Gemini%202.5%20Pro%20Experimental%20and,them%20to%20solve%20complex%20tasks." target="_blank" rel="noopener noreferrer">&#8220;modelo de pensamento&#8221;.</a> Ao contrário das gerações anteriores, que se baseavam principalmente em padrões de dados treinados, esse modelo pode raciocinar ativamente em seus pensamentos antes de responder, imitando os processos humanos de solução de problemas. Isso representa um avanço significativo na forma como os sistemas de IA processam informações e geram respostas. </p>
<h3>Principais recursos e capacidades:</h3>
<ol class="tight" data-tight="true">
<li><strong>Habilidades de raciocínio aprimoradas</strong> &#8211; capaz de resolver problemas passo a passo em domínios complexos</li>
<li><strong>Janela de contexto expandida</strong> &#8211; capacidade de 1 milhão de tokens (com planos de expansão para 2 milhões)</li>
<li><strong>Multimodalidade nativa</strong> &#8211; processa perfeitamente texto, imagens, áudio, vídeo e código</li>
<li><strong>Recursos avançados de código</strong> &#8211; Melhorias significativas na criação de aplicativos da Web e na transformação de código</li>
</ol>
<p>O Gemini 2.5 Pro se estabeleceu como líder em desempenho, estreando na posição número 1 na tabela de classificação da LMArena. Ele se destaca especialmente em benchmarks que exigem raciocínio avançado, obtendo uma pontuação líder do setor de 18,8% no Humanity&#8217;s Last Exam sem usar ferramentas externas. Em matemática e ciências, ele demonstra uma competência notável com pontuações de 86,7% no AIME 2025 e 79,7% no GPQA diamond, respectivamente.  </p>
<p>Em comparação com os modelos Gemini anteriores, a versão 2.5 Pro representa um avanço substancial. Enquanto o Gemini 2.0 introduziu importantes recursos básicos, o 2.5 Pro combina um modelo básico significativamente aprimorado com técnicas aprimoradas de pós-treinamento. As melhorias mais notáveis aparecem no desempenho da codificação, na profundidade do raciocínio e na compreensão contextual &#8211; áreas em que as versões anteriores apresentavam limitações.  </p>
<h2>Explorando o GPT-4.5</h2>
<p>Em abril de 2025, a OpenAI apresentou o GPT-4.5, descrevendo-o como seu &#8220;maior e mais avançado modelo de bate-papo até o momento&#8221;, o que significa uma conquista notável na evolução de grandes modelos de linguagem. Essa prévia da pesquisa provocou entusiasmo imediato na comunidade de IA, com testes iniciais indicando que as interações com o modelo parecem excepcionalmente naturais, graças à sua ampla base de conhecimento e à capacidade aprimorada de compreender a intenção do usuário. </p>
<p>O GPT-4.5 apresenta avanços significativos nos recursos de aprendizado não supervisionado. A OpenAI realizou esse progresso ao dimensionar a potência computacional e as entradas de dados, além de empregar estratégias inovadoras de arquitetura e otimização. O modelo foi treinado nos supercomputadores de IA do Microsoft Azure, dando continuidade a uma parceria que permitiu à OpenAI ampliar os limites das possibilidades.  </p>
<h3>Principais aprimoramentos e recursos:</h3>
<ol class="tight" data-tight="true">
<li><strong>Reconhecimento aprimorado</strong> de padrões &#8211; Capacidade significativamente maior de reconhecer padrões, estabelecer conexões e gerar percepções criativas</li>
<li><strong>Alucinações reduzidas</strong> &#8211; Menor probabilidade de gerar informações falsas em comparação com modelos anteriores como <a href="https://meetcody.ai/blog/gpt-4o-unveiled/" target="_blank" rel="noopener noreferrer">GPT-4o</a> e <a href="https://meetcody.ai/blog/openai-o3-vs-o1-the-future-of-ai-reasoning-and-safety-unveiled/" target="_blank" rel="noopener noreferrer">o1</a></li>
<li><strong>Melhoria do &#8220;QE&#8221;</strong> &#8211; Maior inteligência emocional e compreensão das interações humanas diferenciadas</li>
<li><strong>Capacidade de direção avançada</strong> &#8211; Melhor compreensão e adesão a instruções complexas do usuário</li>
</ol>
<p>A OpenAI deu ênfase especial ao treinamento do GPT-4.5 para a colaboração humana. Novas técnicas aprimoram a capacidade de direção do modelo, a compreensão das nuances e o fluxo natural da conversa. Isso o torna particularmente eficaz na assistência à escrita e ao design, onde demonstra intuição estética e criatividade mais fortes do que as iterações anteriores.  </p>
<p>Em aplicativos do mundo real, o GPT-4.5 demonstra uma versatilidade notável. Sua base de conhecimento ampliada e os recursos de raciocínio aprimorados o tornam adequado para uma ampla gama de tarefas, desde a criação de conteúdo detalhado até a solução de problemas sofisticados. O CEO da OpenAI, Sam Altman, descreveu o modelo em termos positivos, destacando sua &#8220;eficácia única&#8221;, apesar de não liderar em todas as categorias de benchmark.  </p>
<p>A estratégia de implementação do GPT-4.5 reflete a abordagem ponderada da OpenAI para o lançamento de poderosos sistemas de IA. Inicialmente disponível para os assinantes e desenvolvedores do ChatGPT Pro em níveis pagos por meio de várias APIs, a empresa planeja expandir gradualmente o acesso aos assinantes do ChatGPT Plus, Team, Edu e Enterprise. Essa implementação em fases permite que a OpenAI monitore o desempenho e a segurança à medida que o uso aumenta.  </p>
<h2>Métricas de desempenho: Uma análise comparativa</h2>
<p>Ao examinar os recursos técnicos desses modelos avançados de IA, o desempenho de benchmark fornece a medida mais objetiva de suas habilidades. O Gemini 2.5 Pro e o GPT-4.5 demonstram pontos fortes exclusivos em vários domínios, com testes de benchmark que revelam suas vantagens distintas. </p>
<table>
<colgroup>
<col>
<col>
<col>
<col>
<col></colgroup>
<tbody>
<tr>
<th colspan="1" rowspan="1">Referência</th>
<th colspan="1" rowspan="1">Gemini 2.5 Pro (03-25)</th>
<th colspan="1" rowspan="1">OpenAI GPT-4.5</th>
<th colspan="1" rowspan="1">Claude 3.7 Sonnet</th>
<th colspan="1" rowspan="1">Grok 3 Preview</th>
</tr>
<tr>
<td colspan="1" rowspan="1">LMArena (geral)</td>
<td colspan="1" rowspan="1">#1</td>
<td colspan="1" rowspan="1">2</td>
<td colspan="1" rowspan="1">21</td>
<td colspan="1" rowspan="1">2</td>
</tr>
<tr>
<td colspan="1" rowspan="1">O Último Exame da Humanidade (sem ferramentas)</td>
<td colspan="1" rowspan="1">18.8%</td>
<td colspan="1" rowspan="1">6.4%</td>
<td colspan="1" rowspan="1">8.9%</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">GPQA Diamante (tentativa única)</td>
<td colspan="1" rowspan="1">84.0%</td>
<td colspan="1" rowspan="1">71.4%</td>
<td colspan="1" rowspan="1">78.2%</td>
<td colspan="1" rowspan="1">80.2%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">AIME 2025 (tentativa única)</td>
<td colspan="1" rowspan="1">86.7%</td>
<td colspan="1" rowspan="1">&#8211;</td>
<td colspan="1" rowspan="1">49.5%</td>
<td colspan="1" rowspan="1">77.3%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">SWE-Bench Verificado</td>
<td colspan="1" rowspan="1">63.8%</td>
<td colspan="1" rowspan="1">38.0%</td>
<td colspan="1" rowspan="1">70.3%</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Aider Polyglot (Integral/Difuso)</td>
<td colspan="1" rowspan="1">74.0% / 68.6%</td>
<td colspan="1" rowspan="1">44,9% diff</td>
<td colspan="1" rowspan="1">64,9% diff</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">MRCR (128k)</td>
<td colspan="1" rowspan="1">91.5%</td>
<td colspan="1" rowspan="1">48.8%</td>
<td colspan="1" rowspan="1">&#8211;</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
</tbody>
</table>
<p>O Gemini 2.5 Pro mostra uma força excepcional em tarefas <a href="https://www.digitalocean.com/community/tutorials/understanding-reasoning-in-llms" target="_blank" rel="noopener noreferrer">de raciocínio intensivo</a>, destacando-se particularmente no raciocínio de contexto longo e na retenção de conhecimento. Ele supera significativamente os concorrentes no Humanity&#8217;s Last Exam, que testa a fronteira do conhecimento humano. No entanto, ele apresenta fraquezas relativas na geração de código, codificação agêntica e, ocasionalmente, tem dificuldades com a factualidade em determinados domínios.  </p>
<p>O GPT-4.5, por outro lado, demonstra excelência especial em reconhecimento de padrões, geração de insights criativos e raciocínio científico. Seu desempenho é superior ao do benchmark de diamante <a href="https://arxiv.org/abs/2311.12022" target="_blank" rel="noopener noreferrer">GPQA</a>, demonstrando fortes capacidades em domínios científicos. O modelo também apresenta inteligência emocional e intuição estética aprimoradas, o que o torna particularmente valioso para aplicativos criativos e voltados para o design. Uma vantagem importante é sua tendência reduzida de gerar informações falsas em comparação com seus antecessores.   </p>
<p>Em termos práticos, o Gemini 2.5 Pro representa a melhor opção para tarefas que exigem raciocínio profundo, compreensão multimodal e manipulação de contextos extremamente longos. O GPT-4.5 oferece vantagens no trabalho criativo, na assistência ao design e em aplicativos em que a precisão factual e o fluxo natural de conversação são fundamentais. </p>
<h2>Aplicativos e casos de uso</h2>
<p>Embora os desempenhos de benchmark forneçam percepções técnicas valiosas, a verdadeira medida desses modelos avançados de IA está em suas aplicações práticas em vários domínios. Tanto o Gemini 2.5 Pro quanto o GPT-4.5 demonstram pontos fortes distintos que os tornam adequados para diferentes casos de uso, com as organizações já começando a aproveitar seus recursos para resolver problemas complexos. </p>
<h3>Gemini 2.5 Pro em domínios científicos e técnicos</h3>
<p>Os excepcionais recursos de raciocínio e a ampla janela de contexto do Gemini 2.5 Pro o tornam particularmente valioso para pesquisas científicas e aplicações técnicas. Sua capacidade de processar e analisar dados <a href="https://cloud.google.com/use-cases/multimodal-ai?hl=en" target="_blank" rel="noopener noreferrer">multimodais</a> &#8211; incluindo texto, imagens, áudio, vídeo e código &#8211; permite lidar com problemas complexos que exigem a síntese de informações de diversas fontes. Essa versatilidade abre inúmeras possibilidades nos setores que exigem precisão técnica e análise abrangente.  </p>
<ol class="tight" data-tight="true">
<li><strong>Pesquisa científica e análise de dados</strong> &#8211; O bom desempenho do Gemini 2.5 Pro em benchmarks como o GPQA (79,7%) demonstra seu potencial para auxiliar os pesquisadores na análise de literatura científica complexa, na geração de hipóteses e na interpretação de resultados experimentais.</li>
<li><strong>Desenvolvimento e engenharia de software</strong> &#8211; O modelo se destaca na criação de aplicativos da Web, na realização de transformações de código e no desenvolvimento de programas complexos com uma pontuação de 63,8% no SWE-Bench Verified usando configurações de agentes personalizados</li>
<li><strong>Diagnóstico médico e assistência médica</strong> &#8211; Seus recursos de raciocínio permitem a análise de imagens médicas juntamente com dados de pacientes para dar suporte aos profissionais de saúde nos processos de diagnóstico</li>
<li><strong>Análise de Big Data e gerenciamento de conhecimento</strong> &#8211; A janela de contexto de 1 milhão de tokens (que será expandida em breve para 2 milhões) permite o processamento de conjuntos de dados e repositórios de código inteiros em um único prompt</li>
</ol>
<h3>Excelência em tarefas criativas e de comunicação do GPT-4.5</h3>
<p>Por outro lado, o GPT-4.5 demonstra uma força especial em tarefas que exigem comunicação diferenciada, pensamento criativo e julgamento estético. A OpenAI enfatizou o treinamento desse modelo especificamente para a colaboração humana, resultando em recursos aprimorados para a criação de conteúdo, assistência ao design e comunicação natural. </p>
<ol class="tight" data-tight="true">
<li><strong>Criação de conteúdo e redação</strong> &#8211; O GPT-4.5 mostra intuição estética e criatividade aprimoradas, o que o torna valioso para gerar textos de marketing, artigos, roteiros e outros conteúdos escritos</li>
<li><strong>Colaboração no design</strong> &#8211; A melhor compreensão das nuances e do contexto do modelo o torna um parceiro eficaz nos processos de design, desde a conceituação até o refinamento</li>
<li><strong>Envolvimento do cliente</strong> &#8211; Com maior inteligência emocional, o GPT-4.5 fornece respostas mais adequadas e naturais em contextos de atendimento ao cliente</li>
<li><strong>Desenvolvimento de conteúdo educacional</strong> &#8211; O modelo é excelente para adaptar as explicações a diferentes níveis de conhecimento e estilos de aprendizagem</li>
</ol>
<p>Empresas de vários setores já estão integrando esses modelos em seus fluxos de trabalho. A Microsoft incorporou a tecnologia da OpenAI diretamente ao seu pacote de produtos, proporcionando aos usuários corporativos acesso imediato aos recursos do GPT-4.5. Da mesma forma, o Gemini 2.5 Pro do Google está encontrando aplicações em instituições de pesquisa e empresas de tecnologia que buscam aproveitar seus recursos de raciocínio e multimodais.  </p>
<p>Os pontos fortes complementares desses modelos sugerem que muitas organizações podem se beneficiar da utilização de ambos, dependendo dos casos de uso específicos. À medida que essas tecnologias continuam a amadurecer, podemos esperar ver aplicativos cada vez mais sofisticados que transformam fundamentalmente o trabalho de conhecimento, os processos criativos e a solução de problemas em todos os setores. </p>
<h2>O futuro da IA: o que vem a seguir?</h2>
<p>À medida que o Gemini 2.5 Pro e o GPT-4.5 ultrapassam os limites do que é possível, a trajetória futura do desenvolvimento da IA fica mais nítida. O compromisso do Google de &#8220;desenvolver recursos de raciocínio diretamente em todos os modelos&#8221; sugere um futuro em que o raciocínio se tornará padrão em todos os sistemas de IA. Da mesma forma, a abordagem da OpenAI de &#8220;escalonar o aprendizado e o raciocínio não supervisionados&#8221; aponta para modelos com recursos cada vez maiores para entender e gerar conteúdo semelhante ao humano.  </p>
<p>É provável que nos próximos anos você veja modelos de IA com janelas de contexto muito mais amplas do que os limites atuais, raciocínio mais sofisticado e integração perfeita em todas as modalidades. Também poderemos testemunhar o surgimento de agentes de IA verdadeiramente autônomos, capazes de executar tarefas complexas com o mínimo de supervisão humana. No entanto, esses avanços trazem desafios significativos. À medida que os recursos de IA aumentam, também aumenta a importância de abordar os possíveis riscos relacionados à desinformação, à privacidade e ao deslocamento do trabalho humano.   </p>
<p>As considerações éticas devem permanecer na vanguarda do desenvolvimento da IA. A OpenAI reconhece que &#8220;cada aumento nos recursos dos modelos é uma oportunidade de torná-los mais seguros&#8221;, destacando a dupla responsabilidade do avanço e da proteção. A comunidade de IA precisará desenvolver estruturas de governança robustas que incentivem a inovação e, ao mesmo tempo, protejam contra o uso indevido.  </p>
<p>A revolução da IA representada pelo Gemini 2.5 Pro e pelo GPT-4.5 está apenas começando. Embora o ritmo do avanço traga tanto entusiasmo quanto apreensão, uma coisa permanece clara: o futuro da IA será definido não apenas pelas capacidades tecnológicas, mas pela forma como escolhermos aproveitá-las para o benefício humano. Ao priorizar o desenvolvimento responsável que aumenta o potencial humano em vez de substituí-lo, podemos garantir que a próxima geração de modelos de IA sirva como ferramentas poderosas para o progresso coletivo.  </p>
<p>The post <a href="https://meetcody.ai/pt-br/blog/gemini-2-5-pro-e-gpt-4-5-quem-lidera-a-revolucao-da-ia/">Gemini 2.5 Pro e GPT-4.5: quem lidera a revolução da IA?</a> appeared first on <a href="https://meetcody.ai/pt-br/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>GPT-4.5 vs. Claude 3.7 Sonnet: Um mergulho profundo nos avanços da IA</title>
		<link>https://meetcody.ai/pt-br/blog/gpt-4-5-vs-claude-3-7-sonnet-um-mergulho-profundo-nos-avancos-da-ia/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Sun, 02 Mar 2025 15:52:48 +0000</pubDate>
				<category><![CDATA[Não categorizado]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gpt-4-5-vs-claude-3-7-sonnet-um-mergulho-profundo-nos-avancos-da-ia/</guid>

					<description><![CDATA[<p>O cenário da inteligência artificial está evoluindo rapidamente, com dois modelos recentes se destacando: GPT-4.5 e Claude 3.7 Sonnet. Esses modelos avançados de linguagem representam saltos significativos nos recursos de IA, cada um trazendo pontos fortes exclusivos para a mesa. O GPT-4.5 da OpenAI, embora seja uma atualização menor, apresenta melhorias na redução de alucinações<a class="excerpt-read-more" href="https://meetcody.ai/pt-br/blog/gpt-4-5-vs-claude-3-7-sonnet-um-mergulho-profundo-nos-avancos-da-ia/" title="ReadGPT-4.5 vs. Claude 3.7 Sonnet: Um mergulho profundo nos avanços da IA">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/pt-br/blog/gpt-4-5-vs-claude-3-7-sonnet-um-mergulho-profundo-nos-avancos-da-ia/">GPT-4.5 vs. Claude 3.7 Sonnet: Um mergulho profundo nos avanços da IA</a> appeared first on <a href="https://meetcody.ai/pt-br/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="mb-2 text-3xl font-bold">O cenário da inteligência artificial está <a href="https://www.chatbase.co/blog/ai-trends" target="_blank" rel="noopener noreferrer">evoluindo rapidamente</a>, com dois modelos recentes se destacando: GPT-4.5 e Claude 3.7 Sonnet. Esses modelos avançados de linguagem representam saltos significativos nos recursos de IA, cada um trazendo pontos fortes exclusivos para a mesa. </div>
<div class="prose mt-8 max-w-full">
<p>O GPT-4.5 da OpenAI, embora seja uma atualização menor, apresenta <a href="https://research.aimultiple.com/future-of-large-language-models/" target="_blank" rel="noopener noreferrer">melhorias</a> na redução de alucinações e no aprimoramento de conversas naturais. Por outro lado, o Claude 3.7 Sonnet da Anthropic chamou a atenção por sua excepcional capacidade de codificação e economia. Ambos os modelos atendem a uma ampla gama de usuários, desde desenvolvedores e pesquisadores até empresas que buscam soluções de IA de ponta.  </p>
<p>À medida que esses modelos ultrapassam os limites do que é possível em IA, eles estão remodelando as expectativas e os aplicativos em vários setores, preparando o terreno para avanços ainda mais transformadores no futuro próximo.</p>
<h2>Principais recursos do GPT-4.5 e do Claude 3.7 Sonnet</h2>
<p>Tanto o GPT-4.5 quanto o Claude 3.7 Sonnet trazem avanços significativos para o cenário da IA, cada um com seus pontos fortes exclusivos. O GPT-4.5, descrito como o &#8220;maior e mais experiente modelo da OpenAI até o momento&#8221;, concentra-se na expansão do aprendizado não supervisionado para aprimorar o conhecimento de palavras e a intuição, reduzindo as alucinações. Esse modelo é excelente para aprimorar os recursos de raciocínio e melhorar as interações de bate-papo com uma compreensão contextual mais profunda.  </p>
<p>Por outro lado, o Claude 3.7 Sonnet apresenta um <a href="https://www.wired.com/story/anthropic-world-first-hybrid-reasoning-ai-model/" target="_blank" rel="noopener noreferrer">modelo de raciocínio híbrido</a> inovador, que permite respostas rápidas e raciocínio ampliado, passo a passo. Ele se destaca especialmente na codificação e no desenvolvimento web front-end, apresentando excelentes habilidades de acompanhamento de instruções e raciocínio geral. </p>
<h3>Principais aprimoramentos:</h3>
<ul class="tight" data-tight="true">
<li><strong>GPT-4.5</strong>: recursos aprimorados de aprendizagem não supervisionada e de conversação</li>
<li><strong>Claude 3.7 Sonnet</strong>: Raciocínio híbrido avançado e capacidade superior de codificação</li>
<li><strong>Ambos os modelos</strong>: Recursos multimodais aprimorados e raciocínio adaptativo</li>
</ul>
<h2>Desempenho e avaliação</h2>
<table>
<colgroup>
<col>
<col>
<col></colgroup>
<tbody>
<tr>
<th colspan="1" rowspan="1">Tarefa</th>
<th colspan="1" rowspan="1">GPT-4.5 (vs 4o)</th>
<th colspan="1" rowspan="1">Claude 3.7 Sonnet* (vs 3.5)</th>
</tr>
<tr>
<td colspan="1" rowspan="1">Codificação</td>
<td colspan="1" rowspan="1">Aprimorado</td>
<td colspan="1" rowspan="1">Supera significativamente o desempenho</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Matemática</td>
<td colspan="1" rowspan="1">Melhoria moderada</td>
<td colspan="1" rowspan="1">Melhor nos problemas do AIME&#8217;24</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Raciocínio</td>
<td colspan="1" rowspan="1">Desempenho semelhante</td>
<td colspan="1" rowspan="1">Desempenho semelhante</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Multimodal</td>
<td colspan="1" rowspan="1">Desempenho semelhante</td>
<td colspan="1" rowspan="1">Desempenho semelhante</td>
</tr>
</tbody>
</table>
<p><em>* Sem pensar muito</em></p>
<p>O GPT-4.5 apresentou melhorias notáveis nas interações de bate-papo e reduziu as alucinações. Os testadores humanos o avaliaram como mais preciso e factual em comparação com os modelos anteriores, tornando-o um parceiro de conversação mais confiável. </p>
<p><img decoding="async" class="aligncenter wp-image-50752 size-full" src="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxcu8pbfgpg50z3vayf8qz2j48w88v2dsz64zmx0ceoewmsmdljsogue_2jaraxulupovh-9fvfu1difqlvifvpo6pgnzcskmyexz8rg-bojgew1ws9hh0jxjm4rxwrnuuf_eqngjq.avif" alt="Benchmarks do GPT-4.5" width="1600" height="806"></p>
<p>O Claude 3.7 Sonnet, por outro lado, demonstra uma eficiência excepcional em aplicativos em tempo real e tarefas de codificação. Ele alcançou um desempenho de ponta no SWE-bench Verified e no TAU-bench, demonstrando sua proeza em engenharia de software e solução de problemas complexos. Além disso, sua maior taxa de transferência em comparação com o GPT-4.5 o torna particularmente adequado para tarefas que exigem respostas rápidas e processamento de grandes quantidades de dados.  </p>
<div id="attachment_50761" style="width: 1610px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-50761" class="wp-image-50761 size-full" src="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg.avif" alt="Claude 3.7 Benchmarks de soneto" width="1600" height="1452" srcset="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg.avif 1600w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-300x272.avif 300w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-1024x929.avif 1024w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-768x697.avif 768w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-1536x1394.avif 1536w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-714x648.avif 714w" sizes="auto, (max-width: 1600px) 100vw, 1600px" /><p id="caption-attachment-50761" class="wp-caption-text">Fonte: Antrópico</p></div>
<h2>Preços e acessibilidade</h2>
<p>O GPT-4.5, embora apresente recursos impressionantes, vem com um preço elevado. Seu preço é 75 vezes maior que o de seu antecessor, o GPT-4, sem uma justificativa clara para esse aumento substancial. Essa estratégia de preços pode limitar sua acessibilidade a muitos usuários em potencial.  </p>
<p>Em contrapartida, o Claude 3.7 Sonnet oferece uma opção mais econômica. Sua estrutura de preços é significativamente mais competitiva: </p>
<ol class="tight" data-tight="true">
<li>25 vezes mais barato para tokens de entrada em comparação com o GPT-4.5</li>
<li>10 vezes mais barato para tokens de saída</li>
<li>Preço específico: US$ 3 por milhão de tokens de entrada e US$ 15 por milhão de tokens de saída</li>
</ol>
<p>Em relação à disponibilidade, o GPT-4.5 está atualmente acessível aos usuários e desenvolvedores do GPT Pro via API, com planos de estender o acesso a usuários Plus, instituições educacionais e equipes. O Claude 3.7 Sonnet, no entanto, oferece acessibilidade mais ampla em todos os planos do Claude (Free, Pro, Team, Enterprise), bem como por meio da API Anthropic, Amazon Bedrock e Vertex AI do Google Cloud. </p>
<p>Essas diferenças de preço e acessibilidade afetam significativamente a adoção potencial e os casos de uso de cada modelo, com o Claude 3.7 Sonnet potencialmente atraente para uma gama maior de usuários devido à sua relação custo-benefício e disponibilidade mais ampla.</p>
<h2>Casos de utilização</h2>
<p>Tanto o GPT-4.5 quanto o Claude 3.7 Sonnet oferecem recursos exclusivos que atendem a diversas <a href="https://aloa.co/blog/large-language-model-applications" target="_blank" rel="noopener noreferrer">aplicações</a> do mundo real. O GPT-4.5 se destaca como um <a href="https://meetcody.ai/use-cases/factual-research-assistant/">parceiro de conversação</a> avançado, superando os modelos anteriores em termos de precisão e reduzindo as alucinações. Sua compreensão contextual aprimorada o torna ideal para atendimento ao cliente, criação de conteúdo e experiências de aprendizagem personalizadas.  </p>
<p>O Claude 3.7 Sonnet, por outro lado, brilha no campo da codificação e do desenvolvimento de software. Seus recursos de codificação agêntica, demonstrados pelo <a href="https://docs.anthropic.com/en/docs/agents-and-tools/claude-code/overview" target="_blank" rel="noopener noreferrer">Claude Code</a>, automatizam tarefas como pesquisa de código, execução de testes e uso de ferramentas de linha de comando. Isso o torna um recurso inestimável para empresas que buscam otimizar seus processos de desenvolvimento.  </p>
<h2>Perspectivas futuras e conclusão</h2>
<p>O lançamento do GPT-4.5 e do Claude 3.7 Sonnet é um marco significativo no desenvolvimento da IA, preparando o terreno para avanços ainda mais revolucionários. Embora o GPT-4.5 seja visto como uma pequena atualização, ele estabelece a base para futuros modelos com recursos de raciocínio aprimorados. O Claude 3.7 Sonnet, com seu modelo de raciocínio híbrido, representa uma mudança dinâmica no cenário da IA, influenciando potencialmente a direção de desenvolvimentos futuros.  </p>
<p>À medida que esses modelos continuam a evoluir, podemos prever mais melhorias na aprendizagem não supervisionada, nos recursos de raciocínio e nas otimizações específicas de tarefas. A natureza complementar da aprendizagem não supervisionada e do raciocínio sugere que os futuros modelos de IA provavelmente apresentarão habilidades de solução de problemas ainda mais sofisticadas. </p>
</div>
<p>The post <a href="https://meetcody.ai/pt-br/blog/gpt-4-5-vs-claude-3-7-sonnet-um-mergulho-profundo-nos-avancos-da-ia/">GPT-4.5 vs. Claude 3.7 Sonnet: Um mergulho profundo nos avanços da IA</a> appeared first on <a href="https://meetcody.ai/pt-br/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Perplexity Comet: um salto ousado para a pesquisa agêntica</title>
		<link>https://meetcody.ai/pt-br/blog/perplexity-comet-um-salto-ousado-para-a-pesquisa-agentica/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Thu, 27 Feb 2025 17:53:18 +0000</pubDate>
				<category><![CDATA[Não categorizado]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/perplexity-comet-um-salto-ousado-para-a-pesquisa-agentica/</guid>

					<description><![CDATA[<p>A Perplexity, gigante dos mecanismos de busca com tecnologia de IA, está causando impacto no mundo da tecnologia com seu mais recente empreendimento: um navegador revolucionário chamado Comet. Anunciado como &#8220;A Browser for Agentic Search by Perplexity&#8221;, o Comet representa um passo ousado no competitivo mercado de navegadores. Embora os detalhes sobre o design e<a class="excerpt-read-more" href="https://meetcody.ai/pt-br/blog/perplexity-comet-um-salto-ousado-para-a-pesquisa-agentica/" title="ReadPerplexity Comet: um salto ousado para a pesquisa agêntica">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/pt-br/blog/perplexity-comet-um-salto-ousado-para-a-pesquisa-agentica/">Perplexity Comet: um salto ousado para a pesquisa agêntica</a> appeared first on <a href="https://meetcody.ai/pt-br/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="relative mt-8">
<div class="prose max-w-full">
<p>A Perplexity, gigante dos mecanismos de busca com tecnologia de IA, está causando impacto no mundo da tecnologia com seu mais recente empreendimento: um navegador revolucionário chamado Comet. Anunciado como &#8220;A Browser for <a href="https://www.uipath.com/ai/agentic-ai" target="_blank" rel="noopener noreferrer">Agentic</a> Search by Perplexity&#8221;, o Comet representa um passo ousado no competitivo mercado de navegadores. Embora os detalhes sobre o design e a data de lançamento permaneçam em segredo, a empresa já lançou uma lista de inscrições, informando que o Comet será lançado &#8220;em breve&#8221;. </p>
<p>Essa mudança ocorre em um momento de crescimento significativo para a Perplexity. A empresa, avaliada em impressionantes US$ 9 bilhões, processa atualmente mais de 100 milhões de consultas semanais por meio de seu mecanismo de busca. A introdução do Comet significa a ambição da Perplexity de estender sua influência para além da pesquisa, potencialmente reformulando a forma como os usuários interagem com a Web. À medida que a expectativa aumenta, o Comet está pronto para se tornar um elemento fundamental no ecossistema digital em expansão da Perplexity.   </p>
<h2>Principais recursos do Comet</h2>
<p>O Comet utiliza o &#8220;Agentic Search&#8221;, um recurso avançado que permite a execução autônoma de tarefas. Isso significa que os usuários podem delegar tarefas complexas, como reservar voos ou gerenciar reservas, ao navegador, aumentando significativamente a produtividade. </p>
<p>Construído sobre uma <a href="https://www.youtube.com/watch?v=SrJrd37xzBg" target="_blank" rel="noopener noreferrer">base baseada no Chromium</a>, o Comet garante compatibilidade entre plataformas, proporcionando uma experiência perfeita em desktops e dispositivos móveis. Essa escolha de design combina a estabilidade da tecnologia de navegador estabelecida com as inovações de IA de ponta da Perplexity. </p>
<ul class="tight" data-tight="true">
<li><strong>Integração profunda de pesquisa:</strong> O Comet oferece ferramentas de análise abrangentes, facilitando a pesquisa aprofundada diretamente no navegador.</li>
<li><strong>Processamento de informações em tempo real:</strong> Os usuários se beneficiam de informações atualizadas e completas com citações de fontes, garantindo precisão e credibilidade.</li>
<li><strong>Extensas integrações de aplicativos:</strong> Com suporte para mais de 800 aplicativos, o Comet pretende se tornar um hub central para as atividades digitais dos usuários.</li>
</ul>
<p>Ao combinar a IA com as funções tradicionais do navegador, o Comet está pronto para transformar a forma como os usuários interagem com a Web, alterando potencialmente o cenário da produtividade e do processamento de informações. De acordo com a Perplexity, o Comet é realmente &#8220;Um navegador para pesquisa agêntica&#8221;, prometendo uma nova era de navegação inteligente na Web. </p>
<h2>Posicionamento estratégico e contexto de mercado</h2>
<p>Ao se aventurar no mercado altamente competitivo de navegadores com o Comet, a Perplexity enfrenta desafios formidáveis de participantes estabelecidos, como o Google Chrome, e de navegadores emergentes aprimorados por IA, como o Dia, da The Browser Company. No entanto, o posicionamento exclusivo do Comet como um navegador baseado em Chromium e alimentado por IA, com recursos avançados de automação de tarefas, o diferencia das ofertas tradicionais. </p>
<p>Embora o Google Chrome tenha uma grande base de usuários e recursos básicos de IA, o Comet pretende se diferenciar por meio de seus sofisticados recursos de IA, extensas integrações de aplicativos e ferramentas de pesquisa profunda, tudo sem a necessidade de extensões adicionais. Essa abordagem poderia atrair os usuários que buscam uma experiência de navegação mais inteligente e simplificada, desafiando potencialmente o domínio do Chrome em determinados segmentos. </p>
<p>A estratégia de marketing da Perplexity para o Comet aproveita de forma inteligente a base de usuários do mecanismo de busca existente, que já processa mais de 100 milhões de consultas semanais. Ao aproveitar esse público estabelecido, a Perplexity pretende facilitar a adoção do Comet, o que pode lhe dar uma vantagem significativa na aquisição de usuários e no engajamento no competitivo cenário dos navegadores. </p>
<h2>Considerações legais e éticas</h2>
<p>Ao se aventurar no mercado de navegadores com o Comet, a Perplexity enfrenta não apenas desafios tecnológicos, mas também obstáculos legais e éticos significativos. Recentemente, a empresa se viu envolvida em disputas legais com grandes editoras sobre o uso de conteúdo. A Dow Jones, da News Corp, e o NY Post entraram com ações judiciais contra a Perplexity, acusando-a de replicação não autorizada de conteúdo e rotulando a empresa como uma &#8220;cleptocracia de conteúdo&#8221;. Além disso, o The New York Times emitiu uma notificação de cessação e desistência, intensificando ainda mais a pressão legal.   </p>
<p>Em resposta a essas alegações, a Perplexity afirma que respeita o conteúdo dos editores e introduziu um programa de compartilhamento de receita para veículos de mídia. Essa medida parece ser uma tentativa de abordar as preocupações e estabelecer um relacionamento mais colaborativo com os criadores de conteúdo. No entanto, ainda não se sabe qual será a eficácia desse programa na resolução de disputas legais.  </p>
<h3>P: Quais são as implicações éticas da navegação na Web orientada por IA?</h3>
<p>R: A introdução de navegadores com tecnologia de IA, como o Comet, levanta questões éticas importantes sobre a privacidade dos dados e a autonomia do usuário. Analistas de segurança cibernética, como Mark Thompson, expressaram preocupações sobre como <a href="https://www.ibm.com/think/topics/ai-ethics" target="_blank" rel="noopener noreferrer">os dados do usuário</a> podem ser coletados, processados e possivelmente compartilhados ao usar ferramentas de navegação orientadas por IA. Como o Comet promete revolucionar a interação na Web por meio de recursos como pesquisa agêntica e integrações abrangentes de aplicativos, ele também amplia a necessidade de práticas transparentes de dados e proteções robustas de privacidade.  </p>
<h2>Opiniões de especialistas e percepções do setor</h2>
<p>Enquanto o navegador Comet da Perplexity se prepara para entrar no mercado, os especialistas estão avaliando seu possível impacto e implicações. A Dra. Sarah Chen, uma proeminente pesquisadora de IA, sugere que o Comet pode alterar fundamentalmente a forma como os usuários interagem com as informações on-line, graças aos seus <a href="https://meetcody.ai/blog/top-ai-web-browsing-agents/" target="_blank" rel="noopener noreferrer">recursos avançados de pesquisa agêntica</a>. Essa perspectiva se alinha com o rápido crescimento da Perplexity, conforme evidenciado por seu mecanismo de pesquisa de IA que agora processa cerca de 100 milhões de consultas por semana.  </p>
<p>Apesar das preocupações, os observadores do setor preveem um crescimento significativo na integração da IA nas tecnologias da Web. A avaliação de US$ 9 bilhões da Perplexity e seu posicionamento como principal concorrente no espaço do mecanismo de pesquisa de IA ressaltam essa tendência. Enquanto o Comet se prepara para o lançamento, ele representa não apenas um novo produto, mas uma possível mudança na forma como percebemos e interagimos com a Internet, equilibrando a inovação com a necessidade de implementação responsável da IA.  </p>
<h2>Isso transformará a pesquisa?</h2>
<p>A visão da empresa de reinventar a navegação na Web, assim como sua abordagem aos mecanismos de pesquisa, sugere um futuro em que os navegadores orientados por IA poderão se tornar a norma. Com a rápida expansão da Perplexity e a introdução de produtos inovadores, a Comet está pronta para capitalizar a tendência crescente de integração de IA em tecnologias da Web. </p>
<p>O mercado de navegadores poderá sofrer mudanças significativas à medida que os usuários se acostumarem a experiências de navegação mais inteligentes e orientadas para tarefas. O foco da Perplexity nos recursos de pesquisa agêntica do Comet pode redefinir as interações digitais, potencialmente simplificando tarefas on-line complexas e remodelando os hábitos de navegação. Como a IA continua a permear vários aspectos da tecnologia, o Comet representa um passo ousado em direção a um futuro em que os navegadores da Web atuam como assistentes inteligentes, aumentando a produtividade e transformando a forma como navegamos no mundo digital.  </p>
</div>
</div>
<p>The post <a href="https://meetcody.ai/pt-br/blog/perplexity-comet-um-salto-ousado-para-a-pesquisa-agentica/">Perplexity Comet: um salto ousado para a pesquisa agêntica</a> appeared first on <a href="https://meetcody.ai/pt-br/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
