{"id":70687,"date":"2026-03-24T03:02:17","date_gmt":"2026-03-24T03:02:17","guid":{"rendered":"https:\/\/meetcody.ai\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/"},"modified":"2026-03-26T18:07:37","modified_gmt":"2026-03-26T18:07:37","slug":"gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google","status":"publish","type":"post","link":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/","title":{"rendered":"Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google"},"content":{"rendered":"<p style=\"text-align: center;\"><em>Gemini Embedding 2: recursos, benchmarks, pre\u00e7os e como come\u00e7ar<\/em><!-- notionvc: c383b1b6-2ff8-40bd-8227-0a70d481c796 --><\/p>\n<p>Na semana passada, o Google lan\u00e7ou  <a href=\"https:\/\/meetcody.ai\/blog\/google-introduces-the-multimodal-gemini-ultra-pro-nano-models\/\">G\u00e9meos<\/a>  Embedding 2, o primeiro modelo de embedding nativamente multimodal criado na arquitetura Gemini. Se voc\u00ea trabalha com incorpora\u00e7\u00f5es de alguma forma, isso merece sua aten\u00e7\u00e3o. Ele tem o potencial de interromper significativamente os pipelines de incorpora\u00e7\u00e3o de v\u00e1rios modelos com os quais a maioria das equipes conta atualmente.  <\/p>\n<p>At\u00e9 agora, os principais modelos de incorpora\u00e7\u00e3o da OpenAI, Cohere e Voyage eram baseados principalmente em texto. Havia algumas op\u00e7\u00f5es multimodais &#8211; <a href=\"https:\/\/openai.com\/index\/clip\/\">CLIP<\/a> para alinhamento imagem-texto, <a href=\"https:\/\/blog.voyageai.com\/2026\/01\/15\/voyage-multimodal-3-5\/\">Voyage Multimodal 3.5<\/a> para imagens e v\u00eddeo &#8211; mas nenhuma abrangia todo o espectro de modalidades em um \u00fanico espa\u00e7o vetorial unificado. Normalmente, o \u00e1udio tinha que ser transcrito antes da incorpora\u00e7\u00e3o. O v\u00eddeo exigia a extra\u00e7\u00e3o de quadros combinada com a incorpora\u00e7\u00e3o de transcri\u00e7\u00f5es separadas. As imagens viviam inteiramente em seu pr\u00f3prio espa\u00e7o vetorial.    <\/p>\n<p>O Gemini Embedding 2 muda essa equa\u00e7\u00e3o. Um modelo, uma chamada de API, um espa\u00e7o vetorial. <\/p>\n<p>Vamos ver o que h\u00e1 de novo.<\/p>\n<h2>O que \u00e9 o Gemini Embedding 2?<\/h2>\n<p><a href=\"https:\/\/blog.google\/innovation-and-ai\/models-and-research\/gemini-models\/gemini-embedding-2\/\">O Gemini Embedding 2<\/a> (<code>gemini-embedding-2-preview<\/code>) \u00e9 o primeiro <a href=\"https:\/\/meetcody.ai\/blog\/text-embedding-models\/\">modelo de incorpora\u00e7\u00e3o<\/a> totalmente multimodal do Google DeepMind. Ele usa texto, imagens, videoclipes, grava\u00e7\u00f5es de \u00e1udio e documentos PDF e converte todos eles em vetores que vivem no mesmo espa\u00e7o sem\u00e2ntico compartilhado. <\/p>\n<p>Diferentemente de abordagens multimodais anteriores, como o CLIP, que emparelha um codificador de vis\u00e3o com um codificador de texto e os alinha com o aprendizado contrastivo no final, o Gemini Embedding 2 foi desenvolvido com base no pr\u00f3prio modelo de funda\u00e7\u00e3o do Gemini. Isso significa que ele herda uma profunda compreens\u00e3o multimodal desde o in\u00edcio. <\/p>\n<div id=\"attachment_70663\" style=\"width: 1034px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-70663\" class=\"wp-image-70663 size-full\" src=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding.png\" alt=\"Embeddings multimodais\" width=\"1024\" height=\"587\" srcset=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding.png 1024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-300x172.png 300w, https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-768x440.png 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><p id=\"caption-attachment-70663\" class=\"wp-caption-text\">Imagem gerada usando o Nano Banana<\/p><\/div>\n<p><strong>Exemplo pr\u00e1tico:<\/strong> Imagine que voc\u00ea est\u00e1 criando um Sistema de Gerenciamento de Aprendizagem (LMS) com tutoriais em v\u00eddeo, palestras em \u00e1udio e guias escritos. Com o Gemini Embedding 2, voc\u00ea pode armazenar embeddings de todo esse conte\u00fado em um \u00fanico espa\u00e7o vetorial e criar um <a href=\"https:\/\/meetcody.ai\/blog\/rag-private-clouds\/\">chatbot baseado em RAG<\/a> que recupera <a href=\"https:\/\/meetcody.ai\/blog\/how-does-cody-generate-responses-using-your-documents\/\">partes<\/a> relevantes de v\u00eddeos, \u00e1udios e documentos. Anteriormente, isso exigia um pipeline de incorpora\u00e7\u00e3o em v\u00e1rias camadas e, mesmo assim, ele s\u00f3 capturava transcri\u00e7\u00f5es, deixando de lado o contexto visual de um v\u00eddeo ou o tom de voz de um locutor.  <\/p>\n<p>O modelo usa o <a href=\"https:\/\/arxiv.org\/abs\/2205.13147\">Matryoshka Representation Learning<\/a>, o que significa que voc\u00ea n\u00e3o precisa usar todas as 3072 dimens\u00f5es se n\u00e3o precisar delas. Voc\u00ea pode reduzir para 1536 ou 768 e ainda assim obter resultados \u00fateis. <\/p>\n<p><em>O aprendizado de representa\u00e7\u00e3o Matryoshka (MRL) \u00e9 uma t\u00e9cnica para treinar modelos de incorpora\u00e7\u00e3o de modo que as representa\u00e7\u00f5es aprendidas sejam \u00fateis n\u00e3o apenas em sua dimensionalidade total, mas tamb\u00e9m em v\u00e1rias dimens\u00f5es menores, aninhadas umas dentro das outras como bonecas russas matryoshka. Durante o treinamento, a fun\u00e7\u00e3o de perda \u00e9 calculada n\u00e3o apenas na incorpora\u00e7\u00e3o completa, mas tamb\u00e9m em v\u00e1rios prefixos do vetor de incorpora\u00e7\u00e3o. Isso incentiva o modelo a reunir as informa\u00e7\u00f5es mais importantes nas primeiras dimens\u00f5es, com cada dimens\u00e3o subsequente adicionando detalhes mais refinados &#8211; uma estrutura de grosso a fino.  <\/em><\/p>\n<h2>Modalidades suportadas e limites de entrada<\/h2>\n<p>O modelo aceita cinco tipos de entrada, todos mapeados no mesmo espa\u00e7o de incorpora\u00e7\u00e3o:<\/p>\n<table>\n<thead>\n<tr>\n<th>Modalidade<\/th>\n<th>Limite de entrada<\/th>\n<th>Formatos<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>Texto<\/td>\n<td>At\u00e9 8.192 tokens<\/td>\n<td>Texto simples<\/td>\n<\/tr>\n<tr>\n<td>Imagens<\/td>\n<td>At\u00e9 6 imagens por solicita\u00e7\u00e3o<\/td>\n<td>PNG, JPEG<\/td>\n<\/tr>\n<tr>\n<td>V\u00eddeo<\/td>\n<td>At\u00e9 120 segundos<\/td>\n<td>MP4, MOV<\/td>\n<\/tr>\n<tr>\n<td>\u00c1udio<\/td>\n<td>At\u00e9 80 segundos (nativo, sem transcri\u00e7\u00e3o)<\/td>\n<td>MP3, WAV<\/td>\n<\/tr>\n<tr>\n<td>PDFs<\/td>\n<td>Incorporados diretamente<\/td>\n<td>Documentos PDF<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<h2>Como ele se compara aos modelos existentes<\/h2>\n<p><strong>TLDR:<\/strong> O novo modelo Gemini Embedding 2 do Google supera seus concorrentes (seu pr\u00f3prio antecessor, o Amazon Nova 2 e o Voyage Multimodal 3.5) em quase todas as modalidades: texto, imagem, v\u00eddeo e fala. Ele lidera de forma mais convincente na recupera\u00e7\u00e3o de v\u00eddeo e na correspond\u00eancia imagem-texto. O \u00fanico par\u00e2metro de compara\u00e7\u00e3o em que ele n\u00e3o vence \u00e9 a recupera\u00e7\u00e3o de documentos, em que o Voyage est\u00e1 ligeiramente \u00e0 frente. A recupera\u00e7\u00e3o de texto por fala \u00e9 uma categoria que pertence exclusivamente ao Gemini, pois nenhum concorrente oferece suporte a ela.   <\/p>\n<p>O Google publicou compara\u00e7\u00f5es de benchmark com seus pr\u00f3prios modelos legados, Amazon Nova 2 Multimodal Embeddings e Voyage Multimodal 3.5. Aqui est\u00e1 o quadro completo: <\/p>\n<h3>Texto-Texto<\/h3>\n<table>\n<thead>\n<tr>\n<th>M\u00e9trica<\/th>\n<th>Incorpora\u00e7\u00e3o Gemini 2<\/th>\n<th>gemini-embedding-001<\/th>\n<th>Amazon Nova 2<\/th>\n<th>Voyage Multimodal 3.5<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>MTEB Multil\u00edngue (tarefa m\u00e9dia)<\/td>\n<td><strong>69.9<\/strong><\/td>\n<td>68.4<\/td>\n<td>63.8**<\/td>\n<td>58.5***<\/td>\n<\/tr>\n<tr>\n<td>C\u00f3digo MTEB (tarefa m\u00e9dia)<\/td>\n<td><strong>84.0<\/strong><\/td>\n<td>76.0<\/td>\n<td>*<\/td>\n<td>*<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>O Gemini Embedding 2 \u00e9 l\u00edder em texto multil\u00edngue por uma margem confort\u00e1vel e salta 8 pontos em rela\u00e7\u00e3o ao seu antecessor na recupera\u00e7\u00e3o de c\u00f3digo. Nem o Amazon Nova 2 nem o Voyage apresentam pontua\u00e7\u00f5es de c\u00f3digo. <\/p>\n<h3>Texto-Imagem<\/h3>\n<table>\n<thead>\n<tr>\n<th>M\u00e9trica<\/th>\n<th>Incorpora\u00e7\u00e3o Gemini 2<\/th>\n<th>multimodalembedding@001<\/th>\n<th>Amazon Nova 2<\/th>\n<th>Voyage Multimodal 3.5<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>TextCaps (recall@1)<\/td>\n<td><strong>89.6<\/strong><\/td>\n<td>74.0<\/td>\n<td>76.0<\/td>\n<td>79.4<\/td>\n<\/tr>\n<tr>\n<td>Docci (recall@1)<\/td>\n<td><strong>93.4<\/strong><\/td>\n<td>&#8211;<\/td>\n<td>84.0<\/td>\n<td>83.8<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>Uma clara lideran\u00e7a na recupera\u00e7\u00e3o de texto para imagem &#8211; mais de 9 pontos \u00e0 frente do concorrente mais pr\u00f3ximo em ambos os benchmarks.<\/p>\n<h3>Imagem-Texto<\/h3>\n<table>\n<thead>\n<tr>\n<th>M\u00e9trica<\/th>\n<th>Incorpora\u00e7\u00e3o Gemini 2<\/th>\n<th>multimodalembedding@001<\/th>\n<th>Amazon Nova 2<\/th>\n<th>Voyage Multimodal 3.5<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>TextCaps (recall@1)<\/td>\n<td><strong>97.4<\/strong><\/td>\n<td>88.1<\/td>\n<td>88.9<\/td>\n<td>88.6<\/td>\n<\/tr>\n<tr>\n<td>Docci (recall@1)<\/td>\n<td><strong>91.3<\/strong><\/td>\n<td>&#8211;<\/td>\n<td>76.5<\/td>\n<td>77.4<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>A recupera\u00e7\u00e3o de imagem para texto mostra as maiores lacunas &#8211; quase 15 pontos \u00e0 frente do Amazon Nova 2 no Docci.<\/p>\n<h3>Documento de texto<\/h3>\n<table>\n<thead>\n<tr>\n<th>M\u00e9trica<\/th>\n<th>Incorpora\u00e7\u00e3o Gemini 2<\/th>\n<th>multimodalembedding@001<\/th>\n<th>Amazon Nova 2<\/th>\n<th>Voyage Multimodal 3.5<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>ViDoRe v2 (ndcg@10)<\/td>\n<td>64.9<\/td>\n<td>28.9<\/td>\n<td>60.6<\/td>\n<td><strong>65.5**<\/strong><\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>O \u00fanico par\u00e2metro de compara\u00e7\u00e3o em que o Voyage Multimodal 3.5 est\u00e1 \u00e0 frente (auto-relatado). A recupera\u00e7\u00e3o de documentos est\u00e1 pr\u00f3xima entre os principais modelos. <\/p>\n<h3>Texto-V\u00eddeo<\/h3>\n<table>\n<thead>\n<tr>\n<th>M\u00e9trica<\/th>\n<th>Incorpora\u00e7\u00e3o Gemini 2<\/th>\n<th>multimodalembedding@001<\/th>\n<th>Amazon Nova 2<\/th>\n<th>Voyage Multimodal 3.5<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>Vatex (ndcg@10)<\/td>\n<td><strong>68.8<\/strong><\/td>\n<td>54.9<\/td>\n<td>60.3<\/td>\n<td>55.2<\/td>\n<\/tr>\n<tr>\n<td>MSR-VTT (ndcg@10)<\/td>\n<td><strong>68.0<\/strong><\/td>\n<td>57.9<\/td>\n<td>67.0<\/td>\n<td>63.0**<\/td>\n<\/tr>\n<tr>\n<td>Voc\u00ea \u00e9 o cozinheiro2 (ndcg@10)<\/td>\n<td><strong>52.5<\/strong><\/td>\n<td>34.9<\/td>\n<td>34.7<\/td>\n<td>31.4**<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>A recupera\u00e7\u00e3o de v\u00eddeo \u00e9 onde o Gemini Embedding 2 est\u00e1 mais \u00e0 frente &#8211; mais de 17 pontos acima do Voyage no Youcook2 e mais de 13 pontos no Vatex.<\/p>\n<h3>Discurso-Texto<\/h3>\n<table>\n<thead>\n<tr>\n<th>M\u00e9trica<\/th>\n<th>Incorpora\u00e7\u00e3o Gemini 2<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>MSEB (mrr@10)<\/td>\n<td><strong>73.9<\/strong><\/td>\n<\/tr>\n<tr>\n<td>MSEB ASR**** (mrr@10)<\/td>\n<td><strong>70.4<\/strong><\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>A recupera\u00e7\u00e3o de texto de fala \u00e9 totalmente incontest\u00e1vel &#8211; nem a Amazon nem o Voyage oferecem suporte a ela. Essa \u00e9 uma categoria que a Gemini Embedding 2 domina completamente. <\/p>\n<p><em>&#8211; Pontua\u00e7\u00e3o n\u00e3o dispon\u00edvel ** Autorrelatada *** voyage-3.5 **** O modelo ASR converte consultas de \u00e1udio em texto<\/em><\/p>\n<h2>Pre\u00e7os<\/h2>\n<p>No momento, o modelo \u00e9 gratuito durante a visualiza\u00e7\u00e3o p\u00fablica. Quando voc\u00ea estiver no n\u00edvel pago, veja o detalhamento: <\/p>\n<table>\n<thead>\n<tr>\n<th><\/th>\n<th>N\u00edvel gratuito<\/th>\n<th>N\u00edvel pago (por 1 milh\u00e3o de tokens)<\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td>Entrada de texto<\/td>\n<td>Gratuito<\/td>\n<td>$0.20<\/td>\n<\/tr>\n<tr>\n<td>Entrada de imagem<\/td>\n<td>Gratuito<\/td>\n<td>US$ 0,45 (US$ 0,00012 por imagem)<\/td>\n<\/tr>\n<tr>\n<td>Entrada de \u00e1udio<\/td>\n<td>Gratuito<\/td>\n<td>US$ 6,50 (US$ 0,00016 por segundo)<\/td>\n<\/tr>\n<tr>\n<td>Entrada de v\u00eddeo<\/td>\n<td>Gratuito<\/td>\n<td>US$ 12,00 (US$ 0,00079 por quadro)<\/td>\n<\/tr>\n<tr>\n<td>Usado para melhorar os produtos do Google<\/td>\n<td>Sim<\/td>\n<td>N\u00e3o<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<h2><strong>Primeiros passos<\/strong><\/h2>\n<p>O modelo est\u00e1 dispon\u00edvel agora em visualiza\u00e7\u00e3o p\u00fablica por meio da API Gemini e do Vertex AI com o ID do modelo  <code>gemini-embedding-2-preview<\/code>. Ele se integra com LangChain, LlamaIndex, Haystack, Weaviate, Qdrant, ChromaDB e Vector Search.<\/p>\n<pre><code class=\"language-jsx\">from google import genai\nfrom google.genai import types\n\n# For Vertex AI:\n# PROJECT_ID='&lt;add_here&gt;'\n# client = genai.Client(vertexai=True, project=PROJECT_ID, location='us-central1')\n\nclient = genai.Client()\n\nwith open(\"example.png\", \"rb\") as f:\n    image_bytes = f.read()\n\nwith open(\"sample.mp3\", \"rb\") as f:\n    audio_bytes = f.read()\n\n# Embed text, image, and audio \nresult = client.models.embed_content(\n    model=\"gemini-embedding-2-preview\",\n    contents=[\n        \"What is the meaning of life?\",\n        types.Part.from_bytes(\n            data=image_bytes,\n            mime_type=\"image\/png\",\n        ),\n        types.Part.from_bytes(\n            data=audio_bytes,\n            mime_type=\"audio\/mpeg\",\n        ),\n    ],\n)\n\nprint(result.embeddings)\n<\/code><\/pre>\n<h2>Experimente aqui!<\/h2>\n<p>Criamos um <a href=\"https:\/\/gemini-2-trial.vercel.app\">aplicativo<\/a> de demonstra\u00e7\u00e3o no qual voc\u00ea pode testar o desempenho de recupera\u00e7\u00e3o multimodal do gemini-embedding-2.<\/p>\n<p>Voc\u00ea pode obter a chave de API fazendo login em <a href=\"http:\/\/aistudio.google.com\">aistudio.google.com<\/a>.<\/p>\n<h2>Limita\u00e7\u00f5es a serem observadas<\/h2>\n<ul>\n<li>O modelo ainda est\u00e1 em pr\u00e9-visualiza\u00e7\u00e3o p\u00fablica (a tag &#8220;preview&#8221; significa que o pre\u00e7o e o comportamento podem mudar antes do GA).<\/li>\n<li>A entrada de v\u00eddeo \u00e9 limitada a 120 segundos e a de \u00e1udio a 80 segundos.<\/li>\n<li>O desempenho em dom\u00ednios de nicho, como o controle de qualidade financeiro, \u00e9 mais fraco; avalie com base em seus dados espec\u00edficos antes de se comprometer.<\/li>\n<li>Para pipelines de texto puro sem planos multimodais, o pr\u00eamio de custo em rela\u00e7\u00e3o aos modelos somente de texto pode n\u00e3o ser justificado.<\/li>\n<\/ul>\n<h2>O resultado final<\/h2>\n<p>O Gemini Embedding 2 n\u00e3o \u00e9 apenas uma melhoria incremental, \u00e9 uma mudan\u00e7a de categoria. Para as equipes que criam sistemas RAG multimodais, pesquisa sem\u00e2ntica em tipos de m\u00eddia ou bases de conhecimento unificadas, ele reduz o que costumava ser um problema de v\u00e1rios modelos e v\u00e1rios pipelines a uma \u00fanica chamada de API. Se seus dados abrangem mais do que apenas texto, este \u00e9 o modelo que voc\u00ea deve avaliar primeiro.  <\/p>\n<p>Para criar um RAG multimodal, voc\u00ea n\u00e3o deve precisar costurar modelos de incorpora\u00e7\u00e3o, bancos de dados vetoriais e l\u00f3gica de recupera\u00e7\u00e3o do zero. Se voc\u00ea quiser uma solu\u00e7\u00e3o gerenciada <a href=\"https:\/\/meetcody.ai\/blog\/rag-as-a-service-unlock-generative-ai-for-your-business\/\">de RAG como servi\u00e7o<\/a> que lide com o pipeline de incorpora\u00e7\u00e3o para voc\u00ea, <a href=\"https:\/\/getcody.ai\/\">inscreva-se<\/a> para a avalia\u00e7\u00e3o gratuita na Cody e comece a criar hoje mesmo. <\/p>\n<p><!-- notionvc: 1819203a-dd06-4804-9886-3355db49e8de --><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Gemini Embedding 2: recursos, benchmarks, pre\u00e7os e como come\u00e7ar Na semana passada, o Google lan\u00e7ou G\u00e9meos Embedding 2, o primeiro modelo de embedding nativamente multimodal criado na arquitetura Gemini. Se voc\u00ea trabalha com incorpora\u00e7\u00f5es de alguma forma, isso merece sua aten\u00e7\u00e3o. Ele tem o potencial de interromper significativamente os pipelines de incorpora\u00e7\u00e3o de v\u00e1rios modelos<a class=\"excerpt-read-more\" href=\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/\" title=\"ReadGemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google\">&#8230; Read more &raquo;<\/a><\/p>\n","protected":false},"author":2,"featured_media":70661,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[33],"tags":[],"class_list":["post-70687","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-nao-categorizado"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v21.8 (Yoast SEO v24.2) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google<\/title>\n<meta name=\"description\" content=\"O Gemini Embedding 2 do Google mapeia texto, imagens, v\u00eddeo, \u00e1udio e PDFs em um \u00fanico espa\u00e7o vetorial. Analisamos os benchmarks, os pre\u00e7os e o que isso significa para seu pipeline de RAG.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google\" \/>\n<meta property=\"og:description\" content=\"O Gemini Embedding 2 do Google mapeia texto, imagens, v\u00eddeo, \u00e1udio e PDFs em um \u00fanico espa\u00e7o vetorial. Analisamos os benchmarks, os pre\u00e7os e o que isso significa para seu pipeline de RAG.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/\" \/>\n<meta property=\"og:site_name\" content=\"Cody - The AI Trained on Your Business\" \/>\n<meta property=\"article:published_time\" content=\"2026-03-24T03:02:17+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2026-03-26T18:07:37+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-cover-scaled.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"2560\" \/>\n\t<meta property=\"og:image:height\" content=\"1440\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Om Kamath\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@meetcodyai\" \/>\n<meta name=\"twitter:site\" content=\"@meetcodyai\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Om Kamath\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"8 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/\"},\"author\":{\"name\":\"Om Kamath\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/cde65ec55b79cd833a9777d0a62e83c8\"},\"headline\":\"Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google\",\"datePublished\":\"2026-03-24T03:02:17+00:00\",\"dateModified\":\"2026-03-26T18:07:37+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/\"},\"wordCount\":1424,\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-cover-scaled.jpg\",\"articleSection\":[\"N\u00e3o categorizado\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/\",\"url\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/\",\"name\":\"Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-cover-scaled.jpg\",\"datePublished\":\"2026-03-24T03:02:17+00:00\",\"dateModified\":\"2026-03-26T18:07:37+00:00\",\"description\":\"O Gemini Embedding 2 do Google mapeia texto, imagens, v\u00eddeo, \u00e1udio e PDFs em um \u00fanico espa\u00e7o vetorial. Analisamos os benchmarks, os pre\u00e7os e o que isso significa para seu pipeline de RAG.\",\"breadcrumb\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#primaryimage\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-cover-scaled.jpg\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-cover-scaled.jpg\",\"width\":2560,\"height\":1440},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/meetcody.ai\/pt-br\/inicio-v2\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/meetcody.ai\/#website\",\"url\":\"https:\/\/meetcody.ai\/\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"description\":\"AI Powered Knowledge Base for Employees\",\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/meetcody.ai\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/meetcody.ai\/#organization\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"url\":\"https:\/\/meetcody.ai\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"width\":\"1024\",\"height\":\"1024\",\"caption\":\"Cody AI - The AI Trained on Your Business\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/x.com\/meetcodyai\",\"https:\/\/discord.com\/invite\/jXEVDcFxqs\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/cde65ec55b79cd833a9777d0a62e83c8\",\"name\":\"Om Kamath\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/3903c678cd7f6c8df0a843ae177998f5d413954afa3062f984a030a889a97849?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/3903c678cd7f6c8df0a843ae177998f5d413954afa3062f984a030a889a97849?s=96&d=mm&r=g\",\"caption\":\"Om Kamath\"},\"description\":\"Om Kamath\",\"sameAs\":[\"http:\/\/meetcody.ai\"],\"url\":\"https:\/\/meetcody.ai\/pt-br\/blog\/author\/omkamath\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google","description":"O Gemini Embedding 2 do Google mapeia texto, imagens, v\u00eddeo, \u00e1udio e PDFs em um \u00fanico espa\u00e7o vetorial. Analisamos os benchmarks, os pre\u00e7os e o que isso significa para seu pipeline de RAG.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/","og_locale":"pt_BR","og_type":"article","og_title":"Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google","og_description":"O Gemini Embedding 2 do Google mapeia texto, imagens, v\u00eddeo, \u00e1udio e PDFs em um \u00fanico espa\u00e7o vetorial. Analisamos os benchmarks, os pre\u00e7os e o que isso significa para seu pipeline de RAG.","og_url":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/","og_site_name":"Cody - The AI Trained on Your Business","article_published_time":"2026-03-24T03:02:17+00:00","article_modified_time":"2026-03-26T18:07:37+00:00","og_image":[{"width":2560,"height":1440,"url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-cover-scaled.jpg","type":"image\/jpeg"}],"author":"Om Kamath","twitter_card":"summary_large_image","twitter_creator":"@meetcodyai","twitter_site":"@meetcodyai","twitter_misc":{"Written by":"Om Kamath","Est. reading time":"8 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#article","isPartOf":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/"},"author":{"name":"Om Kamath","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/cde65ec55b79cd833a9777d0a62e83c8"},"headline":"Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google","datePublished":"2026-03-24T03:02:17+00:00","dateModified":"2026-03-26T18:07:37+00:00","mainEntityOfPage":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/"},"wordCount":1424,"publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"image":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-cover-scaled.jpg","articleSection":["N\u00e3o categorizado"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/","url":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/","name":"Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google","isPartOf":{"@id":"https:\/\/meetcody.ai\/#website"},"primaryImageOfPage":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#primaryimage"},"image":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-cover-scaled.jpg","datePublished":"2026-03-24T03:02:17+00:00","dateModified":"2026-03-26T18:07:37+00:00","description":"O Gemini Embedding 2 do Google mapeia texto, imagens, v\u00eddeo, \u00e1udio e PDFs em um \u00fanico espa\u00e7o vetorial. Analisamos os benchmarks, os pre\u00e7os e o que isso significa para seu pipeline de RAG.","breadcrumb":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/"]}]},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#primaryimage","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-cover-scaled.jpg","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2026\/03\/embedding-cover-scaled.jpg","width":2560,"height":1440},{"@type":"BreadcrumbList","@id":"https:\/\/meetcody.ai\/pt-br\/blog\/gemini-embedding-2-o-primeiro-modelo-de-incorporacao-multimodal-do-google\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/meetcody.ai\/pt-br\/inicio-v2\/"},{"@type":"ListItem","position":2,"name":"Gemini Embedding 2: o primeiro modelo de incorpora\u00e7\u00e3o multimodal do Google"}]},{"@type":"WebSite","@id":"https:\/\/meetcody.ai\/#website","url":"https:\/\/meetcody.ai\/","name":"Cody AI - The AI Trained on Your Business","description":"AI Powered Knowledge Base for Employees","publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/meetcody.ai\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR"},{"@type":"Organization","@id":"https:\/\/meetcody.ai\/#organization","name":"Cody AI - The AI Trained on Your Business","url":"https:\/\/meetcody.ai\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","width":"1024","height":"1024","caption":"Cody AI - The AI Trained on Your Business"},"image":{"@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/meetcodyai","https:\/\/discord.com\/invite\/jXEVDcFxqs"]},{"@type":"Person","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/cde65ec55b79cd833a9777d0a62e83c8","name":"Om Kamath","image":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/3903c678cd7f6c8df0a843ae177998f5d413954afa3062f984a030a889a97849?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/3903c678cd7f6c8df0a843ae177998f5d413954afa3062f984a030a889a97849?s=96&d=mm&r=g","caption":"Om Kamath"},"description":"Om Kamath","sameAs":["http:\/\/meetcody.ai"],"url":"https:\/\/meetcody.ai\/pt-br\/blog\/author\/omkamath\/"}]}},"_links":{"self":[{"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/posts\/70687","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/comments?post=70687"}],"version-history":[{"count":3,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/posts\/70687\/revisions"}],"predecessor-version":[{"id":70702,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/posts\/70687\/revisions\/70702"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/media\/70661"}],"wp:attachment":[{"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/media?parent=70687"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/categories?post=70687"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/tags?post=70687"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}