{"id":32515,"date":"2023-11-17T21:13:29","date_gmt":"2023-11-17T21:13:29","guid":{"rendered":"https:\/\/meetcody.ai\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/"},"modified":"2023-11-17T21:13:29","modified_gmt":"2023-11-17T21:13:29","slug":"falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca","status":"publish","type":"post","link":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/","title":{"rendered":"Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a"},"content":{"rendered":"<p><span data-preserver-spaces=\"true\">O Falcon LLM distingue-se n\u00e3o s\u00f3 pelas suas proezas t\u00e9cnicas, mas tamb\u00e9m pela sua natureza de c\u00f3digo aberto, tornando as capacidades avan\u00e7adas de IA acess\u00edveis a um p\u00fablico mais vasto.  <\/span><span data-preserver-spaces=\"true\">Oferece um conjunto de modelos, incluindo o Falcon 180B, 40B, 7.5B e 1.3B. Cada modelo \u00e9 adaptado a diferentes capacidades computacionais e casos de utiliza\u00e7\u00e3o.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">O modelo 180B, por exemplo, \u00e9 o maior e mais potente, adequado para tarefas complexas, enquanto o modelo 1,3B oferece uma op\u00e7\u00e3o mais acess\u00edvel para aplica\u00e7\u00f5es menos exigentes.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">A natureza de c\u00f3digo aberto do Falcon LLM, em particular dos seus modelos <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-7b\">7B<\/a> e 40B, elimina as barreiras ao acesso \u00e0 tecnologia de IA. Esta abordagem promove um ecossistema de IA mais inclusivo, em que os indiv\u00edduos e as organiza\u00e7\u00f5es podem implementar estes modelos nos seus pr\u00f3prios ambientes, incentivando a inova\u00e7\u00e3o e a diversidade nas aplica\u00e7\u00f5es de IA.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Santo Falc\u00e3o! \ud83e\udd2f<\/p>\n<p>Um Falcon LLM 7B est\u00e1 a ser executado no M1 Mac com CoreML a mais de 4 tokens\/seg. \u00c9 isso mesmo.  <a href=\"https:\/\/t.co\/9lmigrQIiY\">pic.twitter.com\/9lmigrQIiY<\/a><\/p>\n<p>&#8211; Itamar Golan \ud83e\udd13 (@ItakGol) <a href=\"https:\/\/twitter.com\/ItakGol\/status\/1665063564711800832?ref_src=twsrc%5Etfw\">3 de junho de 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2><span data-preserver-spaces=\"true\">O que \u00e9 o Falcon 40B?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">O Falcon 40B faz parte do conjunto Falcon Large Language Model (LLM), especificamente concebido para colmatar a lacuna entre a elevada efici\u00eancia computacional e as capacidades avan\u00e7adas de IA. Trata-se de um modelo de IA generativo com 40 mil milh\u00f5es de par\u00e2metros, que oferece um equil\u00edbrio entre desempenho e requisitos de recursos.  <\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Apresentamos o Falcon-40B! \ud83d\ude80<\/p>\n<p>Situado no topo da tabela de classifica\u00e7\u00e3o Open-LLM, o Falcon-40B superou o LLaMA, o SableLM, o MPT, etc.<\/p>\n<p>Dispon\u00edvel no ecossistema HuggingFace, \u00e9 super f\u00e1cil de usar! \ud83d\ude80<\/p>\n<p>V\u00ea isto \ud83d\udc47 <a href=\"https:\/\/t.co\/YyXpXvNKKC\">pic.twitter.com\/YyXpXvNKKC<\/a><\/p>\n<p>&#8211; Akshay \ud83d\ude80 (@akshay_pachaar) <a href=\"https:\/\/twitter.com\/akshay_pachaar\/status\/1662798406161682432?ref_src=twsrc%5Etfw\">28 de maio de 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2><span data-preserver-spaces=\"true\">O que pode fazer o Falcon LLM 40B?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">O Falcon 40B tem capacidade para uma vasta gama de tarefas, incluindo a gera\u00e7\u00e3o de conte\u00fados criativos, a resolu\u00e7\u00e3o de problemas complexos, opera\u00e7\u00f5es de servi\u00e7o ao cliente, assist\u00eancia virtual, tradu\u00e7\u00e3o de l\u00ednguas e an\u00e1lise de sentimentos.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Este modelo \u00e9 particularmente not\u00e1vel pela sua capacidade de automatizar tarefas repetitivas e aumentar a efici\u00eancia em v\u00e1rias ind\u00fastrias. <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-40b\">O Falcon 40B<\/a>, pelo facto de ser open-source, oferece uma vantagem significativa em termos de acessibilidade e inova\u00e7\u00e3o, permitindo a sua livre utiliza\u00e7\u00e3o e modifica\u00e7\u00e3o para fins comerciais.<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"The BEST Open Source LLM? (Falcon 40B)\" width=\"1200\" height=\"675\" src=\"https:\/\/www.youtube.com\/embed\/-IV1NTGy6Mg?start=1&#038;feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" allowfullscreen><\/iframe><\/p>\n<h2><span data-preserver-spaces=\"true\">Como \u00e9 que o Falcon 40B foi desenvolvido e treinado?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Treinado no enorme conjunto de dados <a href=\"https:\/\/huggingface.co\/datasets\/tiiuae\/falcon-refinedweb\">REFINEDWEB<\/a> de 1 trili\u00e3o de tokens, o desenvolvimento do Falcon 40 B envolveu uma utiliza\u00e7\u00e3o extensiva de GPUs e processamento de dados sofisticado. O Falcon 40B passou pelo seu processo de treino no AWS SageMaker utilizando 384 GPUs A100 de 40GB, empregando uma abordagem de paralelismo 3D que combinava o Paralelismo Tensor (TP=8), o Paralelismo Pipeline (PP=4) e o Paralelismo de Dados (DP=12) juntamente com o ZeRO. Esta fase de forma\u00e7\u00e3o teve in\u00edcio em dezembro de 2022 e foi conclu\u00edda em dois meses.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Esta forma\u00e7\u00e3o dotou o modelo de uma compreens\u00e3o excecional da linguagem e do contexto, estabelecendo um novo padr\u00e3o no dom\u00ednio do processamento de linguagem natural.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">A conce\u00e7\u00e3o arquitet\u00f3nica do Falcon 40B baseia-se na estrutura do GPT -3, mas incorpora altera\u00e7\u00f5es significativas para melhorar o seu desempenho. Este modelo utiliza a incorpora\u00e7\u00e3o posicional rotativa para melhorar a sua compreens\u00e3o dos contextos de sequ\u00eancia.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Os seus mecanismos de aten\u00e7\u00e3o s\u00e3o aumentados com a aten\u00e7\u00e3o multi-consulta e o FlashAttention para um processamento enriquecido. No bloco descodificador, o Falcon 40B integra configura\u00e7\u00f5es de aten\u00e7\u00e3o paralela e Perceptron de v\u00e1rias camadas (MLP), empregando uma abordagem de normaliza\u00e7\u00e3o de duas camadas para manter um equil\u00edbrio entre efici\u00eancia e efic\u00e1cia computacional.<\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">O que \u00e9 o Falcon 180B?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">O Falcon 180B representa o auge da suite Falcon LLM, ostentando uns impressionantes 180 mil milh\u00f5es de par\u00e2metros. Este modelo de descodifica\u00e7\u00e3o causal \u00e9 treinado com base em 3,5 trili\u00f5es de tokens do RefinedWeb, o que o torna um dos LLMs de c\u00f3digo aberto mais avan\u00e7ados dispon\u00edveis. Foi constru\u00eddo por  <\/span><a class=\"editor-rtfLink\" href=\"https:\/\/www.tii.ae\/\" target=\"_blank\" rel=\"noopener\"><br \/>\n  <span data-preserver-spaces=\"true\">TII<\/span><br \/>\n<\/a><span data-preserver-spaces=\"true\">.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Destaca-se numa vasta gama de tarefas de processamento de linguagem natural, oferecendo capacidades sem paralelo em testes de racioc\u00ednio, codifica\u00e7\u00e3o, profici\u00eancia e conhecimento.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">A sua forma\u00e7\u00e3o no extenso conjunto de dados RefinedWeb, que inclui uma gama diversificada de fontes de dados, como documentos de investiga\u00e7\u00e3o, textos jur\u00eddicos, not\u00edcias, literatura e conversas nas redes sociais, garante a sua profici\u00eancia em v\u00e1rias aplica\u00e7\u00f5es.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">O lan\u00e7amento do Falcon 180 B \u00e9 um marco significativo no desenvolvimento da IA, apresentando um desempenho not\u00e1vel na compreens\u00e3o da linguagem multitarefa e em testes de refer\u00eancia, rivalizando e at\u00e9 ultrapassando outros modelos propriet\u00e1rios l\u00edderes.<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Introducing Falcon 180B: The World&#039;s Most Powerful Open LLM!\" width=\"1200\" height=\"675\" src=\"https:\/\/www.youtube.com\/embed\/9MArp9H2YCM?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" allowfullscreen><\/iframe><\/p>\n<h2><span data-preserver-spaces=\"true\">Como \u00e9 que o Falcon 180B funciona?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Como uma itera\u00e7\u00e3o avan\u00e7ada do modelo Falcon 40B da TII, o modelo Falcon 180B funciona como um modelo de linguagem auto-regressivo com uma arquitetura de transformador optimizada.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Treinado com um extenso conjunto de 3,5 bili\u00f5es de fichas de dados, este modelo inclui dados da Web provenientes do RefinedWeb e do Amazon SageMaker.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">O Falcon 180B integra uma estrutura de forma\u00e7\u00e3o distribu\u00edda personalizada denominada Gigatron, que utiliza o paralelismo 3D com otimiza\u00e7\u00e3o ZeRO e kernels Trion personalizados. O desenvolvimento desta tecnologia foi intensivo em termos de recursos, utilizando at\u00e9 4096 GPUs num total de 7 milh\u00f5es de horas de GPU. Esta forma\u00e7\u00e3o extensiva torna o Falcon 180B aproximadamente 2,5 vezes maior do que os seus hom\u00f3logos como o Llama 2.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Est\u00e3o dispon\u00edveis duas vers\u00f5es distintas do Falcon 180B: o modelo 180B standard e o 180B-Chat. O primeiro \u00e9 um modelo pr\u00e9-treinado, oferecendo flexibilidade \u00e0s empresas para o afinarem para aplica\u00e7\u00f5es espec\u00edficas. O \u00faltimo, <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-180b-chat\">180B-Chat<\/a>, est\u00e1 optimizado para instru\u00e7\u00f5es gerais e foi aperfei\u00e7oado em conjuntos de dados de instru\u00e7\u00e3o e de conversa\u00e7\u00e3o, o que o torna adequado para tarefas do tipo assistente.<\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Qual \u00e9 o desempenho do Falcon 180B?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Em termos de desempenho, o Falcon 180B solidificou a posi\u00e7\u00e3o dos Emirados \u00c1rabes Unidos no sector da IA, apresentando resultados de topo e superando muitas das solu\u00e7\u00f5es existentes.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Obteve pontua\u00e7\u00f5es elevadas na tabela de classifica\u00e7\u00e3o do Hugging Face e compete de perto com modelos propriet\u00e1rios como o PaLM-2 da Google. Apesar de estar ligeiramente atr\u00e1s do GPT-4, o treino extensivo do Falcon 180 B num vasto corpus de texto permite uma compreens\u00e3o excecional da l\u00edngua e profici\u00eancia em v\u00e1rias tarefas lingu\u00edsticas, revolucionando potencialmente o treino do bot Gen-AI.<\/span><br \/>\n<span data-preserver-spaces=\"true\">O que distingue o Falcon 180B \u00e9 a sua arquitetura aberta, que permite o acesso a um modelo com um vasto conjunto de par\u00e2metros, possibilitando assim a investiga\u00e7\u00e3o e a explora\u00e7\u00e3o no processamento da linguagem. Esta capacidade apresenta in\u00fameras oportunidades em sectores como os cuidados de sa\u00fade, as finan\u00e7as e a educa\u00e7\u00e3o.<\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Como aceder ao Falcon 180B?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">O acesso ao Falcon 180B est\u00e1 dispon\u00edvel atrav\u00e9s do <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-180b\">HuggingFace<\/a> e do s\u00edtio Web da TII, incluindo a pr\u00e9-visualiza\u00e7\u00e3o experimental da vers\u00e3o de conversa\u00e7\u00e3o. A AWS tamb\u00e9m oferece acesso atrav\u00e9s do <a href=\"https:\/\/docs.aws.amazon.com\/sagemaker\/latest\/dg\/studio-jumpstart.html\">servi\u00e7o Amazon SageMaker JumpStart<\/a>, simplificando a implementa\u00e7\u00e3o do modelo para utilizadores empresariais.  <\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Falcon 40B vs 180B: Qual \u00e9 a diferen\u00e7a?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Os <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-40b-instruct\">modelos<\/a> pr\u00e9-treinados e de <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-40b-instruct\">instru\u00e7\u00e3o do<\/a> Falcon-40B est\u00e3o dispon\u00edveis ao abrigo da licen\u00e7a de software Apache 2.0, enquanto os modelos pr\u00e9-treinados e de conversa\u00e7\u00e3o do Falcon-180B est\u00e3o dispon\u00edveis ao abrigo da licen\u00e7a TII. Eis 4 outras diferen\u00e7as importantes entre o Falcon 40B e o 180B:<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">1. Tamanho e complexidade do modelo<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">O Falcon 40B tem 40 mil milh\u00f5es de par\u00e2metros, o que o torna um modelo poderoso mas mais f\u00e1cil de gerir em termos de recursos computacionais.  <\/span><span data-preserver-spaces=\"true\">O Falcon 180B, por outro lado, \u00e9 um modelo muito maior, com 180 mil milh\u00f5es de par\u00e2metros, que oferece capacidades e complexidade acrescidas.<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">2. Forma\u00e7\u00e3o e utiliza\u00e7\u00e3o de dados<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">O Falcon 40B \u00e9 treinado em 1 trili\u00e3o de tokens, o que lhe d\u00e1 uma ampla compreens\u00e3o da linguagem e do contexto.  <\/span><span data-preserver-spaces=\"true\">O Falcon 180B ultrapassa isto com a forma\u00e7\u00e3o em 3,5 bili\u00f5es de tokens, resultando num modelo lingu\u00edstico mais matizado e sofisticado.<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">3. Aplica\u00e7\u00f5es e casos de utiliza\u00e7\u00e3o<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">O Falcon 40B \u00e9 adequado para uma vasta gama de aplica\u00e7\u00f5es de utiliza\u00e7\u00e3o geral, incluindo gera\u00e7\u00e3o de conte\u00fados, servi\u00e7o ao cliente e tradu\u00e7\u00e3o de idiomas.  <\/span><span data-preserver-spaces=\"true\">O Falcon 180B \u00e9 mais h\u00e1bil a lidar com tarefas complexas que requerem um racioc\u00ednio e compreens\u00e3o mais profundos, tornando-o ideal para projectos avan\u00e7ados de investiga\u00e7\u00e3o e desenvolvimento.<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">4. Necessidades de recursos<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">O Falcon 40B requer menos pot\u00eancia computacional para funcionar, tornando-o acess\u00edvel a uma maior variedade de utilizadores e sistemas.  <\/span><span data-preserver-spaces=\"true\">O Falcon 180B, devido \u00e0 sua dimens\u00e3o e complexidade, exige significativamente mais recursos computacionais, visando aplica\u00e7\u00f5es de topo de gama e ambientes de investiga\u00e7\u00e3o.<\/span><\/p>\n<p><em><strong>Leia mais: <a href=\"https:\/\/meetcody.ai\/blog\/falcon-llm-180b-40b-open-source-ai\/\">A usabilidade comercial, a tecnologia de c\u00f3digo aberto e o futuro do Falcon LLM<\/a><\/strong><\/em><\/p>\n<h2>F-FAQ (Perguntas Frequentes do Falc\u00e3o)<\/h2>\n<h3>1. O que distingue o Falcon LLM de outros modelos lingu\u00edsticos de grande dimens\u00e3o?<\/h3>\n<p>O Falcon LLM, em particular os seus modelos Falcon 180B e 40B, destaca-se pela sua natureza de c\u00f3digo aberto e escala impressionante. O Falcon 180B, com 180 mil milh\u00f5es de par\u00e2metros, \u00e9 um dos maiores modelos de c\u00f3digo aberto dispon\u00edveis, treinado com uns impressionantes 3,5 bili\u00f5es de fichas. Esta forma\u00e7\u00e3o extensiva permite uma compreens\u00e3o lingu\u00edstica excecional e uma versatilidade nas aplica\u00e7\u00f5es. Al\u00e9m disso, a utiliza\u00e7\u00e3o de tecnologias inovadoras pelo Falcon LLM, como a aten\u00e7\u00e3o a m\u00faltiplas consultas e os n\u00facleos Trion personalizados na sua arquitetura, aumenta a sua efici\u00eancia e efic\u00e1cia.<\/p>\n<h3>2. Como funciona o mecanismo de aten\u00e7\u00e3o a m\u00faltiplas consultas do Falcon 40B?<\/h3>\n<p>O Falcon 40B utiliza um mecanismo \u00fanico de aten\u00e7\u00e3o multi-consulta, em que \u00e9 utilizado um \u00fanico par de chave e valor em todas as cabe\u00e7as de aten\u00e7\u00e3o, o que difere dos esquemas tradicionais de aten\u00e7\u00e3o multi-cabe\u00e7as. Esta abordagem melhora a escalabilidade do modelo durante a infer\u00eancia sem afetar significativamente o processo de pr\u00e9-treino, melhorando o desempenho e a efici\u00eancia globais do modelo.<\/p>\n<h3>3. Quais s\u00e3o as principais aplica\u00e7\u00f5es do Falcon 40B e 180B?<\/h3>\n<p>O Falcon 40B \u00e9 vers\u00e1til e adequado para v\u00e1rias tarefas, incluindo a cria\u00e7\u00e3o de conte\u00fados, o servi\u00e7o de apoio ao cliente e a tradu\u00e7\u00e3o de l\u00ednguas. O Falcon 180B, sendo mais avan\u00e7ado, destaca-se em tarefas complexas que exigem um racioc\u00ednio profundo, como pesquisa avan\u00e7ada, codifica\u00e7\u00e3o, avalia\u00e7\u00f5es de profici\u00eancia e testes de conhecimentos. O seu treino extensivo em diversos conjuntos de dados tamb\u00e9m o torna uma ferramenta poderosa para o treino de bots Gen-AI.<\/p>\n<h3>4. O Falcon LLM pode ser personalizado para casos de utiliza\u00e7\u00e3o espec\u00edficos?<\/h3>\n<p>Sim, uma das principais vantagens do Falcon LLM \u00e9 a sua natureza de c\u00f3digo aberto, permitindo que os utilizadores personalizem e afinem os modelos para aplica\u00e7\u00f5es espec\u00edficas. O modelo Falcon 180B, por exemplo, est\u00e1 dispon\u00edvel em duas vers\u00f5es: um modelo pr\u00e9-treinado padr\u00e3o e uma vers\u00e3o optimizada para conversa\u00e7\u00e3o, cada uma delas para responder a diferentes requisitos. Esta flexibilidade permite que as organiza\u00e7\u00f5es adaptem o modelo \u00e0s suas necessidades espec\u00edficas.<\/p>\n<h3>5. Quais s\u00e3o os requisitos computacionais para a execu\u00e7\u00e3o de modelos Falcon LLM?<\/h3>\n<p>A execu\u00e7\u00e3o de modelos Falcon LLM, especialmente as variantes maiores como o Falcon 180B, requer recursos computacionais substanciais. Por exemplo, o Falcon 180B necessita de cerca de 640 GB de mem\u00f3ria para a infer\u00eancia, e a sua grande dimens\u00e3o torna dif\u00edcil a sua execu\u00e7\u00e3o em sistemas inform\u00e1ticos normais. Esta elevada procura de recursos deve ser tida em conta no planeamento da utiliza\u00e7\u00e3o do modelo, em especial para opera\u00e7\u00f5es cont\u00ednuas.<\/p>\n<h3>6. Como \u00e9 que o Falcon LLM contribui para a investiga\u00e7\u00e3o e o desenvolvimento da IA?<\/h3>\n<p>A estrutura de c\u00f3digo aberto do Falcon LLM contribui significativamente para a investiga\u00e7\u00e3o e o desenvolvimento da IA, fornecendo uma plataforma para a colabora\u00e7\u00e3o e a inova\u00e7\u00e3o a n\u00edvel mundial. Os investigadores e os programadores podem contribuir para o modelo e aperfei\u00e7o\u00e1-lo, conduzindo a r\u00e1pidos avan\u00e7os na IA. Esta abordagem colaborativa garante que o Falcon LLM se mant\u00e9m na vanguarda da tecnologia de IA, adaptando-se \u00e0 evolu\u00e7\u00e3o das necessidades e dos desafios.<\/p>\n<h3>7. Quem ganhar\u00e1 entre o Falcon LLM e o LLaMA?<\/h3>\n<p>Nesta compara\u00e7\u00e3o, o Falcon surge como o modelo mais vantajoso. O tamanho mais pequeno do Falcon torna-o menos intensivo em termos de computa\u00e7\u00e3o para treinar e utilizar, uma considera\u00e7\u00e3o importante para quem procura solu\u00e7\u00f5es de IA eficientes. Destaca-se em tarefas como a gera\u00e7\u00e3o de texto, a tradu\u00e7\u00e3o de l\u00ednguas e uma vasta gama de cria\u00e7\u00e3o de conte\u00fados criativos, demonstrando um elevado grau de versatilidade e profici\u00eancia. Al\u00e9m disso, a capacidade do Falcon para ajudar em tarefas de codifica\u00e7\u00e3o aumenta ainda mais a sua utilidade em v\u00e1rias aplica\u00e7\u00f5es tecnol\u00f3gicas.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Lembra-se do LLaMA-2?<\/p>\n<p>Foi o melhor LLM de fonte aberta do \u00faltimo m\u00eas.<\/p>\n<p>N\u00c3O MAIS!<\/p>\n<p>Bem-vindo Falcon-180B!<\/p>\n<p>Fiz uma compara\u00e7\u00e3o<\/p>\n<p>GPT-4 vs. Falcon-180B<\/p>\n<p>Os resultados s\u00e3o inesperados!<\/p>\n<p>(Marcar como favorito para refer\u00eancia futura)<\/p>\n<p>\u27a4 O Falcon soa menos rob\u00f3tico<\/p>\n<p>O estilo de escrita predefinido do ChatGPT&#8230; <a href=\"https:\/\/t.co\/OqdcIvEBMe\">pic.twitter.com\/OqdcIvEBMe<\/a><\/p>\n<p>&#8211; Luke Skyward (@Olearningcurve) <a href=\"https:\/\/twitter.com\/Olearningcurve\/status\/1700034041368498196?ref_src=twsrc%5Etfw\">8 de setembro de 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\nPor outro lado, o LLaMA, embora seja um modelo formid\u00e1vel por si s\u00f3, enfrenta certas limita\u00e7\u00f5es nesta compara\u00e7\u00e3o. A sua maior dimens\u00e3o traduz-se num maior custo computacional, tanto na forma\u00e7\u00e3o como na utiliza\u00e7\u00e3o, o que pode ser um fator significativo para os utilizadores com recursos limitados. Em termos de desempenho, o LLaMA n\u00e3o consegue igualar a efici\u00eancia do Falcon na gera\u00e7\u00e3o de texto, tradu\u00e7\u00e3o de l\u00ednguas e cria\u00e7\u00e3o de diversos tipos de conte\u00fado criativo. Al\u00e9m disso, as suas capacidades n\u00e3o se estendem a tarefas de codifica\u00e7\u00e3o, o que restringe a sua aplicabilidade em cen\u00e1rios em que \u00e9 necess\u00e1ria assist\u00eancia relacionada com a programa\u00e7\u00e3o.<\/p>\n<p>Embora tanto o Falcon como o LLaMA sejam impressionantes nos seus respectivos dom\u00ednios, o design mais pequeno e mais eficiente do Falcon, juntamente com a sua gama mais vasta de capacidades, incluindo a codifica\u00e7\u00e3o, confere-lhe uma vantagem nesta compara\u00e7\u00e3o.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>O Falcon LLM distingue-se n\u00e3o s\u00f3 pelas suas proezas t\u00e9cnicas, mas tamb\u00e9m pela sua natureza de c\u00f3digo aberto, tornando as capacidades avan\u00e7adas de IA acess\u00edveis a um p\u00fablico mais vasto. Oferece um conjunto de modelos, incluindo o Falcon 180B, 40B, 7.5B e 1.3B. Cada modelo \u00e9 adaptado a diferentes capacidades computacionais e casos de utiliza\u00e7\u00e3o.<a class=\"excerpt-read-more\" href=\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/\" title=\"ReadFalcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a\">&#8230; Read more &raquo;<\/a><\/p>\n","protected":false},"author":1,"featured_media":32508,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[199,82],"tags":[558,560,546,547,548],"class_list":["post-32515","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ferramentas-de-ia","category-inteligencia-artificial-pt-br","tag-falcao-180b","tag-falcao-40b","tag-falcao-ai","tag-lm","tag-modelo-de-lingua-grande"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v21.8 (Yoast SEO v24.2) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a<\/title>\n<meta name=\"description\" content=\"Explore as capacidades e aplica\u00e7\u00f5es do Falcon 180B e do Falcon 40B. Leia sobre o seu desempenho, casos de utiliza\u00e7\u00e3o e diferen\u00e7as de caracter\u00edsticas.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/\" \/>\n<meta property=\"og:locale\" content=\"pt_BR\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a\" \/>\n<meta property=\"og:description\" content=\"Explore as capacidades e aplica\u00e7\u00f5es do Falcon 180B e do Falcon 40B. Leia sobre o seu desempenho, casos de utiliza\u00e7\u00e3o e diferen\u00e7as de caracter\u00edsticas.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/\" \/>\n<meta property=\"og:site_name\" content=\"Cody - The AI Trained on Your Business\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-17T21:13:29+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1156\" \/>\n\t<meta property=\"og:image:height\" content=\"648\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Oriol Zertuche\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@oriol003\" \/>\n<meta name=\"twitter:site\" content=\"@meetcodyai\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Oriol Zertuche\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"12 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/\"},\"author\":{\"name\":\"Oriol Zertuche\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749\"},\"headline\":\"Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a\",\"datePublished\":\"2023-11-17T21:13:29+00:00\",\"dateModified\":\"2023-11-17T21:13:29+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/\"},\"wordCount\":2499,\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"keywords\":[\"Falc\u00e3o 180b\",\"Falc\u00e3o 40b\",\"falc\u00e3o ai\",\"lm\",\"Modelo de l\u00edngua grande\"],\"articleSection\":[\"Ferramentas de IA\",\"Intelig\u00eancia Artificial\"],\"inLanguage\":\"pt-BR\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/\",\"url\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/\",\"name\":\"Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"datePublished\":\"2023-11-17T21:13:29+00:00\",\"dateModified\":\"2023-11-17T21:13:29+00:00\",\"description\":\"Explore as capacidades e aplica\u00e7\u00f5es do Falcon 180B e do Falcon 40B. Leia sobre o seu desempenho, casos de utiliza\u00e7\u00e3o e diferen\u00e7as de caracter\u00edsticas.\",\"breadcrumb\":{\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#breadcrumb\"},\"inLanguage\":\"pt-BR\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#primaryimage\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"width\":1156,\"height\":648,\"caption\":\"capabilities and applications of Falcon 180B and Falcon 40B\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/meetcody.ai\/pt-br\/inicio-v2\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/meetcody.ai\/#website\",\"url\":\"https:\/\/meetcody.ai\/\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"description\":\"AI Powered Knowledge Base for Employees\",\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/meetcody.ai\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"pt-BR\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/meetcody.ai\/#organization\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"url\":\"https:\/\/meetcody.ai\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"width\":\"1024\",\"height\":\"1024\",\"caption\":\"Cody AI - The AI Trained on Your Business\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/x.com\/meetcodyai\",\"https:\/\/discord.com\/invite\/jXEVDcFxqs\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749\",\"name\":\"Oriol Zertuche\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"pt-BR\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g\",\"caption\":\"Oriol Zertuche\"},\"description\":\"Oriol Zertuche is the CEO of CODESM and Cody AI. As an engineering student from the University of Texas-Pan American, Oriol leveraged his expertise in technology and web development to establish renowned marketing firm CODESM. He later developed Cody AI, a smart AI assistant trained to support businesses and their team members. Oriol believes in delivering practical business solutions through innovative technology.\",\"sameAs\":[\"https:\/\/meetcody.ai\",\"https:\/\/www.linkedin.com\/in\/oriolzertuche\/\",\"https:\/\/x.com\/oriol003\"],\"url\":\"https:\/\/meetcody.ai\/pt-br\/blog\/author\/alien\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a","description":"Explore as capacidades e aplica\u00e7\u00f5es do Falcon 180B e do Falcon 40B. Leia sobre o seu desempenho, casos de utiliza\u00e7\u00e3o e diferen\u00e7as de caracter\u00edsticas.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/","og_locale":"pt_BR","og_type":"article","og_title":"Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a","og_description":"Explore as capacidades e aplica\u00e7\u00f5es do Falcon 180B e do Falcon 40B. Leia sobre o seu desempenho, casos de utiliza\u00e7\u00e3o e diferen\u00e7as de caracter\u00edsticas.","og_url":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/","og_site_name":"Cody - The AI Trained on Your Business","article_published_time":"2023-11-17T21:13:29+00:00","og_image":[{"width":1156,"height":648,"url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","type":"image\/png"}],"author":"Oriol Zertuche","twitter_card":"summary_large_image","twitter_creator":"@oriol003","twitter_site":"@meetcodyai","twitter_misc":{"Written by":"Oriol Zertuche","Est. reading time":"12 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#article","isPartOf":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/"},"author":{"name":"Oriol Zertuche","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749"},"headline":"Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a","datePublished":"2023-11-17T21:13:29+00:00","dateModified":"2023-11-17T21:13:29+00:00","mainEntityOfPage":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/"},"wordCount":2499,"publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"image":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","keywords":["Falc\u00e3o 180b","Falc\u00e3o 40b","falc\u00e3o ai","lm","Modelo de l\u00edngua grande"],"articleSection":["Ferramentas de IA","Intelig\u00eancia Artificial"],"inLanguage":"pt-BR"},{"@type":"WebPage","@id":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/","url":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/","name":"Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a","isPartOf":{"@id":"https:\/\/meetcody.ai\/#website"},"primaryImageOfPage":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#primaryimage"},"image":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","datePublished":"2023-11-17T21:13:29+00:00","dateModified":"2023-11-17T21:13:29+00:00","description":"Explore as capacidades e aplica\u00e7\u00f5es do Falcon 180B e do Falcon 40B. Leia sobre o seu desempenho, casos de utiliza\u00e7\u00e3o e diferen\u00e7as de caracter\u00edsticas.","breadcrumb":{"@id":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#breadcrumb"},"inLanguage":"pt-BR","potentialAction":[{"@type":"ReadAction","target":["https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/"]}]},{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#primaryimage","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","width":1156,"height":648,"caption":"capabilities and applications of Falcon 180B and Falcon 40B"},{"@type":"BreadcrumbList","@id":"https:\/\/meetcody.ai\/pt-br\/blog\/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/meetcody.ai\/pt-br\/inicio-v2\/"},{"@type":"ListItem","position":2,"name":"Falcon 180B e 40B: Casos de utiliza\u00e7\u00e3o, desempenho e diferen\u00e7a"}]},{"@type":"WebSite","@id":"https:\/\/meetcody.ai\/#website","url":"https:\/\/meetcody.ai\/","name":"Cody AI - The AI Trained on Your Business","description":"AI Powered Knowledge Base for Employees","publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/meetcody.ai\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"pt-BR"},{"@type":"Organization","@id":"https:\/\/meetcody.ai\/#organization","name":"Cody AI - The AI Trained on Your Business","url":"https:\/\/meetcody.ai\/","logo":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","width":"1024","height":"1024","caption":"Cody AI - The AI Trained on Your Business"},"image":{"@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/meetcodyai","https:\/\/discord.com\/invite\/jXEVDcFxqs"]},{"@type":"Person","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749","name":"Oriol Zertuche","image":{"@type":"ImageObject","inLanguage":"pt-BR","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g","caption":"Oriol Zertuche"},"description":"Oriol Zertuche is the CEO of CODESM and Cody AI. As an engineering student from the University of Texas-Pan American, Oriol leveraged his expertise in technology and web development to establish renowned marketing firm CODESM. He later developed Cody AI, a smart AI assistant trained to support businesses and their team members. Oriol believes in delivering practical business solutions through innovative technology.","sameAs":["https:\/\/meetcody.ai","https:\/\/www.linkedin.com\/in\/oriolzertuche\/","https:\/\/x.com\/oriol003"],"url":"https:\/\/meetcody.ai\/pt-br\/blog\/author\/alien\/"}]}},"_links":{"self":[{"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/posts\/32515","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/comments?post=32515"}],"version-history":[{"count":0,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/posts\/32515\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/media\/32508"}],"wp:attachment":[{"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/media?parent=32515"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/categories?post=32515"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/meetcody.ai\/pt-br\/wp-json\/wp\/v2\/tags?post=32515"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}