<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Falcão 40b Archives - Cody - The AI Trained on Your Business</title>
	<atom:link href="https://meetcody.ai/pt-br/blog/tag/falcao-40b/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>AI Powered Knowledge Base for Employees</description>
	<lastBuildDate>Fri, 17 Nov 2023 21:13:29 +0000</lastBuildDate>
	<language>pt-BR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>

<image>
	<url>https://meetcody.ai/wp-content/uploads/2025/08/cropped-Cody-Emoji-071-32x32.png</url>
	<title>Falcão 40b Archives - Cody - The AI Trained on Your Business</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Falcon 180B e 40B: Casos de utilização, desempenho e diferença</title>
		<link>https://meetcody.ai/pt-br/blog/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca/</link>
		
		<dc:creator><![CDATA[Oriol Zertuche]]></dc:creator>
		<pubDate>Fri, 17 Nov 2023 21:13:29 +0000</pubDate>
				<category><![CDATA[Ferramentas de IA]]></category>
		<category><![CDATA[Inteligência Artificial]]></category>
		<category><![CDATA[Falcão 180b]]></category>
		<category><![CDATA[Falcão 40b]]></category>
		<category><![CDATA[falcão ai]]></category>
		<category><![CDATA[lm]]></category>
		<category><![CDATA[Modelo de língua grande]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca/</guid>

					<description><![CDATA[<p>O Falcon LLM distingue-se não só pelas suas proezas técnicas, mas também pela sua natureza de código aberto, tornando as capacidades avançadas de IA acessíveis a um público mais vasto. Oferece um conjunto de modelos, incluindo o Falcon 180B, 40B, 7.5B e 1.3B. Cada modelo é adaptado a diferentes capacidades computacionais e casos de utilização.<a class="excerpt-read-more" href="https://meetcody.ai/pt-br/blog/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca/" title="ReadFalcon 180B e 40B: Casos de utilização, desempenho e diferença">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/pt-br/blog/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca/">Falcon 180B e 40B: Casos de utilização, desempenho e diferença</a> appeared first on <a href="https://meetcody.ai/pt-br/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span data-preserver-spaces="true">O Falcon LLM distingue-se não só pelas suas proezas técnicas, mas também pela sua natureza de código aberto, tornando as capacidades avançadas de IA acessíveis a um público mais vasto.  </span><span data-preserver-spaces="true">Oferece um conjunto de modelos, incluindo o Falcon 180B, 40B, 7.5B e 1.3B. Cada modelo é adaptado a diferentes capacidades computacionais e casos de utilização.  </span></p>
<p><span data-preserver-spaces="true">O modelo 180B, por exemplo, é o maior e mais potente, adequado para tarefas complexas, enquanto o modelo 1,3B oferece uma opção mais acessível para aplicações menos exigentes.</span></p>
<p><span data-preserver-spaces="true">A natureza de código aberto do Falcon LLM, em particular dos seus modelos <a href="https://huggingface.co/tiiuae/falcon-7b">7B</a> e 40B, elimina as barreiras ao acesso à tecnologia de IA. Esta abordagem promove um ecossistema de IA mais inclusivo, em que os indivíduos e as organizações podem implementar estes modelos nos seus próprios ambientes, incentivando a inovação e a diversidade nas aplicações de IA.</span></p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">Santo Falcão! 🤯</p>
<p>Um Falcon LLM 7B está a ser executado no M1 Mac com CoreML a mais de 4 tokens/seg. É isso mesmo.  <a href="https://t.co/9lmigrQIiY">pic.twitter.com/9lmigrQIiY</a></p>
<p>&#8211; Itamar Golan 🤓 (@ItakGol) <a href="https://twitter.com/ItakGol/status/1665063564711800832?ref_src=twsrc%5Etfw">3 de junho de 2023</a></p></blockquote>
<p><script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<h2><span data-preserver-spaces="true">O que é o Falcon 40B?</span></h2>
<p><span data-preserver-spaces="true">O Falcon 40B faz parte do conjunto Falcon Large Language Model (LLM), especificamente concebido para colmatar a lacuna entre a elevada eficiência computacional e as capacidades avançadas de IA. Trata-se de um modelo de IA generativo com 40 mil milhões de parâmetros, que oferece um equilíbrio entre desempenho e requisitos de recursos.  </span></p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">Apresentamos o Falcon-40B! 🚀</p>
<p>Situado no topo da tabela de classificação Open-LLM, o Falcon-40B superou o LLaMA, o SableLM, o MPT, etc.</p>
<p>Disponível no ecossistema HuggingFace, é super fácil de usar! 🚀</p>
<p>Vê isto 👇 <a href="https://t.co/YyXpXvNKKC">pic.twitter.com/YyXpXvNKKC</a></p>
<p>&#8211; Akshay 🚀 (@akshay_pachaar) <a href="https://twitter.com/akshay_pachaar/status/1662798406161682432?ref_src=twsrc%5Etfw">28 de maio de 2023</a></p></blockquote>
<p><script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script></p>
<h2><span data-preserver-spaces="true">O que pode fazer o Falcon LLM 40B?</span></h2>
<p><span data-preserver-spaces="true">O Falcon 40B tem capacidade para uma vasta gama de tarefas, incluindo a geração de conteúdos criativos, a resolução de problemas complexos, operações de serviço ao cliente, assistência virtual, tradução de línguas e análise de sentimentos.  </span></p>
<p><span data-preserver-spaces="true">Este modelo é particularmente notável pela sua capacidade de automatizar tarefas repetitivas e aumentar a eficiência em várias indústrias. <a href="https://huggingface.co/tiiuae/falcon-40b">O Falcon 40B</a>, pelo facto de ser open-source, oferece uma vantagem significativa em termos de acessibilidade e inovação, permitindo a sua livre utilização e modificação para fins comerciais.</span></p>
<p><iframe title="The BEST Open Source LLM? (Falcon 40B)" width="1200" height="675" src="https://www.youtube.com/embed/-IV1NTGy6Mg?start=1&#038;feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe></p>
<h2><span data-preserver-spaces="true">Como é que o Falcon 40B foi desenvolvido e treinado?</span></h2>
<p><span data-preserver-spaces="true">Treinado no enorme conjunto de dados <a href="https://huggingface.co/datasets/tiiuae/falcon-refinedweb">REFINEDWEB</a> de 1 trilião de tokens, o desenvolvimento do Falcon 40 B envolveu uma utilização extensiva de GPUs e processamento de dados sofisticado. O Falcon 40B passou pelo seu processo de treino no AWS SageMaker utilizando 384 GPUs A100 de 40GB, empregando uma abordagem de paralelismo 3D que combinava o Paralelismo Tensor (TP=8), o Paralelismo Pipeline (PP=4) e o Paralelismo de Dados (DP=12) juntamente com o ZeRO. Esta fase de formação teve início em dezembro de 2022 e foi concluída em dois meses.</span></p>
<p><span data-preserver-spaces="true">Esta formação dotou o modelo de uma compreensão excecional da linguagem e do contexto, estabelecendo um novo padrão no domínio do processamento de linguagem natural.</span></p>
<p><span data-preserver-spaces="true">A conceção arquitetónica do Falcon 40B baseia-se na estrutura do GPT -3, mas incorpora alterações significativas para melhorar o seu desempenho. Este modelo utiliza a incorporação posicional rotativa para melhorar a sua compreensão dos contextos de sequência.  </span></p>
<p><span data-preserver-spaces="true">Os seus mecanismos de atenção são aumentados com a atenção multi-consulta e o FlashAttention para um processamento enriquecido. No bloco descodificador, o Falcon 40B integra configurações de atenção paralela e Perceptron de várias camadas (MLP), empregando uma abordagem de normalização de duas camadas para manter um equilíbrio entre eficiência e eficácia computacional.</span></p>
<h2><span data-preserver-spaces="true">O que é o Falcon 180B?</span></h2>
<p><span data-preserver-spaces="true">O Falcon 180B representa o auge da suite Falcon LLM, ostentando uns impressionantes 180 mil milhões de parâmetros. Este modelo de descodificação causal é treinado com base em 3,5 triliões de tokens do RefinedWeb, o que o torna um dos LLMs de código aberto mais avançados disponíveis. Foi construído por  </span><a class="editor-rtfLink" href="https://www.tii.ae/" target="_blank" rel="noopener"><br />
  <span data-preserver-spaces="true">TII</span><br />
</a><span data-preserver-spaces="true">.</span></p>
<p><span data-preserver-spaces="true">Destaca-se numa vasta gama de tarefas de processamento de linguagem natural, oferecendo capacidades sem paralelo em testes de raciocínio, codificação, proficiência e conhecimento.  </span></p>
<p><span data-preserver-spaces="true">A sua formação no extenso conjunto de dados RefinedWeb, que inclui uma gama diversificada de fontes de dados, como documentos de investigação, textos jurídicos, notícias, literatura e conversas nas redes sociais, garante a sua proficiência em várias aplicações.  </span></p>
<p><span data-preserver-spaces="true">O lançamento do Falcon 180 B é um marco significativo no desenvolvimento da IA, apresentando um desempenho notável na compreensão da linguagem multitarefa e em testes de referência, rivalizando e até ultrapassando outros modelos proprietários líderes.</span></p>
<p><iframe title="Introducing Falcon 180B: The World&#039;s Most Powerful Open LLM!" width="1200" height="675" src="https://www.youtube.com/embed/9MArp9H2YCM?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe></p>
<h2><span data-preserver-spaces="true">Como é que o Falcon 180B funciona?</span></h2>
<p><span data-preserver-spaces="true">Como uma iteração avançada do modelo Falcon 40B da TII, o modelo Falcon 180B funciona como um modelo de linguagem auto-regressivo com uma arquitetura de transformador optimizada.  </span></p>
<p><span data-preserver-spaces="true">Treinado com um extenso conjunto de 3,5 biliões de fichas de dados, este modelo inclui dados da Web provenientes do RefinedWeb e do Amazon SageMaker.</span></p>
<p><span data-preserver-spaces="true">O Falcon 180B integra uma estrutura de formação distribuída personalizada denominada Gigatron, que utiliza o paralelismo 3D com otimização ZeRO e kernels Trion personalizados. O desenvolvimento desta tecnologia foi intensivo em termos de recursos, utilizando até 4096 GPUs num total de 7 milhões de horas de GPU. Esta formação extensiva torna o Falcon 180B aproximadamente 2,5 vezes maior do que os seus homólogos como o Llama 2.</span></p>
<p><span data-preserver-spaces="true">Estão disponíveis duas versões distintas do Falcon 180B: o modelo 180B standard e o 180B-Chat. O primeiro é um modelo pré-treinado, oferecendo flexibilidade às empresas para o afinarem para aplicações específicas. O último, <a href="https://huggingface.co/tiiuae/falcon-180b-chat">180B-Chat</a>, está optimizado para instruções gerais e foi aperfeiçoado em conjuntos de dados de instrução e de conversação, o que o torna adequado para tarefas do tipo assistente.</span></p>
<h2><span data-preserver-spaces="true">Qual é o desempenho do Falcon 180B?</span></h2>
<p><span data-preserver-spaces="true">Em termos de desempenho, o Falcon 180B solidificou a posição dos Emirados Árabes Unidos no sector da IA, apresentando resultados de topo e superando muitas das soluções existentes.  </span></p>
<p><span data-preserver-spaces="true">Obteve pontuações elevadas na tabela de classificação do Hugging Face e compete de perto com modelos proprietários como o PaLM-2 da Google. Apesar de estar ligeiramente atrás do GPT-4, o treino extensivo do Falcon 180 B num vasto corpus de texto permite uma compreensão excecional da língua e proficiência em várias tarefas linguísticas, revolucionando potencialmente o treino do bot Gen-AI.</span><br />
<span data-preserver-spaces="true">O que distingue o Falcon 180B é a sua arquitetura aberta, que permite o acesso a um modelo com um vasto conjunto de parâmetros, possibilitando assim a investigação e a exploração no processamento da linguagem. Esta capacidade apresenta inúmeras oportunidades em sectores como os cuidados de saúde, as finanças e a educação.</span></p>
<h2><span data-preserver-spaces="true">Como aceder ao Falcon 180B?</span></h2>
<p><span data-preserver-spaces="true">O acesso ao Falcon 180B está disponível através do <a href="https://huggingface.co/tiiuae/falcon-180b">HuggingFace</a> e do sítio Web da TII, incluindo a pré-visualização experimental da versão de conversação. A AWS também oferece acesso através do <a href="https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html">serviço Amazon SageMaker JumpStart</a>, simplificando a implementação do modelo para utilizadores empresariais.  </span></p>
<h2><span data-preserver-spaces="true">Falcon 40B vs 180B: Qual é a diferença?</span></h2>
<p><span data-preserver-spaces="true">Os <a href="https://huggingface.co/tiiuae/falcon-40b-instruct">modelos</a> pré-treinados e de <a href="https://huggingface.co/tiiuae/falcon-40b-instruct">instrução do</a> Falcon-40B estão disponíveis ao abrigo da licença de software Apache 2.0, enquanto os modelos pré-treinados e de conversação do Falcon-180B estão disponíveis ao abrigo da licença TII. Eis 4 outras diferenças importantes entre o Falcon 40B e o 180B:</span></p>
<h3><span data-preserver-spaces="true">1. Tamanho e complexidade do modelo</span></h3>
<p><span data-preserver-spaces="true">O Falcon 40B tem 40 mil milhões de parâmetros, o que o torna um modelo poderoso mas mais fácil de gerir em termos de recursos computacionais.  </span><span data-preserver-spaces="true">O Falcon 180B, por outro lado, é um modelo muito maior, com 180 mil milhões de parâmetros, que oferece capacidades e complexidade acrescidas.</span></p>
<h3><span data-preserver-spaces="true">2. Formação e utilização de dados</span></h3>
<p><span data-preserver-spaces="true">O Falcon 40B é treinado em 1 trilião de tokens, o que lhe dá uma ampla compreensão da linguagem e do contexto.  </span><span data-preserver-spaces="true">O Falcon 180B ultrapassa isto com a formação em 3,5 biliões de tokens, resultando num modelo linguístico mais matizado e sofisticado.</span></p>
<h3><span data-preserver-spaces="true">3. Aplicações e casos de utilização</span></h3>
<p><span data-preserver-spaces="true">O Falcon 40B é adequado para uma vasta gama de aplicações de utilização geral, incluindo geração de conteúdos, serviço ao cliente e tradução de idiomas.  </span><span data-preserver-spaces="true">O Falcon 180B é mais hábil a lidar com tarefas complexas que requerem um raciocínio e compreensão mais profundos, tornando-o ideal para projectos avançados de investigação e desenvolvimento.</span></p>
<h3><span data-preserver-spaces="true">4. Necessidades de recursos</span></h3>
<p><span data-preserver-spaces="true">O Falcon 40B requer menos potência computacional para funcionar, tornando-o acessível a uma maior variedade de utilizadores e sistemas.  </span><span data-preserver-spaces="true">O Falcon 180B, devido à sua dimensão e complexidade, exige significativamente mais recursos computacionais, visando aplicações de topo de gama e ambientes de investigação.</span></p>
<p><em><strong>Leia mais: <a href="https://meetcody.ai/blog/falcon-llm-180b-40b-open-source-ai/">A usabilidade comercial, a tecnologia de código aberto e o futuro do Falcon LLM</a></strong></em></p>
<h2>F-FAQ (Perguntas Frequentes do Falcão)</h2>
<h3>1. O que distingue o Falcon LLM de outros modelos linguísticos de grande dimensão?</h3>
<p>O Falcon LLM, em particular os seus modelos Falcon 180B e 40B, destaca-se pela sua natureza de código aberto e escala impressionante. O Falcon 180B, com 180 mil milhões de parâmetros, é um dos maiores modelos de código aberto disponíveis, treinado com uns impressionantes 3,5 biliões de fichas. Esta formação extensiva permite uma compreensão linguística excecional e uma versatilidade nas aplicações. Além disso, a utilização de tecnologias inovadoras pelo Falcon LLM, como a atenção a múltiplas consultas e os núcleos Trion personalizados na sua arquitetura, aumenta a sua eficiência e eficácia.</p>
<h3>2. Como funciona o mecanismo de atenção a múltiplas consultas do Falcon 40B?</h3>
<p>O Falcon 40B utiliza um mecanismo único de atenção multi-consulta, em que é utilizado um único par de chave e valor em todas as cabeças de atenção, o que difere dos esquemas tradicionais de atenção multi-cabeças. Esta abordagem melhora a escalabilidade do modelo durante a inferência sem afetar significativamente o processo de pré-treino, melhorando o desempenho e a eficiência globais do modelo.</p>
<h3>3. Quais são as principais aplicações do Falcon 40B e 180B?</h3>
<p>O Falcon 40B é versátil e adequado para várias tarefas, incluindo a criação de conteúdos, o serviço de apoio ao cliente e a tradução de línguas. O Falcon 180B, sendo mais avançado, destaca-se em tarefas complexas que exigem um raciocínio profundo, como pesquisa avançada, codificação, avaliações de proficiência e testes de conhecimentos. O seu treino extensivo em diversos conjuntos de dados também o torna uma ferramenta poderosa para o treino de bots Gen-AI.</p>
<h3>4. O Falcon LLM pode ser personalizado para casos de utilização específicos?</h3>
<p>Sim, uma das principais vantagens do Falcon LLM é a sua natureza de código aberto, permitindo que os utilizadores personalizem e afinem os modelos para aplicações específicas. O modelo Falcon 180B, por exemplo, está disponível em duas versões: um modelo pré-treinado padrão e uma versão optimizada para conversação, cada uma delas para responder a diferentes requisitos. Esta flexibilidade permite que as organizações adaptem o modelo às suas necessidades específicas.</p>
<h3>5. Quais são os requisitos computacionais para a execução de modelos Falcon LLM?</h3>
<p>A execução de modelos Falcon LLM, especialmente as variantes maiores como o Falcon 180B, requer recursos computacionais substanciais. Por exemplo, o Falcon 180B necessita de cerca de 640 GB de memória para a inferência, e a sua grande dimensão torna difícil a sua execução em sistemas informáticos normais. Esta elevada procura de recursos deve ser tida em conta no planeamento da utilização do modelo, em especial para operações contínuas.</p>
<h3>6. Como é que o Falcon LLM contribui para a investigação e o desenvolvimento da IA?</h3>
<p>A estrutura de código aberto do Falcon LLM contribui significativamente para a investigação e o desenvolvimento da IA, fornecendo uma plataforma para a colaboração e a inovação a nível mundial. Os investigadores e os programadores podem contribuir para o modelo e aperfeiçoá-lo, conduzindo a rápidos avanços na IA. Esta abordagem colaborativa garante que o Falcon LLM se mantém na vanguarda da tecnologia de IA, adaptando-se à evolução das necessidades e dos desafios.</p>
<h3>7. Quem ganhará entre o Falcon LLM e o LLaMA?</h3>
<p>Nesta comparação, o Falcon surge como o modelo mais vantajoso. O tamanho mais pequeno do Falcon torna-o menos intensivo em termos de computação para treinar e utilizar, uma consideração importante para quem procura soluções de IA eficientes. Destaca-se em tarefas como a geração de texto, a tradução de línguas e uma vasta gama de criação de conteúdos criativos, demonstrando um elevado grau de versatilidade e proficiência. Além disso, a capacidade do Falcon para ajudar em tarefas de codificação aumenta ainda mais a sua utilidade em várias aplicações tecnológicas.</p>
<blockquote class="twitter-tweet">
<p dir="ltr" lang="en">Lembra-se do LLaMA-2?</p>
<p>Foi o melhor LLM de fonte aberta do último mês.</p>
<p>NÃO MAIS!</p>
<p>Bem-vindo Falcon-180B!</p>
<p>Fiz uma comparação</p>
<p>GPT-4 vs. Falcon-180B</p>
<p>Os resultados são inesperados!</p>
<p>(Marcar como favorito para referência futura)</p>
<p>➤ O Falcon soa menos robótico</p>
<p>O estilo de escrita predefinido do ChatGPT&#8230; <a href="https://t.co/OqdcIvEBMe">pic.twitter.com/OqdcIvEBMe</a></p>
<p>&#8211; Luke Skyward (@Olearningcurve) <a href="https://twitter.com/Olearningcurve/status/1700034041368498196?ref_src=twsrc%5Etfw">8 de setembro de 2023</a></p></blockquote>
<p><script async="" src="https://platform.twitter.com/widgets.js" charset="utf-8"></script><br />
Por outro lado, o LLaMA, embora seja um modelo formidável por si só, enfrenta certas limitações nesta comparação. A sua maior dimensão traduz-se num maior custo computacional, tanto na formação como na utilização, o que pode ser um fator significativo para os utilizadores com recursos limitados. Em termos de desempenho, o LLaMA não consegue igualar a eficiência do Falcon na geração de texto, tradução de línguas e criação de diversos tipos de conteúdo criativo. Além disso, as suas capacidades não se estendem a tarefas de codificação, o que restringe a sua aplicabilidade em cenários em que é necessária assistência relacionada com a programação.</p>
<p>Embora tanto o Falcon como o LLaMA sejam impressionantes nos seus respectivos domínios, o design mais pequeno e mais eficiente do Falcon, juntamente com a sua gama mais vasta de capacidades, incluindo a codificação, confere-lhe uma vantagem nesta comparação.</p>
<p>The post <a href="https://meetcody.ai/pt-br/blog/falcon-180b-e-40b-casos-de-utilizacao-desempenho-e-diferenca/">Falcon 180B e 40B: Casos de utilização, desempenho e diferença</a> appeared first on <a href="https://meetcody.ai/pt-br/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
