{"id":32514,"date":"2023-11-17T21:13:29","date_gmt":"2023-11-17T21:13:29","guid":{"rendered":"https:\/\/meetcody.ai\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/"},"modified":"2023-11-17T21:13:29","modified_gmt":"2023-11-17T21:13:29","slug":"falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede","status":"publish","type":"post","link":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/","title":{"rendered":"Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede"},"content":{"rendered":"<p><span data-preserver-spaces=\"true\">Falcon LLM zeichnet sich nicht nur durch seine technischen F\u00e4higkeiten aus, sondern auch durch seinen Open-Source-Charakter, der fortschrittliche KI-Funktionen einem breiteren Publikum zug\u00e4nglich macht.  <\/span><span data-preserver-spaces=\"true\">Sie bietet eine Reihe von Modellen an, darunter den Falcon 180B, 40B, 7.5B und 1.3B. Jedes Modell ist auf unterschiedliche Berechnungsm\u00f6glichkeiten und Anwendungsf\u00e4lle zugeschnitten.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Das Modell 180B zum Beispiel ist das gr\u00f6\u00dfte und leistungsst\u00e4rkste und eignet sich f\u00fcr komplexe Aufgaben, w\u00e4hrend das Modell 1.3B eine einfachere Option f\u00fcr weniger anspruchsvolle Anwendungen darstellt.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Der Open-Source-Charakter von Falcon LLM, insbesondere seiner <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-7b\">7B-<\/a> und 40B-Modelle, baut Barrieren f\u00fcr den Zugang zur KI-Technologie ab. Dieser Ansatz f\u00f6rdert ein inklusiveres KI-\u00d6kosystem, in dem Einzelpersonen und Organisationen diese Modelle in ihren eigenen Umgebungen einsetzen k\u00f6nnen, um Innovation und Vielfalt bei KI-Anwendungen zu f\u00f6rdern.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Heiliger Falke! \ud83e\udd2f<\/p>\n<p>Ein 7B Falcon LLM l\u00e4uft auf einem M1 Mac mit CoreML mit 4+ Token\/Sek. Das war&#8217;s.  <a href=\"https:\/\/t.co\/9lmigrQIiY\">pic.twitter.com\/9lmigrQIiY<\/a><\/p>\n<p>&#8211; Itamar Golan \ud83e\udd13 (@ItakGol) <a href=\"https:\/\/twitter.com\/ItakGol\/status\/1665063564711800832?ref_src=twsrc%5Etfw\">June 3, 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2><span data-preserver-spaces=\"true\">Was ist der Falcon 40B?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Falcon 40B ist Teil der Falcon Large Language Model (LLM)-Suite, die speziell entwickelt wurde, um die L\u00fccke zwischen hoher Recheneffizienz und fortschrittlichen KI-Funktionen zu schlie\u00dfen. Es handelt sich um ein generatives KI-Modell mit 40 Milliarden Parametern, das ein ausgewogenes Verh\u00e4ltnis zwischen Leistung und Ressourcenbedarf bietet.  <\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Wir stellen vor: Falcon-40B! \ud83d\ude80<\/p>\n<p>Der Falcon-40B steht an der Spitze der Open-LLM-Rangliste und hat LLaMA, SableLM, MPT usw. \u00fcbertroffen.<\/p>\n<p>Es ist im HuggingFace-\u00d6kosystem verf\u00fcgbar und super einfach zu benutzen! \ud83d\ude80<\/p>\n<p>Sieh dir das an \ud83d\udc47 <a href=\"https:\/\/t.co\/YyXpXvNKKC\">pic.twitter.com\/YyXpXvNKKC<\/a><\/p>\n<p>&#8211; Akshay \ud83d\ude80 (@akshay_pachaar) <a href=\"https:\/\/twitter.com\/akshay_pachaar\/status\/1662798406161682432?ref_src=twsrc%5Etfw\">May 28, 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2><span data-preserver-spaces=\"true\">Was kann der Falcon LLM 40B leisten?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Falcon 40B ist in der Lage, ein breites Spektrum an Aufgaben zu bew\u00e4ltigen, darunter die Erstellung kreativer Inhalte, die L\u00f6sung komplexer Probleme, Kundendiensteins\u00e4tze, virtuelle Unterst\u00fctzung, Sprach\u00fcbersetzung und Stimmungsanalyse.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Dieses Modell zeichnet sich besonders durch seine F\u00e4higkeit aus, sich wiederholende Aufgaben zu automatisieren und die Effizienz in verschiedenen Branchen zu steigern. Da der <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-40b\">Falcon 40B<\/a> als Open-Source-Software zur Verf\u00fcgung steht, bietet er einen erheblichen Vorteil in Bezug auf Zug\u00e4nglichkeit und Innovation, da er f\u00fcr kommerzielle Zwecke frei verwendet und ver\u00e4ndert werden kann.<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"The BEST Open Source LLM? (Falcon 40B)\" width=\"1200\" height=\"675\" src=\"https:\/\/www.youtube.com\/embed\/-IV1NTGy6Mg?start=1&#038;feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" allowfullscreen><\/iframe><\/p>\n<h2><span data-preserver-spaces=\"true\">Wie wurde der Falcon 40B entwickelt und geschult?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Bei der Entwicklung von Falcon 40 B, die auf dem riesigen <a href=\"https:\/\/huggingface.co\/datasets\/tiiuae\/falcon-refinedweb\">REFINEDWEB-Datensatz<\/a> mit 1 Billionen Token trainiert wurde, kamen GPUs und anspruchsvolle Datenverarbeitung zum Einsatz. Falcon 40B durchlief seinen Trainingsprozess auf AWS SageMaker unter Verwendung von 384 A100 40GB GPUs. Dabei wurde ein 3D-Parallelit\u00e4tsansatz verwendet, der Tensor-Parallelit\u00e4t (TP=8), Pipeline-Parallelit\u00e4t (PP=4) und Daten-Parallelit\u00e4t (DP=12) mit ZeRO kombinierte. Diese Ausbildungsphase begann im Dezember 2022 und dauerte zwei Monate.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Dieses Training hat das Modell mit einem au\u00dfergew\u00f6hnlichen Verst\u00e4ndnis von Sprache und Kontext ausgestattet und damit einen neuen Standard im Bereich der Verarbeitung nat\u00fcrlicher Sprache gesetzt.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Das architektonische Design von Falcon 40B basiert auf dem Rahmen von GPT -3, enth\u00e4lt jedoch erhebliche \u00c4nderungen, um seine Leistung zu steigern. Dieses Modell nutzt rotierende Positionseinbettungen, um den Sequenzkontext besser zu erfassen.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Seine Aufmerksamkeitsmechanismen werden durch Multi-Abfrage-Attention und FlashAttention erg\u00e4nzt, um die Verarbeitung zu verbessern. Im Decoder-Block integriert Falcon 40B parallele Aufmerksamkeits- und Multi-Layer-Perceptron (MLP)-Konfigurationen und verwendet einen zweischichtigen Normalisierungsansatz, um ein Gleichgewicht zwischen Recheneffizienz und Effektivit\u00e4t zu gew\u00e4hrleisten.<\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Was ist ein Falcon 180B?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Der Falcon 180B stellt mit seinen beeindruckenden 180 Milliarden Parametern die Spitze der Falcon LLM-Suite dar. Dieses kausale Decoder-Modell wurde auf 3,5 Billionen Token von RefinedWeb trainiert, was es zu einem der fortschrittlichsten verf\u00fcgbaren Open-Source-LLMs macht. Es wurde gebaut von  <\/span><a class=\"editor-rtfLink\" href=\"https:\/\/www.tii.ae\/\" target=\"_blank\" rel=\"noopener\"><br \/>\n  <span data-preserver-spaces=\"true\">TII<\/span><br \/>\n<\/a><span data-preserver-spaces=\"true\">.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Es zeichnet sich durch ein breites Spektrum an Aufgaben zur Verarbeitung nat\u00fcrlicher Sprache aus und bietet beispiellose F\u00e4higkeiten in den Bereichen Argumentation, Codierung, Kompetenz und Wissenstests.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Seine Ausbildung auf dem umfangreichen RefinedWeb-Datensatz, der eine Vielzahl von Datenquellen wie Forschungsarbeiten, Gesetzestexte, Nachrichten, Literatur und Konversationen in den sozialen Medien umfasst, gew\u00e4hrleistet seine Kompetenz in verschiedenen Anwendungen.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Die Ver\u00f6ffentlichung von Falcon 180 B ist ein bedeutender Meilenstein in der KI-Entwicklung und zeigt eine bemerkenswerte Leistung im Multitasking-Sprachverst\u00e4ndnis und in Benchmark-Tests, die mit anderen f\u00fchrenden propriet\u00e4ren Modellen konkurriert und diese sogar \u00fcbertrifft.<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Introducing Falcon 180B: The World&#039;s Most Powerful Open LLM!\" width=\"1200\" height=\"675\" src=\"https:\/\/www.youtube.com\/embed\/9MArp9H2YCM?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" allowfullscreen><\/iframe><\/p>\n<h2><span data-preserver-spaces=\"true\">Wie funktioniert der Falcon 180B?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Das Modell Falcon 180B ist eine Weiterentwicklung des Modells Falcon 40B von TII und funktioniert als autoregressives Sprachmodell mit einer optimierten Transformatorarchitektur.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Dieses Modell wurde auf 3,5 Billionen Daten-Token trainiert und umfasst Webdaten von RefinedWeb und Amazon SageMaker.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Falcon 180B integriert ein benutzerdefiniertes verteiltes Trainingsframework namens Gigatron, das 3D-Parallelit\u00e4t mit ZeRO-Optimierung und benutzerdefinierten Trion-Kerneln nutzt. Die Entwicklung dieser Technologie war ressourcenintensiv und erforderte bis zu 4096 GPUs mit insgesamt 7 Millionen GPU-Stunden. Durch diese umfangreiche Ausbildung ist der Falcon 180B etwa 2,5 Mal gr\u00f6\u00dfer als seine Gegenst\u00fccke wie Llama 2.<\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Der Falcon 180B ist in zwei verschiedenen Versionen erh\u00e4ltlich: das Standardmodell 180B und der 180B-Chat. Bei ersterem handelt es sich um ein vortrainiertes Modell, das den Unternehmen die Flexibilit\u00e4t bietet, es f\u00fcr bestimmte Anwendungen fein abzustimmen. Letzteres, <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-180b-chat\">180B-Chat<\/a>, ist f\u00fcr allgemeine Anweisungen optimiert und wurde anhand von Lehr- und Gespr\u00e4chsdatens\u00e4tzen feinabgestimmt, so dass es sich f\u00fcr Aufgaben im Assistenzstil eignet.<\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Wie ist die Leistung des Falcon 180B?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">In Bezug auf die Leistung hat der Falcon 180B die Position der VAE in der KI-Branche gefestigt, indem er erstklassige Ergebnisse liefert und viele bestehende L\u00f6sungen \u00fcbertrifft.  <\/span><\/p>\n<p><span data-preserver-spaces=\"true\">Es hat auf der Hugging Face-Rangliste hohe Punktzahlen erreicht und konkurriert eng mit propriet\u00e4ren Modellen wie dem PaLM-2 von Google. Trotz des leichten R\u00fcckstands gegen\u00fcber GPT-4 erm\u00f6glicht das umfangreiche Training von Falcon 180 B auf einem riesigen Textkorpus ein au\u00dfergew\u00f6hnliches Sprachverst\u00e4ndnis und die Beherrschung verschiedener Sprachaufgaben, was das Training von Gen-AI-Bots m\u00f6glicherweise revolutionieren wird.<\/span><br \/>\n<span data-preserver-spaces=\"true\">Falcon 180B zeichnet sich durch seine offene Architektur aus, die den Zugang zu einem Modell mit einem umfangreichen Parametersatz erm\u00f6glicht und damit die Forschung und Erforschung der Sprachverarbeitung unterst\u00fctzt. Diese F\u00e4higkeit er\u00f6ffnet zahlreiche M\u00f6glichkeiten in Bereichen wie dem Gesundheits-, Finanz- und Bildungswesen.<\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Wie erreiche ich den Falcon 180B?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Der Zugang zu Falcon 180B ist \u00fcber <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-180b\">HuggingFace<\/a> und die TII-Website m\u00f6glich, einschlie\u00dflich der experimentellen Vorschau der Chat-Version. AWS bietet auch Zugang \u00fcber den <a href=\"https:\/\/docs.aws.amazon.com\/sagemaker\/latest\/dg\/studio-jumpstart.html\">Amazon SageMaker JumpStart-Service<\/a>, der die Bereitstellung des Modells f\u00fcr Gesch\u00e4ftsanwender vereinfacht.  <\/span><\/p>\n<h2><span data-preserver-spaces=\"true\">Falcon 40B vs. 180B: Was ist der Unterschied?<\/span><\/h2>\n<p><span data-preserver-spaces=\"true\">Die vortrainierten und <a href=\"https:\/\/huggingface.co\/tiiuae\/falcon-40b-instruct\">instruierten Falcon-40B-Modelle<\/a> sind unter der Apache 2.0-Softwarelizenz verf\u00fcgbar, w\u00e4hrend die vortrainierten und Chat-Modelle von Falcon-180B unter der TII-Lizenz verf\u00fcgbar sind. Hier sind 4 weitere wichtige Unterschiede zwischen Falcon 40B und 180B:<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">1. Gr\u00f6\u00dfe und Komplexit\u00e4t des Modells<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">Falcon 40B hat 40 Milliarden Parameter und ist damit ein leistungsf\u00e4higes, aber dennoch \u00fcberschaubares Modell, was die Rechenleistung angeht.  <\/span><span data-preserver-spaces=\"true\">Der Falcon 180B hingegen ist ein viel gr\u00f6\u00dferes Modell mit 180 Milliarden Parametern, das mehr M\u00f6glichkeiten und Komplexit\u00e4t bietet.<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">2. Schulung und Datenverwendung<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">Falcon 40B ist auf 1 Billion Token trainiert und verf\u00fcgt damit \u00fcber ein umfassendes Verst\u00e4ndnis von Sprache und Kontext.  <\/span><span data-preserver-spaces=\"true\">Falcon 180B \u00fcbertrifft dies mit einem Training auf 3,5 Billionen Token, was zu einem nuancierteren und ausgefeilteren Sprachmodell f\u00fchrt.<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">3. Anwendungen und Anwendungsf\u00e4lle<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">Der Falcon 40B eignet sich f\u00fcr eine breite Palette von Allzweckanwendungen, wie z. B. die Erstellung von Inhalten, Kundendienst und Sprach\u00fcbersetzung.  <\/span><span data-preserver-spaces=\"true\">Der Falcon 180B ist besser in der Lage, komplexe Aufgaben zu bew\u00e4ltigen, die ein tieferes Denken und Verst\u00e4ndnis erfordern, und eignet sich daher ideal f\u00fcr fortgeschrittene Forschungs- und Entwicklungsprojekte.<\/span><\/p>\n<h3><span data-preserver-spaces=\"true\">4. Ressourcenanforderungen<\/span><\/h3>\n<p><span data-preserver-spaces=\"true\">Falcon 40B ben\u00f6tigt weniger Rechenleistung, so dass es f\u00fcr eine gr\u00f6\u00dfere Anzahl von Benutzern und Systemen zug\u00e4nglich ist.  <\/span><span data-preserver-spaces=\"true\">Der Falcon 180B erfordert aufgrund seiner Gr\u00f6\u00dfe und Komplexit\u00e4t deutlich mehr Rechenressourcen und ist auf High-End-Anwendungen und Forschungsumgebungen ausgerichtet.<\/span><\/p>\n<p><em><strong>Lesen Sie mehr: <a href=\"https:\/\/meetcody.ai\/blog\/falcon-llm-180b-40b-open-source-ai\/\">Die kommerzielle Nutzbarkeit, die Open-Source-Technologie und die Zukunft von Falcon LLM<\/a><\/strong><\/em><\/p>\n<h2>F-FAQ (H\u00e4ufig gestellte Fragen von Falcon)<\/h2>\n<h3>1. Wodurch unterscheidet sich Falcon LLM von anderen gro\u00dfen Sprachmodellen?<\/h3>\n<p>Falcon LLM, insbesondere die Modelle Falcon 180B und 40B, zeichnen sich durch ihren Open-Source-Charakter und ihre beeindruckende Gr\u00f6\u00dfe aus. Falcon 180B ist mit 180 Milliarden Parametern eines der gr\u00f6\u00dften verf\u00fcgbaren Open-Source-Modelle, das auf 3,5 Billionen Token trainiert wurde. Diese umfassende Ausbildung erm\u00f6glicht ein au\u00dfergew\u00f6hnliches Sprachverst\u00e4ndnis und eine gro\u00dfe Vielseitigkeit bei den Anwendungen. Dar\u00fcber hinaus steigert Falcon LLM durch den Einsatz innovativer Technologien wie Multi-Query-Attention und benutzerdefinierte Trion-Kernel in seiner Architektur seine Effizienz und Effektivit\u00e4t.<\/p>\n<h3>2. Wie funktioniert der Aufmerksamkeitsmechanismus von Falcon 40B mit mehreren Abfragen?<\/h3>\n<p>Falcon 40B verwendet einen einzigartigen Multi-Query-Attention-Mechanismus, bei dem ein einziges Schl\u00fcssel- und Wertepaar f\u00fcr alle Aufmerksamkeitsk\u00f6pfe verwendet wird, was sich von herk\u00f6mmlichen Multi-Head-Attention-Schemata unterscheidet. Dieser Ansatz verbessert die Skalierbarkeit des Modells w\u00e4hrend der Inferenz, ohne den Pretrainingsprozess wesentlich zu beeintr\u00e4chtigen, und steigert die Gesamtleistung und Effizienz des Modells.<\/p>\n<h3>3. Was sind die Haupteinsatzgebiete von Falcon 40B und 180B?<\/h3>\n<p>Der Falcon 40B ist vielseitig einsetzbar und eignet sich f\u00fcr verschiedene Aufgaben, wie z. B. die Erstellung von Inhalten, Kundendienst und Sprach\u00fcbersetzungen. Falcon 180B ist fortgeschrittener und zeichnet sich durch komplexe Aufgaben aus, die tiefes logisches Denken erfordern, z. B. fortgeschrittene Recherchen, Codierung, Leistungsbewertungen und Wissenstests. Sein umfangreiches Training auf verschiedenen Datens\u00e4tzen macht es auch zu einem leistungsstarken Werkzeug f\u00fcr das Training von Gen-AI-Bots.<\/p>\n<h3>4. Kann Falcon LLM f\u00fcr bestimmte Anwendungsf\u00e4lle angepasst werden?<\/h3>\n<p>Ja, einer der Hauptvorteile von Falcon LLM ist sein Open-Source-Charakter, der es den Nutzern erm\u00f6glicht, die Modelle f\u00fcr spezifische Anwendungen anzupassen und zu verfeinern. Das Modell Falcon 180B zum Beispiel gibt es in zwei Versionen: ein standardm\u00e4\u00dfiges, vortrainiertes Modell und eine f\u00fcr den Chat optimierte Version, die jeweils unterschiedliche Anforderungen erf\u00fcllen. Dank dieser Flexibilit\u00e4t k\u00f6nnen Organisationen das Modell an ihre individuellen Bed\u00fcrfnisse anpassen.<\/p>\n<h3>5. Was sind die rechnerischen Anforderungen f\u00fcr die Ausf\u00fchrung von Falcon LLM-Modellen?<\/h3>\n<p>Die Ausf\u00fchrung von Falcon LLM-Modellen, insbesondere der gr\u00f6\u00dferen Varianten wie Falcon 180B, erfordert erhebliche Rechenressourcen. So ben\u00f6tigt Falcon 180B etwa 640 GB Speicher f\u00fcr die Inferenz, und aufgrund seiner Gr\u00f6\u00dfe ist es schwierig, es auf Standard-Computersystemen auszuf\u00fchren. Dieser hohe Ressourcenbedarf sollte bei der Planung des Einsatzes des Modells, insbesondere bei Dauerbetrieb, ber\u00fccksichtigt werden.<\/p>\n<h3>6. Wie tr\u00e4gt Falcon LLM zur KI-Forschung und -Entwicklung bei?<\/h3>\n<p>Das Open-Source-Framework von Falcon LLM leistet einen wichtigen Beitrag zur KI-Forschung und -Entwicklung, indem es eine Plattform f\u00fcr globale Zusammenarbeit und Innovation bietet. Forscher und Entwickler k\u00f6nnen zu dem Modell beitragen und es verfeinern, was zu schnellen Fortschritten in der KI f\u00fchrt. Dieser kooperative Ansatz gew\u00e4hrleistet, dass Falcon LLM an der Spitze der KI-Technologie bleibt und sich an die sich entwickelnden Bed\u00fcrfnisse und Herausforderungen anpasst.<\/p>\n<h3>7. Wer wird zwischen Falcon LLM und LLaMA gewinnen?<\/h3>\n<p>Bei diesem Vergleich erweist sich Falcon als das vorteilhaftere Modell. Aufgrund seiner geringen Gr\u00f6\u00dfe ist Falcon weniger rechenintensiv beim Training und bei der Nutzung, ein wichtiger Aspekt f\u00fcr alle, die effiziente KI-L\u00f6sungen suchen. Es zeichnet sich durch ein hohes Ma\u00df an Vielseitigkeit und Kompetenz bei Aufgaben wie Texterstellung, Sprach\u00fcbersetzung und einer breiten Palette kreativer Inhaltserstellung aus. Die F\u00e4higkeit von Falcon, bei Codierungsaufgaben zu helfen, erweitert seinen Nutzen in verschiedenen technologischen Anwendungen.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Erinnern Sie sich an LLaMA-2?<\/p>\n<p>Es war der beste Open-Source-LLM des letzten Monats.<\/p>\n<p>NICHT MEHR!<\/p>\n<p>Willkommen Falcon-180B!<\/p>\n<p>Ich habe einen Vergleich durchgef\u00fchrt<\/p>\n<p>GPT-4 vs. Falcon-180B<\/p>\n<p>Die Ergebnisse sind unerwartet!<\/p>\n<p>(Lesezeichen f\u00fcr sp\u00e4tere Verwendung)<\/p>\n<p>\u27a4 Falcon klingt weniger roboterhaft<\/p>\n<p>ChatGPTs Standard-Schreibstil&#8230; <a href=\"https:\/\/t.co\/OqdcIvEBMe\">pic.twitter.com\/OqdcIvEBMe<\/a><\/p>\n<p>&#8211; Luke Skyward (@Olearningcurve) <a href=\"https:\/\/twitter.com\/Olearningcurve\/status\/1700034041368498196?ref_src=twsrc%5Etfw\">September 8, 2023<\/a><\/p><\/blockquote>\n<p><script async=\"\" src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\nAndererseits st\u00f6\u00dft das LLaMA, obwohl es ein hervorragendes Modell ist, bei diesem Vergleich an gewisse Grenzen. Sein gr\u00f6\u00dferer Umfang f\u00fchrt zu einem h\u00f6heren Rechenaufwand sowohl beim Training als auch bei der Nutzung, was f\u00fcr Nutzer mit begrenzten Ressourcen ein wichtiger Faktor sein kann. Was die Leistung angeht, kann LLaMA nicht ganz mit der Effizienz von Falcon bei der Texterstellung, der \u00dcbersetzung von Sprachen und der Erstellung verschiedener Arten von kreativen Inhalten mithalten. Dar\u00fcber hinaus erstrecken sich seine F\u00e4higkeiten nicht auf Codierungsaufgaben, was seine Anwendbarkeit in Szenarien einschr\u00e4nkt, in denen programmierungsbezogene Unterst\u00fctzung erforderlich ist.<\/p>\n<p>Obwohl sowohl Falcon als auch LLaMA in ihren jeweiligen Bereichen beeindruckend sind, hat Falcon durch sein kleineres, effizienteres Design und sein breiteres Spektrum an F\u00e4higkeiten, einschlie\u00dflich der Codierung, einen Vorteil in diesem Vergleich.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Falcon LLM zeichnet sich nicht nur durch seine technischen F\u00e4higkeiten aus, sondern auch durch seinen Open-Source-Charakter, der fortschrittliche KI-Funktionen einem breiteren Publikum zug\u00e4nglich macht. Sie bietet eine Reihe von Modellen an, darunter den Falcon 180B, 40B, 7.5B und 1.3B. Jedes Modell ist auf unterschiedliche Berechnungsm\u00f6glichkeiten und Anwendungsf\u00e4lle zugeschnitten. Das Modell 180B zum Beispiel ist das<a class=\"excerpt-read-more\" href=\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/\" title=\"ReadFalcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede\">&#8230; Read more &raquo;<\/a><\/p>\n","protected":false},"author":1,"featured_media":32504,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[197,80],"tags":[556,557,534,536,535],"class_list":["post-32514","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-tools-de","category-kunstliche-intelligenz","tag-falke-180b","tag-falke-40b","tag-falke-ki","tag-groses-sprachmodell","tag-llm-de"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v21.8 (Yoast SEO v24.2) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede<\/title>\n<meta name=\"description\" content=\"Entdecken Sie die M\u00f6glichkeiten und Anwendungen von Falcon 180B und Falcon 40B. Lesen Sie mehr \u00fcber ihre Leistung, Anwendungsf\u00e4lle und Funktionsunterschiede.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede\" \/>\n<meta property=\"og:description\" content=\"Entdecken Sie die M\u00f6glichkeiten und Anwendungen von Falcon 180B und Falcon 40B. Lesen Sie mehr \u00fcber ihre Leistung, Anwendungsf\u00e4lle und Funktionsunterschiede.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/\" \/>\n<meta property=\"og:site_name\" content=\"Cody - The AI Trained on Your Business\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-17T21:13:29+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1156\" \/>\n\t<meta property=\"og:image:height\" content=\"648\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Oriol Zertuche\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@oriol003\" \/>\n<meta name=\"twitter:site\" content=\"@meetcodyai\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Oriol Zertuche\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"10 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/\"},\"author\":{\"name\":\"Oriol Zertuche\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749\"},\"headline\":\"Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede\",\"datePublished\":\"2023-11-17T21:13:29+00:00\",\"dateModified\":\"2023-11-17T21:13:29+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/\"},\"wordCount\":2057,\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"keywords\":[\"Falke 180b\",\"Falke 40b\",\"Falke KI\",\"Gro\u00dfes Sprachmodell\",\"llm\"],\"articleSection\":[\"AI-Tools\",\"K\u00fcnstliche Intelligenz\"],\"inLanguage\":\"de-DE\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/\",\"url\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/\",\"name\":\"Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"datePublished\":\"2023-11-17T21:13:29+00:00\",\"dateModified\":\"2023-11-17T21:13:29+00:00\",\"description\":\"Entdecken Sie die M\u00f6glichkeiten und Anwendungen von Falcon 180B und Falcon 40B. Lesen Sie mehr \u00fcber ihre Leistung, Anwendungsf\u00e4lle und Funktionsunterschiede.\",\"breadcrumb\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#primaryimage\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png\",\"width\":1156,\"height\":648,\"caption\":\"capabilities and applications of Falcon 180B and Falcon 40B\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/meetcody.ai\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/meetcody.ai\/#website\",\"url\":\"https:\/\/meetcody.ai\/\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"description\":\"AI Powered Knowledge Base for Employees\",\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/meetcody.ai\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/meetcody.ai\/#organization\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"url\":\"https:\/\/meetcody.ai\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"width\":\"1024\",\"height\":\"1024\",\"caption\":\"Cody AI - The AI Trained on Your Business\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/x.com\/meetcodyai\",\"https:\/\/discord.com\/invite\/jXEVDcFxqs\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749\",\"name\":\"Oriol Zertuche\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g\",\"caption\":\"Oriol Zertuche\"},\"description\":\"Oriol Zertuche is the CEO of CODESM and Cody AI. As an engineering student from the University of Texas-Pan American, Oriol leveraged his expertise in technology and web development to establish renowned marketing firm CODESM. He later developed Cody AI, a smart AI assistant trained to support businesses and their team members. Oriol believes in delivering practical business solutions through innovative technology.\",\"sameAs\":[\"https:\/\/meetcody.ai\",\"https:\/\/www.linkedin.com\/in\/oriolzertuche\/\",\"https:\/\/x.com\/oriol003\"],\"url\":\"https:\/\/meetcody.ai\/de\/blog\/author\/alien\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede","description":"Entdecken Sie die M\u00f6glichkeiten und Anwendungen von Falcon 180B und Falcon 40B. Lesen Sie mehr \u00fcber ihre Leistung, Anwendungsf\u00e4lle und Funktionsunterschiede.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/","og_locale":"de_DE","og_type":"article","og_title":"Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede","og_description":"Entdecken Sie die M\u00f6glichkeiten und Anwendungen von Falcon 180B und Falcon 40B. Lesen Sie mehr \u00fcber ihre Leistung, Anwendungsf\u00e4lle und Funktionsunterschiede.","og_url":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/","og_site_name":"Cody - The AI Trained on Your Business","article_published_time":"2023-11-17T21:13:29+00:00","og_image":[{"width":1156,"height":648,"url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","type":"image\/png"}],"author":"Oriol Zertuche","twitter_card":"summary_large_image","twitter_creator":"@oriol003","twitter_site":"@meetcodyai","twitter_misc":{"Written by":"Oriol Zertuche","Est. reading time":"10 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#article","isPartOf":{"@id":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/"},"author":{"name":"Oriol Zertuche","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749"},"headline":"Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede","datePublished":"2023-11-17T21:13:29+00:00","dateModified":"2023-11-17T21:13:29+00:00","mainEntityOfPage":{"@id":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/"},"wordCount":2057,"publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"image":{"@id":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","keywords":["Falke 180b","Falke 40b","Falke KI","Gro\u00dfes Sprachmodell","llm"],"articleSection":["AI-Tools","K\u00fcnstliche Intelligenz"],"inLanguage":"de-DE"},{"@type":"WebPage","@id":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/","url":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/","name":"Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede","isPartOf":{"@id":"https:\/\/meetcody.ai\/#website"},"primaryImageOfPage":{"@id":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#primaryimage"},"image":{"@id":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","datePublished":"2023-11-17T21:13:29+00:00","dateModified":"2023-11-17T21:13:29+00:00","description":"Entdecken Sie die M\u00f6glichkeiten und Anwendungen von Falcon 180B und Falcon 40B. Lesen Sie mehr \u00fcber ihre Leistung, Anwendungsf\u00e4lle und Funktionsunterschiede.","breadcrumb":{"@id":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/"]}]},{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#primaryimage","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/11\/falcon-llm-180b-40b-ai-open-source.png","width":1156,"height":648,"caption":"capabilities and applications of Falcon 180B and Falcon 40B"},{"@type":"BreadcrumbList","@id":"https:\/\/meetcody.ai\/de\/blog\/falcon-180b-und-40b-anwendungsfaelle-leistung-und-unterschiede\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/meetcody.ai\/de\/"},{"@type":"ListItem","position":2,"name":"Falcon 180B und 40B: Anwendungsf\u00e4lle, Leistung und Unterschiede"}]},{"@type":"WebSite","@id":"https:\/\/meetcody.ai\/#website","url":"https:\/\/meetcody.ai\/","name":"Cody AI - The AI Trained on Your Business","description":"AI Powered Knowledge Base for Employees","publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/meetcody.ai\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de-DE"},{"@type":"Organization","@id":"https:\/\/meetcody.ai\/#organization","name":"Cody AI - The AI Trained on Your Business","url":"https:\/\/meetcody.ai\/","logo":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","width":"1024","height":"1024","caption":"Cody AI - The AI Trained on Your Business"},"image":{"@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/meetcodyai","https:\/\/discord.com\/invite\/jXEVDcFxqs"]},{"@type":"Person","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/b3486c07f03571f834cfb7646dba8749","name":"Oriol Zertuche","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/b54b9af69d5e8feacb5a92bf0d4be8c751d589ef418e21e6f69f48e4283b8525?s=96&d=mm&r=g","caption":"Oriol Zertuche"},"description":"Oriol Zertuche is the CEO of CODESM and Cody AI. As an engineering student from the University of Texas-Pan American, Oriol leveraged his expertise in technology and web development to establish renowned marketing firm CODESM. He later developed Cody AI, a smart AI assistant trained to support businesses and their team members. Oriol believes in delivering practical business solutions through innovative technology.","sameAs":["https:\/\/meetcody.ai","https:\/\/www.linkedin.com\/in\/oriolzertuche\/","https:\/\/x.com\/oriol003"],"url":"https:\/\/meetcody.ai\/de\/blog\/author\/alien\/"}]}},"_links":{"self":[{"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/posts\/32514","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/comments?post=32514"}],"version-history":[{"count":0,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/posts\/32514\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/media\/32504"}],"wp:attachment":[{"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/media?parent=32514"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/categories?post=32514"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/tags?post=32514"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}