{"id":36853,"date":"2024-05-06T10:46:47","date_gmt":"2024-05-06T10:46:47","guid":{"rendered":"https:\/\/meetcody.ai\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/"},"modified":"2024-05-06T10:46:47","modified_gmt":"2024-05-06T10:46:47","slug":"groq-und-llama-3-ein-spielveraenderndes-duo","status":"publish","type":"post","link":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/","title":{"rendered":"Groq und Llama 3: Ein spielver\u00e4nderndes Duo"},"content":{"rendered":"<p>Vor ein paar Monaten tauchte wie aus dem Nichts ein neues Unternehmen namens &#8216;Groq&#8217; auf, das einen Durchbruch in der KI-Branche erzielte. Sie boten Entwicklern eine Plattform f\u00fcr den Zugriff auf LPUs als Inferencing-Engines f\u00fcr LLMs, insbesondere f\u00fcr Open-Source-L\u00f6sungen wie Llama, Mixtral und Gemma. In diesem Blog wollen wir erkunden, was Groq so besonders macht und das Wunder hinter LPUs ergr\u00fcnden.<!-- notionvc: 51dc374d-1c8f-48cf-b396-5f5ff8ccfa55 --><\/p>\n<h2>Was ist Groq?<!-- notionvc: d3abfa35-087c-405b-a83b-8c7c2044fbf8 --><\/h2>\n<blockquote><p>&#8220;Groq hat es sich zur Aufgabe gemacht, den Standard f\u00fcr die Geschwindigkeit von GenAI-Inferenzen zu setzen und so KI-Anwendungen in Echtzeit zum Leben zu erwecken.&#8221; &#8211; Die Groq Website<\/p><\/blockquote>\n<p>Groq ist kein Unternehmen, das LLMs wie GPT oder Gemini entwickelt. Stattdessen konzentriert sich Groq darauf, die Grundlagen dieser gro\u00dfen Sprachmodelle zu verbessern &#8211; die Hardware, auf der sie arbeiten. Sie dient als &#8216;Inferenzmaschine&#8217;. Derzeit nutzen die meisten LLMs auf dem Markt herk\u00f6mmliche GPUs, die auf privaten Servern oder in der Cloud eingesetzt werden. Diese Grafikprozessoren sind zwar teuer und leistungsstark und stammen von Unternehmen wie Nvidia, aber sie basieren immer noch auf der traditionellen GPU-Architektur, die f\u00fcr LLM-Inferencing nicht optimal geeignet ist (obwohl sie nach wie vor leistungsstark und f\u00fcr das Training von Modellen bevorzugt sind).<\/p>\n<p>Die von Groq bereitgestellte Inferenzmaschine arbeitet mit LPUs &#8211; Language Processing Units.<\/p>\n<h2>Was ist eine LPU?<!-- notionvc: f13e6427-f991-41ca-8905-81b1ec9a3b04 --><\/h2>\n<p>Eine Language Processing Unit ist ein Chip, der speziell f\u00fcr LLMs entwickelt wurde. Er basiert auf einer einzigartigen Architektur, die CPUs und GPUs kombiniert, um Tempo, Vorhersagbarkeit, Leistung und Genauigkeit von KI-L\u00f6sungen f\u00fcr LLMs zu verbessern.<!-- notionvc: 45bfbb9c-78ae-4bd2-96d6-29191561cdd5 --><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-36787 size-full\" src=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img1.png\" alt=\"LPUs Sprachverarbeitungseinheit von Groq\" width=\"2090\" height=\"1068\" srcset=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img1.png 2090w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img1-300x153.png 300w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img1-1024x523.png 1024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img1-768x392.png 768w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img1-1536x785.png 1536w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img1-2048x1047.png 2048w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img1-1169x597.png 1169w\" sizes=\"auto, (max-width: 2090px) 100vw, 2090px\" \/><\/p>\n<p style=\"text-align: center;\">Die wichtigsten Merkmale eines LPU-Systems. Kredite: Groq<\/p>\n<p>Ein LPU-System verf\u00fcgt \u00fcber so viel oder mehr Rechenleistung wie ein Grafikprozessor (GPU) und reduziert die Rechenzeit pro Wort, was eine schnellere Generierung von Textsequenzen erm\u00f6glicht.<\/p>\n<p><strong>Merkmale einer LPU-Inferenzmaschine, wie auf der Groq-Website aufgef\u00fchrt:<\/strong><\/p>\n<ul>\n<li>Au\u00dfergew\u00f6hnliche sequentielle Leistung<\/li>\n<li>Architektur mit einem Kern<\/li>\n<li>Synchrone Vernetzung, die auch bei gro\u00dfen Implementierungen erhalten bleibt<\/li>\n<li>F\u00e4higkeit zur automatischen Kompilierung &gt;50B LLMs<\/li>\n<li>Sofortiger Speicherzugriff<\/li>\n<li>Hohe Genauigkeit, die auch bei niedrigeren Genauigkeitsstufen erhalten bleibt<\/li>\n<\/ul>\n<p><strong>Dienstleistungen von Groq:<\/strong><\/p>\n<ol>\n<li><strong>GroqCloud:<\/strong> LPUs in der Cloud<\/li>\n<li><strong>GroqRack:<\/strong> 42U-Rack mit bis zu 64 zusammengeschalteten Chips<\/li>\n<li><strong>GroqNode:<\/strong> Skalierbares 4U-Rack-Rechnersystem mit acht miteinander verbundenen GroqCard\u2122-Beschleunigern<\/li>\n<li><strong>GroqCard:<\/strong> Ein einziger Chip in einem Standard-PCIe Gen 4\u00d716-Formfaktor f\u00fcr problemlose Serverintegration<\/li>\n<\/ol>\n<p><!-- notionvc: 0a97f602-fb4b-4cfe-aab0-9eb2fdbdbc31 --><\/p>\n<blockquote><p>&#8220;Anders als die CPU, die f\u00fcr eine v\u00f6llig andere Art von Aufgabe als KI entwickelt wurde, oder die GPU, die auf der Grundlage der CPU entwickelt wurde, um zuf\u00e4llig etwas \u00c4hnliches wie KI zu tun, oder die TPU, die die GPU modifiziert hat, um sie besser f\u00fcr KI zu machen, ist Groq von Grund auf, von den ersten Prinzipien her, ein Computersystem f\u00fcr KI&#8221; &#8211; Daniel Warfield, Towards Data Science<\/p><\/blockquote>\n<p>Um mehr dar\u00fcber zu erfahren, wie sich LPUs von GPUs, TPUs und CPUs unterscheiden, empfehlen wir Ihnen, diesen umfassenden <a href=\"https:\/\/towardsdatascience.com\/groq-intuitively-and-exhaustively-explained-01e3fcd727ab\">Artikel<\/a> von Daniel Warfield f\u00fcr Towards Data Science zu lesen.<!-- notionvc: 07818ed9-15ff-4442-8af2-868712f9a167 --><\/p>\n<h2>Was ist der Sinn von Groq?<\/h2>\n<p>LLMs sind unglaublich leistungsf\u00e4hig und k\u00f6nnen Aufgaben bew\u00e4ltigen, die von der Analyse unstrukturierter Daten bis zur Beantwortung von Fragen \u00fcber die Niedlichkeit von Katzen reichen. Ihr gr\u00f6\u00dfter Nachteil liegt jedoch derzeit in der Reaktionszeit. Die langsamere Reaktionszeit f\u00fchrt bei der Verwendung von LLMs in Backend-Prozessen zu erheblichen Latenzzeiten. Beispielsweise ist das Abrufen von Daten aus einer Datenbank und die Anzeige im JSON-Format derzeit viel schneller, wenn es mit herk\u00f6mmlicher Logik erfolgt, anstatt die Daten zur Transformation durch einen LLM zu leiten. Der Vorteil von LLMs liegt jedoch in ihrer F\u00e4higkeit, Datenausnahmen zu verstehen und zu behandeln.<\/p>\n<p>Mit der unglaublichen Inferenzgeschwindigkeit, die Groq bietet, kann dieser Nachteil von LLMs stark reduziert werden. Dies er\u00f6ffnet bessere und breitere Einsatzm\u00f6glichkeiten f\u00fcr LLMs und senkt die Kosten, denn mit einer LPU k\u00f6nnen Sie Open-Source-Modelle einsetzen, die viel billiger zu betreiben sind und sehr schnelle Reaktionszeiten haben.<\/p>\n<h2>Llama 3 auf Groq<\/h2>\n<p>Vor ein paar Wochen hat Meta die neueste Version des ohnehin schon leistungsstarken und \u00e4u\u00dferst f\u00e4higen Open-Source-Programms LLM-Llama 3 vorgestellt. Neben den typischen Verbesserungen bei der Geschwindigkeit, dem Datenverst\u00e4ndnis und der Token-Generierung stechen zwei wesentliche Verbesserungen hervor:<\/p>\n<ol>\n<li>Trainiert auf einem 7-mal gr\u00f6\u00dferen Datensatz als Llama 2, mit 4-mal mehr Code.<\/li>\n<li>Verdoppelung der Kontextl\u00e4nge auf 8.000 Token.<\/li>\n<\/ol>\n<p>Llama 2 war bereits ein hervorragender Open-Source-LLM, aber mit diesen beiden Updates wird die Leistung von Llama 3 voraussichtlich deutlich steigen.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-36796 size-full\" src=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img2.png\" alt=\"Llama 3 Benchmarks\" width=\"3840\" height=\"2160\" srcset=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img2.png 3840w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img2-300x169.png 300w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img2-1024x576.png 1024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img2-768x432.png 768w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img2-1536x864.png 1536w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img2-2048x1152.png 2048w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img2-1152x648.png 1152w\" sizes=\"auto, (max-width: 3840px) 100vw, 3840px\" \/><\/p>\n<p style=\"text-align: center;\">Llama 3 Benchmarks<\/p>\n<p>Um Llama 3 zu testen, haben Sie die M\u00f6glichkeit, <a href=\"https:\/\/ai.meta.com\/meta-ai\/\">Meta AI<\/a> oder den <a href=\"https:\/\/console.groq.com\/playground\">Groq-Spielplatz<\/a> zu nutzen. Wir werden die Leistung von Groq mit Llama 3 testen.<!-- notionvc: f5e25981-592c-4f9c-b651-f80965aba904 --><\/p>\n<h2>Groq Spielplatz<!-- notionvc: bf5b4609-fda3-495f-adb7-9209efe8dd21 --><\/h2>\n<p>Derzeit bietet der Groq-Spielplatz freien Zugang zu Gemma 7B, Llama 3 70B und 8B und Mixtral 8x7b. Auf dem Spielplatz k\u00f6nnen Sie Parameter wie die Temperatur, die maximale Anzahl von Token und die Streaming-Umschaltung einstellen. Au\u00dferdem verf\u00fcgt es \u00fcber einen speziellen JSON-Modus, um ausschlie\u00dflich JSON-Ausgaben zu erzeugen.<!-- notionvc: 57ce6b33-4649-465d-bf35-2745ab776850 --><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-36805 size-full\" src=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img3.png\" alt=\"Nur 402ms f\u00fcr die Inferenz bei einer Rate von 901 Token\/s\" width=\"3024\" height=\"1890\" srcset=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img3.png 3024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img3-300x188.png 300w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img3-1024x640.png 1024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img3-768x480.png 768w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img3-1536x960.png 1536w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img3-2048x1280.png 2048w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img3-1037x648.png 1037w\" sizes=\"auto, (max-width: 3024px) 100vw, 3024px\" \/><\/p>\n<p style=\"text-align: center;\">Nur 402ms f\u00fcr die Inferenz bei einer Rate von 901 Token\/s<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone size-full wp-image-36814\" src=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img4.png\" alt=\"Nur 402ms f\u00fcr die Inferenz bei einer Rate von 901 Token\/s\" width=\"3024\" height=\"1890\" srcset=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img4.png 3024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img4-300x188.png 300w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img4-1024x640.png 1024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img4-768x480.png 768w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img4-1536x960.png 1536w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img4-2048x1280.png 2048w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img4-1037x648.png 1037w\" sizes=\"auto, (max-width: 3024px) 100vw, 3024px\" \/><\/p>\n<p>Ich komme nun zu dem Bereich\/Anwendung, der meiner Meinung nach am meisten Einfluss hat: Datenextraktion und -umwandlung:<!-- notionvc: 6db8b42b-d9e3-490b-8a89-e0ee4daad483 --><\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-36832 size-full\" src=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/imig5.png\" alt=\"Bitten Sie das Modell, n\u00fctzliche Informationen zu extrahieren und ein JSON mit dem JSON-Modus bereitzustellen.\" width=\"3024\" height=\"1890\" srcset=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/imig5.png 3024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/imig5-300x188.png 300w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/imig5-1024x640.png 1024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/imig5-768x480.png 768w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/imig5-1536x960.png 1536w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/imig5-2048x1280.png 2048w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/imig5-1037x648.png 1037w\" sizes=\"auto, (max-width: 3024px) 100vw, 3024px\" \/><\/p>\n<p style=\"text-align: center;\">Bitten Sie das Modell, n\u00fctzliche Informationen zu extrahieren und ein JSON mit dem JSON-Modus bereitzustellen.<\/p>\n<p><img loading=\"lazy\" decoding=\"async\" class=\"alignnone wp-image-36823 size-full\" src=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img6.png\" alt=\"Die Extraktion und Umwandlung in das JSON-Format war in weniger als einer halben Sekunde abgeschlossen.\" width=\"3024\" height=\"1890\" srcset=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img6.png 3024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img6-300x188.png 300w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img6-1024x640.png 1024w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img6-768x480.png 768w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img6-1536x960.png 1536w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img6-2048x1280.png 2048w, https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/img6-1037x648.png 1037w\" sizes=\"auto, (max-width: 3024px) 100vw, 3024px\" \/><\/p>\n<p style=\"text-align: center;\">Die Extraktion und Umwandlung in das JSON-Format war in weniger als einer halben Sekunde abgeschlossen.<\/p>\n<h2>Schlussfolgerung<\/h2>\n<p>Wie gezeigt, hat Groq mit seiner innovativen LPU Inference Engine die LLM-Landschaft entscheidend ver\u00e4ndert. Der hier gezeigte schnelle Wandel deutet auf das immense Potenzial f\u00fcr die Beschleunigung von KI-Anwendungen hin. \u00dcber die zuk\u00fcnftigen Innovationen von Groq kann man nur spekulieren. Vielleicht k\u00f6nnte eine Bildverarbeitungseinheit die Bilderzeugungsmodelle revolutionieren und zu Fortschritten bei der KI-Videoerzeugung beitragen. Es ist in der Tat eine aufregende Zukunft, die Sie erwarten k\u00f6nnen.<\/p>\n<p>Da die LLM-Schulung immer effizienter wird, ist die Aussicht auf ein personalisiertes ChatGPT, das auf Ihre Daten auf Ihrem lokalen Ger\u00e4t abgestimmt ist, eine verlockende Aussicht. Eine Plattform, die solche M\u00f6glichkeiten bietet, ist Cody, ein intelligenter KI-Assistent, der darauf zugeschnitten ist, Unternehmen in verschiedenen Bereichen zu unterst\u00fctzen. \u00c4hnlich wie ChatGPT kann Cody auf Ihre Gesch\u00e4ftsdaten, Ihr Team, Ihre Prozesse und Ihre Kunden geschult werden, wobei Ihre einzigartige Wissensbasis genutzt wird.<\/p>\n<p>Mit <a href=\"https:\/\/meetcody.ai\/?fpr=deal&amp;gclid=Cj0KCQjw2eilBhCCARIsAG0Pf8uxYJpiqe-Xyrv2_qAWGTFfM1-8LH_TWj1PkLauvmnS514ICG9AAJAaAnNIEALw_wcB\">Cody<\/a> k\u00f6nnen Unternehmen die Leistung der KI nutzen, um einen personalisierten und intelligenten Assistenten zu schaffen, der speziell auf ihre Bed\u00fcrfnisse zugeschnitten ist. Das macht Cody zu einer vielversprechenden Erg\u00e4nzung in der Welt der KI-gesteuerten Unternehmensl\u00f6sungen.<\/p>\n<p><!-- notionvc: cbd3e1d4-0bf0-4f69-ba53-d52012e74b33 --><\/p>\n<p><!-- notionvc: c258d90b-5ac7-4316-a80a-ccff7d4a836a --><\/p>\n<p><!-- notionvc: bef76e9c-c0c6-4db1-af75-6822e8e7f8ea --><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Vor ein paar Monaten tauchte wie aus dem Nichts ein neues Unternehmen namens &#8216;Groq&#8217; auf, das einen Durchbruch in der KI-Branche erzielte. Sie boten Entwicklern eine Plattform f\u00fcr den Zugriff auf LPUs als Inferencing-Engines f\u00fcr LLMs, insbesondere f\u00fcr Open-Source-L\u00f6sungen wie Llama, Mixtral und Gemma. In diesem Blog wollen wir erkunden, was Groq so besonders macht<a class=\"excerpt-read-more\" href=\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/\" title=\"ReadGroq und Llama 3: Ein spielver\u00e4nderndes Duo\">&#8230; Read more &raquo;<\/a><\/p>\n","protected":false},"author":2,"featured_media":36844,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"inline_featured_image":false,"footnotes":""},"categories":[30],"tags":[],"class_list":["post-36853","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-unkategorisiert"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO Premium plugin v21.8 (Yoast SEO v24.2) - https:\/\/yoast.com\/wordpress\/plugins\/seo\/ -->\n<title>Groq und Llama 3: Ein spielver\u00e4nderndes Duo<\/title>\n<meta name=\"description\" content=\"Entdecken Sie die bahnbrechenden Fortschritte in der KI-Landschaft mit der LPU Inference Engine von Groq mit Llama 3, entwickelt von Meta.\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Groq und Llama 3: Ein spielver\u00e4nderndes Duo\" \/>\n<meta property=\"og:description\" content=\"Entdecken Sie die bahnbrechenden Fortschritte in der KI-Landschaft mit der LPU Inference Engine von Groq mit Llama 3, entwickelt von Meta.\" \/>\n<meta property=\"og:url\" content=\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/\" \/>\n<meta property=\"og:site_name\" content=\"Cody - The AI Trained on Your Business\" \/>\n<meta property=\"article:published_time\" content=\"2024-05-06T10:46:47+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/Twitter-post-31.png\" \/>\n\t<meta property=\"og:image:width\" content=\"1800\" \/>\n\t<meta property=\"og:image:height\" content=\"920\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Om Kamath\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@meetcodyai\" \/>\n<meta name=\"twitter:site\" content=\"@meetcodyai\" \/>\n<meta name=\"twitter:label1\" content=\"Written by\" \/>\n\t<meta name=\"twitter:data1\" content=\"Om Kamath\" \/>\n\t<meta name=\"twitter:label2\" content=\"Est. reading time\" \/>\n\t<meta name=\"twitter:data2\" content=\"5 minutes\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#article\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/\"},\"author\":{\"name\":\"Om Kamath\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/cde65ec55b79cd833a9777d0a62e83c8\"},\"headline\":\"Groq und Llama 3: Ein spielver\u00e4nderndes Duo\",\"datePublished\":\"2024-05-06T10:46:47+00:00\",\"dateModified\":\"2024-05-06T10:46:47+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/\"},\"wordCount\":1054,\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/Twitter-post-31.png\",\"articleSection\":[\"Unkategorisiert\"],\"inLanguage\":\"de-DE\"},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/\",\"url\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/\",\"name\":\"Groq und Llama 3: Ein spielver\u00e4nderndes Duo\",\"isPartOf\":{\"@id\":\"https:\/\/meetcody.ai\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#primaryimage\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#primaryimage\"},\"thumbnailUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/Twitter-post-31.png\",\"datePublished\":\"2024-05-06T10:46:47+00:00\",\"dateModified\":\"2024-05-06T10:46:47+00:00\",\"description\":\"Entdecken Sie die bahnbrechenden Fortschritte in der KI-Landschaft mit der LPU Inference Engine von Groq mit Llama 3, entwickelt von Meta.\",\"breadcrumb\":{\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#breadcrumb\"},\"inLanguage\":\"de-DE\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#primaryimage\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/Twitter-post-31.png\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/Twitter-post-31.png\",\"width\":1800,\"height\":920},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/meetcody.ai\/de\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Groq und Llama 3: Ein spielver\u00e4nderndes Duo\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/meetcody.ai\/#website\",\"url\":\"https:\/\/meetcody.ai\/\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"description\":\"AI Powered Knowledge Base for Employees\",\"publisher\":{\"@id\":\"https:\/\/meetcody.ai\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/meetcody.ai\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de-DE\"},{\"@type\":\"Organization\",\"@id\":\"https:\/\/meetcody.ai\/#organization\",\"name\":\"Cody AI - The AI Trained on Your Business\",\"url\":\"https:\/\/meetcody.ai\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\",\"url\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"contentUrl\":\"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg\",\"width\":\"1024\",\"height\":\"1024\",\"caption\":\"Cody AI - The AI Trained on Your Business\"},\"image\":{\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/\"},\"sameAs\":[\"https:\/\/x.com\/meetcodyai\",\"https:\/\/discord.com\/invite\/jXEVDcFxqs\"]},{\"@type\":\"Person\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/cde65ec55b79cd833a9777d0a62e83c8\",\"name\":\"Om Kamath\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de-DE\",\"@id\":\"https:\/\/meetcody.ai\/#\/schema\/person\/image\/\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/3903c678cd7f6c8df0a843ae177998f5d413954afa3062f984a030a889a97849?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/3903c678cd7f6c8df0a843ae177998f5d413954afa3062f984a030a889a97849?s=96&d=mm&r=g\",\"caption\":\"Om Kamath\"},\"description\":\"Om Kamath\",\"sameAs\":[\"http:\/\/meetcody.ai\"],\"url\":\"https:\/\/meetcody.ai\/de\/blog\/author\/omkamath\/\"}]}<\/script>\n<!-- \/ Yoast SEO Premium plugin. -->","yoast_head_json":{"title":"Groq und Llama 3: Ein spielver\u00e4nderndes Duo","description":"Entdecken Sie die bahnbrechenden Fortschritte in der KI-Landschaft mit der LPU Inference Engine von Groq mit Llama 3, entwickelt von Meta.","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/","og_locale":"de_DE","og_type":"article","og_title":"Groq und Llama 3: Ein spielver\u00e4nderndes Duo","og_description":"Entdecken Sie die bahnbrechenden Fortschritte in der KI-Landschaft mit der LPU Inference Engine von Groq mit Llama 3, entwickelt von Meta.","og_url":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/","og_site_name":"Cody - The AI Trained on Your Business","article_published_time":"2024-05-06T10:46:47+00:00","og_image":[{"width":1800,"height":920,"url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/Twitter-post-31.png","type":"image\/png"}],"author":"Om Kamath","twitter_card":"summary_large_image","twitter_creator":"@meetcodyai","twitter_site":"@meetcodyai","twitter_misc":{"Written by":"Om Kamath","Est. reading time":"5 minutes"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#article","isPartOf":{"@id":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/"},"author":{"name":"Om Kamath","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/cde65ec55b79cd833a9777d0a62e83c8"},"headline":"Groq und Llama 3: Ein spielver\u00e4nderndes Duo","datePublished":"2024-05-06T10:46:47+00:00","dateModified":"2024-05-06T10:46:47+00:00","mainEntityOfPage":{"@id":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/"},"wordCount":1054,"publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"image":{"@id":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/Twitter-post-31.png","articleSection":["Unkategorisiert"],"inLanguage":"de-DE"},{"@type":"WebPage","@id":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/","url":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/","name":"Groq und Llama 3: Ein spielver\u00e4nderndes Duo","isPartOf":{"@id":"https:\/\/meetcody.ai\/#website"},"primaryImageOfPage":{"@id":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#primaryimage"},"image":{"@id":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#primaryimage"},"thumbnailUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/Twitter-post-31.png","datePublished":"2024-05-06T10:46:47+00:00","dateModified":"2024-05-06T10:46:47+00:00","description":"Entdecken Sie die bahnbrechenden Fortschritte in der KI-Landschaft mit der LPU Inference Engine von Groq mit Llama 3, entwickelt von Meta.","breadcrumb":{"@id":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#breadcrumb"},"inLanguage":"de-DE","potentialAction":[{"@type":"ReadAction","target":["https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/"]}]},{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#primaryimage","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/Twitter-post-31.png","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2024\/05\/Twitter-post-31.png","width":1800,"height":920},{"@type":"BreadcrumbList","@id":"https:\/\/meetcody.ai\/de\/blog\/groq-und-llama-3-ein-spielveraenderndes-duo\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/meetcody.ai\/de\/"},{"@type":"ListItem","position":2,"name":"Groq und Llama 3: Ein spielver\u00e4nderndes Duo"}]},{"@type":"WebSite","@id":"https:\/\/meetcody.ai\/#website","url":"https:\/\/meetcody.ai\/","name":"Cody AI - The AI Trained on Your Business","description":"AI Powered Knowledge Base for Employees","publisher":{"@id":"https:\/\/meetcody.ai\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/meetcody.ai\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de-DE"},{"@type":"Organization","@id":"https:\/\/meetcody.ai\/#organization","name":"Cody AI - The AI Trained on Your Business","url":"https:\/\/meetcody.ai\/","logo":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/","url":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","contentUrl":"https:\/\/meetcody.ai\/wp-content\/uploads\/2023\/05\/logo-codyai.svg","width":"1024","height":"1024","caption":"Cody AI - The AI Trained on Your Business"},"image":{"@id":"https:\/\/meetcody.ai\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/meetcodyai","https:\/\/discord.com\/invite\/jXEVDcFxqs"]},{"@type":"Person","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/cde65ec55b79cd833a9777d0a62e83c8","name":"Om Kamath","image":{"@type":"ImageObject","inLanguage":"de-DE","@id":"https:\/\/meetcody.ai\/#\/schema\/person\/image\/","url":"https:\/\/secure.gravatar.com\/avatar\/3903c678cd7f6c8df0a843ae177998f5d413954afa3062f984a030a889a97849?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/3903c678cd7f6c8df0a843ae177998f5d413954afa3062f984a030a889a97849?s=96&d=mm&r=g","caption":"Om Kamath"},"description":"Om Kamath","sameAs":["http:\/\/meetcody.ai"],"url":"https:\/\/meetcody.ai\/de\/blog\/author\/omkamath\/"}]}},"_links":{"self":[{"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/posts\/36853","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/comments?post=36853"}],"version-history":[{"count":0,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/posts\/36853\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/media\/36844"}],"wp:attachment":[{"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/media?parent=36853"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/categories?post=36853"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/meetcody.ai\/de\/wp-json\/wp\/v2\/tags?post=36853"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}