<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Om Kamath, Author at Cody - The AI Trained on Your Business</title>
	<atom:link href="https://meetcody.ai/de/blog/author/omkamath/feed/" rel="self" type="application/rss+xml" />
	<link></link>
	<description>AI Powered Knowledge Base for Employees</description>
	<lastBuildDate>Thu, 26 Mar 2026 18:07:51 +0000</lastBuildDate>
	<language>de-DE</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.8.1</generator>

<image>
	<url>https://meetcody.ai/wp-content/uploads/2025/08/cropped-Cody-Emoji-071-32x32.png</url>
	<title>Om Kamath, Author at Cody - The AI Trained on Your Business</title>
	<link></link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Gemini Embedding 2: Das erste multimodale Einbettungsmodell von Google</title>
		<link>https://meetcody.ai/de/blog/gemini-embedding-2-das-erste-multimodale-einbettungsmodell-von-google/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Tue, 24 Mar 2026 03:02:17 +0000</pubDate>
				<category><![CDATA[Unkategorisiert]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gemini-embedding-2-das-erste-multimodale-einbettungsmodell-von-google/</guid>

					<description><![CDATA[<p>Gemini Embedding 2: Funktionen, Benchmarks, Preise und wie man anfängt Letzte Woche veröffentlichte Google Zwillinge Embedding 2, das erste nativ multimodale Einbettungsmodell, das auf der Gemini-Architektur basiert. Wenn Sie in irgendeiner Weise mit Einbettungen arbeiten, verdient dies Ihre Aufmerksamkeit. Es hat das Potenzial, die Multi-Modell-Einbettungspipelines, auf die sich die meisten Teams heute verlassen, erheblich zu<a class="excerpt-read-more" href="https://meetcody.ai/de/blog/gemini-embedding-2-das-erste-multimodale-einbettungsmodell-von-google/" title="ReadGemini Embedding 2: Das erste multimodale Einbettungsmodell von Google">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/de/blog/gemini-embedding-2-das-erste-multimodale-einbettungsmodell-von-google/">Gemini Embedding 2: Das erste multimodale Einbettungsmodell von Google</a> appeared first on <a href="https://meetcody.ai/de/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p style="text-align: center;"><em>Gemini Embedding 2: Funktionen, Benchmarks, Preise und wie man anfängt</em><!-- notionvc: c383b1b6-2ff8-40bd-8227-0a70d481c796 --></p>
<p>Letzte Woche veröffentlichte Google  <a href="https://meetcody.ai/blog/google-introduces-the-multimodal-gemini-ultra-pro-nano-models/">Zwillinge</a>  Embedding 2, das erste nativ multimodale Einbettungsmodell, das auf der Gemini-Architektur basiert. Wenn Sie in irgendeiner Weise mit Einbettungen arbeiten, verdient dies Ihre Aufmerksamkeit. Es hat das Potenzial, die Multi-Modell-Einbettungspipelines, auf die sich die meisten Teams heute verlassen, erheblich zu stören.  </p>
<p>Bis jetzt waren die führenden Einbettungsmodelle von OpenAI, Cohere und Voyage hauptsächlich textbasiert. Es gab zwar ein paar multimodale Optionen &#8211; <a href="https://openai.com/index/clip/">CLIP</a> für den Abgleich von Bild und Text, <a href="https://blog.voyageai.com/2026/01/15/voyage-multimodal-3-5/">Voyage Multimodal 3.5</a> für Bilder und Videos &#8211; aber keine deckte das gesamte Spektrum der Modalitäten in einem einzigen, einheitlichen Vektorraum ab. Audio musste in der Regel vor der Einbettung transkribiert werden. Video erforderte eine Frame-Extraktion in Kombination mit separaten Transkript-Einbettungen. Bilder lebten in einem ganz eigenen Vektorraum.    </p>
<p>Gemini Embedding 2 ändert diese Gleichung. Ein Modell, ein API-Aufruf, ein Vektorraum. </p>
<p>Schauen wir uns an, was es Neues gibt.</p>
<h2>Was ist Gemini Embedding 2?</h2>
<p><a href="https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-embedding-2/">Gemini Embedding 2</a> (<code>gemini-embedding-2-preview</code>) ist das erste vollständig multimodale <a href="https://meetcody.ai/blog/text-embedding-models/">Einbettungsmodell</a> von Google DeepMind. Es nimmt Texte, Bilder, Videoclips, Audioaufnahmen und PDF-Dokumente und wandelt sie alle in Vektoren um, die im selben gemeinsamen semantischen Raum leben. </p>
<p>Im Gegensatz zu früheren multimodalen Ansätzen wie CLIP, die einen Bildverarbeitungs-Encoder mit einem Text-Encoder koppeln und sie am Ende mit kontrastivem Lernen abgleichen, baut Gemini Embedding 2 auf dem Gemini-Grundmodell selbst auf. Das bedeutet, dass es von Grund auf ein tiefes cross-modales Verständnis besitzt. </p>
<div id="attachment_70663" style="width: 1034px" class="wp-caption aligncenter"><img fetchpriority="high" decoding="async" aria-describedby="caption-attachment-70663" class="wp-image-70663 size-full" src="https://meetcody.ai/wp-content/uploads/2026/03/embedding.png" alt="Multimodale Einbettungen" width="1024" height="587" srcset="https://meetcody.ai/wp-content/uploads/2026/03/embedding.png 1024w, https://meetcody.ai/wp-content/uploads/2026/03/embedding-300x172.png 300w, https://meetcody.ai/wp-content/uploads/2026/03/embedding-768x440.png 768w" sizes="(max-width: 1024px) 100vw, 1024px" /><p id="caption-attachment-70663" class="wp-caption-text">Mit Nano Banana erzeugtes Bild</p></div>
<p><strong>Praktisches Beispiel:</strong> Stellen Sie sich vor, Sie bauen ein Learning Management System (LMS) mit Videotutorials, Audiovorträgen und schriftlichen Anleitungen auf. Mit Gemini Embedding 2 können Sie Einbettungen für all diese Inhalte in einem einzigen Vektorraum speichern und einen <a href="https://meetcody.ai/blog/rag-private-clouds/">RAG-basierten Chatbot</a> erstellen, der relevante <a href="https://meetcody.ai/blog/how-does-cody-generate-responses-using-your-documents/">Teile von</a> Videos, Audios und Dokumenten gleichermaßen abruft. Zuvor war dafür eine mehrstufige Einbettungspipeline erforderlich &#8211; und selbst dann wurden nur Transkripte erfasst, ohne den visuellen Kontext eines Videos oder den Tonfall eines Sprechers.  </p>
<p>Das Modell verwendet <a href="https://arxiv.org/abs/2205.13147">Matrjoschka Representation Learning</a>, d.h. Sie müssen nicht alle 3072 Dimensionen verwenden, wenn Sie sie nicht brauchen. Sie können auf 1536 oder 768 verkleinern und erhalten trotzdem brauchbare Ergebnisse. </p>
<p><em>Matryoshka Representation Learning (MRL) ist eine Technik zum Trainieren von Einbettungsmodellen, so dass die erlernten Darstellungen nicht nur in ihrer vollen Dimensionalität, sondern auch in verschiedenen kleineren Dimensionen nützlich sind &#8211; ineinander verschachtelt wie russische Matryoshka-Puppen. Während des Trainings wird die Verlustfunktion nicht nur für die vollständige Einbettung berechnet, sondern auch für mehrere Präfixe des Einbettungsvektors. Dadurch wird das Modell ermutigt, die wichtigsten Informationen in die ersten Dimensionen zu packen, wobei jede nachfolgende Dimension feinere Details hinzufügt &#8211; eine Grob-zu-Fein-Struktur.  </em></p>
<h2>Unterstützte Modalitäten &amp; Eingabebeschränkungen</h2>
<p>Das Modell akzeptiert fünf Arten von Eingaben, die alle auf denselben Einbettungsraum abgebildet werden:</p>
<table>
<thead>
<tr>
<th>Modalität</th>
<th>Eingabe Grenze</th>
<th>Formate</th>
</tr>
</thead>
<tbody>
<tr>
<td>Text</td>
<td>Bis zu 8.192 Token</td>
<td>Einfacher Text</td>
</tr>
<tr>
<td>Bilder</td>
<td>Bis zu 6 Bilder pro Anfrage</td>
<td>PNG, JPEG</td>
</tr>
<tr>
<td>Video</td>
<td>Bis zu 120 Sekunden</td>
<td>MP4, MOV</td>
</tr>
<tr>
<td>Audio</td>
<td>Bis zu 80 Sekunden (nativ, keine Transkription)</td>
<td>MP3, WAV</td>
</tr>
<tr>
<td>PDFs</td>
<td>Direkt eingebettete</td>
<td>PDF-Dokumente</td>
</tr>
</tbody>
</table>
<h2>Im Vergleich zu bestehenden Modellen</h2>
<p><strong>TLDR:</strong> Das neue Gemini Embedding 2 Modell von Google übertrifft seine Konkurrenten (seinen eigenen Vorgänger, Amazon Nova 2 und Voyage Multimodal 3.5) in fast jeder Modalität: Text, Bild, Video und Sprache. Am überzeugendsten ist der Vorsprung beim Abrufen von Videos und beim Bild-Text-Abgleich. Der einzige Benchmark, bei dem es nicht gewinnt, ist die Dokumentensuche, bei der Voyage leicht vorne liegt. Die Abfrage von Sprachtexten ist eine Kategorie, die Gemini allein gehört, da kein Konkurrent sie unterstützt.   </p>
<p>Google hat Benchmark-Vergleiche mit seinen eigenen Legacy-Modellen, Amazon Nova 2 Multimodal Embeddings und Voyage Multimodal 3.5 veröffentlicht. Hier ist das vollständige Bild: </p>
<h3>Text-Text</h3>
<table>
<thead>
<tr>
<th>Metrisch</th>
<th>Gemini Einbettung 2</th>
<th>gemini-einbettung-001</th>
<th>Amazon Nova 2</th>
<th>Voyage Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>MTEB Mehrsprachig (Mittlere Aufgabe)</td>
<td><strong>69.9</strong></td>
<td>68.4</td>
<td>63.8**</td>
<td>58.5***</td>
</tr>
<tr>
<td>MTEB Code (Mittlere Aufgabe)</td>
<td><strong>84.0</strong></td>
<td>76.0</td>
<td>*</td>
<td>*</td>
</tr>
</tbody>
</table>
<p>Gemini Embedding 2 liegt bei mehrsprachigem Text mit einem komfortablen Vorsprung vorn und übertrifft seinen Vorgänger bei der Code-Suche um 8 Punkte. Weder Amazon Nova 2 noch Voyage melden Code-Ergebnisse. </p>
<h3>Text-Bild</h3>
<table>
<thead>
<tr>
<th>Metrisch</th>
<th>Zwillingseinbettung 2</th>
<th>multimodale Einbettung@001</th>
<th>Amazon Nova 2</th>
<th>Voyage Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>TextCaps (Abruf@1)</td>
<td><strong>89.6</strong></td>
<td>74.0</td>
<td>76.0</td>
<td>79.4</td>
</tr>
<tr>
<td>Docci (Rückruf@1)</td>
<td><strong>93.4</strong></td>
<td>&#8211;</td>
<td>84.0</td>
<td>83.8</td>
</tr>
</tbody>
</table>
<p>Ein klarer Vorsprung bei der Text-zu-Bild-Suche &#8211; über 9 Punkte Vorsprung vor dem nächsten Mitbewerber bei beiden Benchmarks.</p>
<h3>Bild-Text</h3>
<table>
<thead>
<tr>
<th>Metrisch</th>
<th>Zwillingseinbettung 2</th>
<th>multimodale Einbettung@001</th>
<th>Amazon Nova 2</th>
<th>Voyage Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>TextCaps (Rückruf@1)</td>
<td><strong>97.4</strong></td>
<td>88.1</td>
<td>88.9</td>
<td>88.6</td>
</tr>
<tr>
<td>Docci (Rückruf@1)</td>
<td><strong>91.3</strong></td>
<td>&#8211;</td>
<td>76.5</td>
<td>77.4</td>
</tr>
</tbody>
</table>
<p>Bei der Bild-zu-Text-Suche ist der Abstand am größten &#8211; fast 15 Punkte vor Amazon Nova 2 auf Docci.</p>
<h3>Textdokumente</h3>
<table>
<thead>
<tr>
<th>Metrisch</th>
<th>Zwillingseinbettung 2</th>
<th>multimodale Einbettung@001</th>
<th>Amazon Nova 2</th>
<th>Voyage Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>ViDoRe v2 (ndcg@10)</td>
<td>64.9</td>
<td>28.9</td>
<td>60.6</td>
<td><strong>65.5**</strong></td>
</tr>
</tbody>
</table>
<p>Der einzige Benchmark, bei dem Voyage Multimodal 3.5 die Nase vorn hat (Selbstauskunft). Bei der Dokumentensuche liegen die Top-Modelle dicht beieinander. </p>
<h3>Text-Video</h3>
<table>
<thead>
<tr>
<th>Metrisch</th>
<th>Zwillingseinbettung 2</th>
<th>multimodale Einbettung@001</th>
<th>Amazon Nova 2</th>
<th>Voyage Multimodal 3.5</th>
</tr>
</thead>
<tbody>
<tr>
<td>Vatex (ndcg@10)</td>
<td><strong>68.8</strong></td>
<td>54.9</td>
<td>60.3</td>
<td>55.2</td>
</tr>
<tr>
<td>MSR-VTT (ndcg@10)</td>
<td><strong>68.0</strong></td>
<td>57.9</td>
<td>67.0</td>
<td>63.0**</td>
</tr>
<tr>
<td>Youcook2 (ndcg@10)</td>
<td><strong>52.5</strong></td>
<td>34.9</td>
<td>34.7</td>
<td>31.4**</td>
</tr>
</tbody>
</table>
<p>Beim Abrufen von Videos liegt Gemini Embedding 2 am weitesten vorne &#8211; über 17 Punkte vor Voyage auf Youcook2 und über 13 Punkte auf Vatex.</p>
<h3>Sprache &#8211; Text</h3>
<table>
<thead>
<tr>
<th>Metrisch</th>
<th>Zwillingseinbettung 2</th>
</tr>
</thead>
<tbody>
<tr>
<td>MSEB (mrr@10)</td>
<td><strong>73.9</strong></td>
</tr>
<tr>
<td>MSEB ASR**** (mrr@10)</td>
<td><strong>70.4</strong></td>
</tr>
</tbody>
</table>
<p>Die Abfrage von Sprachtexten ist völlig unumstritten &#8211; weder Amazon noch Voyage unterstützen sie. Dies ist eine Kategorie, die Gemini Embedding 2 vollständig beherrscht. </p>
<p><em>&#8211; Wertung nicht verfügbar ** Selbstauskunft *** voyage-3.5 **** ASR-Modell wandelt Audioanfragen in Text um</em></p>
<h2>Preisgestaltung</h2>
<p>Das Modell ist derzeit während der öffentlichen Vorschau kostenlos. Sobald Sie die kostenpflichtige Stufe erreicht haben, sehen Sie hier die Aufschlüsselung: </p>
<table>
<thead>
<tr>
<th></th>
<th>Kostenloses Tier</th>
<th>Bezahlte Stufe (pro 1M Token)</th>
</tr>
</thead>
<tbody>
<tr>
<td>Texteingabe</td>
<td>Kostenfrei</td>
<td>$0.20</td>
</tr>
<tr>
<td>Bild-Eingabe</td>
<td>Kostenfrei</td>
<td>$0,45 ($0,00012 pro Bild)</td>
</tr>
<tr>
<td>Audio-Eingang</td>
<td>Kostenfrei</td>
<td>$6,50 ($0,00016 pro Sekunde)</td>
</tr>
<tr>
<td>Video-Eingang</td>
<td>Kostenfrei</td>
<td>$12.00 ($0.00079 pro Bild)</td>
</tr>
<tr>
<td>Wird zur Verbesserung der Google-Produkte verwendet</td>
<td>Ja</td>
<td>Nein</td>
</tr>
</tbody>
</table>
<h2><strong>Erste Schritte</strong></h2>
<p>Das Modell ist jetzt in der öffentlichen Vorschau über die Gemini API und Vertex AI unter der Modell-ID  <code>gemini-embedding-2-preview</code>. Es lässt sich mit LangChain, LlamaIndex, Haystack, Weaviate, Qdrant, ChromaDB und Vector Search integrieren.</p>
<pre><code class="language-jsx">from google import genai
from google.genai import types

# For Vertex AI:
# PROJECT_ID='&lt;add_here&gt;'
# client = genai.Client(vertexai=True, project=PROJECT_ID, location='us-central1')

client = genai.Client()

with open("example.png", "rb") as f:
    image_bytes = f.read()

with open("sample.mp3", "rb") as f:
    audio_bytes = f.read()

# Embed text, image, and audio 
result = client.models.embed_content(
    model="gemini-embedding-2-preview",
    contents=[
        "What is the meaning of life?",
        types.Part.from_bytes(
            data=image_bytes,
            mime_type="image/png",
        ),
        types.Part.from_bytes(
            data=audio_bytes,
            mime_type="audio/mpeg",
        ),
    ],
)

print(result.embeddings)
</code></pre>
<h2>Probieren Sie es hier aus!</h2>
<p>Wir haben eine <a href="https://gemini-2-trial.vercel.app">Demo-App</a> erstellt, mit der Sie die multimodale Abrufleistung von gemini-embedding-2 testen können.</p>
<p>Sie können den API-Schlüssel erhalten, indem Sie sich bei <a href="http://aistudio.google.com">aistudio.google.com</a> anmelden.</p>
<h2>Zu beachtende Beschränkungen</h2>
<ul>
<li>Das Modell befindet sich noch in der öffentlichen Vorschau (das Etikett &#8220;Vorschau&#8221; bedeutet, dass sich die Preise und das Verhalten vor der GA ändern können).</li>
<li>Der Videoeingang ist auf 120 Sekunden und der Audioeingang auf 80 Sekunden begrenzt.</li>
<li>Die Leistung in Nischenbereichen wie der Finanz-QS ist schwächer; bewerten Sie sie anhand Ihrer spezifischen Daten, bevor Sie sich festlegen.</li>
<li>Bei reinen Text-Pipelines ohne multimodale Pläne ist der Kostenaufschlag gegenüber reinen Textmodellen möglicherweise nicht gerechtfertigt.</li>
</ul>
<h2>Die Quintessenz</h2>
<p>Gemini Embedding 2 ist nicht nur eine schrittweise Verbesserung, sondern ein Wechsel der Kategorie. Für Teams, die multimodale RAG-Systeme, eine medienübergreifende semantische Suche oder vereinheitlichte Wissensdatenbanken aufbauen, wird das, was früher ein Problem mit mehreren Modellen und Pipelines war, zu einem einzigen API-Aufruf zusammengefasst. Wenn Ihre Daten mehr als nur Text umfassen, ist dies das Modell, das Sie zuerst testen sollten.  </p>
<p>Multimodale RAG zu erstellen sollte nicht bedeuten, dass Sie Einbettungsmodelle, Vektordatenbanken und Abfragelogik von Grund auf neu zusammensetzen müssen. Wenn Sie eine verwaltete <a href="https://meetcody.ai/blog/rag-as-a-service-unlock-generative-ai-for-your-business/">RAG-as-a-Service-Lösung</a> wünschen, die die Einbettungspipeline für Sie übernimmt, <a href="https://getcody.ai/">melden Sie sich</a> für die kostenlose Testversion bei Cody an und beginnen Sie noch heute mit der Erstellung. </p>
<p><!-- notionvc: 1819203a-dd06-4804-9886-3355db49e8de --></p>
<p>The post <a href="https://meetcody.ai/de/blog/gemini-embedding-2-das-erste-multimodale-einbettungsmodell-von-google/">Gemini Embedding 2: Das erste multimodale Einbettungsmodell von Google</a> appeared first on <a href="https://meetcody.ai/de/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Gemini 2.5 Pro und GPT-4.5: Wer führt die KI-Revolution an?</title>
		<link>https://meetcody.ai/de/blog/gemini-2-5-pro-und-gpt-4-5-wer-fuehrt-die-ki-revolution-an/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Wed, 26 Mar 2025 15:36:01 +0000</pubDate>
				<category><![CDATA[Unkategorisiert]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gemini-2-5-pro-und-gpt-4-5-wer-fuehrt-die-ki-revolution-an/</guid>

					<description><![CDATA[<p>Im Jahr 2025 ist die Welt der künstlichen Intelligenz sehr aufregend geworden. Die großen Technologieunternehmen liefern sich einen erbitterten Wettbewerb, um die fortschrittlichsten KI-Systeme aller Zeiten zu entwickeln. Dieser intensive Wettbewerb hat viele neue Ideen hervorgebracht und die Grenzen dessen, was KI beim Denken, beim Lösen von Problemen und bei der Interaktion mit dem Menschen<a class="excerpt-read-more" href="https://meetcody.ai/de/blog/gemini-2-5-pro-und-gpt-4-5-wer-fuehrt-die-ki-revolution-an/" title="ReadGemini 2.5 Pro und GPT-4.5: Wer führt die KI-Revolution an?">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/de/blog/gemini-2-5-pro-und-gpt-4-5-wer-fuehrt-die-ki-revolution-an/">Gemini 2.5 Pro und GPT-4.5: Wer führt die KI-Revolution an?</a> appeared first on <a href="https://meetcody.ai/de/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p data-pm-slice="0 0 []">Im Jahr 2025 ist die Welt der künstlichen Intelligenz sehr aufregend geworden. Die großen Technologieunternehmen liefern sich einen erbitterten Wettbewerb, um die fortschrittlichsten KI-Systeme aller Zeiten zu entwickeln. Dieser intensive Wettbewerb hat viele neue Ideen hervorgebracht und die Grenzen dessen, was KI beim Denken, beim Lösen von Problemen und bei der Interaktion mit dem Menschen leisten kann, verschoben. In den letzten Monaten gab es erstaunliche Verbesserungen, wobei zwei Hauptakteure den Weg geebnet haben: Googles Gemini 2.5 Pro und OpenAIs GPT-4.5. In einer großen Enthüllung im März 2025 stellte Google Gemini 2.5 Pro vor, das sie als ihre bisher intelligenteste Kreation bezeichnen. Es wurde schnell zum Spitzenreiter in der <a href="https://lmarena.ai/?p2l" target="_blank" rel="noopener noreferrer">LMArena-Rangliste</a> und ließ seine Konkurrenten hinter sich. Das Besondere an Gemini 2.5 ist seine Fähigkeit, Antworten sorgfältig abzuwägen, wodurch er bei komplexen Aufgaben, die tiefes Denken erfordern, besser abschneidet.     </p>
<p>Um nicht ins Hintertreffen zu geraten, hat OpenAI GPT-4.5 auf den Markt gebracht, ihr bisher größtes und fortschrittlichstes Chat-Modell. Dieses Modell ist hervorragend darin, Muster zu erkennen, Verbindungen herzustellen und kreative Ideen zu entwickeln. Erste Tests zeigen, dass sich die Interaktion mit GPT-4.5 sehr natürlich anfühlt, da es über ein breites Wissen verfügt und besser versteht, was die Benutzer meinen. OpenAI hebt die signifikanten Verbesserungen von GPT-4.5 beim Lernen ohne direkte Aufsicht hervor, die für eine reibungslose Zusammenarbeit mit Menschen entwickelt wurden.   </p>
<p>Diese KI-Systeme sind nicht nur eine beeindruckende Technologie, sie verändern auch die Art und Weise, wie Unternehmen arbeiten, beschleunigen wissenschaftliche Entdeckungen und transformieren kreative Projekte. Während KI ein normaler Bestandteil des täglichen Lebens wird, erweitern Modelle wie Gemini 2.5 Pro und GPT-4.5 das, was wir für möglich halten. Mit besseren Denkfähigkeiten, einer geringeren Wahrscheinlichkeit, falsche Informationen zu verbreiten, und der Beherrschung komplexer Probleme ebnen sie den Weg für KI-Systeme, die den menschlichen Fortschritt wirklich unterstützen.  </p>
<h2>Verstehen von Gemini 2.5 Pro</h2>
<p>Am 25. März 2025 stellte Google offiziell Gemini 2.5 Pro vor, das als sein bisher &#8220;intelligentestes KI-Modell&#8221; bezeichnet wird. Diese Veröffentlichung markiert einen bedeutenden Meilenstein in der KI-Entwicklung von Google, nachdem <a href="https://meetcody.ai/blog/chatgpt-killer-what-gemini-means-for-googles-ai-future/" target="_blank" rel="noopener noreferrer">mehrere Iterationen</a> der 2.0-Modelle erfolgt waren. Die Veröffentlichungsstrategie begann zunächst mit der experimentellen Version, die den Abonnenten von Gemini Advanced einen frühen Zugang zum Testen der Fähigkeiten ermöglichte.  </p>
<p><img decoding="async" class="aligncenter wp-image-50851 size-large" src="https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1024x629.jpg" alt="Gemini 2.5 Benchmarks" width="1024" height="629" srcset="https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1024x629.jpg 1024w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-300x184.jpg 300w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-768x472.jpg 768w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1536x943.jpg 1536w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-2048x1258.jpg 2048w, https://meetcody.ai/wp-content/uploads/2025/03/final_2.5_blog_1.original-1055x648.jpg 1055w" sizes="(max-width: 1024px) 100vw, 1024px" /></p>
<p>Was Gemini 2.5 Pro von seinen Vorgängern unterscheidet, ist seine grundlegende Architektur als<a href="https://ai.google.dev/gemini-api/docs/thinking#:~:text=Gemini%202.5%20Pro%20Experimental%20and,them%20to%20solve%20complex%20tasks." target="_blank" rel="noopener noreferrer">&#8220;Denkmodell&#8221;.</a> Im Gegensatz zu früheren Generationen, die sich in erster Linie auf trainierte Datenmuster stützten, kann dieses Modell aktiv über seine Gedanken nachdenken, bevor es antwortet, und so menschliche Problemlösungsprozesse imitieren. Dies ist ein bedeutender Fortschritt in der Art und Weise, wie KI-Systeme Informationen verarbeiten und Antworten erzeugen. </p>
<h3>Hauptmerkmale und Funktionen:</h3>
<ol class="tight" data-tight="true">
<li><strong>Verbessertes logisches Denken</strong> &#8211; Fähigkeit zur schrittweisen Problemlösung in komplexen Bereichen</li>
<li><strong>Erweitertes Kontext-Fenster</strong> &#8211; 1 Million Token-Kapazität (mit Plänen zur Erweiterung auf 2 Millionen)</li>
<li><strong>Native Multimodalität</strong> &#8211; Nahtlose Verarbeitung von Text, Bildern, Audio, Video und Code</li>
<li><strong>Erweiterte Code-Funktionen</strong> &#8211; Signifikante Verbesserungen bei der Erstellung von Webanwendungen und der Codeumwandlung</li>
</ol>
<p>Gemini 2.5 Pro hat sich als Leistungsführer etabliert und steht erstmals auf Platz 1 der LMArena-Bestenliste. Es zeichnet sich besonders bei Benchmarks aus, die fortgeschrittenes logisches Denken erfordern, und erzielte bei Humanity&#8217;s Last Exam ohne externe Hilfsmittel ein branchenführendes Ergebnis von 18,8%. In den Bereichen Mathematik und Naturwissenschaften beweist er eine bemerkenswerte Kompetenz mit Ergebnissen von 86,7% bei AIME 2025 bzw. 79,7% bei GPQA diamond.  </p>
<p>Im Vergleich zu früheren Gemini-Modellen stellt die Version 2.5 Pro einen erheblichen Sprung nach vorn dar. Während Gemini 2.0 wichtige grundlegende Fähigkeiten einführte, kombiniert 2.5 Pro ein deutlich verbessertes Basismodell mit verbesserten Post-Training-Techniken. Die bemerkenswertesten Verbesserungen zeigen sich bei der Kodierleistung, der Argumentationstiefe und dem kontextuellen Verständnis &#8211; Bereiche, in denen frühere Versionen Einschränkungen aufwiesen.  </p>
<h2>GPT-4.5 erforschen</h2>
<p>Im April 2025 stellte OpenAI GPT-4.5 vor und bezeichnete es als sein &#8220;bisher größtes und fortschrittlichstes Chat-Modell&#8221;, was eine bemerkenswerte Leistung in der Entwicklung großer Sprachmodelle darstellt. Diese Forschungsvorschau löste in der KI-Gemeinschaft sofort Begeisterung aus. Erste Tests zeigten, dass sich die Interaktionen mit dem Modell dank seiner umfangreichen Wissensbasis und seiner verbesserten Fähigkeit, die Absicht des Benutzers zu verstehen, außergewöhnlich natürlich anfühlen. </p>
<p>GPT-4.5 zeigt bedeutende Fortschritte bei den unüberwachten Lernfähigkeiten. OpenAI hat diesen Fortschritt durch die Skalierung der Rechenleistung und des Dateninputs sowie durch den Einsatz innovativer Architektur- und Optimierungsstrategien erzielt. Das Modell wurde auf Microsoft Azure KI-Supercomputern trainiert, womit eine Partnerschaft fortgesetzt wird, die es OpenAI ermöglicht, die Grenzen des Möglichen zu erweitern.  </p>
<h3>Kernverbesserungen und -fähigkeiten:</h3>
<ol class="tight" data-tight="true">
<li><strong>Verbesserte Mustererkennung</strong> &#8211; Erheblich verbesserte Fähigkeit, Muster zu erkennen, Verbindungen herzustellen und kreative Einsichten zu gewinnen</li>
<li><strong>Weniger Halluzinationen</strong> &#8211; Geringere Wahrscheinlichkeit der Erzeugung falscher Informationen im Vergleich zu früheren Modellen wie <a href="https://meetcody.ai/blog/gpt-4o-unveiled/" target="_blank" rel="noopener noreferrer">GPT-4o</a> und <a href="https://meetcody.ai/blog/openai-o3-vs-o1-the-future-of-ai-reasoning-and-safety-unveiled/" target="_blank" rel="noopener noreferrer">o1</a></li>
<li><strong>Verbesserter &#8220;EQ&#8221;</strong> &#8211; Größere emotionale Intelligenz und Verständnis für nuancierte menschliche Interaktionen</li>
<li><strong>Erweiterte Steuerbarkeit</strong> &#8211; Besseres Verständnis und Befolgung komplexer Benutzeranweisungen</li>
</ol>
<p>OpenAI hat besonderen Wert darauf gelegt, GPT-4.5 für die menschliche Zusammenarbeit zu trainieren. Neue Techniken verbessern die Steuerbarkeit des Modells, das Verständnis für Nuancen und den natürlichen Gesprächsfluss. Das macht es besonders effektiv in der Schreib- und Designunterstützung, wo es eine stärkere ästhetische Intuition und Kreativität zeigt als frühere Versionen.  </p>
<p>In realen Anwendungen zeigt GPT-4.5 eine bemerkenswerte Vielseitigkeit. Dank seiner erweiterten Wissensbasis und verbesserten Argumentationsfähigkeiten eignet es sich für eine breite Palette von Aufgaben, von der detaillierten Erstellung von Inhalten bis hin zu anspruchsvollen Problemlösungen. Der CEO von OpenAI, Sam Altman, hat das Modell positiv beschrieben und seine &#8220;einzigartige Effektivität&#8221; hervorgehoben, obwohl es nicht in allen Benchmark-Kategorien führend ist.  </p>
<p>Die Einführungsstrategie für GPT-4.5 spiegelt den maßvollen Ansatz von OpenAI bei der Veröffentlichung leistungsstarker KI-Systeme wider. Zunächst steht es ChatGPT Pro-Abonnenten und Entwicklern auf kostenpflichtigen Ebenen über verschiedene APIs zur Verfügung. Das Unternehmen plant, den Zugang schrittweise auf ChatGPT Plus-, Team-, Edu- und Enterprise-Abonnenten auszuweiten. Diese schrittweise Einführung ermöglicht es OpenAI, die Leistung und Sicherheit zu überwachen, wenn die Nutzung zunimmt.  </p>
<h2>Leistungsmetriken: Eine vergleichende Analyse</h2>
<p>Bei der Untersuchung der technischen Fähigkeiten dieser fortschrittlichen KI-Modelle ist die Benchmark-Leistung der objektivste Maßstab für ihre Fähigkeiten. Gemini 2.5 Pro und GPT-4.5 zeigen jeweils einzigartige Stärken in verschiedenen Bereichen, wobei Benchmark-Tests ihre deutlichen Vorteile offenbaren. </p>
<table>
<colgroup>
<col>
<col>
<col>
<col>
<col></colgroup>
<tbody>
<tr>
<th colspan="1" rowspan="1">Benchmark</th>
<th colspan="1" rowspan="1">Gemini 2.5 Pro (03-25)</th>
<th colspan="1" rowspan="1">OpenAI GPT-4.5</th>
<th colspan="1" rowspan="1">Claude 3.7 Sonnet</th>
<th colspan="1" rowspan="1">Grok 3 Vorschau</th>
</tr>
<tr>
<td colspan="1" rowspan="1">LMArena (Gesamt)</td>
<td colspan="1" rowspan="1">#1</td>
<td colspan="1" rowspan="1">2</td>
<td colspan="1" rowspan="1">21</td>
<td colspan="1" rowspan="1">2</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Die letzte Prüfung der Menschheit (Keine Werkzeuge)</td>
<td colspan="1" rowspan="1">18.8%</td>
<td colspan="1" rowspan="1">6.4%</td>
<td colspan="1" rowspan="1">8.9%</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">GPQA Diamant (Einzelversuch)</td>
<td colspan="1" rowspan="1">84.0%</td>
<td colspan="1" rowspan="1">71.4%</td>
<td colspan="1" rowspan="1">78.2%</td>
<td colspan="1" rowspan="1">80.2%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">AIME 2025 (Einzelversuch)</td>
<td colspan="1" rowspan="1">86.7%</td>
<td colspan="1" rowspan="1">&#8211;</td>
<td colspan="1" rowspan="1">49.5%</td>
<td colspan="1" rowspan="1">77.3%</td>
</tr>
<tr>
<td colspan="1" rowspan="1">SWE-Bench Verifiziert</td>
<td colspan="1" rowspan="1">63.8%</td>
<td colspan="1" rowspan="1">38.0%</td>
<td colspan="1" rowspan="1">70.3%</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Aider Polyglot (Ganzes/Diff)</td>
<td colspan="1" rowspan="1">74.0% / 68.6%</td>
<td colspan="1" rowspan="1">44.9% diff</td>
<td colspan="1" rowspan="1">64,9% diff</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
<tr>
<td colspan="1" rowspan="1">MRCR (128k)</td>
<td colspan="1" rowspan="1">91.5%</td>
<td colspan="1" rowspan="1">48.8%</td>
<td colspan="1" rowspan="1">&#8211;</td>
<td colspan="1" rowspan="1">&#8211;</td>
</tr>
</tbody>
</table>
<p>Gemini 2.5 Pro zeigt eine außergewöhnliche Stärke bei <a href="https://www.digitalocean.com/community/tutorials/understanding-reasoning-in-llms" target="_blank" rel="noopener noreferrer">schlussfolgernden</a> Aufgaben, insbesondere beim Denken in langen Zusammenhängen und beim Behalten von Wissen. Bei der letzten Prüfung der Menschheit, bei der die Grenzen des menschlichen Wissens getestet werden, übertrifft er die Konkurrenz deutlich. Allerdings zeigt es relative Schwächen bei der Codegenerierung und der agentenbasierten Kodierung und kämpft gelegentlich mit der Faktizität in bestimmten Bereichen.  </p>
<p>GPT-4.5 hingegen zeigt besondere Exzellenz bei der Mustererkennung, der Generierung kreativer Erkenntnisse und dem wissenschaftlichen Denken. Es schneidet im <a href="https://arxiv.org/abs/2311.12022" target="_blank" rel="noopener noreferrer">GPQA-Diamant-Benchmark</a> am besten ab und zeigt starke Fähigkeiten in wissenschaftlichen Domänen. Das Modell weist auch eine verbesserte emotionale Intelligenz und ästhetische Intuition auf, was es für kreative und designorientierte Anwendungen besonders wertvoll macht. Ein entscheidender Vorteil ist die geringere Tendenz zur Generierung falscher Informationen im Vergleich zu seinen Vorgängern.   </p>
<p>In der Praxis ist Gemini 2.5 Pro die beste Wahl für Aufgaben, die tiefes logisches Denken, multimodales Verstehen und den Umgang mit extrem langen Kontexten erfordern. GPT-4.5 bietet Vorteile bei der kreativen Arbeit, bei der Designunterstützung und bei Anwendungen, bei denen sachliche Präzision und ein natürlicher Gesprächsfluss von größter Bedeutung sind. </p>
<h2>Anwendungen und Anwendungsfälle</h2>
<p>Während die Benchmark-Leistungen wertvolle technische Erkenntnisse liefern, liegt der wahre Maßstab für diese fortschrittlichen KI-Modelle in ihren praktischen Anwendungen in verschiedenen Bereichen. Sowohl Gemini 2.5 Pro als auch GPT-4.5 weisen unterschiedliche Stärken auf, die sie für verschiedene Anwendungsfälle geeignet machen. Unternehmen haben bereits damit begonnen, ihre Fähigkeiten zur Lösung komplexer Probleme zu nutzen. </p>
<h3>Gemini 2.5 Pro in wissenschaftlichen und technischen Bereichen</h3>
<p>Die außergewöhnlichen Argumentationsfähigkeiten und das umfangreiche Kontextfenster von Gemini 2.5 Pro machen es besonders wertvoll für wissenschaftliche Forschung und technische Anwendungen. Seine Fähigkeit, <a href="https://cloud.google.com/use-cases/multimodal-ai?hl=en" target="_blank" rel="noopener noreferrer">multimodale</a> Daten &#8211; einschließlich Text, Bilder, Audio, Video und Code &#8211; zu verarbeiten und zu analysieren, ermöglicht es, komplexe Probleme zu bewältigen, die eine Synthese von Informationen aus verschiedenen Quellen erfordern. Diese Vielseitigkeit eröffnet zahlreiche Möglichkeiten in Branchen, die technische Präzision und umfassende Analysen erfordern.  </p>
<ol class="tight" data-tight="true">
<li><strong>Wissenschaftliche Forschung und Datenanalyse</strong> &#8211; Die starke Leistung von Gemini 2.5 Pro bei Benchmarks wie GPQA (79,7%) zeigt, dass es Forschern bei der Analyse komplexer wissenschaftlicher Literatur, der Erstellung von Hypothesen und der Interpretation von Versuchsergebnissen helfen kann.</li>
<li><strong>Software-Entwicklung und -Engineering</strong> &#8211; Das Modell zeichnet sich durch die Erstellung von Webanwendungen, die Durchführung von Code-Transformationen und die Entwicklung komplexer Programme aus (63,8% im SWE-Bench Verified unter Verwendung benutzerdefinierter Agenten-Setups).</li>
<li><strong>Medizinische Diagnose und Gesundheitsfürsorge</strong> &#8211; Seine Schlussfolgerungsfunktionen ermöglichen die Analyse medizinischer Bilder zusammen mit Patientendaten, um medizinisches Fachpersonal bei Diagnoseprozessen zu unterstützen.</li>
<li><strong>Big Data-Analysen und Wissensmanagement</strong> &#8211; Das Kontextfenster mit 1 Million Token (bald auf 2 Millionen erweiterbar) ermöglicht die Verarbeitung ganzer Datensätze und Code-Repositories in einer einzigen Eingabeaufforderung</li>
</ol>
<h3>GPT-4.5&#8217;s Exzellenz in kreativen und kommunikativen Aufgaben</h3>
<p>Im Gegensatz dazu zeigt GPT-4.5 eine besondere Stärke bei Aufgaben, die eine nuancierte Kommunikation, kreatives Denken und ästhetisches Urteilsvermögen erfordern. OpenAI hat dieses Modell speziell für die menschliche Zusammenarbeit trainiert, was zu verbesserten Fähigkeiten bei der Erstellung von Inhalten, der Designunterstützung und der natürlichen Kommunikation führt. </p>
<ol class="tight" data-tight="true">
<li><strong>Erstellung von Inhalten und Schreiben</strong> &#8211; GPT-4.5 zeigt ein verbessertes ästhetisches Gespür und Kreativität, was es für die Erstellung von Marketingtexten, Artikeln, Drehbüchern und anderen schriftlichen Inhalten wertvoll macht.</li>
<li><strong>Zusammenarbeit beim Design</strong> &#8211; Das verbesserte Verständnis von Nuancen und Kontexten macht das Modell zu einem effektiven Partner in Designprozessen, von der Konzeption bis zur Verfeinerung</li>
<li><strong>Kundenengagement</strong> &#8211; Mit einer größeren emotionalen Intelligenz bietet GPT-4.5 angemessenere und natürlichere Reaktionen im Kundenservice.</li>
<li><strong>Entwicklung von Bildungsinhalten</strong> &#8211; Das Modell eignet sich hervorragend, um Erklärungen auf unterschiedliche Wissensstände und Lernstile abzustimmen.</li>
</ol>
<p>Unternehmen aus verschiedenen Branchen integrieren diese Modelle bereits in ihre Arbeitsabläufe. Microsoft hat die Technologie von OpenAI direkt in seine Produktsuite integriert, so dass Unternehmensanwender unmittelbaren Zugang zu den Fähigkeiten von GPT-4.5 haben. In ähnlicher Weise findet Googles Gemini 2.5 Pro Anwendung in Forschungsinstituten und Technologieunternehmen, die seine Stärken im Bereich des Denkens und der Multimodalität nutzen wollen.  </p>
<p>Die komplementären Stärken dieser Modelle lassen vermuten, dass viele Unternehmen je nach Anwendungsfall von der Nutzung beider Modelle profitieren können. Mit der weiteren Reifung dieser Technologien können wir mit immer ausgefeilteren Anwendungen rechnen, die Wissensarbeit, kreative Prozesse und Problemlösungen in allen Branchen grundlegend verändern. </p>
<h2>Die Zukunft der KI: Was kommt als Nächstes?</h2>
<p>Während Gemini 2.5 Pro und GPT-4.5 die Grenzen des Machbaren verschieben, wird die zukünftige Entwicklung der KI immer deutlicher. Das Engagement von Google, &#8220;Denkfähigkeiten direkt in alle Modelle einzubauen&#8221;, deutet auf eine Zukunft hin, in der logisches Denken zum Standard in allen KI-Systemen wird. Auch der Ansatz von OpenAI, &#8220;unüberwachtes Lernen und schlussfolgerndes Denken zu skalieren&#8221;, deutet auf Modelle hin, deren Fähigkeiten, menschenähnliche Inhalte zu verstehen und zu generieren, ständig zunehmen.  </p>
<p>In den kommenden Jahren werden wir wahrscheinlich KI-Modelle sehen, deren Kontextfenster über die derzeitigen Grenzen hinaus dramatisch erweitert werden, die anspruchsvollere Schlussfolgerungen ziehen und die nahtlose Integration über alle Modalitäten hinweg ermöglichen. Wir könnten auch den Aufstieg wirklich autonomer KI-Agenten erleben, die in der Lage sind, komplexe Aufgaben mit minimaler menschlicher Aufsicht auszuführen. Diese Fortschritte bringen jedoch auch erhebliche Herausforderungen mit sich. In dem Maße, in dem die KI-Fähigkeiten zunehmen, wird es auch immer wichtiger, potenzielle Risiken in Bezug auf Fehlinformationen, Datenschutz und die Verdrängung menschlicher Arbeitskraft zu bewältigen.   </p>
<p>Ethische Überlegungen müssen bei der Entwicklung von KI an vorderster Front stehen. OpenAI erkennt an, dass &#8220;jede Steigerung der Modellfähigkeiten eine Gelegenheit ist, die Modelle sicherer zu machen&#8221;, und betont die doppelte Verantwortung für Fortschritt und Schutz. Die KI-Gemeinschaft muss robuste Governance-Rahmenwerke entwickeln, die Innovationen fördern und gleichzeitig vor Missbrauch schützen.  </p>
<p>Die KI-Revolution, für die Gemini 2.5 Pro und GPT-4.5 stehen, steht erst am Anfang. Während das Tempo des Fortschritts sowohl Aufregung als auch Besorgnis hervorruft, ist eines klar: Die Zukunft der KI wird nicht nur durch die technologischen Fähigkeiten definiert, sondern auch dadurch, wie wir sie zum Nutzen der Menschen einsetzen. Wenn wir einer verantwortungsvollen Entwicklung den Vorrang geben, die das menschliche Potenzial erweitert, anstatt es zu ersetzen, können wir sicherstellen, dass die nächste Generation von KI-Modellen als leistungsstarke Werkzeuge für den kollektiven Fortschritt dienen.  </p>
<p>The post <a href="https://meetcody.ai/de/blog/gemini-2-5-pro-und-gpt-4-5-wer-fuehrt-die-ki-revolution-an/">Gemini 2.5 Pro und GPT-4.5: Wer führt die KI-Revolution an?</a> appeared first on <a href="https://meetcody.ai/de/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>GPT-4.5 gegen Claude 3.7 Sonnet: Ein tiefes Eintauchen in die KI-Fortschritte</title>
		<link>https://meetcody.ai/de/blog/gpt-4-5-gegen-claude-3-7-sonnet-ein-tiefes-eintauchen-in-die-ki-fortschritte/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Sun, 02 Mar 2025 15:52:48 +0000</pubDate>
				<category><![CDATA[Unkategorisiert]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/gpt-4-5-gegen-claude-3-7-sonnet-ein-tiefes-eintauchen-in-die-ki-fortschritte/</guid>

					<description><![CDATA[<p>Die Landschaft der künstlichen Intelligenz entwickelt sich schnell weiter, wobei zwei aktuelle Modelle besonders hervorstechen: GPT-4.5 und Claude 3.7 Sonnet. Diese fortschrittlichen Sprachmodelle stellen bedeutende Sprünge in den KI-Fähigkeiten dar und bringen jeweils einzigartige Stärken mit sich. GPT-4.5 von OpenAI ist zwar nur ein kleines Update, bietet aber Verbesserungen bei der Reduzierung von Halluzinationen und<a class="excerpt-read-more" href="https://meetcody.ai/de/blog/gpt-4-5-gegen-claude-3-7-sonnet-ein-tiefes-eintauchen-in-die-ki-fortschritte/" title="ReadGPT-4.5 gegen Claude 3.7 Sonnet: Ein tiefes Eintauchen in die KI-Fortschritte">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/de/blog/gpt-4-5-gegen-claude-3-7-sonnet-ein-tiefes-eintauchen-in-die-ki-fortschritte/">GPT-4.5 gegen Claude 3.7 Sonnet: Ein tiefes Eintauchen in die KI-Fortschritte</a> appeared first on <a href="https://meetcody.ai/de/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="mb-2 text-3xl font-bold">Die Landschaft der künstlichen Intelligenz <a href="https://www.chatbase.co/blog/ai-trends" target="_blank" rel="noopener noreferrer">entwickelt sich schnell weiter</a>, wobei zwei aktuelle Modelle besonders hervorstechen: GPT-4.5 und Claude 3.7 Sonnet. Diese fortschrittlichen Sprachmodelle stellen bedeutende Sprünge in den KI-Fähigkeiten dar und bringen jeweils einzigartige Stärken mit sich. </div>
<div class="prose mt-8 max-w-full">
<p>GPT-4.5 von OpenAI ist zwar nur ein kleines Update, bietet aber <a href="https://research.aimultiple.com/future-of-large-language-models/" target="_blank" rel="noopener noreferrer">Verbesserungen</a> bei der Reduzierung von Halluzinationen und der Verbesserung der natürlichen Konversation. Auf der anderen Seite hat Anthropics Claude 3.7 Sonnet Aufmerksamkeit für seine außergewöhnlichen Kodierfähigkeiten und seine Kosteneffizienz erregt. Beide Modelle richten sich an ein breites Spektrum von Nutzern, von Entwicklern und Forschern bis hin zu Unternehmen, die innovative KI-Lösungen suchen.  </p>
<p>Da diese Modelle die Grenzen des Machbaren in der KI verschieben, verändern sie die Erwartungen und Anwendungen in verschiedenen Branchen und schaffen die Voraussetzungen für weitere transformative Fortschritte in der nahen Zukunft.</p>
<h2>Hauptmerkmale von GPT-4.5 und Claude 3.7 Sonnet</h2>
<p>Sowohl GPT-4.5 als auch Claude 3.7 Sonnet bringen bedeutende Fortschritte in der KI-Landschaft, jede mit ihren eigenen Stärken. GPT-4.5, das als OpenAIs &#8220;größtes und kenntnisreichstes Modell bisher&#8221; beschrieben wird, konzentriert sich auf die Erweiterung des unüberwachten Lernens, um Wortwissen und Intuition zu verbessern und gleichzeitig Halluzinationen zu reduzieren. Dieses Modell zeichnet sich dadurch aus, dass es die Argumentationsfähigkeiten verbessert und die Chat-Interaktionen durch ein tieferes Kontextverständnis ergänzt.  </p>
<p>Auf der anderen Seite führt Claude 3.7 Sonnet ein bahnbrechendes <a href="https://www.wired.com/story/anthropic-world-first-hybrid-reasoning-ai-model/" target="_blank" rel="noopener noreferrer">hybrides Denkmodell</a> ein, das sowohl schnelle Antworten als auch erweitertes, schrittweises Denken ermöglicht. Es glänzt vor allem in den Bereichen Codierung und Front-End-Web-Entwicklung, wo es hervorragende Fähigkeiten zum Befolgen von Anweisungen und zum allgemeinen logischen Denken zeigt. </p>
<h3>Wichtige Verbesserungen:</h3>
<ul class="tight" data-tight="true">
<li><strong>GPT-4.5</strong>: Verbessertes unüberwachtes Lernen und Konversationsfähigkeiten</li>
<li><strong>Claude 3.7 Sonnet</strong>: Fortgeschrittenes hybrides Denken und überlegene Codierfähigkeiten</li>
<li><strong>Beide Modelle</strong>: Verbesserte multimodale Fähigkeiten und adaptive Argumentation</li>
</ul>
<h2>Leistung und Bewertung</h2>
<table>
<colgroup>
<col>
<col>
<col></colgroup>
<tbody>
<tr>
<th colspan="1" rowspan="1">Aufgabe</th>
<th colspan="1" rowspan="1">GPT-4.5 (vs 4o)</th>
<th colspan="1" rowspan="1">Claude 3.7 Sonnet* (vs 3.5)</th>
</tr>
<tr>
<td colspan="1" rowspan="1">Codierung</td>
<td colspan="1" rowspan="1">Verbessert</td>
<td colspan="1" rowspan="1">Deutlich bessere Leistung als</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Mathematik</td>
<td colspan="1" rowspan="1">Mäßige Verbesserung</td>
<td colspan="1" rowspan="1">Besser bei AIME&#8217;24 Problemen</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Argumentation</td>
<td colspan="1" rowspan="1">Ähnliche Leistung</td>
<td colspan="1" rowspan="1">Ähnliche Leistung</td>
</tr>
<tr>
<td colspan="1" rowspan="1">Multimodal</td>
<td colspan="1" rowspan="1">Ähnliche Leistung</td>
<td colspan="1" rowspan="1">Ähnliche Leistung</td>
</tr>
</tbody>
</table>
<p><em>* Ohne langes Nachdenken</em></p>
<p>GPT-4.5 hat bemerkenswerte Verbesserungen bei Chat-Interaktionen und weniger Halluzinationen gezeigt. Menschliche Tester haben ihn im Vergleich zu den Vorgängermodellen als genauer und sachlicher bewertet, was ihn zu einem zuverlässigeren Gesprächspartner macht. </p>
<p><img decoding="async" class="aligncenter wp-image-50752 size-full" src="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxcu8pbfgpg50z3vayf8qz2j48w88v2dsz64zmx0ceoewmsmdljsogue_2jaraxulupovh-9fvfu1difqlvifvpo6pgnzcskmyexz8rg-bojgew1ws9hh0jxjm4rxwrnuuf_eqngjq.avif" alt="GPT-4.5 Benchmarks" width="1600" height="806"></p>
<p>Claude 3.7 Sonnet hingegen demonstriert außergewöhnliche Effizienz bei Echtzeitanwendungen und Codierungsaufgaben. Bei SWE-bench Verified und TAU-bench hat er die beste Leistung erzielt und damit seine Fähigkeiten bei der Softwareentwicklung und der Lösung komplexer Probleme unter Beweis gestellt. Darüber hinaus eignet er sich aufgrund seines höheren Durchsatzes im Vergleich zum GPT-4.5 besonders für Aufgaben, die schnelle Antworten und die Verarbeitung großer Datenmengen erfordern.  </p>
<div id="attachment_50761" style="width: 1610px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-50761" class="wp-image-50761 size-full" src="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg.avif" alt="Claude 3.7 Sonett-Benchmarks" width="1600" height="1452" srcset="https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg.avif 1600w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-300x272.avif 300w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-1024x929.avif 1024w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-768x697.avif 768w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-1536x1394.avif 1536w, https://meetcody.ai/wp-content/uploads/2025/03/ad_4nxfwlui9hnxwa7m9pwxfamvld-pfnfd2qx4zwapkokerz698-so8gbeibusnnfj1viwjndt46kkam86tzmuzfiboqsnboa-xjwtam6kurrcs5uox4bvfbraqim0usgr8jxxpun57zg-714x648.avif 714w" sizes="auto, (max-width: 1600px) 100vw, 1600px" /><p id="caption-attachment-50761" class="wp-caption-text">Quelle: Anthropic</p></div>
<h2>Preisgestaltung und Zugänglichkeit</h2>
<p>Der GPT-4.5 bietet zwar beeindruckende Funktionen, hat aber auch einen hohen Preis. Der Preis ist 75-mal höher als der seines Vorgängers GPT-4, ohne dass es eine klare Begründung für diese beträchtliche Erhöhung gibt. Diese Preisstrategie könnte dazu führen, dass viele potenzielle Nutzer nicht in den Genuss dieses Produkts kommen.  </p>
<p>Im Gegensatz dazu bietet Claude 3.7 Sonnet eine günstigere Option. Seine Preisstruktur ist deutlich wettbewerbsfähiger: </p>
<ol class="tight" data-tight="true">
<li>25 Mal billiger für Eingabe-Token im Vergleich zu GPT-4.5</li>
<li>10 Mal billiger für Output-Token</li>
<li>Spezifische Preise: $3 pro Million Input-Token und $15 pro Million Output-Token</li>
</ol>
<p>Was die Verfügbarkeit betrifft, so ist GPT-4.5 derzeit für GPT Pro-Nutzer und Entwickler über die API zugänglich. Es ist geplant, den Zugang auf Plus-Nutzer, Bildungseinrichtungen und Teams auszuweiten. Claude 3.7 Sonnet hingegen bietet einen breiteren Zugang über alle Claude-Tarife (Free, Pro, Team, Enterprise) sowie über die Anthropic API, Amazon Bedrock und die Vertex AI von Google Cloud. </p>
<p>Diese Unterschiede in der Preisgestaltung und Zugänglichkeit wirken sich erheblich auf die potenzielle Akzeptanz und die Anwendungsfälle für jedes Modell aus, wobei Claude 3.7 Sonnet aufgrund seiner Kosteneffizienz und breiteren Verfügbarkeit potenziell für eine größere Anzahl von Nutzern attraktiv ist.</p>
<h2>Anwendungsfälle</h2>
<p>Sowohl GPT-4.5 als auch Claude 3.7 Sonnet bieten einzigartige Funktionen, die sich für die verschiedensten <a href="https://aloa.co/blog/large-language-model-applications" target="_blank" rel="noopener noreferrer">Anwendungen</a> in der Praxis eignen. GPT-4.5 zeichnet sich als fortschrittlicher <a href="https://meetcody.ai/use-cases/factual-research-assistant/">Gesprächspartner</a> aus, der seine Vorgängermodelle an Genauigkeit übertrifft und Halluzinationen reduziert. Sein verbessertes kontextbezogenes Verständnis macht es ideal für den Kundenservice, die Erstellung von Inhalten und personalisierte Lernerfahrungen.  </p>
<p>Claude 3.7 Sonnet hingegen glänzt im Bereich der Kodierung und Softwareentwicklung. Seine agentenbasierten Kodierungsfunktionen, die durch <a href="https://docs.anthropic.com/en/docs/agents-and-tools/claude-code/overview" target="_blank" rel="noopener noreferrer">Claude Code</a> demonstriert werden, automatisieren Aufgaben wie die Suche nach Code, die Durchführung von Tests und die Verwendung von Befehlszeilentools. Dies macht es zu einem unschätzbaren Vorteil für Unternehmen, die ihre Entwicklungsprozesse rationalisieren möchten.  </p>
<h2>Zukunftsperspektiven und Fazit</h2>
<p>Die Veröffentlichung von GPT-4.5 und Claude 3.7 Sonnet stellt einen wichtigen Meilenstein in der KI-Entwicklung dar und schafft die Voraussetzungen für weitere bahnbrechende Fortschritte. Während GPT-4.5 als ein kleines Update angesehen wird, legt es den Grundstein für zukünftige Modelle mit erweiterten Argumentationsfähigkeiten. Claude 3.7 Sonnet stellt mit seinem hybriden Denkmodell einen dynamischen Wandel in der KI-Landschaft dar, der die Richtung künftiger Entwicklungen beeinflussen könnte.  </p>
<p>Im Zuge der Weiterentwicklung dieser Modelle können wir mit weiteren Verbesserungen beim unüberwachten Lernen, beim logischen Denken und bei aufgabenspezifischen Optimierungen rechnen. Die komplementäre Natur des unüberwachten Lernens und des logischen Denkens lässt vermuten, dass zukünftige KI-Modelle wahrscheinlich noch ausgefeiltere Problemlösungsfähigkeiten aufweisen werden. </p>
</div>
<p>The post <a href="https://meetcody.ai/de/blog/gpt-4-5-gegen-claude-3-7-sonnet-ein-tiefes-eintauchen-in-die-ki-fortschritte/">GPT-4.5 gegen Claude 3.7 Sonnet: Ein tiefes Eintauchen in die KI-Fortschritte</a> appeared first on <a href="https://meetcody.ai/de/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Perplexity Comet: Mutiger Sprung in die Agentensuche</title>
		<link>https://meetcody.ai/de/blog/perplexity-comet-mutiger-sprung-in-die-agentensuche/</link>
		
		<dc:creator><![CDATA[Om Kamath]]></dc:creator>
		<pubDate>Thu, 27 Feb 2025 17:53:18 +0000</pubDate>
				<category><![CDATA[Unkategorisiert]]></category>
		<guid isPermaLink="false">https://meetcody.ai/blog/perplexity-comet-mutiger-sprung-in-die-agentensuche/</guid>

					<description><![CDATA[<p>Perplexity, der KI-gestützte Suchmaschinengigant, schlägt mit seinem neuesten Projekt Wellen in der Tech-Welt: einem revolutionären Webbrowser namens Comet. Comet wird als &#8220;A Browser for Agentic Search by Perplexity&#8221; bezeichnet und stellt einen mutigen Schritt in den wettbewerbsorientierten Browsermarkt dar. Während Details über das Design und das Veröffentlichungsdatum noch geheim gehalten werden, hat das Unternehmen bereits<a class="excerpt-read-more" href="https://meetcody.ai/de/blog/perplexity-comet-mutiger-sprung-in-die-agentensuche/" title="ReadPerplexity Comet: Mutiger Sprung in die Agentensuche">... Read more &#187;</a></p>
<p>The post <a href="https://meetcody.ai/de/blog/perplexity-comet-mutiger-sprung-in-die-agentensuche/">Perplexity Comet: Mutiger Sprung in die Agentensuche</a> appeared first on <a href="https://meetcody.ai/de/">Cody - The AI Trained on Your Business</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="relative mt-8">
<div class="prose max-w-full">
<p>Perplexity, der KI-gestützte Suchmaschinengigant, schlägt mit seinem neuesten Projekt Wellen in der Tech-Welt: einem revolutionären Webbrowser namens Comet. Comet wird als &#8220;A Browser for <a href="https://www.uipath.com/ai/agentic-ai" target="_blank" rel="noopener noreferrer">Agentic</a> Search by Perplexity&#8221; bezeichnet und stellt einen mutigen Schritt in den wettbewerbsorientierten Browsermarkt dar. Während Details über das Design und das Veröffentlichungsdatum noch geheim gehalten werden, hat das Unternehmen bereits eine Anmeldeliste veröffentlicht und verkündet, dass Comet &#8220;in Kürze&#8221; erscheinen wird. </p>
<p>Dieser Schritt fällt in eine Zeit bedeutenden Wachstums für Perplexity. Das Unternehmen, das mit beeindruckenden 9 Milliarden Dollar bewertet wird, verarbeitet derzeit wöchentlich über 100 Millionen Suchanfragen über seine Suchmaschine. Die Einführung von Comet zeigt, dass Perplexity seinen Einfluss über die Suche hinaus ausweiten und die Art und Weise, wie Nutzer mit dem Internet interagieren, verändern möchte. Comet wird ein zentrales Element in Perplexitys wachsendem digitalen Ökosystem werden.   </p>
<h2>Hauptmerkmale von Comet</h2>
<p>Comet nutzt die &#8220;Agentic Search&#8221;, eine leistungsstarke Funktion, die eine autonome Aufgabenausführung ermöglicht. Das bedeutet, dass Benutzer komplexe Aufgaben wie die Buchung von Flügen oder die Verwaltung von Reservierungen an den Browser delegieren können, was die Produktivität erheblich steigert. </p>
<p>Comet basiert auf <a href="https://www.youtube.com/watch?v=SrJrd37xzBg" target="_blank" rel="noopener noreferrer">Chromium</a> und gewährleistet eine plattformübergreifende Kompatibilität, die ein nahtloses Erlebnis auf Desktop- und Mobilgeräten ermöglicht. Dieses Design kombiniert die Stabilität etablierter Browsertechnologie mit den innovativen KI-Innovationen von Perplexity. </p>
<ul class="tight" data-tight="true">
<li><strong>Tiefe Integration der Forschung:</strong> Comet bietet umfassende Analysewerkzeuge, die eine tiefgreifende Recherche direkt im Browser ermöglichen.</li>
<li><strong>Informationsverarbeitung in Echtzeit:</strong> Die Benutzer profitieren von aktuellen Informationen mit Quellenangaben, die Genauigkeit und Glaubwürdigkeit gewährleisten.</li>
<li><strong>Umfangreiche App-Integrationen:</strong> Mit der Unterstützung von über 800 Anwendungen will Comet zu einem zentralen Knotenpunkt für die digitalen Aktivitäten der Benutzer werden.</li>
</ul>
<p>Durch die Verschmelzung von KI mit traditionellen Browserfunktionen wird Comet die Art und Weise verändern, wie Nutzer mit dem Web interagieren, und möglicherweise die Landschaft der Produktivität und Informationsverarbeitung verändern. Wie Perplexity es ausdrückt, ist Comet wirklich &#8220;ein Browser für die agentenbasierte Suche&#8221; und verspricht eine neue Ära der intelligenten Webnavigation. </p>
<h2>Strategische Positionierung und Marktkontext</h2>
<p>Mit Comet wagt Perplexity den Einstieg in den hart umkämpften Browsermarkt und sieht sich mit etablierten Anbietern wie Google Chrome und neuen KI-gestützten Browsern wie Dia von The Browser Company konfrontiert. Comet hebt sich jedoch durch seine einzigartige Positionierung als KI-gestützter, Chromium-basierter Browser mit fortschrittlichen Funktionen zur Aufgabenautomatisierung von den herkömmlichen Angeboten ab. </p>
<p>Während Google Chrome über eine große Nutzerbasis und grundlegende KI-Funktionen verfügt, will sich Comet durch seine ausgefeilten KI-Funktionen, umfangreiche App-Integrationen und tiefgreifende Recherchetools abheben &#8211; und das alles ohne zusätzliche Erweiterungen. Dieser Ansatz könnte Nutzer ansprechen, die ein intelligenteres und schlankeres Browsing-Erlebnis suchen und so möglicherweise die Dominanz von Chrome in bestimmten Segmenten herausfordern. </p>
<p>Die Marketingstrategie von Perplexity für Comet nutzt geschickt die bestehende Nutzerbasis der Suchmaschine, die bereits über 100 Millionen Suchanfragen pro Woche verarbeitet. Durch das Anzapfen dieses etablierten Publikums will Perplexity eine reibungslosere Einführung von Comet ermöglichen, was dem Unternehmen einen erheblichen Vorteil bei der Nutzerakquise und -bindung in der konkurrierenden Browserlandschaft verschaffen könnte. </p>
<h2>Rechtliche und ethische Erwägungen</h2>
<p>Als Perplexity mit Comet den Einstieg in den Browsermarkt wagt, steht das Unternehmen nicht nur vor technologischen Herausforderungen, sondern auch vor erheblichen rechtlichen und ethischen Hürden. Das Unternehmen hat sich kürzlich in Rechtsstreitigkeiten mit großen Verlagen über die Nutzung von Inhalten verwickelt gesehen. Dow Jones von News Corp und die NY Post haben Klage gegen Perplexity eingereicht. Sie beschuldigen das Unternehmen der unerlaubten Vervielfältigung von Inhalten und bezeichnen es als &#8220;Content Kleptocracy&#8221;. Darüber hinaus hat die New York Times eine Unterlassungserklärung abgegeben und damit den rechtlichen Druck weiter erhöht.   </p>
<p>Als Reaktion auf diese Vorwürfe behauptet Perplexity, dass es die Inhalte der Verleger respektiert und hat ein Programm zur Umsatzbeteiligung für Medienunternehmen eingeführt. Dieser Schritt scheint ein Versuch zu sein, Bedenken auszuräumen und eine kooperativere Beziehung zu den Urhebern von Inhalten aufzubauen. Es bleibt jedoch abzuwarten, wie wirksam dieses Programm bei der Beilegung von Rechtsstreitigkeiten sein wird.  </p>
<h3>F: Was sind die ethischen Auswirkungen des KI-gesteuerten Surfens im Internet?</h3>
<p>A: Die Einführung von KI-gesteuerten Browsern wie Comet wirft wichtige ethische Fragen zum Datenschutz und zur Benutzerautonomie auf. Cybersecurity-Analysten wie Mark Thompson haben Bedenken darüber geäußert, wie <a href="https://www.ibm.com/think/topics/ai-ethics" target="_blank" rel="noopener noreferrer">Nutzerdaten</a> bei der Verwendung von KI-gesteuerten Browsing-Tools gesammelt, verarbeitet und möglicherweise weitergegeben werden könnten. Comet verspricht, die Interaktion im Web durch Funktionen wie die Agentensuche und umfangreiche App-Integrationen zu revolutionieren, und verstärkt damit die Notwendigkeit transparenter Datenpraktiken und eines soliden Datenschutzes.  </p>
<h2>Expertenmeinungen und Brancheneinblicke</h2>
<p>Während sich der Comet-Browser von Perplexity auf seine Markteinführung vorbereitet, äußern sich Experten zu seinen möglichen Auswirkungen und Folgen. Dr. Sarah Chen, eine bekannte KI-Forscherin, ist der Meinung, dass Comet dank seiner fortschrittlichen <a href="https://meetcody.ai/blog/top-ai-web-browsing-agents/" target="_blank" rel="noopener noreferrer">agentenbasierten Suchfunktionen</a> die Art und Weise, wie Nutzer mit Online-Informationen umgehen, grundlegend verändern könnte. Diese Sichtweise steht im Einklang mit dem raschen Wachstum von Perplexity, dessen KI-Suchmaschine inzwischen rund 100 Millionen Anfragen pro Woche verarbeitet.  </p>
<p>Trotz dieser Bedenken erwarten Branchenbeobachter ein deutliches Wachstum bei der Integration von KI in Webtechnologien. Die Bewertung von Perplexity mit 9 Milliarden Dollar und seine Positionierung als Top-Wettbewerber im Bereich der KI-Suchmaschinen unterstreichen diesen Trend. Comet steht nicht nur für ein neues Produkt, sondern auch für einen möglichen Wandel in der Art und Weise, wie wir das Internet wahrnehmen und mit ihm interagieren, wobei Innovation und die Notwendigkeit einer verantwortungsvollen KI-Implementierung in Einklang gebracht werden müssen.  </p>
<h2>Wird dies die Suche verändern?</h2>
<p>Die Vision des Unternehmens, das Web-Browsing neu zu erfinden, ähnlich wie sein Ansatz bei Suchmaschinen, deutet auf eine Zukunft hin, in der KI-gesteuerte Browser die Norm werden könnten. Mit der raschen Expansion von Perplexity und der Einführung innovativer Produkte ist Comet in der Lage, von dem wachsenden Trend zur Integration von KI in Webtechnologien zu profitieren. </p>
<p>Auf dem Browsermarkt könnte es zu bedeutenden Veränderungen kommen, da sich die Nutzer an intelligentere, aufgabenorientierte Browsing-Erlebnisse gewöhnen. Perplexitys Fokus auf agentenbasierte Suchfunktionen in Comet könnte die digitale Interaktion neu definieren, komplexe Online-Aufgaben vereinfachen und die Surfgewohnheiten verändern. Da KI weiterhin verschiedene Aspekte der Technologie durchdringt, stellt Comet einen mutigen Schritt in Richtung einer Zukunft dar, in der Webbrowser als intelligente Assistenten fungieren, die die Produktivität steigern und die Art und Weise, wie wir durch die digitale Welt navigieren, verändern.  </p>
</div>
</div>
<p>The post <a href="https://meetcody.ai/de/blog/perplexity-comet-mutiger-sprung-in-die-agentensuche/">Perplexity Comet: Mutiger Sprung in die Agentensuche</a> appeared first on <a href="https://meetcody.ai/de/">Cody - The AI Trained on Your Business</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
