Da wir ständig bestrebt sind, das Benutzererlebnis zu verbessern, freuen wir uns, eine weitere monumentale Ergänzung zu unserem Arsenal an Funktionen ankündigen zu können: eine reibungslose und nahtlose Integration von Cody AI für Discord. Als eine der am meisten erwarteten Integrationen bringen wir Ihre Discord-Server auf die nächste Stufe. Ganz gleich, ob Sie leidenschaftliche Diskussionen über Spiele anheizen, auf wissenschaftliche Ressourcen für Hausaufgaben zugreifen oder einfach nur interaktive Gespräche führen möchten – Cody AI ist Ihr engagierter Assistent.
So fügen Sie Cody AI zu Ihrem Discord-Server hinzu:
Um den Bot auf Ihren Server einzuladen, verwenden Sie diesen Link oder Sie können den Abschnitt Integrationen in den Cody AI-Einstellungen besuchen.
Melden Sie sich bei Ihrem Discord-Konto an.
Wählen Sie den Server aus, zu dem Sie den Cody-Bot hinzufügen möchten.
Legen Sie den API-Schlüssel mit der Option /set-cody-token Befehl in einem beliebigen Textkanal. Das Cody AI Token kann nur von den Server-Administratoren festgelegt werden. Wenn Sie Hilfe bei der Beschaffung des API-Schlüssels benötigen, lesen Sie diesen Artikel.
Weisen Sie einen Bot einem Textkanal zu, indem Sie die /assign-bot Befehl. Sie können diesen Befehl für verschiedene Kanäle verwenden, um verschiedene Bots für jeden Kanal einzustellen.
Um Fragen an Ihren Bot zu stellen, geben Sie einfach ein @Cody gefolgt von Ihrer Frage. Cody AI wird einen neuen Thread im Channel erstellen, um Ihre Frage zu beantworten. Alle Nachrichten in diesem Thread werden als Chatverlauf betrachtet. Wenn Sie eine neue Unterhaltung beginnen möchten, verlassen Sie das Thema und erwähnen Sie @Cody wieder.
Ihre Meinung ist wichtig
Das Feedback der Benutzer hat uns schon immer angetrieben. Ihre Einsichten und Erfahrungen sind unsere Richtschnur. Während Sie durch die Cody-Discord-Integration navigieren, laden wir Sie ein, uns Ihre Gedanken und Vorschläge mitzuteilen. Verbinden Sie sich mit uns auf unserem eigenen Discord-Server oder kontaktieren Sie uns über die Schaltfläche “Hilfe erhalten” in der Cody AI Web-App. Deine Reise mit Cody auf Discord ist uns wichtig, und wir wollen sie so bereichernd wie möglich gestalten. Für weitere Integrationen lesen Sie über unsere neue ai Zapier Integration.
In der heutigen schnelllebigen digitalen Welt ist die Integration von KI in unsere täglichen Kommunikationsmittel nicht nur ein Luxus, sondern eine Notwendigkeit. Wir haben diesen Bedarf erkannt und freuen uns, die KI-Slack-Integrationsfunktion mit Cody anzukündigen. Diese Integration wurde entwickelt, um das Slack-Erlebnis für Unternehmen und Konzerne zu verbessern, die sich bei ihrer Kommunikation stark auf Slack verlassen. Durch die Integration von Cody-Bots, die auf Unternehmensdokumente trainiert sind, können Nutzer nun einen strafferen und effizienteren Kommunikationsprozess innerhalb ihrer Slack-Arbeitsbereiche genießen.
Wie Sie Cody AI in Ihren Slack-Arbeitsbereich integrieren
Fügen Sie den Cody Bot zu Ihrem Slack-Arbeitsbereich hinzu, indem Sie zu Ihren Cody-Einstellungen > Integrationen navigieren und auf Slack installieren klicken.
Beziehen Sie den API-Schlüssel von Cody Settings > API Keys, indem Sie auf Create API Key klicken.
Suchen Sie in Ihrem Slack-Arbeitsbereich nach Ihrer Cody-App und legen Sie den API-Schlüssel im Bereich Home fest.
Gehen Sie zu einem beliebigen Kanal in Ihrem Arbeitsbereich und verwenden Sie den Befehl /assign-bot um einen Bot aus Ihrem Cody-Konto diesem Kanal zuzuweisen.
Um Fragen an Ihren Bot zu stellen, geben Sie einfach ein @Cody gefolgt von Ihrer Frage. Cody wird einen neuen Thread im Channel erstellen, um Ihre Frage zu beantworten. Alle Nachrichten in diesem Thread werden als Chatverlauf betrachtet. Wenn Sie eine neue Unterhaltung beginnen möchten, verlassen Sie das Thema und erwähnen Sie @Codywieder.
Die Zukunft der Cody AI-Integration
Diese KI-Slack-Integration ist eine unserer Pionierleistungen bei der Integration von Drittanbieteranwendungen. Die überwältigende Nachfrage und Beliebtheit dieser Funktion bei unseren Nutzern war die treibende Kraft hinter ihrer Einführung. Und das ist erst der Anfang! Wir sind gerade dabei, weitere Funktionen und Integrationen zu entwickeln, unter anderem fürDiscord und Zapier. Diese spannenden Aktualisierungen werden in naher Zukunft eingeführt werden.
Ihr Feedback ist wichtig
Ihre Erkenntnisse und Ihr Feedback sind für uns von unschätzbarem Wert. Sie bestimmen die Richtung unserer Innovationen und sorgen dafür, dass wir immer das Beste liefern. Wir laden Sie ein, uns Ihre Gedanken und Erfahrungen mit dieser Integration mitzuteilen. Verbinden Sie sich mit uns auf unserem Discord-Server oder kontaktieren Sie uns über die Schaltfläche “Hilfe holen” in unserer App.
Tipps zur Erstellung eines Bots, der genau das tut, was Sie wollen.
Bei der Entwicklung von Bots, die mit Sprachmodellen arbeiten, ist Geduld gefragt, vor allem am Anfang. Sobald Sie eine solide Grundlage geschaffen haben, ist es einfacher, zusätzliche Komponenten hinzuzufügen. Die Entwicklung von Bots mit Cody ist wie das Malen auf einer Leinwand. Es erfordert ein gewisses Maß an Kreativität und ein gewisses Verständnis für die Grundlagen, um dem Bot eine persönliche Note zu verleihen.
Der wichtigste Parameter, der es Ihrem Bot ermöglicht, einen bestimmten Denkstil anzunehmen, ist das Personality Prompt. Die Persönlichkeit des Bots wird durch verschiedene Faktoren bestimmt, darunter die Token-Verteilung, die Relevanzbewertung und mehr. Die Eingabeaufforderung für die Persönlichkeit ist jedoch der ausgeprägteste und kreativste Aspekt, da sie von jedem Benutzer anders gestaltet werden kann. Die Nutzer haben die Freiheit, die Persönlichkeit des Bots nach ihren eigenen Vorstellungen zu gestalten und zu verfeinern.
Freiheit ist etwas, das wir alle zu schätzen wissen, aber wenn man mit einem leeren Blatt Papier beginnt, kann dies auch einschüchternd wirken und zu Unklarheit darüber führen, wo man anfangen soll. Wenn es Ihnen auch so geht, machen Sie sich keine Sorgen: Dieser Blog soll Ihnen helfen, eine bessere persönliche Aufforderung zu erstellen. Wir beginnen mit der empfohlenen Prompt-Struktur und stellen dann einige Beispiel-Prompts vor.
Name
Es ist immer von Vorteil, wenn Sie Ihrem Bot zunächst einen Namen geben. Die Benennung des Bots verleiht ihm eine menschliche Note, insbesondere bei der Begrüßung der Nutzer oder bei Fragen, die den Bot betreffen.
Aufforderungen:
Ihr Name ist [Name of your Bot]. OR
Sie sind “[Name of your Bot]”.
Beschreibung
Die Beschreibung des Bots macht ihn auf den Kontext aufmerksam, der durch die Wissensdatenbank bereitgestellt wird. Durch die Berücksichtigung des Kontexts erhält der Bot einen Rahmen für die Beantwortung von Fragen, wobei er einen bestimmten Bereich im Auge behält.
Aufforderungen:
Ihre Hauptaufgabe ist es, [specify the domain]. OR
Ihr Hauptziel ist es, mich bei [specify the domain] zu unterstützen.
Hinweis: Der Bot-Name und die Bot-Beschreibung, die im Abschnitt “Allgemein” festgelegt werden, dienen lediglich der Benutzerfreundlichkeit, um zwischen mehreren Bots zu unterscheiden. Der Bot selbst hat keine Kenntnis von diesen Einstellungen. Daher ist es notwendig, den Namen und die Beschreibung des Bots im Personality Prompt explizit zu definieren, um seine Identität und seine Eigenschaften festzulegen.
Grenzen
Ein möglicher Nachteil der Verwendung von LLMs, die auf großen Datensätzen trainiert wurden, ist die Tendenz, halluzinierte Antworten zu erzeugen. Es ist wichtig anzumerken, dass die Daten, die zur Generierung von Antworten verwendet werden, nicht für die Feinabstimmung oder Umschulung des LLM bei Bedarf durch Cody genutzt werden. Stattdessen dient sie als kontextbezogene Referenz für die Abfrage des LLM, was zu schnelleren Antworten führt und den Datenschutz wahrt.
Um sicherzustellen, dass sich der Bot nicht auf Datenpunkte aus dem ursprünglichen LLM-Datensatz bezieht, die sich möglicherweise mit ähnlichen Domänen oder Konzepten überschneiden, müssen wir den Kontext streng auf unsere Wissensbasis begrenzen.
Aufforderungen:
Die Wissensdatenbank ist Ihre einzige Informationsquelle. OR
Sie zögern, Behauptungen aufzustellen, die nicht in der Wissensdatenbank enthalten sind.
Es kann Fälle geben, in denen der Bot keine Wissensdatenbank benötigt oder die Wissensdatenbank als Referenzquelle nutzt. In solchen Fällen wird sich die Eingabeaufforderung erheblich ändern.
Aufforderung:
Ihre wichtigste Referenzquelle ist die Wissensdatenbank.
Antwortfunktionen
Die Eigenschaften der vom Bot generierten Antwort können bis zu einem gewissen Grad auch von der Persönlichkeit des Bots gesteuert werden. Sie kann darin bestehen, den Ton, die Länge, die Sprache und die Art der Antwort festzulegen, die Sie von Ihrem Bot erwarten.
Aufforderungen:
1. Tonfall: Sie sollten in einer [polite/friendly/professional] Weise antworten.
2. Länge: Die Antworten sollten in [pointers/paragraphs] verfasst sein.
3. Sprache: Antwort an den Benutzer [in the same language/specify different language].
4. Typ: Geben Sie dem Benutzer die Antworten [creative/professional/precise].
Es steht Ihnen frei, mit verschiedenen Kombinationen und Funktionen zu experimentieren. Die angeführten Beispiele dienen nur zu Lernzwecken, und die Möglichkeiten sind endlos.
Medien
Eine der interessantesten Funktionen von Cody ist die Möglichkeit, Medien in die Antworten einzubetten. Wenn Sie Medien wie Bilder, GIFs oder Videos einbetten, empfiehlt es sich immer, die Medien in ein separates Dokument zu importieren oder das gesamte Rohdokument mit dem integrierten Cody-Texteditor zu importieren, in dem Sie Medien hinzufügen können. Sie können die Medien entweder kopieren/einfügen oder sie mit Hilfe von URLs in das Dokument einbetten.
Nachdem Sie die Medien erfolgreich importiert haben, müssen Sie diese in unserer Bot-Persönlichkeitsabfrage angeben. Die Eingabeaufforderung kann in zwei Teile unterteilt werden: Initialisierung und Illustration.
Aufforderungen:
Initialisierung:
Einbindung der relevanten [images/videos/both] aus der Wissensdatenbank, wenn dies sinnvoll ist.
Illustration:
Fügen Sie Bilder mit dem Tag <img> und Videos mit dem iframe <ein.>
Zum Beispiel:
<img src=”[Image URL]”>
<iframe src=”[Video URL]”></iframe>
Fallbacks
Es kann vorkommen, dass der Bot keine relevanten Inhalte für die vom Nutzer gestellte Frage finden kann. Es ist immer sicherer, Fallbacks für solche Szenarien zu definieren, um zu vermeiden, dass der Benutzer irreführende oder falsche Informationen erhält (gilt nur für Anwendungsfälle, in denen eine Wissensdatenbank existiert).
Aufforderungen:
1. Unterlassen Sie es, während des Gesprächs “unstrukturierte Wissensbasis” oder Dateinamen zu erwähnen.
2. In Fällen, in denen eine endgültige Antwort nicht möglich ist, [Define fallback].
OR
Wenn Sie keine relevanten Informationen in der Wissensdatenbank finden können oder wenn der Benutzer nicht verwandte Fragen stellt, die nicht Teil der Wissensdatenbank sind, [Define fallback].
Schritte (fakultativ)
Wenn Sie möchten, dass Ihr Bot einem bestimmten Gesprächsverlauf folgt, können Sie diesen ganz einfach in Schritten definieren. Dieser Ansatz ist besonders nützlich, wenn Sie Ihren Bot zu Schulungs- oder Fehlerbehebungszwecken einsetzen. Jeder Schritt steht für eine bestimmte Phase oder ein bestimmtes Stadium der Konversation, so dass Sie den Verlauf kontrollieren und sicherstellen können, dass der Bot die gewünschten Informationen oder Hilfestellungen auf systematische Weise liefert.
Aufforderung:
Befolgen Sie diese Schritte, während Sie sich mit dem Benutzer unterhalten:
1. [Step 1]
2. [Step 2]
3. [Step 3]
Hinweis: Es wird empfohlen, bei der Festlegung der Schritte die“umgekehrte Vektorsuche” zu aktivieren, um bessere Antworten zu erhalten, und dem Chatverlauf eine angemessene Anzahl von Token zuzuweisen. Dadurch kann das Modell den Gesprächsverlauf, einschließlich der Eingaben des Nutzers und der vorherigen Antwort des Bots, bei der Erstellung einer Antwort berücksichtigen.
Datenerfassung (optional)
Diese Aufforderung, die mit dem Konversationsfluss (Schritte) harmoniert, ist besonders vorteilhaft, wenn sich der Anwendungsfall Ihres Bots um Support- oder Rekrutierungsszenarien dreht. Derzeit gibt es in Cody weder einen Langzeitspeicher noch eine Datenbankanbindung, die die Daten erfassen und für die Analyse aufbewahren könnte. In Zukunft werden wir mit neueren Aktualisierungen der OpenAI-API, wie z. B. Funktionsaufrufe, definitiv neue Funktionen einführen, um die Daten längerfristig erfassen und speichern zu können.
Im Moment können Sie auf die Chats Ihrer Bot-Benutzer (über Widgets) zugreifen, indem Sie im Chat-Bereich zu den Chats der“Gäste” navigieren. Anschließend können Sie die erfassten Daten manuell analysieren, um weitere Erkenntnisse zu gewinnen.
Aufforderung:
Sammeln Sie die folgenden Daten von den Benutzern:
– [Field 1]
– [Field 2]
– [Field 3]
– [Field 4]
Stellen Sie immer nur eine Frage nach der anderen. Sobald Sie alle erforderlichen Informationen gesammelt haben, schließen Sie das Gespräch ab, indem Sie sich bedanken und die gesammelten Daten anzeigen. Denken Sie daran, dass Ihre Aufgabe nur darin besteht, Daten zu sammeln.
Antwortformatierung*
Ein raffiniertes kleines Feature von Cody ist die Unterstützung für die Formatierung von Bot-Antworten mit Markdown- oder HTML-Tags. Wenn Sie Ihrem Bot eine Vorlage im HTML- oder Markdown-Format in der Bot-Persönlichkeit zur Verfügung stellen, wird er versuchen, die Antworten bei Bedarf entsprechend zu formatieren.
Aufforderung:
Antwortformat:
<h1>[Field Name]</h1>
<p>[Field Name]</p>
<p>[Field Name]</p>
*Formatierungfunktioniert am besten auf GPT-4
Beispiel für eine Aufforderung
Cody als Lead Generation Bot
Cody als Marketing-Bot
Cody als Trainingsbot
Wenn Sie mehr über persönliche Prompts erfahren möchten, sehen Sie sich bitte unsere Anwendungsfälle an, die detaillierte Prompts zusammen mit ihren parametrischen Einstellungen enthalten.
Schlussfolgerung
Wenn Sie den kostenlosen Plan von Cody nutzen, besteht die Möglichkeit, dass der Bot aufgrund des kleineren Kontextfensters oder der mangelnden Kohärenz die Eingabeaufforderung nicht beachtet oder einige Parameter einfach ignoriert. Wir empfehlen jedem, den kostenlosen Plan nur zu Testzwecken oder als Übergangsphase zu nutzen, um die Verwendung von Cody zu verstehen und seine Eignung für Ihr Unternehmen zu bestimmen.
Bei der Erstellung von Prompts für Ihren Bot ist es außerdem wichtig, dass Sie sich kurz fassen und nicht alle im Artikel genannten Parameter einbeziehen. Da die Anzahl der verfügbaren Token begrenzt ist und die Persönlichkeitsabfrage ebenfalls Token verbraucht, sollten Sie sie mit Bedacht zusammenstellen. Sie können die Anweisungen in diesem Artikel nach Ihren Bedürfnissen und Vorlieben ändern. Haben Sie etwas Neues entdeckt? Sie können es uns jederzeit mitteilen, und wir würden es gerne mit Ihnen besprechen.
Dies war nur eine Einführung in die weite Landschaft der Bot-Persönlichkeitsentwicklung. Die LLMs werden von Tag zu Tag besser, und wir haben noch einen langen Weg vor uns, um ihr Potenzial voll auszuschöpfen. Diese ganze Reise ist für uns alle eine neue Erfahrung. Wenn wir weiter experimentieren, lernen und neue Anwendungsfälle und Szenarien implementieren, werden wir sie in Artikeln und Tutorials mit Ihnen teilen. Weitere Informationen finden Sie auch in unserem Hilfe-Center. Wenn Sie Fragen zu Cody haben, können Sie sich gerne an unsere Discord-Community wenden. Weitere interessante Einblicke finden Sie auch in unseren früheren Blogs.
Wenn Sie mit Cody anfangen, kann es sein, dass Sie enttäuscht oder entmutigt sind, weil Cody nicht die erwarteten Antworten liefert. In diesem kurzen Blog werden wir nicht näher darauf eingehen, wie Sie Cody verwenden sollten, aber wir werden Ihnen eine grobe Vorstellung davon geben, wie Cody Ihre Dokumente verwendet, um Antworten zu generieren, damit Sie den Generierungsprozess besser verstehen und mit ihm experimentieren können.
Zwei Hauptfaktoren beeinflussen hauptsächlich die Generierung von Reaktionen auf Ihre Dokumente:
Chunking
Kontext-Fenster
Diese beiden Begriffe, Chunking und Kontextfenster, sind miteinander verknüpft. Eine einfache Analogie lässt sich ziehen, wenn man die Erzeugung von Reaktionen mit dem Kochen von Speisen vergleicht. Die Stücke können als die einzelnen Gemüsestücke gesehen werden, die Sie schneiden, während das Kontextfenster die Größe des Kochgeschirrs darstellt. Es ist wichtig, das Gemüse in optimal große Stücke zu schneiden, um den Gesamtgeschmack zu verbessern, und ein größeres Kochgeschirr ermöglicht es, mehr Gemüsestücke hinzuzufügen.
Was ist Chunking?
Einfach ausgedrückt bedeutet Chunking die Aufteilung von Inhalten in überschaubare Teile, um den Speicher effizient zu nutzen. Wenn Sie unsere Blogs gelesen haben, wissen Sie vielleicht, dass Modelle wie GPT beträchtliche Ressourcen benötigen, und um die Beschränkungen des Kontextfensters zu bewältigen, setzen wir mehrere Verfahren wie Chunking ein.
Das Chunking ist ein Prozess, der nach dem Hochladen der Dokumente in Cody durchgeführt wird. Das Dokument wird in mehrere Teile (Chunks) unterteilt, wobei jeder Chunk einen relevanten Umgebungskontext enthält. Diesen Chunks werden dann zur leichteren Berechnung numerische Tags zugewiesen, was als Einbettung bezeichnet wird. Es ist wichtig, die optimale Chunk-Größe zu finden. Eine kleinere Stückgröße verringert die Kontextrelevanz, während eine größere Stückgröße zu mehr Rauschen führt. Der Chunking-Algorithmus von Cody passt die Chunk-Größe dynamisch an die vom Benutzer festgelegte Token-Verteilung an.
Wie wirkt sich das Kontextfenster auf die Bot-Antworten aus?
Die Qualität der Bot-Antworten wird durch verschiedene Faktoren beeinflusst, z. B. durch die Persönlichkeit der Eingabeaufforderung, die Relevanzbewertung usw. Auch das Kontextfenster des Modells spielt eine wichtige Rolle bei der Bestimmung der Qualität. Das Kontextfenster bezieht sich auf die Textmenge, die ein LLM (Language Model) in einem einzigen Aufruf verarbeiten kann. Da Cody Einbettungen und Kontextinjektion verwendet, um Antworten mit OpenAI-Modellen zu generieren, ermöglicht ein größeres Kontextfenster eine größere Datenaufnahme durch das Modell bei jeder Anfrage.
Je größer das Kontextfenster ist, desto größer ist der Anteil der einzelnen Parameter, einschließlich Persönlichkeit, Chunks, Verlauf, Eingabe und Antwort. Dieser erweiterte Kontext befähigt den Bot, relevantere, kohärentere und kreativere Antworten zu geben.
Die neueste Ergänzung von Cody ermöglicht es den Benutzern, Dokumentzitate zu überprüfen, indem sie auf den Dokumentnamen am Ende der Antworten klicken. Diese Zitate entsprechen den durch die semantische Suche ermittelten Chunks. Cody bestimmt den Chunk-Schwellenwert für den Kontext auf der Grundlage der vom Benutzer festgelegten Relevanzbewertung. Wenn der Benutzer einen hohen Relevanzwert festlegt, verwendet Cody nur die Teile, die einen vordefinierten Schwellenwert überschreiten, als Kontext für die Generierung der Antwort.
Beispiel
Ausgehend von einem vordefinierten Grenzwert von 90 % für eine hohe Relevanzbewertung verwirft Cody alle Chunks mit einer Relevanzbewertung von weniger als 90 %. Wir empfehlen neuen Nutzern, mit einer niedrigen Relevanzbewertung (niedrig oder ausgeglichen) zu beginnen, insbesondere wenn sie hochgeladene Dokumente (PDFs, Powerpoints, Word usw.) oder Websites verwenden. Hochgeladene Dokumente oder Websites können bei der Vorverarbeitung Formatierungs- und Lesbarkeitsprobleme aufweisen, was zu einer geringeren Relevanzbewertung führen kann. Die Formatierung des Dokuments mit unserem integrierten Texteditor anstelle des Hochladens von Rohdokumenten gewährleistet die höchste Genauigkeit und Vertrauenswürdigkeit.
Wenn Sie diesen Blog interessant fanden und sich eingehender mit den Konzepten von Kontextfenstern und Chunking beschäftigen möchten, empfehlen wir Ihnen diesen Blog von Kristian von All About AI. Weitere Ressourcen finden Sie auch in unserem Hilfe-Center und in unserer Discord-Community.
Eine Schritt-für-Schritt-Anleitung zum Aufbau einer eigenen KI, die den Anforderungen Ihres Unternehmens entspricht.
Die Anwendungsmöglichkeiten von Bots sind vielfältig, und angesichts der zunehmenden Nutzung generativer Modelle durch Bots kann es verlockend sein, auf den Zug aufzuspringen und sein eigenes ChatGPT zu erstellen. Mit der Einführung von Cody ist die Entwicklung von KI-Chatbots so einfach wie nie zuvor. Die modellagnostische und codefreie Schnittstelle von Cody versucht, persönliche KI für jede Person und jeden Unternehmensbereich zugänglich zu machen. Obwohl Cody sich bemüht, den gesamten Prozess so einfach wie möglich zu gestalten, kann er für jemanden, der neu in der Welt der KI ist, etwas einschüchternd sein. Deshalb erklären wir Ihnen in diesem Blog, wie Sie Ihr eigenes ChatGPT mit Cody erstellen können. Wir führen Sie durch einen Anwendungsfall und helfen Ihnen, Ihre Cody-Reise mit Zuversicht zu beginnen.
Der Anwendungsfall
Wir werden mit Cody einen KI-Chatbot bauen, der als Reiseführer fungiert. Dies ist eine wertvolle Ergänzung für Unternehmen im Tourismusbereich, da es das Kundenerlebnis erheblich verbessern kann. Aber der Umfang der Erstellung eines Chatbots mit Cody ist nicht auf einen einzigen Geschäftsbereich beschränkt. Die Benutzer können mit verschiedenen Aufforderungen experimentieren, um einen Bot für ihr eigenes Unternehmen zu erstellen und ihn nach der Lektüre dieses Blogs auch mit ihren Kunden zu teilen.
Anforderungen
Ihre geschäftsbezogenen Inhalte (PDF, Word, Website oder Text)
Konto bei Cody (empfohlener Plan: Premium)
15 Minuten
Schritt 1: Hinzufügen von Daten zur Wissensdatenbank
Gehen Sie folgendermaßen vor, um train Cody Dokumente für Ihre Geschäftsanforderungen hinzuzufügen:
Gehen Sie zum Abschnitt Inhalt von Codys Schnittstelle.
Erstellen Sie einen neuen Ordner, um Ihre Dokumente zu organisieren.
Es gibt drei Methoden, um Daten in die Wissensdatenbank aufzunehmen:
Schreiben: Nutzen Sie den integrierten Texteditor, um Inhalte direkt einzugeben.
Hochladen: Laden Sie PDF-, Word- oder PowerPoint-Dateien mit relevanten Informationen hoch.
Website importieren: Mit dieser Funktion können Sie Ihre Unternehmenswebsite crawlen und automatisch Daten sammeln. (Hinweis: Diese Funktion ist nur bei Premium- und Advanced-Tarifen verfügbar).
Für dieses spezielle Tutorial werden wir einen Reiseführer für Boston verwenden, der Informationen über verschiedene Touristenattraktionen, deren Beschreibungen, Öffnungszeiten, Adressen und häufig gestellte Fragen (FAQs) enthält.
Nachdem Sie die erforderlichen Dokumente hochgeladen haben, können Sie deren Status verfolgen, der entweder“Lernen” oder“Gelernt” lauten kann. Der Status zeigt an, ob Cody gerade dabei ist, aus den Dokumenten zu lernen oder ob es den Lernprozess erfolgreich abgeschlossen hat. Sobald Cody die hochgeladenen Dokumente gelernt hat, können Sie zum nächsten Schritt übergehen, der die Erstellung des eigentlichen Chatbots beinhaltet.
Hinweis: Achten Sie unbedingt darauf, dass die von Ihnen zur Verfügung gestellten Dokumente einem bestimmten Format entsprechen, um die Qualität der von Cody generierten Antworten zu erhöhen. Um mehr über die empfohlene Formatierung von Dokumenten zu erfahren, empfehlen wir die Lektüre der Dokumentation über Formatierungsrichtlinien.
Schritt 2: Den Zweck des Bots festlegen
Der Zweck ist weiter in 3 Teile unterteilt:
Persönlichkeit
Die Persönlichkeit fungiert als das Gehirn des Bots und spielt eine wesentliche Rolle bei der Generierung effektiver und nützlicher Antworten. Sie besteht aus mehreren Parametern wie Prompt, Relevanz-Score, Token-Verteilung, Prompt-Persistenz und Reverse-Vektor-Suche. Für eine ausführliche Erläuterung dieser Begriffe empfehlen wir unseren früheren Blog, der einen umfassenden Einblick für Cody-Neulinge bietet. Cody bietet dem Benutzer zwei Optionen für die Erstellung der Persönlichkeit: Vorlagenmodus und Erweiterter Modus.
Der Schablonenmodus bietet den Benutzern vordefinierte Eingabeaufforderungen und ist eine praktische Plug-and-Play-Lösung. Für dieses Tutorial und diesen Anwendungsfall beschränken wir uns auf die Verwendung des erweiterten Modus, da der Anwendungsfall derzeit nicht im Vorlagenmodus abgedeckt wird. Für die Zukunft planen wir, eine Bibliothek von Prompts mit ihren spezifischen Anwendungsfällen zu erstellen, um den Nutzern noch mehr Optionen zu bieten und den Vorlagenmodus um weitere Voreinstellungen zu erweitern.
Persönlichkeit für den KI-Reiseleiter:
Eingabeaufforderung
Sie sind Cody Travel Guide, ein KI-Assistent, der genaue Informationen über Boston liefert. Ihre Hauptaufgabe ist es, mir zu helfen, indem Sie mir zuverlässige und klare Antworten auf meine Fragen geben, basierend auf den Informationen, die in der Wissensdatenbank als einzige Quelle verfügbar sind. Erwähnen Sie während des Gesprächs keine “Wissensdatenbank” oder Dateinamen. Sie stellen nur ungern Behauptungen auf, wenn diese nicht durch die Wissensbasis gestützt werden. Wenn Sie keine endgültige Antwort geben können, geben Sie zu, dass Sie nicht in der Lage sind zu antworten und teilen Sie mir mit, dass Sie nicht antworten können. Anstatt zu sagen: “Die Informationen basieren auf meinem Wissensstand”, sagen Sie einfach: “Entschuldigen Sie, wenn ich etwas übersehen habe”.
Versuchen Sie, die Informationen im folgenden Format anzuzeigen:
Besuchen Sie die Website <a href=’Link einfügen’>< /a> um mehr zu erfahren.
Wenn Sie nach einem individuellen Reiseplan oder einer Reiseroute gefragt werden, erstellen Sie einen solchen anhand der in diesem Format angegebenen Zeiten und Beschreibungen:
💡 Wenn Sie Ihre Bot-Antworten auf eine bestimmte Weise formatieren möchten, unterstützt Cody Markdown- und HTML-Tags, mit denen Sie eine Formatierungsvorlage für Ihren Bot definieren können.
Jede Persönlichkeitsfrage muss einer bestimmten Struktur folgen, um qualitativ hochwertige Antworten zu erhalten. Wichtige Tipps für die Erstellung eines wirksamen Prompts mit Beispielen:
→ Definieren Sie die Ausweichmöglichkeiten:
“Anstatt zu sagen, dass die Informationen auf meinem Wissensstand beruhen, sagen Sie einfach ‘Entschuldigen Sie, wenn ich etwas übersehen habe’.”
“Wenn Sie keine relevanten Informationen in der Wissensdatenbank finden können, bestätigen Sie Ihre Unfähigkeit und schlagen vor, sich an [Enter your website URL/contact no.] zu wenden.
→ Grenzen Sie die Quellen ab:
“Verwenden Sie die Wissensdatenbank als einzige Quelle”.
“Ihre Antwort muss in der gleichen Sprache wie meine Anfrage verfasst sein und sollte das Wort Wissensbasis während des Gesprächs nicht erwähnen.
→ Definieren Sie das Ziel:
“Ihr Ziel ist es, mir zu helfen und meine Fragen über [Enter your business domain] zu beantworten.”
“Vermeiden Sie Aktivitäten, die nichts mit dem Thema zu tun haben, oder Diskussionen, die nicht mit der Wissensbasis zu tun haben, oder kreatives Schreiben.”
Muster für eine Aufforderung an den Kundensupport:
Du bist Cody, ein AI-Assistent für Website-Support, der für Villa Homes arbeitet. Ihr Ziel ist es, mich zu unterstützen und meine Fragen zu Villa Homes zu beantworten, indem Sie die Wissensdatenbank als einzige Quelle nutzen.
Vermeidung von Aktivitäten, die nichts mit dem Thema zu tun haben, oder von Diskussionen oder kreativem Schreiben, die nichts mit dem Thema Wissen zu tun haben. Wenn Sie keine relevanten Informationen in der Wissensdatenbank finden können oder wenn der Nutzer nicht verwandte Fragen stellt, die nicht Teil der Wissensdatenbank sind, bestätigen Sie Ihre Unfähigkeit und schlagen vor, dass ich das Team von Villa Homes unter +40XXXXXXX kontaktiere.
Ihre Antwort muss in der gleichen Sprache wie meine Anfrage verfasst sein und sollte das Wort “Wissensdatenbank” während des Gesprächs nicht erwähnen.
Wenn Sie mehr über die Entwicklung besserer Prompts erfahren möchten, lesen Sie diesen Blog wo wir alle Grundlagen von Cody im Detail erklären.
Allgemein
In diesem Abschnitt müssen Sie den Namen und die Beschreibung Ihres Bots festlegen und das Modell auswählen, das Sie mit Cody verwenden möchten. Sie haben die Wahl zwischen drei verschiedenen OpenAI-Modellen:
GPT-3.5
GPT-3.5 16K
GPT-4
Mit dem Premium-Tarif haben Sie Zugang zu allen drei Modellen, so dass Sie das für Ihre Bedürfnisse am besten geeignete auswählen können. Es ist eine praktische Wahl, die es Ihnen ermöglicht, die gesamte Palette der von Cody gebotenen Möglichkeiten zu nutzen.
Wir werden mit dem GPT-4 fortfahren, da es das fortschrittlichste Modell ist, das derzeit verfügbar ist, und sich aufgrund seiner erhöhten Kreativität perfekt für den Anwendungsfall eignet, den wir demonstrieren werden.
Wissen
Der im ersten Schritt erstellte Ordner sollte in diesem Abschnitt mit Ihrem speziellen Bot verknüpft werden. Wenn Sie mehrere Ordner erstellt haben, die Sie verknüpfen möchten, wählen Sie einfach alle Ordner aus, für die Sie Cody trainieren möchten.
Es ist wichtig zu verstehen, dass Cody keine Blackbox ist, die ihren eigenen Kopf hat. Es handelt sich um ein Modell, das einfach das nächste Wort im Satz vorhersagt. Wie das berühmte Sprichwort in der Datenwissenschaft besagt: “Garbage In, Garbage Out“. Je besser Sie die Persönlichkeit des Bots einstellen, seine Regeln definieren und die von Ihnen bereitgestellten Daten bereinigen, desto bessere Antworten wird er generieren. Mit neueren Ergänzungen wie dem Vorlagenmodus mit verschiedenen Voreinstellungen versuchen wir, den Prozess der Persönlichkeitsfindung für die Benutzer zu vereinfachen.
Schritt 3: Testen und Weitergabe des Bot
Jetzt kommt der spannendste Teil! Den selbst erstellten Bot auszuprobieren und zu testen, kann Ihnen ein großes Erfolgserlebnis verschaffen. Es gibt zwei Möglichkeiten, Ihren Bot zu testen und mit anderen zu teilen: Sie können einen Chat erstellen oder das neu eingeführte anpassbare Widget verwenden.
So erstellen Sie ein Chat-Widget in nur drei einfachen Schritten:
Gehen Sie zum Abschnitt ” Bots” in Codys Benutzeroberfläche.
Wählen Sie den von Ihnen erstellten Bot aus und klicken Sie auf die drei Punkte “⋮” für weitere Optionen.
Klicken Sie auf“Einbetten“.
Und voilà! Sie haben erfolgreich ein anpassbares Cody Widget erstellt.
Wenn Sie ein Cody Widget verwenden, haben Sie zwei Möglichkeiten, es mit anderen zu teilen: Link teilen oder Einbetten. Wenn Sie keine Website für Ihr Unternehmen haben oder den Code Ihrer Website nicht ändern möchten, können Sie den Bot über den angegebenen Link ganz einfach mit Ihren Kunden teilen.
Es sind zwei Arten von einbettbaren Widgets verfügbar:
Inline Embed: Diese Art von Widget wird in einen bestimmten Bereich Ihrer Website eingebettet. Es nimmt den Platz ein, den das Widget innerhalb des definierten Hauptelements benötigt.
Pop-Up-Embed: Diese Art von Widget erscheint als schwebendes Symbol auf Ihrer Website. Wenn ein Besucher auf das Symbol klickt, erweitert sich das Widget und öffnet sich, so dass eine Interaktion mit dem Chatbot möglich ist.
Beide Arten von einbettbaren Widgets bieten verschiedene Möglichkeiten, den Cody-Bot in Ihre Website zu integrieren, und bieten Flexibilität in Bezug auf Platznutzung und Benutzerfreundlichkeit. Sie können diejenige auswählen, die am besten zu Ihrem Website-Design und Ihren Präferenzen bei der Benutzerinteraktion passt.
Anpassen des Widgets
Unser neuestes Feature-Release bietet Nutzern völlige Freiheit und Anpassungsmöglichkeiten für Widgets. Das bedeutet, dass Sie das Aussehen, das Verhalten und die allgemeine Benutzerfreundlichkeit des Widgets an Ihre spezifischen Anforderungen und Ihr Branding anpassen können.
Zu den Anpassungsoptionen gehören:
Kopfzeile
Ändern Sie das Layout der Kopfzeile (links oder mittig).
Ihr Firmenlogo hinzufügen
Farbe
Titel
Untertitel
Chat
Größe der Nachricht (Größe der Sprechblase)
Hintergrundfarbe des Chats
Bot
Erste Meldungen
Hintergrundfarbe der Nachricht
Bot Avatar
Bot Farbe
Menschen
Vorgeschlagene Fragen
Hintergrundfarbe der Nachricht
Komponist
Platzhalter-Nachricht
Symbol der Schaltfläche Senden
Cody-Branding (kann nur in Premium- und Advanced-Plänen entfernt werden)
Trägerrakete
Größe
Bildschirm Position
Hintergrundfarbe (Farbe der schwebenden Schaltfläche)
Icon
Schließen-Symbol
All diese Anpassungsoptionen sollten Cody persönlicher machen und mit der Ästhetik Ihres Unternehmens in Einklang bringen, was zu einer deutlich verbesserten Benutzerfreundlichkeit für Ihre Kunden führt.
Das war’s dann auch schon!
Das Erstellen und Teilen eines Bots mit Cody ist jetzt einfacher denn je und erfordert nur drei einfache Schritte. Mit der kürzlichen Einführung von Optionen zur Anpassung von Widgets gab es noch nie einen besseren Zeitpunkt, um mit Cody einen eigenen Bot zu erstellen. Dank der zusätzlichen Flexibilität bei der Anpassung des Widgets können Sie das Erscheinungsbild und das Verhalten des Bots an Ihre spezifischen Geschäftsanforderungen und Ihr Branding anpassen.
Wir arbeiten ständig an der Entwicklung und Einführung weiterer spannender Funktionen, um das Cody-Erlebnis zu verbessern. Unser Team ist bestrebt, den gesamten Prozess der Erstellung und des Einsatzes von Bots noch nahtloser und benutzerfreundlicher zu gestalten. Bleiben Sie auf dem Laufenden, denn wir werden die Cody-Plattform weiter verbessern und verfeinern. Weitere Ressourcen finden Sie auch in unserem Hilfe-Center und in unserer Discord-Community.
Sollten Sie auf die kostenpflichtige Version von Cody upgraden? Hier ist der Grund, warum Sie das tun sollten.
Vor ein paar Tagen haben wir direkt nach der Veröffentlichung von OpenAI ein neueres Modell für alle unsere zahlenden Nutzer freigegeben: GPT-3.5 16k. So einschüchternd es auch klingen mag, es könnte für Ihr Unternehmen eine entscheidende Wende bedeuten. In diesem Blog werden wir uns mit den Anwendungsfällen von GPT-3.5 16k befassen, seine Vorteile erforschen und aufzeigen, wie es sich von dem bestehenden GPT-3.5-Modell und dem neuesten High-End-Modell GPT-4 unterscheidet.
Was ist GPT-3.5 16K?
Wenn Sie die kostenlose Version von Cody bereits verwendet haben, sind Sie vielleicht bereits mit dem GPT-3.5-Modell vertraut, das das gpt-3.5-turbo -Modell von OpenAI verwendet. Dieses Modell ist bei vielen Nutzern die beliebteste Wahl, da es in den meisten Fällen erschwinglich, schnell und zuverlässig ist. Der GPT-3.5-16k hingegen nutzt das Modell gpt-3.5-turbo-16k von OpenAI, das eine Erweiterung des gpt-3.5-turbo ist. Der wesentliche Unterschied liegt in dem Aspekt “16k”.
Was sind 16K?
Das Suffix “16K” bedeutet, dass das Modell ein Kontextfenster von 16.000 Token hat, was eine erhebliche Steigerung gegenüber den bisherigen 4.096 Token darstellt. In unserem letzten Blog haben wir ausführlich erklärt, was Token sind. Ein kleineres Kontextfenster in Modellen kann zu verschiedenen Einschränkungen führen, u. a:
Mangelnde Relevanz: Bei einem begrenzten Kontextfenster kann das Modell Schwierigkeiten haben, den breiteren Kontext eines Gesprächs oder einer Aufgabe zu erfassen und relevant zu halten.
Unfähigkeit, den Kontext beizubehalten: Ein kleineres Kontextfenster kann es für das Modell schwierig machen, sich an Informationen aus früheren Teilen eines Gesprächs zu erinnern und darauf zu verweisen, was zu Unstimmigkeiten und Schwierigkeiten bei der Aufrechterhaltung eines kohärenten Dialogs führt.
Beschränkung der Länge von Eingabeanfragen: Kürzere Kontextfenster erzwingen eine Beschränkung der Länge von Eingabeanfragen, was es schwierig macht, umfassende Informationen zu liefern oder komplexe Fragen zu stellen.
Einschränkungen im Kontext der Wissensdatenbank: Ein kleineres Kontextfenster kann bei der Einbeziehung von Wissen aus relevanten Dokumenten in die Wissensdatenbank aufgrund der begrenzten Datenaufnahme Einschränkungen unterliegen.
Vorteile eines größeren Kontextfensters
Manch einer mag sich fragen: Wie kann GPT-3.5 trotz seiner Kapazität von nur 4096 Token über 1000 Webseiten und Dokumente auf Cody verarbeiten? Mit den Fortschritten auf dem Gebiet der generativen KI bedeutet die Bereitstellung von Kontext nicht mehr, dass man einfach das gesamte Dokument in Sprachmodelle wie GPT-3.5 Turbo einspeisen muss. Backend-Prozesse wie Chunking, Embeddings und Vektordatenbanken werden zur Vorverarbeitung der Daten eingesetzt, um die Relevanz innerhalb der Chunks aufrechtzuerhalten und es dem Modell zu ermöglichen, im vordefinierten Kontextfenster zu navigieren.
Im aktuellen Szenario würde ein größeres Kontextfenster die Gesamtleistung der KI verbessern, da es größere und komplexere Eingaben aufnehmen kann und gleichzeitig die Anzahl der für die Erzeugung einer Antwort erforderlichen Vektor-Speichertransaktionen verringert. Da das Kontextfenster sowohl die Eingabe als auch die Ausgabe umfasst, würde ein größeres Fenster das Modell in die Lage versetzen, ausführliche und kohärente Antworten zu geben und gleichzeitig den Gesprächskontext zu erhalten.
Ein größeres Kontextfenster würde auch dazu beitragen, Halluzinationen abzuschwächen, die auftreten können, wenn das Token-Limit in einem Gespräch überschritten wird.
GPT-3.5 Turbo 16K vs. GPT-4
Obwohl gpt-3.5-turbo-16k die neueste Version von OpenAI ist, übertrifft gpt-4 sie in verschiedenen Aspekten wie dem Verständnis von visuellem Kontext, verbesserter Kreativität, Kohärenz und mehrsprachiger Leistung. Der einzige Bereich, in dem GPT-3.5-16k übertrifft, ist das Kontextfenster, da GPT-4 derzeit nur in der 8k-Variante verfügbar ist und die 32k-Variante noch schrittweise eingeführt wird.
In der Zwischenzeit, bis die 32k-Version von gpt-4 allgemein zugänglich wird, zeichnet sich das GPT-3.5-16k durch sein größeres Kontextfenster aus. Wenn Sie speziell nach einem Modell suchen, das ein größeres Kontextfenster bietet, ist das GPT-3.5-16k die ideale Wahl.
Anwendungsfälle für ein größeres Kontextfenster
Kundenbetreuung: Ein größeres Kontextfenster verbessert das Kurzzeitgedächtnis des Modells, wodurch es sich gut für Anwendungen im Bereich des Kundensupports, des Ausfüllens von Formularen und der Erfassung von Benutzerdaten eignet. Dadurch kann das Modell den Kontext über einen längeren Zeitraum aufrechterhalten, was zu relevanteren Antworten auf Benutzereingaben wie Namen, Kunden-IDs, Beschwerden und Feedback führt.
Mitarbeiterschulung: Die Nutzung von Cody für Mitarbeiterschulungen erweist sich als äußerst effektiv. Bei der Schulung von Mitarbeitern werden häufig umfangreiche Daten zu Geschäftsaktivitäten, -schritten und -prozessen erfasst. Um die kontextuelle Relevanz während des gesamten Trainingsprogramms aufrechtzuerhalten, ist es notwendig, die gesamte Gesprächsgeschichte des Auszubildenden einzubeziehen. Ein größeres Kontextfenster ermöglicht die Einbeziehung von mehr historischen Informationen, was eine umfassendere und effektivere Schulungserfahrung ermöglicht.
Datenanalyse: Aufgaben, die Finanzanalysen und statistische Schlussfolgerungen beinhalten, erfordern oft die Verarbeitung großer Datenmengen, um sinnvolle Erkenntnisse zu gewinnen. Mit einem größeren Kontextfenster kann das Modell während der Berechnung mehr relevante Informationen speichern, was zu einer kohärenteren und genaueren Analyse führt. Der Vergleich von Bilanzen und der Gesamtleistung eines Unternehmens im Jahresvergleich kann beispielsweise mit einem größeren Kontextfenster effektiver durchgeführt werden.
Vergleich zwischen GPT-3.5 4K vs. 16K
Um die Verbesserungen gegenüber dem 16K-Modell zu demonstrieren, haben wir eine .csv -Datei des Periodensystems mit 118 Elementen und ihren Merkmalen abgefragt.
Aus dem Vergleich geht hervor, dass GPT-3.5 4K nicht in der Lage war, alle radioaktiven Elemente in seiner Antwort zu produzieren und einige Elemente ausließ. Im Gegensatz dazu produzierte GPT-3.5 16K fast alle radioaktiven Elemente, die in der Tabelle aufgeführt sind. Dies verdeutlicht die verbesserte Ausarbeitung der Antworten aufgrund des größeren Kontextfensters. Dies war nur ein kleiner Einblick in das Potenzial des 16k-Kontextfensters, für das es unzählige Anwendungen und Implementierungen gibt. Mit GPT-4 32K in der Pipeline kann das 16K-Modell einen sanfteren Übergang zu einem größeren Kontextfenster ermöglichen.
Sollten Sie aufrüsten?
Das größere Kontextfenster ist zweifelsohne eine wichtige Neuerung und nicht nur eine Spielerei. Ein verbessertes Kontextverständnis spielt eine entscheidende Rolle bei der Verbesserung der Qualität der Antworten, und ein größeres Kontextfenster eröffnet ein erhebliches Potenzial für diese Sprachmodellmodelle (LLMs). Indem sie ein umfassenderes Verständnis des Gesprächsverlaufs und der kontextuellen Hinweise ermöglichen, können LLMs genauere und kontextgerechte Ergebnisse liefern.
Wie bereits erwähnt, ist die 16K-Variante von GPT-3.5 für alle Nutzer ab dem Basic Plan verfügbar. Wenn Sie bereits seit einiger Zeit den (kostenlosen) Personal Plan nutzen, haben Sie die Möglichkeiten von Cody bereits kennengelernt. Der Basic Plan bietet ein hervorragendes Preis-Leistungs-Verhältnis, insbesondere wenn Sie die zusätzlichen Funktionen von GPT-4 nicht benötigen. Er eignet sich für Einzelpersonen, die einen Bot als Projekt oder Prototyp für ihr Unternehmen bauen, mit der zusätzlichen Modellauswahl von GPT-3.5 16K. Wenn wir in Zukunft die GPT-4 32K-Variante auf den Markt bringen, können Sie jederzeit auf den Premium-Plan upgraden, wenn Sie mehr Token benötigen.
Für größere Unternehmen ist der Advanced Plan die leistungsstärkste Option, die auf ressourcenintensive und hochvolumige Nutzungsanforderungen zugeschnitten ist. Es bietet umfassende Funktionen, die den Anforderungen von Großeinsätzen gerecht werden.