Anatomie einer Bot-Persönlichkeit
Tipps zur Erstellung eines Bots, der genau das tut, was Sie wollen.
Bei der Entwicklung von Bots, die mit Sprachmodellen arbeiten, ist Geduld gefragt, vor allem am Anfang. Sobald Sie eine solide Grundlage geschaffen haben, ist es einfacher, zusätzliche Komponenten hinzuzufügen. Die Entwicklung von Bots mit Cody ist wie das Malen auf einer Leinwand. Es erfordert ein gewisses Maß an Kreativität und ein gewisses Verständnis für die Grundlagen, um dem Bot eine persönliche Note zu verleihen.
Der wichtigste Parameter, der es Ihrem Bot ermöglicht, einen bestimmten Denkstil anzunehmen, ist das Personality Prompt. Die Persönlichkeit des Bots wird durch verschiedene Faktoren bestimmt, darunter die Token-Verteilung, die Relevanzbewertung und mehr. Die Eingabeaufforderung für die Persönlichkeit ist jedoch der ausgeprägteste und kreativste Aspekt, da sie von jedem Benutzer anders gestaltet werden kann. Die Nutzer haben die Freiheit, die Persönlichkeit des Bots nach ihren eigenen Vorstellungen zu gestalten und zu verfeinern.
Freiheit ist etwas, das wir alle zu schätzen wissen, aber wenn man mit einem leeren Blatt Papier beginnt, kann dies auch einschüchternd wirken und zu Unklarheit darüber führen, wo man anfangen soll. Wenn es Ihnen auch so geht, machen Sie sich keine Sorgen: Dieser Blog soll Ihnen helfen, eine bessere persönliche Aufforderung zu erstellen. Wir beginnen mit der empfohlenen Prompt-Struktur und stellen dann einige Beispiel-Prompts vor.
Name
Es ist immer von Vorteil, wenn Sie Ihrem Bot zunächst einen Namen geben. Die Benennung des Bots verleiht ihm eine menschliche Note, insbesondere bei der Begrüßung der Nutzer oder bei Fragen, die den Bot betreffen.
Aufforderungen:
Ihr Name ist [Name of your Bot].
OR
Sie sind “[Name of your Bot]”.
Beschreibung
Die Beschreibung des Bots macht ihn auf den Kontext aufmerksam, der durch die Wissensdatenbank bereitgestellt wird. Durch die Berücksichtigung des Kontexts erhält der Bot einen Rahmen für die Beantwortung von Fragen, wobei er einen bestimmten Bereich im Auge behält.
Aufforderungen:
Ihre Hauptaufgabe ist es, [specify the domain].
OR
Ihr Hauptziel ist es, mich bei [specify the domain] zu unterstützen.
Hinweis: Der Bot-Name und die Bot-Beschreibung, die im Abschnitt “Allgemein” festgelegt werden, dienen lediglich der Benutzerfreundlichkeit, um zwischen mehreren Bots zu unterscheiden. Der Bot selbst hat keine Kenntnis von diesen Einstellungen. Daher ist es notwendig, den Namen und die Beschreibung des Bots im Personality Prompt explizit zu definieren, um seine Identität und seine Eigenschaften festzulegen.
Grenzen
Ein möglicher Nachteil der Verwendung von LLMs, die auf großen Datensätzen trainiert wurden, ist die Tendenz, halluzinierte Antworten zu erzeugen. Es ist wichtig anzumerken, dass die Daten, die zur Generierung von Antworten verwendet werden, nicht für die Feinabstimmung oder Umschulung des LLM bei Bedarf durch Cody genutzt werden. Stattdessen dient sie als kontextbezogene Referenz für die Abfrage des LLM, was zu schnelleren Antworten führt und den Datenschutz wahrt.
Um sicherzustellen, dass sich der Bot nicht auf Datenpunkte aus dem ursprünglichen LLM-Datensatz bezieht, die sich möglicherweise mit ähnlichen Domänen oder Konzepten überschneiden, müssen wir den Kontext streng auf unsere Wissensbasis begrenzen.
Aufforderungen:
Die Wissensdatenbank ist Ihre einzige Informationsquelle.
OR
Sie zögern, Behauptungen aufzustellen, die nicht in der Wissensdatenbank enthalten sind.
Es kann Fälle geben, in denen der Bot keine Wissensdatenbank benötigt oder die Wissensdatenbank als Referenzquelle nutzt. In solchen Fällen wird sich die Eingabeaufforderung erheblich ändern.
Aufforderung:
Ihre wichtigste Referenzquelle ist die Wissensdatenbank.
Antwortfunktionen
Die Eigenschaften der vom Bot generierten Antwort können bis zu einem gewissen Grad auch von der Persönlichkeit des Bots gesteuert werden. Sie kann darin bestehen, den Ton, die Länge, die Sprache und die Art der Antwort festzulegen, die Sie von Ihrem Bot erwarten.
Aufforderungen:
1. Tonfall: Sie sollten in einer [polite/friendly/professional] Weise antworten.
2. Länge: Die Antworten sollten in [pointers/paragraphs] verfasst sein.
3. Sprache: Antwort an den Benutzer [in the same language/specify different language].
4. Typ: Geben Sie dem Benutzer die Antworten [creative/professional/precise].
Es steht Ihnen frei, mit verschiedenen Kombinationen und Funktionen zu experimentieren. Die angeführten Beispiele dienen nur zu Lernzwecken, und die Möglichkeiten sind endlos.
Medien
Eine der interessantesten Funktionen von Cody ist die Möglichkeit, Medien in die Antworten einzubetten. Wenn Sie Medien wie Bilder, GIFs oder Videos einbetten, empfiehlt es sich immer, die Medien in ein separates Dokument zu importieren oder das gesamte Rohdokument mit dem integrierten Cody-Texteditor zu importieren, in dem Sie Medien hinzufügen können. Sie können die Medien entweder kopieren/einfügen oder sie mit Hilfe von URLs in das Dokument einbetten.
Nachdem Sie die Medien erfolgreich importiert haben, müssen Sie diese in unserer Bot-Persönlichkeitsabfrage angeben. Die Eingabeaufforderung kann in zwei Teile unterteilt werden: Initialisierung und Illustration.
Aufforderungen:
Initialisierung:
Einbindung der relevanten [images/videos/both] aus der Wissensdatenbank, wenn dies sinnvoll ist.Illustration:
Fügen Sie Bilder mit dem Tag <img> und Videos mit dem iframe <ein.>
Zum Beispiel:
<img src=”[Image URL]”>
<iframe src=”[Video URL]”></iframe>
Fallbacks
Es kann vorkommen, dass der Bot keine relevanten Inhalte für die vom Nutzer gestellte Frage finden kann. Es ist immer sicherer, Fallbacks für solche Szenarien zu definieren, um zu vermeiden, dass der Benutzer irreführende oder falsche Informationen erhält (gilt nur für Anwendungsfälle, in denen eine Wissensdatenbank existiert).
Aufforderungen:
1. Unterlassen Sie es, während des Gesprächs “unstrukturierte Wissensbasis” oder Dateinamen zu erwähnen.
2. In Fällen, in denen eine endgültige Antwort nicht möglich ist, [Define fallback].
OR
Wenn Sie keine relevanten Informationen in der Wissensdatenbank finden können oder wenn der Benutzer nicht verwandte Fragen stellt, die nicht Teil der Wissensdatenbank sind, [Define fallback].
Schritte (fakultativ)
Wenn Sie möchten, dass Ihr Bot einem bestimmten Gesprächsverlauf folgt, können Sie diesen ganz einfach in Schritten definieren. Dieser Ansatz ist besonders nützlich, wenn Sie Ihren Bot zu Schulungs- oder Fehlerbehebungszwecken einsetzen. Jeder Schritt steht für eine bestimmte Phase oder ein bestimmtes Stadium der Konversation, so dass Sie den Verlauf kontrollieren und sicherstellen können, dass der Bot die gewünschten Informationen oder Hilfestellungen auf systematische Weise liefert.
Aufforderung:
Befolgen Sie diese Schritte, während Sie sich mit dem Benutzer unterhalten:
1. [Step 1]
2. [Step 2]
3. [Step 3]
Hinweis: Es wird empfohlen, bei der Festlegung der Schritte die“umgekehrte Vektorsuche” zu aktivieren, um bessere Antworten zu erhalten, und dem Chatverlauf eine angemessene Anzahl von Token zuzuweisen. Dadurch kann das Modell den Gesprächsverlauf, einschließlich der Eingaben des Nutzers und der vorherigen Antwort des Bots, bei der Erstellung einer Antwort berücksichtigen.
Datenerfassung (optional)
Diese Aufforderung, die mit dem Konversationsfluss (Schritte) harmoniert, ist besonders vorteilhaft, wenn sich der Anwendungsfall Ihres Bots um Support- oder Rekrutierungsszenarien dreht. Derzeit gibt es in Cody weder einen Langzeitspeicher noch eine Datenbankanbindung, die die Daten erfassen und für die Analyse aufbewahren könnte. In Zukunft werden wir mit neueren Aktualisierungen der OpenAI-API, wie z. B. Funktionsaufrufe, definitiv neue Funktionen einführen, um die Daten längerfristig erfassen und speichern zu können.
Im Moment können Sie auf die Chats Ihrer Bot-Benutzer (über Widgets) zugreifen, indem Sie im Chat-Bereich zu den Chats der“Gäste” navigieren. Anschließend können Sie die erfassten Daten manuell analysieren, um weitere Erkenntnisse zu gewinnen.
Aufforderung:
Sammeln Sie die folgenden Daten von den Benutzern:
– [Field 1]
– [Field 2]
– [Field 3]
– [Field 4]
Stellen Sie immer nur eine Frage nach der anderen. Sobald Sie alle erforderlichen Informationen gesammelt haben, schließen Sie das Gespräch ab, indem Sie sich bedanken und die gesammelten Daten anzeigen. Denken Sie daran, dass Ihre Aufgabe nur darin besteht, Daten zu sammeln.
Antwortformatierung*
Ein raffiniertes kleines Feature von Cody ist die Unterstützung für die Formatierung von Bot-Antworten mit Markdown- oder HTML-Tags. Wenn Sie Ihrem Bot eine Vorlage im HTML- oder Markdown-Format in der Bot-Persönlichkeit zur Verfügung stellen, wird er versuchen, die Antworten bei Bedarf entsprechend zu formatieren.
Aufforderung:
Antwortformat:
<h1>[Field Name]</h1>
<p>[Field Name]</p>
<p>[Field Name]</p>
*Formatierungfunktioniert am besten auf GPT-4
Beispiel für eine Aufforderung
Cody als Lead Generation Bot
Cody als Marketing-Bot
Cody als Trainingsbot
Wenn Sie mehr über persönliche Prompts erfahren möchten, sehen Sie sich bitte unsere Anwendungsfälle an, die detaillierte Prompts zusammen mit ihren parametrischen Einstellungen enthalten.
Schlussfolgerung
Wenn Sie den kostenlosen Plan von Cody nutzen, besteht die Möglichkeit, dass der Bot aufgrund des kleineren Kontextfensters oder der mangelnden Kohärenz die Eingabeaufforderung nicht beachtet oder einige Parameter einfach ignoriert. Wir empfehlen jedem, den kostenlosen Plan nur zu Testzwecken oder als Übergangsphase zu nutzen, um die Verwendung von Cody zu verstehen und seine Eignung für Ihr Unternehmen zu bestimmen.
Bei der Erstellung von Prompts für Ihren Bot ist es außerdem wichtig, dass Sie sich kurz fassen und nicht alle im Artikel genannten Parameter einbeziehen. Da die Anzahl der verfügbaren Token begrenzt ist und die Persönlichkeitsabfrage ebenfalls Token verbraucht, sollten Sie sie mit Bedacht zusammenstellen. Sie können die Anweisungen in diesem Artikel nach Ihren Bedürfnissen und Vorlieben ändern. Haben Sie etwas Neues entdeckt? Sie können es uns jederzeit mitteilen, und wir würden es gerne mit Ihnen besprechen.
Dies war nur eine Einführung in die weite Landschaft der Bot-Persönlichkeitsentwicklung. Die LLMs werden von Tag zu Tag besser, und wir haben noch einen langen Weg vor uns, um ihr Potenzial voll auszuschöpfen. Diese ganze Reise ist für uns alle eine neue Erfahrung. Wenn wir weiter experimentieren, lernen und neue Anwendungsfälle und Szenarien implementieren, werden wir sie in Artikeln und Tutorials mit Ihnen teilen. Weitere Informationen finden Sie auch in unserem Hilfe-Center. Wenn Sie Fragen zu Cody haben, können Sie sich gerne an unsere Discord-Community wenden. Weitere interessante Einblicke finden Sie auch in unseren früheren Blogs.