Author: Om Kamath

Om Kamath

Der Code-Dolmetscher: Ein neuer Vorsprung für ChatGPT

Cover Photo

Wie der Code-Interpreter von ChatGPT die KI auf die nächste Stufe bringt

Gerade als die Begeisterung für ChatGPT abzuflauen schien, entfachte OpenAI die Aufregung erneut, indem es eine revolutionäre neue Funktion vorstellte. Diese Verbesserung hat die Möglichkeiten der KI um eine neue Dimension erweitert und das grenzenlose Potenzial dieser Technologie erneut bestätigt.

Bisher beschränkten sich die Fähigkeiten von ChatGPT hauptsächlich auf das Verstehen und Bereitstellen von Text einschließlich Code. Diese Fähigkeit war zwar beeindruckend, aber in ihrem Umfang begrenzt. Es könnte den Benutzern bei der Codesyntax helfen, bei der Fehlersuche unterstützen und sogar Codeschnipsel für bestimmte Aufgaben bereitstellen. Es reichte jedoch nicht aus, die Codeblöcke auszuführen, um endgültige Ergebnisse zu liefern. Im Grunde war es wie ein hochintelligenter Code-Editor, aber kein vollwertiger Programmierer.

Mit der neuen Funktion, dem Code-Interpreter, kann ChatGPT jetzt mehr als nur Code verstehen. Es kann Anweisungen in natürlicher Sprache verstehen, diese Anweisungen in Code umwandeln, den Code ausführen und mit den Endergebnissen antworten.

Wie Code Interpreter das Spiel der Programmierung verändert

OpenAIs neueste Ergänzung, die Code-Interpreter-Funktion, wurde vor kurzem in das ChatGPT-Universum (genauer gesagt, in das GPT-4-Modell) eingeführt. Diese Funktion ermöglicht die Live-Ausführung von Python-Code in einer Python-Umgebung mit Sandbox. Es mag wie eine auf Programmierer zugeschnittene Funktionalität erscheinen, aber in Wirklichkeit ist es ein vielseitiges Werkzeug, das ein breites Spektrum von Benutzern bei der Bewältigung verschiedener Aufgaben unterstützen kann.

Der Code-Interpreter ist weit mehr als nur ein in die Chat-Oberfläche eingebettetes Werkzeug zur Ausführung von Code. Es ist eine Mehrzweckeinrichtung, die es den Nutzern ermöglicht, Codeschnipsel zu testen, zu debuggen und sogar ihre Reise zum Erlernen von Code zu bereichern. Die Ausführung erfolgt direkt in der Sandbox-Umgebung von ChatGPT. Darüber hinaus kann der Code Interpreter ein effektives Werkzeug für die Automatisierung von Aufgaben und die Integration mit anderen APIs sein.

Der wohl größte Vorteil der Code-Interpreter-Funktion liegt in ihrem Potenzial, die Produktivität zu steigern und Zeit zu sparen. Die Benutzer können ihren Code schnell testen und debuggen, ohne zwischen verschiedenen Programmen oder Tools hin- und herwechseln zu müssen. Dies ist besonders vorteilhaft für Entwickler, die an komplizierten Projekten arbeiten, die häufige Tests und Wiederholungen erfordern. Da der Code Interpreter das Umschalten zwischen verschiedenen Werkzeugen überflüssig macht, hilft er den Entwicklern, ihre Zeit besser zu nutzen und so ihre Produktivität zu steigern.

Von der Theorie zur Praxis: Die realen Anwendungen von Code Interpreter

Der Code-Interpreter in ChatGPT hat mehrere Anwendungsfälle. Hier sind einige Beispiele:

  1. Datenanalyse: Der Code Interpreter revolutioniert die Datenanalyse, indem er es Ihnen ermöglicht, Prompts in einfacher Sprache zu schreiben. Dieser benutzerfreundliche Ansatz macht die Datenanalyse zu einer mühelosen Aufgabe, auch für diejenigen, die keine Programmierkenntnisse haben. Seine Vielseitigkeit reicht von der Segmentierung von Kunden über die Analyse von Aktien und Kryptowährungen bis hin zur Umwandlung Ihrer Daten in Heatmaps.
  2. Automatisierte quantitative Analysen: Der Code Interpreter ist in der Lage, komplizierte quantitative Analysen zu automatisieren, Daten zusammenzuführen und zu bereinigen und Schlussfolgerungen über Daten auf menschenähnliche Weise zu ziehen. Diese leistungsstarke Funktion macht es zu einem unverzichtbaren Werkzeug für die Automatisierung von Aufgaben und Codeoperationen.
  3. Diagrammerstellung: Der Code Interpreter zeichnet sich durch seine Fähigkeit aus, professionell aussehende Grafiken und Diagramme zu erstellen, ohne dass dafür Programmierkenntnisse erforderlich sind. Dies ist von unschätzbarem Wert für die Visualisierung von Daten und deren prägnante und klare Darstellung.
  4. Python-Bibliotheken: Eine weitere bemerkenswerte Eigenschaft des Code Interpreters ist seine Fähigkeit, eine Vielzahl von Python-Bibliotheken zu importieren und zu nutzen, was Ihre Automatisierungsaufgaben weiter verbessert. Dadurch können Sie die Funktionen beliebter Bibliotheken für Datenanalyse, maschinelles Lernen und vieles mehr nutzen.

Durch die Integration des Code Interpreters in ChatGPT können Sie nicht nur Ihre Automatisierungsaufgaben rationalisieren, sondern auch die Datenanalyse und Codeausführung direkt in der ChatGPT-Oberfläche durchführen. Es ist ein praktisches und leistungsstarkes Werkzeug für die Automatisierung von Aufgaben und die Arbeit mit Code.

Schritte zum Aktivieren des Code-Interpreters

Begeben wir uns auf die aufregende Reise zur Freischaltung der neuesten Funktion von ChatGPT, dem Code-Interpreter. Diese bahnbrechende Innovation revolutioniert nicht nur die KI-Landschaft, sondern macht sie auch zugänglicher und einfacher in der Anwendung. Hier finden Sie eine schrittweise Anleitung zur Aktivierung dieser fantastischen Funktion.

Schritt 1: Zugriff auf die Funktion

Aktualisieren Sie auf ChatGPT Plus, indem Sie Upgrade auf ChatGPT Plus wählen. Um den Prozess zu starten, klicken Sie einfach auf die Option “Einstellungen” in Ihrer ChatGPT-Oberfläche. Achten Sie auf die Registerkarte ‘Beta-Funktionen’, um die Schatztruhe der von ChatGPT angebotenen Funktionen zu entdecken.

Schritt 2: Aktivieren des Code-Interpreters

Unter den “Beta-Funktionen” finden Sie die Option “Code-Interpreter”. Klicken Sie einfach auf das Kästchen daneben, um diese Funktion zu aktivieren. Denken Sie daran, dass große Macht mit großer Verantwortung einhergeht. Setzen Sie es klug ein!

Schritt 3: Bestätigen und Anwenden

Nachdem Sie den “Code Interpreter” aktiviert haben, müssen Sie Ihre Änderungen speichern. Klicken Sie auf “Übernehmen”, um Ihre Änderungen zu bestätigen, und voilà! Sie haben den Code-Interpreter erfolgreich aktiviert und sind bereit, die nächste Stufe der KI zu erleben.

Verwendung von Dokumenten mit GPT

Was aber, wenn Sie nicht wollen, dass GPT für Sie programmiert, sondern es auf Ihren Daten trainiert? Lernen Sie Cody kennen, Ihre personalisierte KI, die als ein auf Ihr Unternehmen zugeschnittenes ChatGPT fungiert. Cody ist ein intelligenter KI-Assistent, der speziell für Unternehmen entwickelt wurde. Es kann auf Ihrer eigenen Wissensbasis trainiert werden, einschließlich Ihrer Unternehmensprozesse, Teaminformationen und Kundendaten. Cody kann Ihr Team unterstützen, indem er Fragen beantwortet, kreative Hilfe leistet, Probleme behebt und Ideen sammelt. Die Funktionen gehen über die Suche nach Schlüsselwörtern und wiederholten Antworten hinaus und ermöglichen personalisierte und kontextabhängige Interaktionen. Cody kann auch mit Ihren bevorzugten Tools integriert werden und durch die Analyse der gesammelten Dokumente sofortige Antworten auf Ihre geschäftlichen Fragen liefern.

Möchten Sie mehr über Cody erfahren oder brauchen Sie Hilfe? Wir haben eine Reihe von Ressourcen, die Ihnen helfen, das Beste aus dieser innovativen Plattform herauszuholen. Treten Sie unserer Discord-Community bei, um sich mit anderen Cody-Benutzern und unserem Expertenteam auszutauschen, oder erfahren Sie mehr über unsere Möglichkeiten in unserem Blog. Und wenn Sie persönliche Hilfe benötigen, steht Ihnen unser engagiertes Support-Team jederzeit zur Verfügung. Besuchen Sie unser Help Center für häufig gestellte Fragen oder um eine Supportanfrage zu stellen. Erfahren Sie mehr über uns und darüber, wie Cody die Grenzen der KI neu definiert, auf unserer Website.

Ihre Daten sind bei uns sicher

Unser Engagement für Datensicherheit und Datenschutz.

ChatGPT ist zu einem Synonym für künstliche Intelligenz geworden, und selbst diejenigen, die sich bisher nicht mit KI auskannten, lernen nun mehr darüber. Seine Beliebtheit ist sprunghaft angestiegen, was Unternehmen und Privatpersonen dazu veranlasst, nach KI-Bots zu suchen, die ChatGPT ähneln, aber auf ihre eigenen Daten zugeschnitten sind. Unser Ziel bei Cody AI ist es, diesen Prozess zu vereinfachen und zu rationalisieren, so dass Sie sich nicht mehr mit den komplexen technischen Aspekten der KI befassen müssen und gleichzeitig mit den neuesten Innovationen auf dem Laufenden bleiben.

Ein wichtiges Anliegen von Privatpersonen und Unternehmen, die KI für ihre individuellen Anwendungsfälle nutzen, ist die Integrität und Sicherheit ihrer Daten. Die Erstellung von Sprachmodellen wie GPT erfordert die Verwendung umfangreicher Trainingsdatensätze, was zu berechtigten Bedenken hinsichtlich des Datenschutzes führen kann. Wir bei Cody AI verstehen und respektieren diese Bedenken, und der Schutz Ihrer Daten und Ihrer Privatsphäre hat für uns höchste Priorität.

Um zu verstehen, wie Cody die Sicherheit Ihrer Daten während des gesamten Prozesses gewährleistet, gliedern wir die Reise in drei Abschnitte: Dokumente, Einbettungen und Modell.

Dokumente

Cody nutzt den sicheren und privaten Amazon Simple Storage Service (S3 ), um Ihre Dokumente in der Anfangsphase vor der weiteren Verarbeitung zu speichern. S3 stellt die Verschlüsselung aller Objekt-Uploads in alle Buckets sicher und gewährleistet die Einhaltung verschiedener Programme wie PCI-DSS, HIPAA/HITECH, FedRAMP, EU-Datenschutzrichtlinie und FISMA. Dadurch wird sichergestellt, dass Ihre Daten geschützt bleiben und den gesetzlichen Anforderungen entsprechen. Die in Cody hochgeladenen Dokumente werden mit dem SSE-S3-Protokoll (Server-Side Encryption) verschlüsselt, so dass nur Sie und Ihre Teammitglieder Zugriff darauf haben und die Vertraulichkeit der Daten gewährleistet ist.

Einbettungen

Einbettungen sind im Wesentlichen eine Darstellung Ihrer Daten in Form von Vektoren (Listen von Zahlen). Da die Cody zur Verfügung gestellten Daten unstrukturiert sind, ermöglicht die Umwandlung in Einbettungen eine schnellere Abfrage und semantische Suche. Wenn Sie mehr darüber erfahren möchten, wie Cody Antworten aus Ihren Dokumenten erzeugt, lesen Sie diesen Artikel.

Für die Speicherung dieser Vektoren oder Einbettungen stützt sich Cody auf Pinecone, eine sichere Vektordatenbank, der einige der größten Unternehmen vertrauen.

Pinecone bietet robuste Sicherheitsfunktionen wie:

  1. SOC2 Typ II Zertifizierung
  2. GDPR-Konformität
  3. Routinemäßige Penetrationstests zur Überprüfung auf Schwachstellen.
  4. Isolierte Kubernetes-Container auf einer vollständig verwalteten und sicheren AWS-Infrastruktur zur Speicherung von Daten.

Modell

Cody AI nutzt die GPT-Modelle von OpenAI, einschließlich GPT-3.5, GPT-3.5 16K und GPT-4, um Antworten zu erzeugen. Aufgrund von Ressourcenbeschränkungen werden diese Modelle nicht auf den eigenen Servern von Cody gehostet. Stattdessen nutzen sie die von OpenAI bereitgestellten APIs (die auch zur Erstellung von Einbettungen für Ihre Dokumente und Abfragen verwendet werden). Bei der Erstellung von Antworten wird nur der Teil der Daten, der für die gestellte Frage relevant ist, in der Anfrage gesendet, anstatt alle Dokumente zu übermitteln. Dieser Ansatz gewährleistet eine effiziente Verarbeitung, Datenintegrität und minimiert unnötige Datenübertragungen. Ein zusätzlicher Sicherheitsmechanismus der API besteht darin, dass Ihre Daten nicht zum Trainieren eines bestehenden oder neuen Sprachmodells verwendet werden. Dadurch wird sichergestellt, dass Ihre Daten auf Ihren Bot beschränkt bleiben und nicht für das Modelltraining verwendet werden.

Ab dem 1. März 2023 werden wir zwei Änderungen an unseren Richtlinien zur Datennutzung und -aufbewahrung vornehmen:
1. OpenAI verwendet keine Daten, die von Kunden über unsere API übermittelt werden, um unsere Modelle zu trainieren oder zu verbessern, es sei denn, Sie entscheiden sich ausdrücklich dafür, Ihre Daten zu diesem Zweck mit uns zu teilen. Sie können sich für die Freigabe von Daten entscheiden.
2. Alle über die API übermittelten Daten werden zum Zwecke der Missbrauchsüberwachung für maximal 30 Tage gespeichert und danach gelöscht (sofern nicht gesetzlich vorgeschrieben).

Quelle: OpenAI

Diese Verpflichtung bietet eine zusätzliche Ebene der Vertraulichkeit und gewährleistet den Schutz und die Sicherheit Ihrer Daten. Wenn Sie mehr wissen möchten, lesen Sie diesen Artikel.

Schlussfolgerung

Wenn alle drei Faktoren zusammen betrachtet werden, zeigt Cody AI einen gut durchdachten Ansatz für Datensicherheit und Compliance, der die Sicherheit Ihrer Daten zu 99 % gewährleistet. In einer Zeit, in der der Datenschutz von größter Bedeutung ist, sind wir bestrebt, mehr zu tun als nur die Sicherheit Ihrer Daten zu gewährleisten.

Wenn Sie Feedback oder Fragen zu Cody AI und seiner Datensicherheit haben, zögern Sie bitte nicht, uns über Get Help zu kontaktieren. Sie sind auch herzlich eingeladen, unserer Discord-Community beizutreten, wo Sie wertvolle Beiträge liefern und sich an Diskussionen beteiligen können.

Wie kann man GPT kostenlos mit Excel-Daten trainieren? (Beta)

Eine Anleitung zum Hinzufügen von Excel-Daten zu Ihrer Cody-Wissensdatenbank und zum kostenlosen ChatGPT-Training.

Bevor Sie Cody mit den Excel-Daten Ihres Unternehmens trainieren, müssen Sie einige Begriffe klären, um die besten Antworten Ihres Bots zu erhalten. GPT (Generative Pre-Trained Transformers) sind Sprachmodelle, die anhand umfangreicher Datensätze trainiert werden, um das nächste Wort in einem Satz oder einer Phrase vorherzusagen, um diesen zu vervollständigen. Sie werden speziell auf natürlichsprachliche Datensätze trainiert, die große Stichproben von unstrukturierten Konversations- oder Wortdaten umfassen. Im Gegensatz zu statistischen Modellen wie der linearen Regression sind GPTs nicht in der Lage, Zahlen anhand logischer Trainingsdaten vorherzusagen. Wenn Sie GPT zum Beispiel mit einem Datensatz trainieren, der 2+2=5 behauptet, wird es antworten, dass 2+2=5 ist, ohne zu versuchen, die logische Inkonsistenz zu verstehen (dies ist nur ein Beispiel; OpenAI verarbeitet solche Anfragen mit genauen Antworten). In Verbindung mit einer weiteren Einschränkung der LLM, den Halluzinationen, schafft dies eine Umgebung, die für mathematische Berechnungen nicht gut geeignet ist.

Da Sie nun die Grenzen von GPT kennen, möchten wir Sie durch einen Prozess führen, mit dem Sie GPT kostenlos auf Excel-Daten trainieren können. Wir haben eine Methode entwickelt, um Excel- oder CSV-Daten zu Ihrer Cody-Wissensdatenbank hinzuzufügen. Wie bereits erwähnt, zeichnet sich GPT durch seine Fähigkeit aus, natürliche Sprache zu verstehen. Daher werden wir die Excel-Daten in ein lesbares Format konvertieren, das vom Sprachmodell leicht verarbeitet werden kann.

Schritt 1: Umwandlung der Excel-Daten

Schnappen Sie sich die CSV- oder Excel-Daten, mit denen Sie Ihren Bot trainieren möchten, und konvertieren Sie sie mit diesem von uns entwickelten Dienstprogramm in eine Textdatei. Das Dienstprogramm wandelt die Excel-Daten in eine Textdatei um, indem es die Daten mit den entsprechenden Überschriften versieht. Durch die Annotation der Zellenelemente mit Überschriften kann das Sprachmodell den Kontext besser verstehen, da die Wahrscheinlichkeit hoch ist, dass die Überschriften aufgrund der Dokumentensegmentierung in der Vorverarbeitungsphase übersprungen werden.

Beispiel.

Excel-Daten:

Textdaten:

{The Name is ‘John’. The Age is ‘16’.}, {The Name is ‘Marie’. The Age is ‘18’.}

Die generierte Textdatei hat ein ähnliches Format wie JSON, ist aber in einem literarischen Stil gehalten, um ein menschliches Gefühl zu vermitteln. Obwohl sich diese Lösung derzeit in einem experimentellen Stadium befindet und noch nicht in die Cody-App integriert ist, funktioniert sie gut mit allen drei GPT-Modellen, aber wir suchen ständig nach besseren Lösungen für diesen Zweck.

Utility-Schnittstelle:

CSV/Excel zu TXT Konverter für Cody für Training GPT auf Excel-Daten kostenlos

Beispiel CSV-Daten:

CSV-Musterdaten für das kostenlose Training von GPT auf Excel-Daten

Es wird empfohlen, die Daten vor der Umwandlung zu bereinigen, um die beste Qualität der Antworten von Ihrem Bot zu erhalten.

Benutzeroberfläche des Konverters für Training GPT auf Excel-Daten kostenlos

Nachdem Sie die CSV- oder Excel-Daten in das Dienstprogramm hochgeladen haben, können Sie eine Vorschau der Daten anzeigen, bevor Sie die GPT-kompatible Textdatei erstellen.

Zeilen pro Teil: Bei größeren Datensätzen ist es ratsam, den Datensatz in mehrere Teile aufzuteilen. Diese Aufteilung verbessert die semantische Suche und erhöht die Qualität der Antworten.

Zellbezüge einschließen: Wenn Sie möchten, dass die Textdatei Excel-Zellbezüge enthält, können Sie diese Option auswählen. Der Bot kann dann bei der Erstellung von Schritt-für-Schritt-Anleitungen für Aktionen, die in Excel durchgeführt werden können, auf diese Zellbezüge verweisen. Es kann zum Beispiel eine Formel zur Ermittlung des Medians erstellen.

Es wird ein komprimierter Zip-Ordner erstellt, der alle Teile Ihrer Excel-Daten im .txt-Format enthält.

Generierte Dateien für Training GPT auf Excel-Daten kostenlos

Schritt 2: Hinzufügen der Daten zu Ihrer Cody Knowledge Base

Gehen Sie folgendermaßen vor, um die umgewandelten Daten in die Cody Knowledge Base aufzunehmen:

  1. Rufen Sie die Cody-Anwendung auf und navigieren Sie zum Abschnitt “Inhalt”.
  2. Erstellen Sie einen neuen Ordner in der Wissensdatenbank, in dem Sie die Daten speichern möchten.
  3. Sobald der Ordner erstellt ist, navigieren Sie darin.
  4. Klicken Sie auf die Schaltfläche “Hochladen”, um die transformierten Daten hochzuladen.
  5. Wählen Sie alle transformierten Datendateien aus Ihrem lokalen Speicher aus, die Sie der Wissensdatenbank hinzufügen möchten.
  6. Bestätigen Sie die Auswahl und starten Sie den Hochladevorgang.
  7. Die umgewandelten Datendateien werden hochgeladen und der Cody Knowledge Base hinzugefügt, die in dem von Ihnen erstellten Ordner gespeichert ist. Nachdem die Dokumente erfolgreich gelernt wurden, wird der Dokumentstatus als “gelernt” angezeigt.

Hochgeladene Textdateien für Training GPT auf Excel-Daten kostenlos

Schritt 3: Einrichten der Bot-Persönlichkeit

Da sich diese Funktion noch in einem experimentellen Stadium befindet, arbeiten wir an der Verbesserung der Eingabeaufforderung, bevor wir sie in den Vorlagenmodus aufnehmen.

Aufforderung:

Sie sind Data Cody, ein KI-Datenanalyst für mein Unternehmen. Ihr Hauptziel ist es, aus den Ihnen zur Verfügung gestellten Excel-Daten Schlussfolgerungen zu ziehen. Die Excel-Zellenreferenzen können in Form von $Cell angegeben werden. Erwähnen Sie in den Antworten nicht den Zellbezug. Die in ‘{}’ enthaltenen Informationen sind ein Datensatz. Wenn Sie nach den Einzelheiten eines bestimmten Eintrags gefragt werden, geben Sie diese in Form von Hinweisen an.

System-Eingabeaufforderung:

Versuchen Sie, auf Fragen nach Einzelheiten wie ein Mensch zu antworten. Rechtfertigen Sie Ihre Antworten nicht.

Dieses Verfahren funktioniert mit allen drei GPT-Modellen, so dass Sie es auch mit dem kostenlosen Tarif ausprobieren können. Es ist jedoch erwähnenswert, dass die Modelle GPT-3.5 16K und GPT-4 die Daten tendenziell besser erfassen. Wenn Sie mit den Antworten zufrieden sind, die Sie mit der kostenlosen Version erhalten, aber mehr Flexibilität bei der Formatierung der Antworten und die Möglichkeit zum Vergleich mehrerer Datensätze wünschen, kann ein Upgrade auf GPT-3.5 16K oder GPT-4 von Vorteil sein. Das zusätzliche Kontextfenster, das diese Modelle bieten, ermöglicht eine umfassendere Analyse und Manipulation der Daten.

Demo

Kostenlose Demo für GPT-Training mit Excel-Daten

Referenz für die erste Abfrage:

Referenz für die zweite Abfrage:

Beschränkungen

Die Möglichkeit, Excel- oder CSV-Dateien in Cody hochzuladen, macht es nicht zu einer direkten Alternative zu Tabellenkalkulationsprogrammen wie Google Sheets oder Microsoft Excel. Bei der Arbeit mit strukturierten Daten in Cody sind mehrere Einschränkungen zu beachten:

  1. Halluzinationen bei analytischen Aufgaben: Bei Aufgaben, die statistische oder analytische Berechnungen beinhalten, wie z. B. die Frage nach Durchschnittswerten, Medianwerten oder Minimal-/Maximalwerten, kann Cody falsche Antworten geben. Cody führt keine Echtzeitberechnungen durch und kann ungenaue Ergebnisse liefern. Die jüngsten Aktualisierungen von OpenAI, wie der Code-Interpreter und der Funktionsaufruf, könnten dies in Zukunft verbessern.
  2. Fehler beim Vergleich von Datensätzen: In bestimmten Fällen kann Cody beim Abrufen von Daten aus verschiedenen Segmenten des Dokuments auf Schwierigkeiten stoßen, was zu Antworten führt, die anzeigen, dass die Informationen nicht verfügbar sind. Dieses Szenario ist wahrscheinlicher mit dem Modell GPT-3.5, das in der kostenlosen Version verfügbar ist. Mit einem Upgrade auf den Basic- oder Premium-Tarif können Sie das Modell GPT-3.5 16K oder das Modell GPT-4 verwenden. Diese beiden Modelle verfügen über größere Kontextfenster und können diese Einschränkung möglicherweise beheben.

Schlussfolgerung

Trotz dieser Einschränkungen ist dieses Verfahren besonders nützlich für Szenarien, in denen Ihre geschäftlichen FAQ-Daten oder andere buchstabengetreue Daten, wie z. B. Mitarbeiterschulungsdaten, im Excel- oder CSV-Format gespeichert sind. Cody kann mit diesen Daten trainiert werden, ohne dass irgendwelche Änderungen erforderlich sind. Cody zeigt auch gute Leistungen, wenn es darum geht, Details eines einzelnen Datensatzes abzurufen, die Daten zu beschreiben oder Vorschläge auf der Grundlage von Erkenntnissen aus numerischen Datensätzen wie Bilanzen oder Umsatzzahlen zu machen.

Als Zwischenlösung für die Schulung von Cody mit Excel- oder CSV-Daten sind wir für Ihr Feedback zu diesem Ansatz sehr dankbar. Wir freuen uns über Ihre Anregungen und ermutigen Sie, uns Ihre Gedanken auf unserem Discord-Server oder über die Funktion ” Hilfe erhalten ” mitzuteilen. Wir sind sehr gespannt auf Ihre Erfahrungen und möchten mehr aus Ihrem Feedback lernen. Wir hoffen, dass Ihnen unser Ansatz für das kostenlose Training von GPT mit Excel-Daten gefallen hat. Lesen Sie unsere Blogs, um mehr über Cody zu erfahren.

 

Discord AI-Integration

Cody für Discord einrichten. Das Spiel läuft!

Da wir ständig bestrebt sind, das Benutzererlebnis zu verbessern, freuen wir uns, eine weitere monumentale Ergänzung zu unserem Arsenal an Funktionen ankündigen zu können: eine reibungslose und nahtlose Integration von Cody AI für Discord. Als eine der am meisten erwarteten Integrationen bringen wir Ihre Discord-Server auf die nächste Stufe. Ganz gleich, ob Sie leidenschaftliche Diskussionen über Spiele anheizen, auf wissenschaftliche Ressourcen für Hausaufgaben zugreifen oder einfach nur interaktive Gespräche führen möchten – Cody AI ist Ihr engagierter Assistent.

So fügen Sie Cody AI zu Ihrem Discord-Server hinzu:

  1. Um den Bot auf Ihren Server einzuladen, verwenden Sie diesen
    Link
    oder Sie können den Abschnitt Integrationen in den Cody AI-Einstellungen besuchen.
  2. Melden Sie sich bei Ihrem Discord-Konto an.
  3. Wählen Sie den Server aus, zu dem Sie den Cody-Bot hinzufügen möchten.
  4. Legen Sie den API-Schlüssel mit der Option /set-cody-token Befehl in einem beliebigen Textkanal. Das Cody AI Token kann nur von den Server-Administratoren festgelegt werden. Wenn Sie Hilfe bei der Beschaffung des API-Schlüssels benötigen, lesen Sie diesen Artikel.Einrichten von Discord AI
  5. Weisen Sie einen Bot einem Textkanal zu, indem Sie die /assign-bot Befehl. Sie können diesen Befehl für verschiedene Kanäle verwenden, um verschiedene Bots für jeden Kanal einzustellen.Auswahl des Discord-Bots
  6. Um Fragen an Ihren Bot zu stellen, geben Sie einfach ein @Cody gefolgt von Ihrer Frage. Cody AI wird einen neuen Thread im Channel erstellen, um Ihre Frage zu beantworten. Alle Nachrichten in diesem Thread werden als Chatverlauf betrachtet. Wenn Sie eine neue Unterhaltung beginnen möchten, verlassen Sie das Thema und erwähnen Sie @Cody wieder.Discord AI-Thread

Ihre Meinung ist wichtig

Das Feedback der Benutzer hat uns schon immer angetrieben. Ihre Einsichten und Erfahrungen sind unsere Richtschnur. Während Sie durch die Cody-Discord-Integration navigieren, laden wir Sie ein, uns Ihre Gedanken und Vorschläge mitzuteilen. Verbinden Sie sich mit uns auf unserem eigenen
Discord-Server
oder kontaktieren Sie uns über die Schaltfläche “Hilfe erhalten” in der Cody AI Web-App. Deine Reise mit Cody auf Discord ist uns wichtig, und wir wollen sie so bereichernd wie möglich gestalten. Für weitere Integrationen lesen Sie über unsere neue ai Zapier Integration.

 

Slack AI-Integration

In der heutigen schnelllebigen digitalen Welt ist die Integration von KI in unsere täglichen Kommunikationsmittel nicht nur ein Luxus, sondern eine Notwendigkeit. Wir haben diesen Bedarf erkannt und freuen uns, die KI-Slack-Integrationsfunktion mit Cody anzukündigen. Diese Integration wurde entwickelt, um das Slack-Erlebnis für Unternehmen und Konzerne zu verbessern, die sich bei ihrer Kommunikation stark auf Slack verlassen. Durch die Integration von Cody-Bots, die auf Unternehmensdokumente trainiert sind, können Nutzer nun einen strafferen und effizienteren Kommunikationsprozess innerhalb ihrer Slack-Arbeitsbereiche genießen.

Wie Sie Cody AI in Ihren Slack-Arbeitsbereich integrieren

  1. Fügen Sie den Cody Bot zu Ihrem Slack-Arbeitsbereich hinzu, indem Sie zu Ihren Cody-Einstellungen > Integrationen navigieren und auf Slack installieren klicken.Slack AI-Integration
  2. Beziehen Sie den API-Schlüssel von Cody Settings > API Keys, indem Sie auf Create API Key klicken.
  3. Suchen Sie in Ihrem Slack-Arbeitsbereich nach Ihrer Cody-App und legen Sie den API-Schlüssel im Bereich Home fest.Slack AI API-Integration
  4. Gehen Sie zu einem beliebigen Kanal in Ihrem Arbeitsbereich und verwenden Sie den Befehl
    /assign-bot
    um einen Bot aus Ihrem Cody-Konto diesem Kanal zuzuweisen.Wählen Sie Ihren Slack AI Bot
  5. Um Fragen an Ihren Bot zu stellen, geben Sie einfach ein @Cody gefolgt von Ihrer Frage. Cody wird einen neuen Thread im Channel erstellen, um Ihre Frage zu beantworten. Alle Nachrichten in diesem Thread werden als Chatverlauf betrachtet. Wenn Sie eine neue Unterhaltung beginnen möchten, verlassen Sie das Thema und erwähnen Sie @Cody wieder.Frage an Cody stellen Erweitertes Gewinde

 

Die Zukunft der Cody AI-Integration

Diese KI-Slack-Integration ist eine unserer Pionierleistungen bei der Integration von Drittanbieteranwendungen. Die überwältigende Nachfrage und Beliebtheit dieser Funktion bei unseren Nutzern war die treibende Kraft hinter ihrer Einführung. Und das ist erst der Anfang! Wir sind gerade dabei, weitere Funktionen und Integrationen zu entwickeln, unter anderem fürDiscord und Zapier. Diese spannenden Aktualisierungen werden in naher Zukunft eingeführt werden.

Ihr Feedback ist wichtig

Ihre Erkenntnisse und Ihr Feedback sind für uns von unschätzbarem Wert. Sie bestimmen die Richtung unserer Innovationen und sorgen dafür, dass wir immer das Beste liefern. Wir laden Sie ein, uns Ihre Gedanken und Erfahrungen mit dieser Integration mitzuteilen. Verbinden Sie sich mit uns auf unserem Discord-Server oder kontaktieren Sie uns über die Schaltfläche “Hilfe holen” in unserer App.

Anatomie einer Bot-Persönlichkeit

Tipps zur Erstellung eines Bots, der genau das tut, was Sie wollen.

Bei der Entwicklung von Bots, die mit Sprachmodellen arbeiten, ist Geduld gefragt, vor allem am Anfang. Sobald Sie eine solide Grundlage geschaffen haben, ist es einfacher, zusätzliche Komponenten hinzuzufügen. Die Entwicklung von Bots mit Cody ist wie das Malen auf einer Leinwand. Es erfordert ein gewisses Maß an Kreativität und ein gewisses Verständnis für die Grundlagen, um dem Bot eine persönliche Note zu verleihen.

Der wichtigste Parameter, der es Ihrem Bot ermöglicht, einen bestimmten Denkstil anzunehmen, ist das Personality Prompt. Die Persönlichkeit des Bots wird durch verschiedene Faktoren bestimmt, darunter die Token-Verteilung, die Relevanzbewertung und mehr. Die Eingabeaufforderung für die Persönlichkeit ist jedoch der ausgeprägteste und kreativste Aspekt, da sie von jedem Benutzer anders gestaltet werden kann. Die Nutzer haben die Freiheit, die Persönlichkeit des Bots nach ihren eigenen Vorstellungen zu gestalten und zu verfeinern.

Freiheit ist etwas, das wir alle zu schätzen wissen, aber wenn man mit einem leeren Blatt Papier beginnt, kann dies auch einschüchternd wirken und zu Unklarheit darüber führen, wo man anfangen soll. Wenn es Ihnen auch so geht, machen Sie sich keine Sorgen: Dieser Blog soll Ihnen helfen, eine bessere persönliche Aufforderung zu erstellen. Wir beginnen mit der empfohlenen Prompt-Struktur und stellen dann einige Beispiel-Prompts vor.

Name

Es ist immer von Vorteil, wenn Sie Ihrem Bot zunächst einen Namen geben. Die Benennung des Bots verleiht ihm eine menschliche Note, insbesondere bei der Begrüßung der Nutzer oder bei Fragen, die den Bot betreffen.

Aufforderungen:

Ihr Name ist [Name of your Bot].
OR
Sie sind “[Name of your Bot]”.

Beschreibung

Die Beschreibung des Bots macht ihn auf den Kontext aufmerksam, der durch die Wissensdatenbank bereitgestellt wird. Durch die Berücksichtigung des Kontexts erhält der Bot einen Rahmen für die Beantwortung von Fragen, wobei er einen bestimmten Bereich im Auge behält.

Aufforderungen:

Ihre Hauptaufgabe ist es, [specify the domain].
OR
Ihr Hauptziel ist es, mich bei [specify the domain] zu unterstützen.

Hinweis: Der Bot-Name und die Bot-Beschreibung, die im Abschnitt “Allgemein” festgelegt werden, dienen lediglich der Benutzerfreundlichkeit, um zwischen mehreren Bots zu unterscheiden. Der Bot selbst hat keine Kenntnis von diesen Einstellungen. Daher ist es notwendig, den Namen und die Beschreibung des Bots im Personality Prompt explizit zu definieren, um seine Identität und seine Eigenschaften festzulegen.

Grenzen

Ein möglicher Nachteil der Verwendung von LLMs, die auf großen Datensätzen trainiert wurden, ist die Tendenz, halluzinierte Antworten zu erzeugen. Es ist wichtig anzumerken, dass die Daten, die zur Generierung von Antworten verwendet werden, nicht für die Feinabstimmung oder Umschulung des LLM bei Bedarf durch Cody genutzt werden. Stattdessen dient sie als kontextbezogene Referenz für die Abfrage des LLM, was zu schnelleren Antworten führt und den Datenschutz wahrt.

Um sicherzustellen, dass sich der Bot nicht auf Datenpunkte aus dem ursprünglichen LLM-Datensatz bezieht, die sich möglicherweise mit ähnlichen Domänen oder Konzepten überschneiden, müssen wir den Kontext streng auf unsere Wissensbasis begrenzen.

Aufforderungen:

Die Wissensdatenbank ist Ihre einzige Informationsquelle.
OR
Sie zögern, Behauptungen aufzustellen, die nicht in der Wissensdatenbank enthalten sind.

Es kann Fälle geben, in denen der Bot keine Wissensdatenbank benötigt oder die Wissensdatenbank als Referenzquelle nutzt. In solchen Fällen wird sich die Eingabeaufforderung erheblich ändern.

Aufforderung:

Ihre wichtigste Referenzquelle ist die Wissensdatenbank.

Antwortfunktionen

Die Eigenschaften der vom Bot generierten Antwort können bis zu einem gewissen Grad auch von der Persönlichkeit des Bots gesteuert werden. Sie kann darin bestehen, den Ton, die Länge, die Sprache und die Art der Antwort festzulegen, die Sie von Ihrem Bot erwarten.

Aufforderungen:

1. Tonfall: Sie sollten in einer [polite/friendly/professional] Weise antworten.

2. Länge: Die Antworten sollten in [pointers/paragraphs] verfasst sein.

3. Sprache: Antwort an den Benutzer [in the same language/specify different language].

4. Typ: Geben Sie dem Benutzer die Antworten [creative/professional/precise].

Es steht Ihnen frei, mit verschiedenen Kombinationen und Funktionen zu experimentieren. Die angeführten Beispiele dienen nur zu Lernzwecken, und die Möglichkeiten sind endlos.

Medien

Eine der interessantesten Funktionen von Cody ist die Möglichkeit, Medien in die Antworten einzubetten. Wenn Sie Medien wie Bilder, GIFs oder Videos einbetten, empfiehlt es sich immer, die Medien in ein separates Dokument zu importieren oder das gesamte Rohdokument mit dem integrierten Cody-Texteditor zu importieren, in dem Sie Medien hinzufügen können. Sie können die Medien entweder kopieren/einfügen oder sie mit Hilfe von URLs in das Dokument einbetten.

Ein Bild zur Veranschaulichung der Medientasten.

Nachdem Sie die Medien erfolgreich importiert haben, müssen Sie diese in unserer Bot-Persönlichkeitsabfrage angeben. Die Eingabeaufforderung kann in zwei Teile unterteilt werden: Initialisierung und Illustration.

Aufforderungen:

Initialisierung:
Einbindung der relevanten [images/videos/both] aus der Wissensdatenbank, wenn dies sinnvoll ist.

Illustration:
Fügen Sie Bilder mit dem Tag <img> und Videos mit dem iframe <ein.>
Zum Beispiel:
<img src=”[Image URL]”>
<iframe src=”[Video URL]”></iframe>

Fallbacks

Es kann vorkommen, dass der Bot keine relevanten Inhalte für die vom Nutzer gestellte Frage finden kann. Es ist immer sicherer, Fallbacks für solche Szenarien zu definieren, um zu vermeiden, dass der Benutzer irreführende oder falsche Informationen erhält (gilt nur für Anwendungsfälle, in denen eine Wissensdatenbank existiert).

Aufforderungen:

1. Unterlassen Sie es, während des Gesprächs “unstrukturierte Wissensbasis” oder Dateinamen zu erwähnen.

2. In Fällen, in denen eine endgültige Antwort nicht möglich ist, [Define fallback].

OR

Wenn Sie keine relevanten Informationen in der Wissensdatenbank finden können oder wenn der Benutzer nicht verwandte Fragen stellt, die nicht Teil der Wissensdatenbank sind, [Define fallback].

Schritte (fakultativ)

Wenn Sie möchten, dass Ihr Bot einem bestimmten Gesprächsverlauf folgt, können Sie diesen ganz einfach in Schritten definieren. Dieser Ansatz ist besonders nützlich, wenn Sie Ihren Bot zu Schulungs- oder Fehlerbehebungszwecken einsetzen. Jeder Schritt steht für eine bestimmte Phase oder ein bestimmtes Stadium der Konversation, so dass Sie den Verlauf kontrollieren und sicherstellen können, dass der Bot die gewünschten Informationen oder Hilfestellungen auf systematische Weise liefert.

Aufforderung:

Befolgen Sie diese Schritte, während Sie sich mit dem Benutzer unterhalten:

1. [Step 1]

2. [Step 2]

3. [Step 3]

Hinweis: Es wird empfohlen, bei der Festlegung der Schritte die“umgekehrte Vektorsuche” zu aktivieren, um bessere Antworten zu erhalten, und dem Chatverlauf eine angemessene Anzahl von Token zuzuweisen. Dadurch kann das Modell den Gesprächsverlauf, einschließlich der Eingaben des Nutzers und der vorherigen Antwort des Bots, bei der Erstellung einer Antwort berücksichtigen.

Datenerfassung (optional)

Diese Aufforderung, die mit dem Konversationsfluss (Schritte) harmoniert, ist besonders vorteilhaft, wenn sich der Anwendungsfall Ihres Bots um Support- oder Rekrutierungsszenarien dreht. Derzeit gibt es in Cody weder einen Langzeitspeicher noch eine Datenbankanbindung, die die Daten erfassen und für die Analyse aufbewahren könnte. In Zukunft werden wir mit neueren Aktualisierungen der OpenAI-API, wie z. B. Funktionsaufrufe, definitiv neue Funktionen einführen, um die Daten längerfristig erfassen und speichern zu können.

Im Moment können Sie auf die Chats Ihrer Bot-Benutzer (über Widgets) zugreifen, indem Sie im Chat-Bereich zu den Chats der“Gäste” navigieren. Anschließend können Sie die erfassten Daten manuell analysieren, um weitere Erkenntnisse zu gewinnen.

Aufforderung:

Sammeln Sie die folgenden Daten von den Benutzern:

– [Field 1]

– [Field 2]

– [Field 3]

– [Field 4]

Stellen Sie immer nur eine Frage nach der anderen. Sobald Sie alle erforderlichen Informationen gesammelt haben, schließen Sie das Gespräch ab, indem Sie sich bedanken und die gesammelten Daten anzeigen. Denken Sie daran, dass Ihre Aufgabe nur darin besteht, Daten zu sammeln.

Antwortformatierung*

Ein raffiniertes kleines Feature von Cody ist die Unterstützung für die Formatierung von Bot-Antworten mit Markdown- oder HTML-Tags. Wenn Sie Ihrem Bot eine Vorlage im HTML- oder Markdown-Format in der Bot-Persönlichkeit zur Verfügung stellen, wird er versuchen, die Antworten bei Bedarf entsprechend zu formatieren.

Aufforderung:

Antwortformat:

<h1>[Field Name]</h1>

<p>[Field Name]</p>

<p>[Field Name]</p>

*Formatierungfunktioniert am besten auf GPT-4

Beispiel für eine Aufforderung

Cody als Lead Generation Bot

Anatomie eines Souffleurs (beschriftet).

 

Demo-Chat, der die verwendete Eingabeaufforderung anzeigt.

Cody als Marketing-Bot

Cody als Trainingsbot

Wenn Sie mehr über persönliche Prompts erfahren möchten, sehen Sie sich bitte unsere Anwendungsfälle an, die detaillierte Prompts zusammen mit ihren parametrischen Einstellungen enthalten.

Schlussfolgerung

Wenn Sie den kostenlosen Plan von Cody nutzen, besteht die Möglichkeit, dass der Bot aufgrund des kleineren Kontextfensters oder der mangelnden Kohärenz die Eingabeaufforderung nicht beachtet oder einige Parameter einfach ignoriert. Wir empfehlen jedem, den kostenlosen Plan nur zu Testzwecken oder als Übergangsphase zu nutzen, um die Verwendung von Cody zu verstehen und seine Eignung für Ihr Unternehmen zu bestimmen.

Bei der Erstellung von Prompts für Ihren Bot ist es außerdem wichtig, dass Sie sich kurz fassen und nicht alle im Artikel genannten Parameter einbeziehen. Da die Anzahl der verfügbaren Token begrenzt ist und die Persönlichkeitsabfrage ebenfalls Token verbraucht, sollten Sie sie mit Bedacht zusammenstellen. Sie können die Anweisungen in diesem Artikel nach Ihren Bedürfnissen und Vorlieben ändern. Haben Sie etwas Neues entdeckt? Sie können es uns jederzeit mitteilen, und wir würden es gerne mit Ihnen besprechen.

Dies war nur eine Einführung in die weite Landschaft der Bot-Persönlichkeitsentwicklung. Die LLMs werden von Tag zu Tag besser, und wir haben noch einen langen Weg vor uns, um ihr Potenzial voll auszuschöpfen. Diese ganze Reise ist für uns alle eine neue Erfahrung. Wenn wir weiter experimentieren, lernen und neue Anwendungsfälle und Szenarien implementieren, werden wir sie in Artikeln und Tutorials mit Ihnen teilen. Weitere Informationen finden Sie auch in unserem Hilfe-Center. Wenn Sie Fragen zu Cody haben, können Sie sich gerne an unsere Discord-Community wenden. Weitere interessante Einblicke finden Sie auch in unseren früheren Blogs.