Author: Om Kamath

Om Kamath

Interpreter kodu: Nowy skok dla ChatGPT

Cover Photo

Jak interpreter kodu ChatGPT przenosi sztuczną inteligencję na wyższy poziom

Właśnie wtedy, gdy wydawało się, że szum wokół ChatGPT przycichł, OpenAI ponownie rozpaliło emocje, ujawniając rewolucyjną nową funkcję. To ulepszenie dodało nowy wymiar do możliwości sztucznej inteligencji, potwierdzając nieograniczony potencjał tej technologii.

Wcześniej możliwości ChatGPT ograniczały się głównie do rozumienia i dostarczania tekstu zawierającego kod. Możliwości te, choć imponujące, miały ograniczony zakres. Może pomóc użytkownikom w składni kodu, pomóc w debugowaniu, a nawet dostarczyć fragmenty kodu do wykonania określonych zadań. Nie udało się jednak wykonać bloków kodu, aby zapewnić ostateczne wyniki. Zasadniczo był to bardzo inteligentny edytor kodu, ale nie do końca pełnoprawny programista.

Wraz z pojawieniem się nowej funkcji, Interpretera Kodu, ChatGPT jest teraz w stanie więcej niż tylko rozumieć kod. Potrafi zrozumieć instrukcje w języku naturalnym, przekształcić je w kod, wykonać kod i odpowiedzieć końcowymi wynikami.

Jak Code Interpreter zmienia zasady gry w programowanie

Najnowszy dodatek OpenAI, funkcja Code Interpreter, została niedawno wprowadzona do uniwersum ChatGPT (dokładnie w modelu GPT-4). Funkcja ta umożliwia wykonywanie kodu Python na żywo w środowisku Python typu sandbox. Może się wydawać, że jest to funkcjonalność stworzona z myślą o programistach, ale w rzeczywistości jest to wszechstronne narzędzie, które może pomóc szerokiemu spektrum użytkowników w wykonywaniu różnych zadań.

Code Interpreter to znacznie więcej niż tylko wbudowane w interfejs czatu narzędzie do wykonywania kodu. Jest to wielofunkcyjne narzędzie, umożliwiające użytkownikom testowanie fragmentów kodu, debugowanie, a nawet wzbogacanie ich podróży w nauce kodowania. Wykonanie odbywa się bezpośrednio w środowisku piaskownicy ChatGPT. Co więcej, Code Interpreter może być skutecznym narzędziem do automatyzacji zadań i integracji z innymi interfejsami API.

Prawdopodobnie największą zaletą funkcji Code Interpreter jest możliwość zwiększenia produktywności i zaoszczędzenia czasu. Użytkownicy mogą szybko testować i debugować swój kod bez konieczności przełączania się między różnymi programami lub narzędziami. Staje się to szczególnie korzystne dla programistów zaangażowanych w skomplikowane projekty, które wymagają częstych testów i iteracji. Eliminując potrzebę przełączania narzędzi, Code Interpreter rzeczywiście pomaga programistom wykorzystać ich czas, zwiększając w ten sposób ich produktywność.

Od teorii do praktyki: Rzeczywiste zastosowania programu Code Interpreter

Interpreter kodu w ChatGPT ma kilka zastosowań. Oto kilka przykładów:

  1. Analiza danych: Code Interpreter rewolucjonizuje analizę danych, umożliwiając pisanie podpowiedzi w prostym języku. To przyjazne dla użytkownika podejście sprawia, że analiza danych jest łatwym zadaniem, nawet dla osób bez doświadczenia w programowaniu. Jego wszechstronność rozciąga się od segmentacji klientów i analizowania akcji i kryptowalut, po przekształcanie danych w mapy cieplne.
  2. Zautomatyzowane analizy ilościowe: Interpreter kodu jest w stanie zautomatyzować skomplikowane analizy ilościowe, scalanie i czyszczenie danych oraz wnioskowanie o danych w sposób zbliżony do ludzkiego. Ta potężna funkcja sprawia, że jest to niezastąpione narzędzie do automatyzacji zadań i operacji na kodzie.
  3. Generowanie wykresów: Code Interpreter wyróżnia się możliwością tworzenia profesjonalnie wyglądających wykresów bez konieczności posiadania jakiejkolwiek wiedzy programistycznej. Okazuje się to nieocenione przy wizualizacji danych i prezentowaniu ich w zwięzły i przejrzysty sposób.
  4. Biblioteki Pythona: Kolejną niezwykłą cechą Code Interpretera jest jego zdolność do importowania i wykorzystywania różnych bibliotek Pythona, co jeszcze bardziej usprawnia zadania automatyzacji. Przepis ten umożliwia wykorzystanie funkcjonalności popularnych bibliotek do analizy danych, uczenia maszynowego i nie tylko.

Włączając Interpreter Kodu do ChatGPT, nie tylko usprawniasz swoje zadania automatyzacji, ale także przeprowadzasz analizę danych i wykonujesz kod bezpośrednio w interfejsie ChatGPT. Jest to wygodne i potężne narzędzie do automatyzacji zadań i pracy z kodem.

Kroki włączania interpretera kodu

Wyruszmy w ekscytującą podróż odblokowywania najnowszej funkcji ChatGPT, Interpretera Kodów. Ta przełomowa innowacja nie tylko rewolucjonizuje krajobraz sztucznej inteligencji, ale także czyni ją bardziej dostępną i łatwą w użyciu. Oto przewodnik krok po kroku, jak włączyć tę fantastyczną funkcję.

Krok 1: Uzyskanie dostępu do funkcji

Uaktualnij do ChatGPT Plus wybierając Uaktualnij do ChatGPT Plus. Rozpoczęcie procesu jest tak proste, jak kliknięcie opcji “Ustawienia” w interfejsie ChatGPT. Poszukaj zakładki “Funkcje Beta”, aby odkryć skarbnicę funkcjonalności oferowanych przez ChatGPT.

Krok 2: Włączenie interpretera kodu

W sekcji “Funkcje beta” znajduje się opcja “Interpreter kodu”. Wystarczy kliknąć pole wyboru obok niego, aby włączyć tę funkcję. Pamiętaj, że wielka władza wiąże się z wielką odpowiedzialnością. Upewnij się, że używasz go mądrze!

Krok 3: Potwierdź i zastosuj

Po włączeniu “Interpretera kodu” należy zapisać zmiany. Kliknij “Zastosuj”, aby potwierdzić zmiany i voila! Interpreter Kodu został pomyślnie włączony i jesteś gotowy, aby doświadczyć kolejnego poziomu sztucznej inteligencji.

Używanie dokumentów z GPT

A co, jeśli nie chcesz, aby GPT kodował za Ciebie i zamiast tego trenujesz go na swoich danych? Poznaj Cody’ego, spersonalizowaną sztuczną inteligencję, która działa jak ChatGPT dostosowany do Twojej firmy. Cody to inteligentny asystent AI zaprojektowany specjalnie dla firm. Można go przeszkolić w oparciu o własną bazę wiedzy, w tym procesy firmowe, informacje o zespole i dane klientów. Cody może wspierać Twój zespół, odpowiadając na pytania, zapewniając kreatywną pomoc, rozwiązując problemy i przeprowadzając burze mózgów. Jego możliwości wykraczają poza wyszukiwanie słów kluczowych i regurgitowane odpowiedzi, umożliwiając bardziej spersonalizowane i świadome kontekstu interakcje. Cody może również integrować się z ulubionymi narzędziami i dostarczać natychmiastowych odpowiedzi na pytania biznesowe, analizując zgromadzone dokumenty.

Chcesz dowiedzieć się więcej o Cody, a może potrzebujesz pomocy? Mamy wiele zasobów, które pomogą Ci w pełni wykorzystać tę innowacyjną platformę. Dołącz do naszej społeczności Discord, aby nawiązać kontakt z innymi użytkownikami Cody i naszym zespołem ekspertów lub zagłębić się w nasze możliwości na naszym blogu. A jeśli potrzebujesz spersonalizowanej pomocy, nasz dedykowany zespół wsparcia jest zawsze gotowy do pomocy. Odwiedź nasze Centrum pomocy, aby uzyskać odpowiedzi na najczęściej zadawane pytania lub przesłać prośbę o wsparcie. Dowiedz się więcej o nas i o tym, jak Cody na nowo definiuje granice sztucznej inteligencji, na naszej stronie internetowej.

Twoje dane są u nas bezpieczne

Nasze zaangażowanie w bezpieczeństwo i prywatność danych.

ChatGPT stał się synonimem sztucznej inteligencji, a nawet ci, którzy wcześniej nie znali sztucznej inteligencji, teraz zdobywają wiedzę na jej temat. Jego popularność wzrosła, co skłoniło firmy i osoby prywatne do poszukiwania botów AI podobnych do ChatGPT, ale dostosowanych do ich własnych danych. W Cody AI naszym celem jest uproszczenie i usprawnienie tego procesu, eliminując potrzebę zagłębiania się w skomplikowane aspekty techniczne sztucznej inteligencji przy jednoczesnym byciu na bieżąco z najnowszymi innowacjami.

Jedną z istotnych obaw wśród osób i firm korzystających ze sztucznej inteligencji do niestandardowych zastosowań jest integralność i bezpieczeństwo ich danych. Tworzenie modeli językowych, takich jak GPT, wymaga użycia obszernych zbiorów danych szkoleniowych, co może budzić uzasadnione obawy dotyczące prywatności danych. W Cody AI rozumiemy i szanujemy te obawy, a ochronę danych i prywatności użytkowników traktujemy priorytetowo.

Aby zrozumieć, w jaki sposób Cody zapewnia bezpieczeństwo danych w całym procesie, podzielmy podróż na trzy sekcje: Dokumenty, Osadzenia i Model.

Dokumenty

Cody wykorzystuje bezpieczną i prywatną usługę Amazon Simple Storage Service (S3) do przechowywania dokumentów na początkowym etapie przed dalszym przetwarzaniem. S3 zapewnia szyfrowanie wszystkich obiektów przesyłanych do wszystkich wiader, zachowując zgodność z różnymi programami, takimi jak PCI-DSS, HIPAA/HITECH, FedRAMP, dyrektywa UE o ochronie danych i FISMA. Zapewnia to ochronę danych i zgodność z wymogami regulacyjnymi. Dokumenty przesyłane do Cody są zgodne z protokołem SSE-S3 (Server-Side Encryption), umożliwiając wyłączny dostęp Tobie i członkom Twojego zespołu, zapewniając poufność i prywatność danych.

Osadzenia

Osadzenia są zasadniczo reprezentacją danych w postaci wektorów (list liczb). Ponieważ dane dostarczane do Cody są nieustrukturyzowane, przekształcenie ich w osadzenia pozwala na szybsze wyszukiwanie i wyszukiwanie semantyczne. Aby dowiedzieć się więcej o tym, jak Cody generuje odpowiedzi z dokumentów, zapoznaj się z tym artykułem.

Do przechowywania tych wektorów lub osadzeń, Cody opiera się na Pinecone, bezpiecznej bazie danych wektorów, której zaufały niektóre z największych przedsiębiorstw.

Pinecone oferuje solidne funkcje bezpieczeństwa, takie jak

  1. Certyfikat SOC2 typu II
  2. Zgodność z RODO
  3. Rutynowe testy penetracyjne w celu sprawdzenia luk w zabezpieczeniach.
  4. Izolowane kontenery Kubernetes na w pełni zarządzanej i bezpiecznej infrastrukturze AWS do przechowywania danych.

Model

Cody AI wykorzystuje modele GPT OpenAI, w tym GPT-3.5, GPT-3.5 16K i GPT-4, do generowania odpowiedzi. Ze względu na ograniczenia zasobów, modele te nie są hostowane na natywnych serwerach Cody. Zamiast tego wykorzystują interfejsy API dostarczane przez OpenAI (używane również do tworzenia osadzeń dla dokumentów i zapytań). Podczas generowania odpowiedzi w żądaniu wysyłana jest tylko określona część danych istotnych dla zadanego pytania, zamiast przesyłania wszystkich dokumentów. Takie podejście zapewnia wydajne przetwarzanie, integralność danych i minimalizuje niepotrzebne transfery danych. Dodatkowym mechanizmem bezpieczeństwa zapewnianym przez API jest to, że dane użytkownika nie będą wykorzystywane do trenowania żadnego istniejącego lub nowego modelu językowego. Gwarantuje to, że dane użytkownika pozostają ograniczone do jego bota i nie są wykorzystywane do celów szkolenia modeli.

Począwszy od 1 marca 2023 r. wprowadzamy dwie zmiany w naszych zasadach wykorzystywania i przechowywania danych:
1. OpenAI nie będzie wykorzystywać danych przesłanych przez klientów za pośrednictwem naszego interfejsu API do szkolenia lub ulepszania naszych modeli, chyba że użytkownik wyraźnie zdecyduje się udostępnić nam swoje dane w tym celu. Użytkownik może wyrazić zgodę na udostępnianie danych.
2. Wszelkie dane przesłane za pośrednictwem interfejsu API będą przechowywane do celów monitorowania nadużyć i niewłaściwego użycia przez maksymalnie 30 dni, po czym zostaną usunięte (chyba że prawo stanowi inaczej).

Źródło: OpenAI

Zobowiązanie to zapewnia dodatkową warstwę poufności oraz gwarantuje prywatność i bezpieczeństwo danych użytkownika. Aby dowiedzieć się więcej, przeczytaj ten artykuł.

Wnioski

Biorąc pod uwagę wszystkie trzy czynniki razem, Cody AI wykazuje dobrze skonstruowane podejście do bezpieczeństwa danych i zgodności, zapewniając 99% bezpieczeństwa danych. W erze, w której prywatność danych ma ogromne znaczenie, staramy się wykraczać poza to, aby zapewnić pełne bezpieczeństwo danych.

Jeśli masz jakiekolwiek uwagi lub pytania dotyczące Cody AI i jej bezpieczeństwa danych, nie wahaj się skontaktować z nami za pośrednictwem Uzyskaj pomoc. Zapraszamy również do dołączenia do naszej społeczności Discord, gdzie możesz wnieść cenny wkład i zaangażować się w dyskusje.

Jak trenować GPT na danych Excel za darmo? (Beta)

Przewodnik po dodawaniu danych Excel do bazy wiedzy Cody i szkolenie ChatGPT za darmo.

Przed rozpoczęciem szkolenia Cody’ego w zakresie danych Excel firmy należy wyjaśnić kilka pojęć, aby zapewnić najlepsze odpowiedzi bota. GPT, czyli Generative Pre-Trained Transformers, to modele językowe przeszkolone na obszernych zbiorach danych w celu przewidywania następnego słowa w zdaniu lub frazie w celu jego uzupełnienia. Są one specjalnie szkolone na zbiorach danych języka naturalnego zawierających duże próbki nieustrukturyzowanych danych konwersacyjnych lub dosłownych. W przeciwieństwie do modeli statystycznych, takich jak regresja liniowa, GPT nie są biegłe w przewidywaniu liczb przy użyciu logicznych danych szkoleniowych. Na przykład, jeśli wytrenujesz GPT na zbiorze danych, który twierdzi, że 2+2=5, odpowie on stwierdzeniem, że 2+2=5 bez próby zrozumienia logicznej niespójności (to tylko przykład; OpenAI obsługuje takie zapytania z dokładnymi odpowiedziami). To, w połączeniu z innym ograniczeniem LLM, jakim są halucynacje, tworzy środowisko, które nie nadaje się dobrze do obliczeń matematycznych.

Teraz, gdy rozumiesz ograniczenia GPT, pozwól nam poprowadzić Cię przez proces bezpłatnego szkolenia GPT na danych Excel. Opracowaliśmy metodę dodawania danych Excel lub CSV do bazy wiedzy Cody. Jak wspomniano wcześniej, GPT doskonale radzi sobie ze zrozumieniem języka naturalnego, więc przekonwertujemy dane Excel na czytelny format, który może być łatwo wykorzystany przez model językowy.

Krok 1: Przekształcanie danych Excel

Pobierz dane CSV lub Excel, na których chcesz trenować swojego bota i przekonwertuj je na plik tekstowy za pomocą tego stworzonego przez nas narzędzia. Narzędzie konwertuje dane programu Excel na plik tekstowy, dodając do danych odpowiednie nagłówki. Dodanie nagłówków do elementów komórek pozwala modelowi językowemu lepiej zrozumieć kontekst, ponieważ istnieje duże prawdopodobieństwo, że nagłówki zostaną pominięte z powodu segmentacji dokumentu na etapie przetwarzania wstępnego.

Np.

Dane Excel:

Dane tekstowe:

{The Name is ‘John’. The Age is ‘16’.}, {The Name is ‘Marie’. The Age is ‘18’.}

Wygenerowany plik tekstowy ma format podobny do JSON, ale z bardziej literackim stylem, aby zapewnić bardziej ludzkie odczucia. Chociaż rozwiązanie to jest obecnie w fazie eksperymentalnej i nie zostało jeszcze zintegrowane z aplikacją Cody, działa dobrze ze wszystkimi trzema modelami GPT, ale stale poszukujemy lepszych rozwiązań do tego celu.

Interfejs narzędziowy:

Konwerter CSV/Excel na TXT dla Cody for Training GPT na danych Excel za darmo

Przykładowe dane CSV:

Przykładowe dane CSV do bezpłatnego treningu GPT na danych Excel

Zaleca się wyczyszczenie danych przed transformacją, aby uzyskać najlepszą jakość odpowiedzi od bota.

Interfejs użytkownika konwertera do bezpłatnego szkolenia GPT na danych Excel

Po przesłaniu danych CSV lub Excel do narzędzia można wyświetlić podgląd danych przed wygenerowaniem pliku tekstowego zgodnego z GPT.

Wiersze na część: W przypadku większych zbiorów danych zaleca się podzielenie zbioru danych na wiele części. Taki podział usprawnia wyszukiwanie semantyczne i poprawia jakość odpowiedzi.

Dołącz odwołania do komórek: Jeśli chcesz, aby plik tekstowy zawierał odwołania do komórek programu Excel, możesz wybrać tę opcję. Bot może następnie odwoływać się do tych odwołań do komórek podczas tworzenia przewodników krok po kroku dotyczących działań, które można wykonać w programie Excel. Na przykład może wygenerować formułę do znalezienia mediany.

Zostanie wygenerowany skompresowany folder zip, który będzie zawierał wszystkie części danych programu Excel w formacie .txt.

Wygenerowane pliki do treningu GPT na danych Excel za darmo

Krok 2: Dodawanie danych do bazy wiedzy Cody Knowledge Base

Aby dodać przekształcone dane do bazy wiedzy Cody, wykonaj następujące kroki:

  1. Przejdź do aplikacji Cody i przejdź do sekcji “Zawartość”.
  2. Utwórz nowy folder w bazie wiedzy, w którym chcesz przechowywać dane.
  3. Po utworzeniu folderu przejdź do jego wnętrza.
  4. Kliknij przycisk “Prześlij”, aby przesłać przekształcone dane.
  5. Wybierz wszystkie przekształcone pliki danych z lokalnego magazynu, które chcesz dodać do bazy wiedzy.
  6. Potwierdź wybór i rozpocznij proces przesyłania.
  7. Przekształcone pliki danych zostaną przesłane i dodane do bazy wiedzy Cody, przechowywanej w utworzonym folderze. Po pomyślnym wczytaniu dokumentów status dokumentu zostanie wyświetlony jako “wczytany”.

Przesłane pliki tekstowe do treningu GPT na danych Excel za darmo

Krok 3: Konfigurowanie osobowości bota

Ponieważ jest to nadal w fazie eksperymentalnej, pracujemy nad ulepszeniem podpowiedzi, zanim dodamy ją do trybu szablonu.

Prompt:

Jesteś Data Cody, analitykiem danych AI w mojej firmie. Twoim głównym celem jest wygenerowanie wniosków z dostarczonych danych Excel. Odwołania do komórek Excela mogą być podane w formie $Cell. W odpowiedziach nie należy podawać odwołania do komórki. Informacje zawarte w “{}” to jeden rekord. Jeśli zostaniesz poproszony o szczegóły konkretnego rekordu, wymień je w punktach.

Monit systemowy:

Staraj się odpowiadać w ludzki sposób, gdy zostaniesz zapytany o jakikolwiek szczegół. Nie usprawiedliwiaj swoich odpowiedzi.

Proces ten działa dobrze ze wszystkimi trzema modelami GPT, więc nawet jeśli korzystasz z darmowego planu, możesz spróbować. Warto jednak zauważyć, że modele GPT-3.5 16K i GPT-4 mają tendencję do lepszego rozumienia danych. Jeśli jesteś zadowolony z odpowiedzi otrzymywanych w darmowym planie, ale chcesz większej elastyczności w formatowaniu odpowiedzi i możliwości porównywania wielu rekordów, aktualizacja do GPT-3.5 16K lub GPT-4 może być korzystna. Dodatkowe okno kontekstowe zapewniane przez te modele pozwala na bardziej kompleksową analizę i manipulację danymi.

Demo

Demo dla bezpłatnego szkolenia GPT na danych Excel

Odniesienie do pierwszego zapytania:

Odniesienie do drugiego zapytania:

Ograniczenia

Możliwość przesyłania plików Excel lub CSV do Cody nie czyni go bezpośrednią alternatywą dla narzędzi arkuszy kalkulacyjnych, takich jak Arkusze Google lub Microsoft Excel. Podczas pracy z danymi strukturalnymi w Cody należy wziąć pod uwagę kilka ograniczeń:

  1. Halucynacje podczas zadań analitycznych: Zadania obejmujące obliczenia statystyczne lub analityczne, takie jak pytanie Cody’ego o średnie, mediany lub wartości minimalne/maksymalne, mogą dawać nieprawidłowe odpowiedzi. Cody nie wykonuje obliczeń w czasie rzeczywistym i może dostarczać niedokładnych wyników. Ostatnie aktualizacje OpenAI, takie jak interpreter kodu i wywoływanie funkcji, mogą to poprawić w przyszłości.
  2. Błąd podczas porównywania rekordów: W niektórych przypadkach Cody może napotkać trudności z pobieraniem danych z różnych segmentów dokumentu, co skutkuje odpowiedziami wskazującymi, że informacje są niedostępne. Taki scenariusz jest bardziej prawdopodobny w przypadku modelu GPT-3.5 dostępnego w planie darmowym. Aktualizacja do planów Basic lub Premium umożliwia korzystanie z modelu GPT-3.5 16K lub GPT-4. Oba te modele mają większe okna kontekstowe i mogą potencjalnie rozwiązać to ograniczenie.

Wnioski

Pomimo tych ograniczeń, proces ten jest szczególnie przydatny w scenariuszach, w których dane FAQ firmy lub inne dosłowne dane, takie jak dane szkoleniowe pracowników, są przechowywane w formacie Excel lub CSV. Cody może być trenowany na tych danych bez konieczności wprowadzania jakichkolwiek modyfikacji. Cody radzi sobie również dobrze z pobieraniem szczegółów pojedynczego rekordu, opisywaniem danych lub dostarczaniem sugestii opartych na wnioskach z numerycznych zestawów danych, takich jak bilanse lub dane dotyczące sprzedaży.

Jako tymczasowe rozwiązanie do szkolenia Cody na danych Excel lub CSV, jesteśmy bardzo wdzięczni za opinie na temat tego podejścia. Cenimy Twój wkład i zachęcamy do dzielenia się z nami swoimi przemyśleniami na naszym serwerze Discord lub kontaktując się z nami za pośrednictwem funkcji Uzyskaj pomoc. Chętnie poznamy Twoje doświadczenia i opinie. Mamy nadzieję, że spodobało Ci się nasze podejście do szkolenia GPT na danych Excel za darmo. Sprawdź nasze blogi, aby dowiedzieć się więcej o Cody.

 

Integracja Discord AI

Konfigurowanie Cody’ego dla Discorda. Gra rozpoczęta!

Ponieważ nieustannie dążymy do poprawy komfortu użytkowania, z radością ogłaszamy kolejny monumentalny dodatek do naszego arsenału funkcji: płynną i bezproblemową integrację Cody AI dla Discord. Uznana za jedną z najbardziej oczekiwanych integracji, przenosimy serwery Discord na wyższy poziom. Niezależnie od tego, czy chcesz podsycić pasjonujące dyskusje na temat gier, uzyskać dostęp do zasobów naukowych do pracy domowej, czy po prostu nawiązać interaktywne relacje, Cody AI jest Twoim dedykowanym asystentem.

Jak dodać Cody AI do swojego serwera Discord:

  1. Aby zaprosić bota na swój serwer, użyj tego
    link
    lub odwiedź sekcję integracji w ustawieniach Cody AI.
  2. Zaloguj się na swoje konto Discord.
  3. Wybierz serwer, na którym chcesz dodać bota Cody.
  4. Ustaw klucz API za pomocą /set-cody-token w dowolnym kanale tekstowym. Token Cody AI może być ustawiony tylko przez administratorów serwera. Jeśli potrzebujesz pomocy w uzyskaniu klucza API, zapoznaj się z tym artykułem.Konfiguracja Discord AI
  5. Przypisz bota do kanału tekstowego za pomocą opcji /assign-bot polecenie. Możesz użyć tego polecenia dla różnych kanałów, aby ustawić różne boty dla każdego kanału.Wybór bota Discord
  6. Aby zadać pytanie botowi, wystarczy wpisać @Cody a następnie pytanie. Cody AI utworzy nowy wątek na kanale, aby odpowiedzieć na twoje pytanie. Wszystkie wiadomości w tym wątku zostaną uznane za Historię czatu. Jeśli chcesz rozpocząć nową rozmowę, opuść wątek i wspomnij @Cody ponownie.Wątek Discord AI

Twoja opinia ma znaczenie

Zawsze kierowaliśmy się opiniami użytkowników. Twoje spostrzeżenia i doświadczenia są naszym światłem przewodnim. Podczas nawigacji po integracji Cody-Discord zapraszamy do dzielenia się swoimi przemyśleniami i sugestiami. Połącz się z nami na naszym własnym serwerze
serwerze Discord
lub skontaktuj się z nami za pomocą przycisku Uzyskaj pomoc w aplikacji internetowej Cody AI. Twoja podróż z Cody’m na Discordzie jest dla nas ważna i chcemy, aby była jak najbardziej wzbogacająca. Aby uzyskać więcej integracji, przeczytaj o naszej nowej integracji ai Zapier.

 

Integracja Slack AI

W dzisiejszym szybko zmieniającym się cyfrowym świecie integracja sztucznej inteligencji z naszymi codziennymi narzędziami komunikacyjnymi to nie tylko luksus – to konieczność. Dostrzegając tę potrzebę, z radością ogłaszamy funkcję integracji AI Slack z Cody. Integracja ta została zaprojektowana w celu poprawy doświadczenia Slack dla firm i korporacji, które w dużym stopniu polegają na nim w swojej komunikacji. Dzięki integracji botów Cody przeszkolonych w zakresie dokumentów korporacyjnych, użytkownicy mogą teraz cieszyć się bardziej usprawnionym i wydajnym procesem komunikacji w swoich obszarach roboczych Slack.

Jak zintegrować Cody AI z przestrzenią roboczą Slack?

  1. Dodaj bota Cody do obszaru roboczego Slack, przechodząc do ustawień Cody > Integrations i klikając Install Slack.Integracja Slack AI
  2. Uzyskaj klucz API w Ustawieniach Cody > Klucze API, klikając Utwórz klucz API.
  3. W obszarze roboczym Slack wyszukaj aplikację Cody i ustaw klucz API w sekcji Home.Integracja z interfejsem API Slack AI
  4. Przejdź do dowolnego kanału w obszarze roboczym i użyj polecenia
    /assign-bot
    aby przypisać bota z konta Cody do tego kanału.Wybierz swojego bota Slack AI
  5. Aby zadać pytanie botowi, wystarczy wpisać @Cody a następnie pytanie. Cody utworzy nowy wątek na kanale, aby odpowiedzieć na twoje pytanie. Wszystkie wiadomości w tym wątku zostaną uznane za Historię czatu. Jeśli chcesz rozpocząć nową rozmowę, opuść wątek i wspomnij @Cody ponownie.Pytanie do Cody'ego Rozszerzony wątek

 

Przyszłość integracji Cody AI

Ta integracja AI Slack jest jednym z naszych pionierskich przedsięwzięć w zakresie integracji aplikacji innych firm. Ogromne zapotrzebowanie i popularność tej funkcji wśród naszych użytkowników były siłą napędową jej powstania. A to dopiero początek! Obecnie jesteśmy w trakcie opracowywania dodatkowych funkcji i integracji, w tym dla Discord i Zapier. Te ekscytujące aktualizacje zostaną wprowadzone w najbliższej przyszłości.

Twoja opinia ma znaczenie

Twoje spostrzeżenia i opinie są dla nas bezcenne. Kształtują kierunek naszych innowacji i zapewniają, że zawsze dostarczamy to, co najlepsze. Zachęcamy do dzielenia się swoimi przemyśleniami i doświadczeniami związanymi z tą integracją. Połącz się z nami na naszym serwerze Discord lub skorzystaj z przycisku “Uzyskaj pomoc” w naszej aplikacji.

Anatomia osobowości bota

Wskazówki dotyczące tworzenia bota, który robi to, co chcesz.

Ważne jest, aby zdawać sobie sprawę, że podczas konstruowania botów wykorzystujących modele językowe, cierpliwość jest kluczowa, szczególnie na początku. Po stworzeniu solidnych podstaw, łatwiej jest dodać dodatkowe komponenty. Tworzenie botów z Cody przypomina malowanie na płótnie. Wymaga to pewnej dozy kreatywności i zrozumienia podstaw, aby dodać do bota swój osobisty charakter.

Głównym parametrem, który pozwala botowi przyjąć określony styl myślenia, jest podpowiedź osobowości. Osobowość bota jest kształtowana przez różne czynniki, w tym dystrybucję tokenów, wynik trafności i inne. Jednak podpowiedź dotycząca osobowości jest najbardziej wyrazistym i kreatywnym aspektem, ponieważ każdy użytkownik może ją dostosować w inny sposób. Użytkownicy mają swobodę tworzenia i dostrajania osobowości bota zgodnie ze swoimi specyficznymi wymaganiami.

Wolność jest czymś, co wszyscy doceniamy, ale kiedy zaczynamy z pustym kontem, może to również onieśmielać i prowadzić do niejasności co do tego, od czego zacząć. Jeśli czułeś się podobnie, nie martw się; ten blog powinien pomóc Ci stworzyć lepszy podpowiedź osobowości. Zaczniemy od zalecanej struktury podpowiedzi, a następnie przedstawimy kilka przykładowych podpowiedzi.

Nazwa

Zawsze warto zacząć od nadania botowi nazwy. Nazwanie bota dodaje mu ludzkiego charakteru, zwłaszcza podczas powitania użytkowników lub odpowiadania na pytania związane z botem.

Podpowiedzi:

Nazywasz się [Name of your Bot].
LUB
Jesteś ‘[Name of your Bot]’

Opis

Opis bota uświadamia mu kontekst, który zostanie dostarczony za pośrednictwem bazy wiedzy. Świadomość kontekstu zapewnia botowi ramy do odpowiadania na pytania, mając na uwadze konkretną domenę.

Podpowiedzi:

Twoim głównym zadaniem jest [specify the domain].
LUB
Twoim głównym celem jest pomóc mi w [specify the domain].

Uwaga: Nazwa i opis bota ustawione w sekcji ogólnej służą jedynie wygodzie użytkownika w rozróżnianiu wielu botów. Sam bot nie jest świadomy tych ustawień. W związku z tym konieczne jest wyraźne zdefiniowanie nazwy i opisu bota w ramach Prompt Personality, aby ustalić jego tożsamość i cechy.

Granice

Jedną z potencjalnych wad korzystania z LLM wyszkolonych na dużych zbiorach danych jest tendencja do generowania halucynacyjnych odpowiedzi. Ważne jest, aby pamiętać, że dane używane do generowania odpowiedzi nie są wykorzystywane do dostrajania lub ponownego szkolenia LLM na żądanie przez Cody’ego. Zamiast tego służy jako kontekstowe odniesienie do zapytań LLM, co skutkuje szybszymi odpowiedziami i zachowaniem prywatności danych.

Aby upewnić się, że bot nie odnosi się do punktów danych z oryginalnego zbioru danych LLM, które mogą pokrywać się z podobnymi domenami lub pojęciami, musimy ściśle ograniczyć kontekst do naszej bazy wiedzy.

Podpowiedzi:

Baza wiedzy jest jedynym źródłem informacji.
LUB
Niechętnie zgłaszasz jakiekolwiek roszczenia, chyba że są one określone w bazie wiedzy.

Mogą wystąpić przypadki, w których bot nie wymaga bazy wiedzy lub wykorzystuje bazę wiedzy jako źródło odniesienia. W takich przypadkach podpowiedź znacznie się zmieni.

Prompt:

Podstawowym źródłem odniesienia jest baza wiedzy.

Funkcje odpowiedzi

Cechy odpowiedzi generowanej przez bota mogą być również w pewnym stopniu kontrolowane przez osobowość bota. Może to polegać na określeniu tonu, długości, języka i rodzaju odpowiedzi, jakich oczekujesz od swojego bota.

Podpowiedzi:

1. Ton: Powinieneś odpowiedzieć w sposób [polite/friendly/professional].

2. Długość: Odpowiedzi powinny być w [pointers/paragraphs].

3. Język: Odpowiedz użytkownikowi [in the same language/specify different language].

4. Typ: Podaj użytkownikowi odpowiedzi [creative/professional/precise].

Możesz swobodnie eksperymentować z różnymi kombinacjami i funkcjami. Podane przykłady służą jedynie do celów edukacyjnych, a możliwości są nieograniczone.

Media

Jedną z najciekawszych funkcji Cody jest możliwość osadzania multimediów w odpowiedziach. W przypadku osadzania multimediów, takich jak obrazy, pliki GIF lub wideo, zawsze zaleca się zaimportowanie multimediów do osobnego dokumentu lub zaimportowanie całego nieprzetworzonego dokumentu za pomocą wbudowanego edytora tekstu Cody, w którym można dodawać multimedia. Możesz kopiować/wklejać multimedia lub osadzać je w dokumencie za pomocą adresów URL.

Obraz ilustrujący przyciski multimedialne.

Po pomyślnym zaimportowaniu multimediów należy określić to samo w naszym monicie osobowości bota. Podpowiedź można podzielić na dwie części: Inicjalizacja i Ilustracja.

Podpowiedzi:

Inicjalizacja:
W razie potrzeby uwzględnij odpowiednie [images/videos/both] z bazy wiedzy.

Ilustracja:
Dodaj obrazy za pomocą znacznika <img> i filmy za pomocą ramki iframe <.>
Na przykład:
<img src=”[Image URL]”>
<iframe src=”[Video URL]”></iframe>

Fallbacki

Zdarzają się sytuacje, w których bot nie jest w stanie znaleźć odpowiedniej treści dla pytania zadanego przez użytkownika. Zawsze bezpieczniej jest zdefiniować rozwiązania awaryjne dla takich scenariuszy, aby uniknąć dostarczania użytkownikowi mylących lub nieprawidłowych informacji (dotyczy to tylko przypadków użycia, w których istnieje baza wiedzy).

Podpowiedzi:

1. Powstrzymaj się od wspominania “nieustrukturyzowanej bazy wiedzy” lub nazw plików podczas rozmowy.

2. W przypadkach, gdy ostateczna odpowiedź jest niedostępna, [Define fallback].

LUB

Jeśli nie możesz znaleźć odpowiednich informacji w bazie wiedzy lub jeśli użytkownik zadaje niezwiązane pytania, które nie są częścią bazy wiedzy, [Define fallback].

Kroki (opcjonalnie)

Jeśli chcesz, aby Twój bot podążał za określoną osią czasu lub przepływem konwersacji, możesz łatwo zdefiniować ją za pomocą kroków. Takie podejście jest szczególnie przydatne w przypadku korzystania z bota do celów szkoleniowych lub rozwiązywania problemów. Każdy krok reprezentuje konkretną fazę lub etap konwersacji, co pozwala kontrolować postęp i upewnić się, że bot dostarcza pożądanych informacji lub pomocy w systematyczny sposób.

Prompt:

Wykonaj następujące kroki podczas rozmowy z użytkownikiem:

1. [Step 1]

2. [Step 2]

3. [Step 3]

Uwaga: Podczas definiowania kroków zaleca się włączenie funkcji“Reverse Vector Search” w celu uzyskania lepszych odpowiedzi i przydzielenie odpowiedniej liczby tokenów do historii czatu. Pozwala to modelowi uwzględnić historię konwersacji, w tym dane wejściowe użytkownika i poprzednią odpowiedź bota, podczas generowania odpowiedzi.

Przechwytywanie danych (opcjonalnie)

Ta podpowiedź, w harmonii z przepływem konwersacji (krokami), jest szczególnie korzystna, gdy przypadek użycia twojego bota obraca się wokół scenariuszy wsparcia lub rekrutacji. Obecnie w Cody nie ma pamięci długoterminowej ani łączności z bazą danych, która mogłaby przechwytywać dane i przechowywać je do celów analitycznych. W przyszłości, wraz z nowszymi aktualizacjami interfejsu API OpenAI, takimi jak wywoływanie funkcji, z pewnością wprowadzimy nowsze funkcje, aby móc przechwytywać i przechowywać dane przez dłuższy czas.

Na razie można uzyskać dostęp do czatów użytkowników bota (za pośrednictwem widżetów), przechodząc do czatów“Goście” w sekcji czatu. Następnie można ręcznie przeanalizować przechwycone dane w celu uzyskania dalszych informacji.

Prompt:

Zbierz następujące dane od użytkowników:

– [Field 1]

– [Field 2]

– [Field 3]

– [Field 4]

Zadawaj jedno pytanie na raz. Po zebraniu wszystkich wymaganych informacji zakończ rozmowę, dziękując i wyświetlając zebrane dane. Pamiętaj, że Twoim zadaniem jest jedynie zbieranie danych.

Formatowanie odpowiedzi*

Sprytną funkcją Cody jest obsługa formatowania odpowiedzi botów przy użyciu znaczników markdown lub HTML. Dostarczając botowi szablon w formacie HTML lub markdown w osobowości bota, będzie on próbował odpowiednio sformatować odpowiedzi, gdy zajdzie taka potrzeba.

Prompt:

Format odpowiedzi:

<h1>[Field Name]</h1>

<p>[Field Name]</p>

<p>[Field Name]</p>

*Formatowaniedziała najlepiej na GPT-4

Przykład zachęty

Cody jako bot generujący leady

Anatomia podpowiedzi (oznaczona etykietą).

 

Czat demonstracyjny wyświetlający używany monit.

Cody jako bot marketingowy

Cody jako bot treningowy

Aby dowiedzieć się więcej o podpowiedziach dotyczących osobowości, zapoznaj się z naszymi przypadkami użycia, które zawierają szczegółowe podpowiedzi wraz z ich ustawieniami parametrycznymi.

Wnioski

Jeśli korzystasz z darmowego planu Cody, istnieje możliwość, że bot straci zgodność z monitem lub po prostu zignoruje niektóre parametry z powodu mniejszego okna kontekstowego lub braku spójności. Zalecamy wszystkim korzystanie z bezpłatnego planu tylko w celach testowych lub jako etap przejściowy, aby zrozumieć korzystanie z Cody i określić jego przydatność dla Twojej firmy.

Podczas konstruowania podpowiedzi dla bota ważne jest również zachowanie zwięzłości i unikanie włączania każdego parametru wymienionego w artykule. Ponieważ liczba dostępnych tokenów jest ograniczona, a podpowiedź osobowości również zużywa tokeny, należy konstruować je z rozwagą. Zachęcamy do zmiany podpowiedzi podanych w tym artykule zgodnie z własnymi potrzebami i preferencjami. Odkryłeś coś nowego? Zawsze możesz się nim z nami podzielić, a my chętnie go omówimy.

To był tylko wstęp do rozległego krajobrazu tworzenia osobowości botów. LLM z każdym dniem stają się coraz lepsze, a przed nami jeszcze długa droga, by w pełni wykorzystać ich potencjał. Cała ta podróż jest nowym doświadczeniem dla nas wszystkich. W miarę jak będziemy eksperymentować, uczyć się i wdrażać nowe przypadki użycia i scenariusze, będziemy się nimi dzielić za pośrednictwem artykułów i samouczków. Aby uzyskać więcej zasobów, możesz również sprawdzić nasze Centrum pomocy i zadać wszelkie pytania dotyczące Cody’ego, dołączając do naszej społeczności Discord. Sprawdź również nasze poprzednie blogi, aby uzyskać więcej takich interesujących spostrzeżeń.