W dzisiejszym szybko zmieniającym się cyfrowym świecie integracja sztucznej inteligencji z naszymi codziennymi narzędziami komunikacyjnymi to nie tylko luksus – to konieczność. Dostrzegając tę potrzebę, z radością ogłaszamy funkcję integracji AI Slack z Cody. Integracja ta została zaprojektowana w celu poprawy doświadczenia Slack dla firm i korporacji, które w dużym stopniu polegają na nim w swojej komunikacji. Dzięki integracji botów Cody przeszkolonych w zakresie dokumentów korporacyjnych, użytkownicy mogą teraz cieszyć się bardziej usprawnionym i wydajnym procesem komunikacji w swoich obszarach roboczych Slack.
Jak zintegrować Cody AI z przestrzenią roboczą Slack?
Dodaj bota Cody do obszaru roboczego Slack, przechodząc do ustawień Cody > Integrations i klikając Install Slack.
Uzyskaj klucz API w Ustawieniach Cody > Klucze API, klikając Utwórz klucz API.
W obszarze roboczym Slack wyszukaj aplikację Cody i ustaw klucz API w sekcji Home.
Przejdź do dowolnego kanału w obszarze roboczym i użyj polecenia /assign-bot aby przypisać bota z konta Cody do tego kanału.
Aby zadać pytanie botowi, wystarczy wpisać @Cody a następnie pytanie. Cody utworzy nowy wątek na kanale, aby odpowiedzieć na twoje pytanie. Wszystkie wiadomości w tym wątku zostaną uznane za Historię czatu. Jeśli chcesz rozpocząć nową rozmowę, opuść wątek i wspomnij @Codyponownie.
Przyszłość integracji Cody AI
Ta integracja AI Slack jest jednym z naszych pionierskich przedsięwzięć w zakresie integracji aplikacji innych firm. Ogromne zapotrzebowanie i popularność tej funkcji wśród naszych użytkowników były siłą napędową jej powstania. A to dopiero początek! Obecnie jesteśmy w trakcie opracowywania dodatkowych funkcji i integracji, w tym dla Discord i Zapier. Te ekscytujące aktualizacje zostaną wprowadzone w najbliższej przyszłości.
Twoja opinia ma znaczenie
Twoje spostrzeżenia i opinie są dla nas bezcenne. Kształtują kierunek naszych innowacji i zapewniają, że zawsze dostarczamy to, co najlepsze. Zachęcamy do dzielenia się swoimi przemyśleniami i doświadczeniami związanymi z tą integracją. Połącz się z nami na naszym serwerze Discord lub skorzystaj z przycisku “Uzyskaj pomoc” w naszej aplikacji.
Wskazówki dotyczące tworzenia bota, który robi to, co chcesz.
Ważne jest, aby zdawać sobie sprawę, że podczas konstruowania botów wykorzystujących modele językowe, cierpliwość jest kluczowa, szczególnie na początku. Po stworzeniu solidnych podstaw, łatwiej jest dodać dodatkowe komponenty. Tworzenie botów z Cody przypomina malowanie na płótnie. Wymaga to pewnej dozy kreatywności i zrozumienia podstaw, aby dodać do bota swój osobisty charakter.
Głównym parametrem, który pozwala botowi przyjąć określony styl myślenia, jest podpowiedź osobowości. Osobowość bota jest kształtowana przez różne czynniki, w tym dystrybucję tokenów, wynik trafności i inne. Jednak podpowiedź dotycząca osobowości jest najbardziej wyrazistym i kreatywnym aspektem, ponieważ każdy użytkownik może ją dostosować w inny sposób. Użytkownicy mają swobodę tworzenia i dostrajania osobowości bota zgodnie ze swoimi specyficznymi wymaganiami.
Wolność jest czymś, co wszyscy doceniamy, ale kiedy zaczynamy z pustym kontem, może to również onieśmielać i prowadzić do niejasności co do tego, od czego zacząć. Jeśli czułeś się podobnie, nie martw się; ten blog powinien pomóc Ci stworzyć lepszy podpowiedź osobowości. Zaczniemy od zalecanej struktury podpowiedzi, a następnie przedstawimy kilka przykładowych podpowiedzi.
Nazwa
Zawsze warto zacząć od nadania botowi nazwy. Nazwanie bota dodaje mu ludzkiego charakteru, zwłaszcza podczas powitania użytkowników lub odpowiadania na pytania związane z botem.
Podpowiedzi:
Nazywasz się [Name of your Bot]. LUB
Jesteś ‘[Name of your Bot]’
Opis
Opis bota uświadamia mu kontekst, który zostanie dostarczony za pośrednictwem bazy wiedzy. Świadomość kontekstu zapewnia botowi ramy do odpowiadania na pytania, mając na uwadze konkretną domenę.
Podpowiedzi:
Twoim głównym zadaniem jest [specify the domain]. LUB
Twoim głównym celem jest pomóc mi w [specify the domain].
Uwaga:Nazwa i opisbota ustawione w sekcji ogólnej służą jedynie wygodzie użytkownika w rozróżnianiu wielu botów. Sam bot nie jest świadomy tych ustawień. W związku z tym konieczne jest wyraźne zdefiniowanie nazwy i opisu bota w ramach Prompt Personality, aby ustalić jego tożsamość i cechy.
Granice
Jedną z potencjalnych wad korzystania z LLM wyszkolonych na dużych zbiorach danych jest tendencja do generowania halucynacyjnych odpowiedzi. Ważne jest, aby pamiętać, że dane używane do generowania odpowiedzi nie są wykorzystywane do dostrajania lub ponownego szkolenia LLM na żądanie przez Cody’ego. Zamiast tego służy jako kontekstowe odniesienie do zapytań LLM, co skutkuje szybszymi odpowiedziami i zachowaniem prywatności danych.
Aby upewnić się, że bot nie odnosi się do punktów danych z oryginalnego zbioru danych LLM, które mogą pokrywać się z podobnymi domenami lub pojęciami, musimy ściśle ograniczyć kontekst do naszej bazy wiedzy.
Podpowiedzi:
Baza wiedzy jest jedynym źródłem informacji. LUB
Niechętnie zgłaszasz jakiekolwiek roszczenia, chyba że są one określone w bazie wiedzy.
Mogą wystąpić przypadki, w których bot nie wymaga bazy wiedzy lub wykorzystuje bazę wiedzy jako źródło odniesienia. W takich przypadkach podpowiedź znacznie się zmieni.
Prompt:
Podstawowym źródłem odniesienia jest baza wiedzy.
Funkcje odpowiedzi
Cechy odpowiedzi generowanej przez bota mogą być również w pewnym stopniu kontrolowane przez osobowość bota. Może to polegać na określeniu tonu, długości, języka i rodzaju odpowiedzi, jakich oczekujesz od swojego bota.
Podpowiedzi:
1. Ton: Powinieneś odpowiedzieć w sposób [polite/friendly/professional].
2. Długość: Odpowiedzi powinny być w [pointers/paragraphs].
3. Język: Odpowiedz użytkownikowi [in the same language/specify different language].
4. Typ: Podaj użytkownikowi odpowiedzi [creative/professional/precise].
Możesz swobodnie eksperymentować z różnymi kombinacjami i funkcjami. Podane przykłady służą jedynie do celów edukacyjnych, a możliwości są nieograniczone.
Media
Jedną z najciekawszych funkcji Cody jest możliwość osadzania multimediów w odpowiedziach. W przypadku osadzania multimediów, takich jak obrazy, pliki GIF lub wideo, zawsze zaleca się zaimportowanie multimediów do osobnego dokumentu lub zaimportowanie całego nieprzetworzonego dokumentu za pomocą wbudowanego edytora tekstu Cody, w którym można dodawać multimedia. Możesz kopiować/wklejać multimedia lub osadzać je w dokumencie za pomocą adresów URL.
Po pomyślnym zaimportowaniu multimediów należy określić to samo w naszym monicie osobowości bota. Podpowiedź można podzielić na dwie części: Inicjalizacja i Ilustracja.
Podpowiedzi:
Inicjalizacja:
W razie potrzeby uwzględnij odpowiednie [images/videos/both] z bazy wiedzy.
Ilustracja:
Dodaj obrazy za pomocą znacznika <img> i filmy za pomocą ramki iframe <.>
Na przykład:
<img src=”[Image URL]”>
<iframe src=”[Video URL]”></iframe>
Fallbacki
Zdarzają się sytuacje, w których bot nie jest w stanie znaleźć odpowiedniej treści dla pytania zadanego przez użytkownika. Zawsze bezpieczniej jest zdefiniować rozwiązania awaryjne dla takich scenariuszy, aby uniknąć dostarczania użytkownikowi mylących lub nieprawidłowych informacji (dotyczy to tylko przypadków użycia, w których istnieje baza wiedzy).
Podpowiedzi:
1. Powstrzymaj się od wspominania “nieustrukturyzowanej bazy wiedzy” lub nazw plików podczas rozmowy.
2. W przypadkach, gdy ostateczna odpowiedź jest niedostępna, [Define fallback].
LUB
Jeśli nie możesz znaleźć odpowiednich informacji w bazie wiedzy lub jeśli użytkownik zadaje niezwiązane pytania, które nie są częścią bazy wiedzy, [Define fallback].
Kroki (opcjonalnie)
Jeśli chcesz, aby Twój bot podążał za określoną osią czasu lub przepływem konwersacji, możesz łatwo zdefiniować ją za pomocą kroków. Takie podejście jest szczególnie przydatne w przypadku korzystania z bota do celów szkoleniowych lub rozwiązywania problemów. Każdy krok reprezentuje konkretną fazę lub etap konwersacji, co pozwala kontrolować postęp i upewnić się, że bot dostarcza pożądanych informacji lub pomocy w systematyczny sposób.
Prompt:
Wykonaj następujące kroki podczas rozmowy z użytkownikiem:
1. [Step 1]
2. [Step 2]
3. [Step 3]
Uwaga: Podczas definiowania kroków zaleca się włączenie funkcji“Reverse Vector Search” w celu uzyskania lepszych odpowiedzi i przydzielenie odpowiedniej liczby tokenów do historii czatu. Pozwala to modelowi uwzględnić historię konwersacji, w tym dane wejściowe użytkownika i poprzednią odpowiedź bota, podczas generowania odpowiedzi.
Przechwytywanie danych (opcjonalnie)
Ta podpowiedź, w harmonii z przepływem konwersacji (krokami), jest szczególnie korzystna, gdy przypadek użycia twojego bota obraca się wokół scenariuszy wsparcia lub rekrutacji. Obecnie w Cody nie ma pamięci długoterminowej ani łączności z bazą danych, która mogłaby przechwytywać dane i przechowywać je do celów analitycznych. W przyszłości, wraz z nowszymi aktualizacjami interfejsu API OpenAI, takimi jak wywoływanie funkcji, z pewnością wprowadzimy nowsze funkcje, aby móc przechwytywać i przechowywać dane przez dłuższy czas.
Na razie można uzyskać dostęp do czatów użytkowników bota (za pośrednictwem widżetów), przechodząc do czatów“Goście” w sekcji czatu. Następnie można ręcznie przeanalizować przechwycone dane w celu uzyskania dalszych informacji.
Prompt:
Zbierz następujące dane od użytkowników:
– [Field 1]
– [Field 2]
– [Field 3]
– [Field 4]
Zadawaj jedno pytanie na raz. Po zebraniu wszystkich wymaganych informacji zakończ rozmowę, dziękując i wyświetlając zebrane dane. Pamiętaj, że Twoim zadaniem jest jedynie zbieranie danych.
Formatowanie odpowiedzi*
Sprytną funkcją Cody jest obsługa formatowania odpowiedzi botów przy użyciu znaczników markdown lub HTML. Dostarczając botowi szablon w formacie HTML lub markdown w osobowości bota, będzie on próbował odpowiednio sformatować odpowiedzi, gdy zajdzie taka potrzeba.
Prompt:
Format odpowiedzi:
<h1>[Field Name]</h1>
<p>[Field Name]</p>
<p>[Field Name]</p>
*Formatowaniedziała najlepiej na GPT-4
Przykład zachęty
Cody jako bot generujący leady
Cody jako bot marketingowy
Cody jako bot treningowy
Aby dowiedzieć się więcej o podpowiedziach dotyczących osobowości, zapoznaj się z naszymi przypadkami użycia, które zawierają szczegółowe podpowiedzi wraz z ich ustawieniami parametrycznymi.
Wnioski
Jeśli korzystasz z darmowego planu Cody, istnieje możliwość, że bot straci zgodność z monitem lub po prostu zignoruje niektóre parametry z powodu mniejszego okna kontekstowego lub braku spójności. Zalecamy wszystkim korzystanie z bezpłatnego planu tylko w celach testowych lub jako etap przejściowy, aby zrozumieć korzystanie z Cody i określić jego przydatność dla Twojej firmy.
Podczas konstruowania podpowiedzi dla bota ważne jest również zachowanie zwięzłości i unikanie włączania każdego parametru wymienionego w artykule. Ponieważ liczba dostępnych tokenów jest ograniczona, a podpowiedź osobowości również zużywa tokeny, należy konstruować je z rozwagą. Zachęcamy do zmiany podpowiedzi podanych w tym artykule zgodnie z własnymi potrzebami i preferencjami. Odkryłeś coś nowego? Zawsze możesz się nim z nami podzielić, a my chętnie go omówimy.
To był tylko wstęp do rozległego krajobrazu tworzenia osobowości botów. LLM z każdym dniem stają się coraz lepsze, a przed nami jeszcze długa droga, by w pełni wykorzystać ich potencjał. Cała ta podróż jest nowym doświadczeniem dla nas wszystkich. W miarę jak będziemy eksperymentować, uczyć się i wdrażać nowe przypadki użycia i scenariusze, będziemy się nimi dzielić za pośrednictwem artykułów i samouczków. Aby uzyskać więcej zasobów, możesz również sprawdzić nasze Centrum pomocy i zadać wszelkie pytania dotyczące Cody’ego, dołączając do naszej społeczności Discord. Sprawdź również nasze poprzednie blogi, aby uzyskać więcej takich interesujących spostrzeżeń.
Po rozpoczęciu pracy z Cody możliwe jest, że poczujesz się rozczarowany lub zniechęcony tym, dlaczego Cody nie jest w stanie wygenerować oczekiwanych odpowiedzi. W tym krótkim blogu nie będziemy zagłębiać się w to, jak powinieneś używać Cody, ale damy ci przybliżony obraz tego, jak Cody wykorzystuje twoje dokumenty do generowania odpowiedzi, abyś mógł lepiej zrozumieć proces generowania i eksperymentować z nim.
Na generowanie odpowiedzi przy użyciu dokumentów wpływają głównie dwa czynniki:
Chunking
Okno kontekstowe
Obie te terminologie, chunking i okno kontekstowe, są ze sobą powiązane. Prostą analogią może być porównanie generowania odpowiedzi do gotowania jedzenia. Kawałki mogą być postrzegane jako pojedyncze kawałki warzyw, które kroisz, podczas gdy okno kontekstowe reprezentuje rozmiar naczynia do gotowania. Ważne jest, aby pokroić warzywa na kawałki o optymalnej wielkości, aby poprawić ogólny smak, a większe naczynie pozwala na dodanie większej ilości kawałków warzyw.
Czym jest Chunking?
Mówiąc prościej, chunking to czynność polegająca na dzieleniu treści na łatwe do zarządzania fragmenty w celu efektywnego wykorzystania pamięci. Jeśli czytałeś nasze blogi, być może wiesz, że modele takie jak GPT wymagają znacznych zasobów, a aby poradzić sobie z ograniczeniami okna kontekstowego, stosujemy wiele procesów, takich jak chunking.
Chunking to proces wykonywany po przesłaniu dokumentów do Cody. Dzieli lub segmentuje dokument na wiele fragmentów, z których każdy zawiera odpowiedni kontekst otaczający. Fragmenty te są następnie przypisywane do znaczników numerycznych w celu ułatwienia obliczeń, co jest znane jako osadzanie. Ważne jest, aby znaleźć optymalny rozmiar fragmentu. Mniejszy rozmiar fragmentu zmniejsza znaczenie kontekstu, podczas gdy większy rozmiar fragmentu wprowadza więcej szumu. Algorytm chunkingu Cody’ego dynamicznie dostosowuje rozmiar fragmentu w oparciu o dystrybucję tokenów ustawioną przez użytkownika.
Jak okno kontekstowe wpływa na odpowiedzi bota?
Na jakość odpowiedzi botów wpływają różne czynniki, takie jak osobowość, wynik trafności itp. Okno kontekstowe modelu również odgrywa znaczącą rolę w określaniu jakości. Okno kontekstowe odnosi się do ilości tekstu, który LLM (Language Model) może przetworzyć w jednym wywołaniu. Ponieważ Cody wykorzystuje osadzanie i wstrzykiwanie kontekstu do generowania odpowiedzi przy użyciu modeli OpenAI, większe okno kontekstowe pozwala na pozyskanie większej ilości danych przez model w każdym zapytaniu.
Każde zapytanie (≤ okno kontekstowe) = osobowość bota + fragmenty wiedzy + historia + dane wejściowe użytkownika + odpowiedź
Okna kontekstowe różnych modeli:
GPT-3.5: 4096 tokenów (≈3500 słów)
GPT-3.5 16K: 16000 tokenów (≈13000 słów)
GPT-4: 8000 tokenów (≈7000 słów)
Gdy okno kontekstowe jest większe, umożliwia większą część każdego parametru, w tym Osobowość, Fragmenty, Historia, Wejście i Odpowiedź. Ten rozszerzony kontekst umożliwia botowi generowanie odpowiedzi, które są bardziej trafne, spójne i kreatywne.
Najnowszy dodatek Cody’ego umożliwia użytkownikom sprawdzanie cytatów dokumentów poprzez kliknięcie nazwy dokumentu na końcu odpowiedzi. Cytaty te odpowiadają fragmentom uzyskanym w wyniku wyszukiwania semantycznego. Cody określa próg fragmentu dla kontekstu na podstawie wyniku trafności ustawionego przez użytkownika. Jeśli użytkownik ustawi wysoki wynik trafności, Cody używa tylko fragmentów, które przekraczają wstępnie zdefiniowany próg jako kontekst do generowania odpowiedzi.
Przykład
Przyjmując wstępnie zdefiniowaną wartość graniczną 90% dla wysokiego wyniku trafności, Cody odrzuca wszystkie fragmenty z wynikiem trafności niższym niż 90%. Nowym użytkownikom zalecamy rozpoczęcie od niższego wyniku trafności (niski lub zrównoważony), szczególnie w przypadku korzystania z przesłanych dokumentów (PDF, PowerPoint, Word itp.) lub stron internetowych. Przesłane dokumenty lub strony internetowe mogą napotkać problemy z formatowaniem i czytelnością podczas wstępnego przetwarzania, co może skutkować niższymi wynikami trafności. Formatowanie dokumentu za pomocą naszego wbudowanego edytora tekstu zamiast przesyłania surowych dokumentów zapewni najwyższą dokładność i wynik zaufania.
Jeśli zainteresował Cię ten blog i chcesz zagłębić się w koncepcje okna kontekstowego i chunkingu, gorąco polecamy przeczytanie tego bloga napisanego przez Kristiana z All About AI. Aby uzyskać więcej zasobów, możesz również sprawdzić nasze Centrum pomocy i dołączyć do naszej społeczności Discord.
Przewodnik krok po kroku, jak zbudować własną sztuczną inteligencję, aby spełnić potrzeby biznesowe.
Zastosowania botów są ogromne, a wraz ze wzrostem wykorzystania modeli generatywnych przez boty, kuszące może być wskoczenie na modę i zbudowanie własnego ChatGPT. Wraz z uruchomieniem Cody, tworzenie chatbotów AI nigdy wcześniej nie było łatwiejsze. Interfejs Cody jest niezależny od modelu i nie zawiera kodu, dzięki czemu osobista sztuczna inteligencja jest dostępna dla każdej osoby i domeny biznesowej, która istnieje. Jednakże, chociaż Cody stara się, aby cały proces był tak prosty, jak to tylko możliwe, może to być nieco onieśmielające dla kogoś, kto jest nowy w świecie sztucznej inteligencji. Dlatego na tym blogu przedstawiamy kompleksowe wyjaśnienie, jak zbudować własny ChatGPT przy użyciu Cody. Przeprowadzimy Cię przez przypadek użycia, pomagając Ci rozpocząć podróż Cody z pewnością siebie.
Przypadek użycia
Zbudujemy chatbota AI przy użyciu Cody, który będzie działał jako przewodnik turystyczny. Będzie to cenny dodatek dla firm związanych z turystyką, ponieważ może znacznie poprawić wrażenia klientów. Jednak zakres budowania chatbota z Cody nie ogranicza się tylko do jednej domeny biznesowej. Użytkownicy mogą eksperymentować z różnymi podpowiedziami, aby zbudować bota dostosowanego do ich własnej działalności, a także udostępnić go swoim klientom po przeczytaniu tego bloga.
Wymagania
Treści związane z firmą (PDF, Word, strona internetowa lub tekst)
Konto na Cody (zalecany plan: Premium)
15 minut
Krok 1: Dodawanie danych do bazy wiedzy
Aby dodać dokumenty do train Cody na potrzeby swojej firmy, wykonaj następujące kroki:
Przejdź do sekcji Zawartość w interfejsie Cody’ego.
Utwórz nowy folder, aby uporządkować dokumenty.
Dostępne są trzy metody dodawania danych do bazy wiedzy:
Pisanie: Wykorzystaj wbudowany edytor tekstu do bezpośredniego wprowadzania treści.
Prześlij: Prześlij pliki PDF, Word lub PowerPoint zawierające istotne informacje.
Importuj witrynę: Ta funkcja umożliwia przeszukiwanie strony internetowej firmy i automatyczne gromadzenie danych. (Uwaga: ta funkcja jest dostępna tylko w planach Premium i Advanced ).
W tym konkretnym samouczku wykorzystamy przewodnik po Bostonie, który zawiera informacje o różnych atrakcjach turystycznych, ich opisy, godziny pracy, adresy i często zadawane pytania (FAQ).
Po przesłaniu niezbędnych dokumentów będziesz mógł śledzić ich status, który może być“uczący się” lub“nauczony“. Status wskazuje, czy Cody jest obecnie w trakcie uczenia się z dokumentów lub czy pomyślnie zakończył proces uczenia się. Gdy Cody zapozna się z przesłanymi dokumentami, możesz przejść do następnego kroku, który polega na zbudowaniu rzeczywistego chatbota.
Uwaga: Bardzo ważne jest, aby dostarczane dokumenty były zgodne z określonym formatem, który poprawi jakość odpowiedzi generowanych przez Cody. Aby dowiedzieć się więcej na temat zalecanego formatowania dokumentów, zalecamy zapoznanie się z dokumentacją zawierającą wytyczne dotyczące formatowania.
Krok 2: Tworzenie celu bota
Cel jest dalej podzielony na 3 części:
Osobowość
Osobowość działa jak mózg bota i odgrywa istotną rolę w generowaniu skutecznych i użytecznych odpowiedzi. Składa się z wielu parametrów, takich jak Prompt, Relevance Score, Token Distribution, Prompt Persistence i Reverse Vector Search. Aby uzyskać szczegółowe wyjaśnienie tych terminologii, zalecamy zapoznanie się z naszym poprzednim blogiem, który zawiera kompleksowe informacje dla tych, którzy dopiero zaczynają przygodę z Cody. Cody udostępnia użytkownikowi dwie opcje tworzenia osobowości: Tryb szablonu i Tryb zaawansowany.
Tryb szablonu zapewnia użytkownikom wstępnie zdefiniowane podpowiedzi, oferując wygodne rozwiązanie typu plug-and-play. W tym samouczku i przypadku użycia ograniczymy się do korzystania z trybu zaawansowanego, ponieważ ten przypadek użycia nie jest obecnie objęty trybem szablonu. W przyszłości planujemy stworzyć bibliotekę podpowiedzi z ich konkretnymi przypadkami użycia, zapewniając użytkownikom jeszcze więcej opcji, a także dodając więcej ustawień wstępnych do trybu szablonów.
Osobowość dla przewodnika AI:
Podpowiedź
Jesteś Cody Travel Guide, asystentem AI zajmującym się dostarczaniem dokładnych informacji na temat Bostonu. Twoim głównym zadaniem jest pomaganie mi poprzez dostarczanie mi wiarygodnych i jasnych odpowiedzi na moje pytania, w oparciu o informacje dostępne w bazie wiedzy jako jedyne źródło. Powstrzymaj się od wspominania “bazy wiedzy” lub nazw plików podczas rozmowy. Niechętnie wysuwasz jakiekolwiek roszczenia, chyba że są one określone lub poparte bazą wiedzy. Jeśli ostateczna odpowiedź jest niedostępna, przyznaj się do niemożności udzielenia odpowiedzi i poinformuj mnie, że nie możesz odpowiedzieć. Zamiast mówić “informacje są oparte na mojej bazie wiedzy”, po prostu powiedz “przepraszam, jeśli coś pominąłem”.
Spróbuj użyć następującego formatu do wyświetlenia informacji:
<h2> Nazwa miejsca </h2>
<strong> Opis: </strong> <br>
<strong> Adres: </strong> <br>
<strong> Godziny pracy: </strong> <br>
<strong> Dodatkowe informacje: </strong> <br>
Odwiedź stronę <a href=’Insert link’>< /a> aby dowiedzieć się więcej.
Jeśli zostaniesz poproszony o niestandardowy plan podróży lub trasę, utwórz go, korzystając z terminów i opisów podanych w tym formacie:
Nazwa miejsca: <br>
Czas wizyty: Czas rozpoczęcia-Czas zakończenia <br>
Jeśli chcesz sformatować odpowiedzi bota w określony sposób, Cody obsługuje znaczniki Markdown i HTML, w których możesz zdefiniować szablon formatowania dla swojego bota.
Każdy monit dotyczący osobowości musi mieć określoną strukturę, aby uzyskać wysokiej jakości odpowiedzi. Ważne wskazówki dotyczące tworzenia skutecznych podpowiedzi z przykładami:
→ Zdefiniuj funkcje awaryjne:
“Zamiast mówić, że informacje są oparte na mojej bazie wiedzy, po prostu powiedz: “Przepraszam, jeśli coś pominąłem””.
“Jeśli nie możesz znaleźć odpowiednich informacji w bazie wiedzy, potwierdź swoją niezdolność i zasugeruj skontaktowanie się z [Enter your website URL/contact no.]”.
→ Ogranicz źródła:
“Korzystaj z bazy wiedzy jako jedynego źródła”.
“Twoja odpowiedź musi być w tym samym języku, co moja prośba i nie powinna zawierać słowa “baza wiedzy” podczas rozmowy”.
→ Zdefiniuj cel:
“Twoim celem jest udzielenie mi pomocy i odpowiedzi na moje pytania dotyczące [Enter your business domain]”.
“Unikaj niepowiązanych działań lub angażowania się w dyskusje niezwiązane z bazą wiedzy lub kreatywne pisanie”.
Przykładowy szablon zapytania do działu obsługi klienta:
📌 Jesteś Cody, asystentem AI ds. wsparcia strony internetowej, który pracuje dla Villa Homes. Twoim celem jest zapewnienie mi wsparcia i odpowiadanie na moje pytania dotyczące Villa Homes, korzystając z bazy wiedzy jako jedynego źródła.
Unikanie niepowiązanych działań lub angażowanie się w dyskusje niezwiązane z bazą wiedzy lub kreatywne pisanie. Jeśli nie możesz znaleźć odpowiednich informacji w bazie wiedzy lub jeśli użytkownik zadaje niezwiązane pytania, które nie są częścią bazy wiedzy, potwierdź swoją niezdolność i zasugeruj, abym skontaktował się z zespołem Villa Homes pod numerem +40XXXXXXX
Twoja odpowiedź musi być w tym samym języku, co moja prośba i nie powinna zawierać słowa “baza wiedzy” podczas rozmowy.
Aby dowiedzieć się więcej o inżynierii lepszych podpowiedzi, przeczytaj ten blog gdzie szczegółowo wyjaśniamy wszystkie podstawy Cody.
Ogólne
W tej sekcji będziesz musiał zdefiniować nazwę i opis swojego bota, a także wybrać model, którego chcesz używać z Cody. Do wyboru są trzy różne modele OpenAI:
GPT-3.5
GPT-3.5 16K
GPT-4
Plan Premium zapewnia dostęp do wszystkich trzech modeli, dając swobodę wyboru najbardziej odpowiedniego dla konkretnych potrzeb. Jest to praktyczny wybór, pozwalający wykorzystać pełen zakres możliwości oferowanych przez Cody.
Będziemy kontynuować z GPT-4, ponieważ jest to najbardziej zaawansowany model obecnie dostępny i doskonale nadaje się do przypadku użycia, który będziemy demonstrować ze względu na jego zwiększoną kreatywność.
Wiedza
Folder utworzony w pierwszym kroku powinien być połączony z konkretnym botem w tej sekcji. Jeśli utworzyłeś wiele folderów, które chcesz połączyć, po prostu wybierz wszystkie foldery, w których chcesz trenować Cody.
Ważne jest, aby zrozumieć, że Cody nie jest czarną skrzynką, która ma własny umysł. Jest to model, który po prostu przewiduje następne słowo w zdaniu. Jak mówi słynne powiedzenie w nauce o danych:“Garbage In, Garbage Out“. Im lepiej ustawisz osobowość, zdefiniujesz zasady działania bota i wyczyścisz dostarczane dane, tym lepsze odpowiedzi będzie on generował. Dzięki nowszym dodatkom, takim jak tryb szablonu z różnymi ustawieniami wstępnymi, staramy się znacznie ułatwić użytkownikom proces podpowiadania osobowości.
Krok 3: Testowanie i udostępnianie bota
Teraz nadchodzi najbardziej ekscytująca część! Wypróbowanie i przetestowanie samodzielnie stworzonego bota może dać ci ogromne poczucie osiągnięcia. Istnieją dwa sposoby na przetestowanie i udostępnienie swojego bota: utworzenie czatu lub skorzystanie z nowo uruchomionego konfigurowalnego widżetu.
Aby utworzyć widżet czatu w zaledwie trzech prostych krokach:
Przejdź do sekcji Boty w interfejsie Cody’ego.
Wybierz utworzonego bota i kliknij trzy kropki “⋮”, aby uzyskać więcej opcji.
Kliknij na“Embed“.
I voila! Pomyślnie utworzono konfigurowalny widżet Cody Widget.
Korzystając z widżetu Cody, masz dwie możliwości udostępnienia go innym: Udostępnij link lub Osadź. Jeśli nie masz strony internetowej dla swojej firmy lub jeśli nie czujesz się komfortowo z modyfikowaniem kodu strony, możesz łatwo udostępnić bota swoim klientom za pomocą podanego linku.
Dostępne są dwa rodzaje osadzanych widżetów:
Inline Embed: Ten typ widżetu zostanie osadzony w określonym miejscu na stronie internetowej. Zajmie on niezbędną przestrzeń wymaganą przez widżet w zdefiniowanym elemencie głównym.
Pop-Up Embed: Ten typ widżetu pojawia się jako pływająca ikona na stronie internetowej. Gdy odwiedzający kliknie ikonę, widżet rozszerza się i otwiera, umożliwiając interakcję z chatbotem.
Oba typy osadzalnych widżetów zapewniają różne sposoby integracji bota Cody z witryną, oferując elastyczność pod względem wykorzystania przestrzeni i doświadczenia użytkownika. Możesz wybrać ten, który najlepiej pasuje do Twojego projektu strony internetowej i preferencji dotyczących interakcji z użytkownikiem.
Dostosowywanie widżetu
Nasza najnowsza wersja funkcji oferuje użytkownikom pełną swobodę i opcje dostosowywania widżetów. Oznacza to, że możesz dostosować wygląd, zachowanie i ogólne wrażenia użytkownika widżetu do swoich konkretnych wymagań i marki.
Opcje personalizacji obejmują:
Nagłówek
Zmień układ nagłówka (lewy lub środkowy).
Dodaj logo swojej firmy
Kolor
Tytuł
Podtytuł
Czat
Rozmiar wiadomości (rozmiar dymku czatu)
Kolor tła czatu
Bot
Wiadomości początkowe
Kolor tła wiadomości
Awatar bota
Kolor bota
Człowiek
Sugerowane pytania
Kolor tła wiadomości
Kompozytor
Komunikat zastępczy
Ikona przycisku Wyślij
Branding Cody (można usunąć tylko w planach Premium i Advanced )
Launcher
Rozmiar
Pozycja ekranu
Kolor tła (kolor przycisku pływającego)
Ikona
Ikona zamknięcia
Wszystkie te opcje dostosowywania powinny sprawić, że Cody będzie bardziej spersonalizowany i zgodny z estetyką firmy, co znacznie poprawi komfort użytkowania dla klientów.
To wszystko!
Tworzenie i udostępnianie bota za pomocą Cody jest teraz łatwiejsze niż kiedykolwiek, wymagając tylko trzech prostych kroków. Wraz z niedawnym wprowadzeniem opcji dostosowywania widżetów, nigdy nie było lepszego czasu na stworzenie własnego bota przy użyciu Cody. Dodatkowa elastyczność w dostosowywaniu widżetu pozwala dostosować wygląd i zachowanie bota do konkretnych potrzeb biznesowych i marki.
Nieustannie pracujemy nad rozwojem i wprowadzaniem bardziej ekscytujących funkcji, aby poprawić wrażenia z gry w Cody. Nasz zespół dokłada wszelkich starań, aby cały proces tworzenia i wdrażania botów był jeszcze bardziej płynny i przyjazny dla użytkownika. Bądź na bieżąco z nadchodzącymi aktualizacjami, ponieważ nadal ulepszamy i udoskonalamy platformę Cody. Aby uzyskać więcej zasobów, możesz również sprawdzić nasze Centrum pomocy i dołączyć do naszej społeczności Discord.
Czy powinieneś przejść na płatną wersję Cody? Oto dlaczego warto to zrobić.
Kilka dni temu wydaliśmy nowszy model dla wszystkich naszych płatnych użytkowników zaraz po premierze OpenAI: GPT-3.5 16k. Choć może się to wydawać onieśmielające, może to być przełom dla Twojej firmy. W tym blogu zagłębimy się w przypadki użycia GPT-3.5 16k, zbadamy jego zalety i podkreślimy, w jaki sposób różni się on od istniejącego modelu GPT-3.5 i najnowszego, wyższej klasy GPT-4.
Czym jest GPT-3.5 16K?
Jeśli korzystałeś wcześniej z darmowej wersji Cody’ego, możesz być już zaznajomiony z waniliowym modelem GPT-3.5, który wykorzystuje model OpenAI gpt-3.5-turbo. Model ten jest popularnym wyborem wielu użytkowników, ponieważ oferuje przystępną cenę, szybkość i niezawodność w większości przypadków. Z drugiej strony, GPT-3.5-16k wykorzystuje model OpenAI gpt-3.5-turbo-16k, który jest rozszerzeniem modelu gpt-3.5-turbo. Znacząca różnica polega na aspekcie “16k”.
Co to jest 16K?
Przyrostek “16K” wskazuje, że model ma okno kontekstowe składające się z 16 000 tokenów, co stanowi znaczny wzrost w stosunku do istniejących 4096 tokenów. Na naszym poprzednim blogu wyjaśniliśmy szczegółowo, czym są tokeny. Mniejsze okno kontekstowe w modelach może skutkować kilkoma ograniczeniami, w tym:
Brak trafności: Przy ograniczonym oknie kontekstowym model może mieć trudności z uchwyceniem i utrzymaniem znaczenia w szerszym kontekście rozmowy lub zadania.
Niezdolność do utrzymania kontekstu: Mniejsze okno kontekstowe może utrudniać modelowi zapamiętywanie i odwoływanie się do informacji z wcześniejszych części rozmowy, prowadząc do niespójności i trudności w utrzymaniu spójnego dialogu.
Ograniczenia dotyczące długości zapytań wejściowych: Krótsze okna kontekstowe nakładają ograniczenia na długość zapytań wejściowych, utrudniając dostarczanie wyczerpujących informacji lub zadawanie złożonych pytań.
Ograniczenia kontekstu bazy wiedzy: Mniejsze okno kontekstowe może napotkać ograniczenia we włączaniu wiedzy z odpowiednich dokumentów do bazy wiedzy ze względu na limit pozyskiwania danych.
Zalety większego okna kontekstowego
W głowach kilku osób może pojawić się pytanie: w jaki sposób GPT-3.5 jest w stanie przetworzyć ponad 1000 stron internetowych i dokumentów na Cody, pomimo pojemności zaledwie 4096 tokenów? Wraz z postępem w dziedzinie generatywnej sztucznej inteligencji, zapewnienie kontekstu nie oznacza po prostu dostarczenia całego dokumentu do modeli językowych, takich jak GPT-3.5 Turbo. Procesy zaplecza, takie jak chunking, embeddings i wektorowe bazy danych, są wykorzystywane do wstępnego przetwarzania danych, zachowując trafność w ramach fragmentów i umożliwiając modelowi poruszanie się po predefiniowanym oknie kontekstowym.
W obecnym scenariuszu większe okno kontekstowe zwiększyłoby ogólną wydajność sztucznej inteligencji, dostosowując się do większych i bardziej złożonych danych wejściowych, jednocześnie zmniejszając liczbę transakcji przechowywania wektorów wymaganych do wygenerowania odpowiedzi. Ponieważ okno kontekstowe obejmuje zarówno dane wejściowe, jak i wyjściowe, większe okno umożliwiłoby modelowi udzielanie rozbudowanych i spójnych odpowiedzi przy jednoczesnym zachowaniu kontekstu konwersacji.
Większe okno kontekstowe pomogłoby również złagodzić wszelkie halucynacje, które mogą wystąpić po przekroczeniu limitu tokenów w rozmowie.
GPT-3.5 Turbo 16K v/s GPT-4
Chociaż gpt-3.5-turbo-16k jest najnowszą wersją OpenAI, gpt-4 nadal przewyższa ją w różnych aspektach, takich jak rozumienie kontekstu wizualnego, lepsza kreatywność, spójność i wielojęzyczna wydajność. Jedynym obszarem, w którym GPT-3.5-16k przoduje, jest okno kontekstowe, ponieważ GPT-4 jest obecnie dostępny w wariancie 8k, a wariant 32k jest nadal stopniowo wdrażany.
W międzyczasie, dopóki 32-kilogramowa wersja gpt-4 nie stanie się powszechnie dostępna, GPT-3.5-16k wyróżnia się większym oknem kontekstowym. Jeśli szukasz modelu oferującego szersze okno kontekstowe, GPT-3.5-16k będzie idealnym wyborem.
Przypadki użycia większego okna kontekstowego
Obsługa klienta: Większe okno kontekstowe zwiększa pamięć krótkotrwałą modelu, dzięki czemu dobrze nadaje się on do zastosowań związanych z obsługą klienta, wypełnianiem formularzy i gromadzeniem danych użytkownika. Umożliwia to modelowi utrzymywanie kontekstu przez dłuższy czas, co prowadzi do bardziej trafnych odpowiedzi na dane wejściowe użytkownika, takie jak nazwy, identyfikatory klientów, skargi i opinie.
Szkolenie pracowników: Wykorzystanie Cody do celów szkoleniowych pracowników okazuje się bardzo skuteczne. Szkolenia pracowników często obejmują obszerne dane związane z działaniami biznesowymi, krokami i procesami. Aby zachować kontekstowość w całym programie szkoleniowym, konieczne staje się uwzględnienie całej historii konwersacji uczestnika szkolenia. Większe okno kontekstowe pozwala na uwzględnienie większej ilości informacji historycznych, ułatwiając bardziej kompleksowe i efektywne szkolenie.
Analiza danych: Zadania obejmujące analizę finansową i wnioskowanie statystyczne często wymagają przetwarzania dużych ilości danych w celu uzyskania istotnych informacji. Dzięki większemu oknu kontekstowemu model może przechowywać więcej istotnych informacji podczas obliczeń, co skutkuje bardziej spójną i dokładną analizą. Na przykład porównywanie bilansów i ogólnych wyników firmy rok do roku może być wykonywane bardziej efektywnie w większym oknie kontekstowym.
Porównanie GPT-3.5 4K vs 16K
Aby zademonstrować ulepszenia w modelu 16K, zapytaliśmy o plik .csvukładu okresowego zawierający 118 pierwiastków i ich cechy.
Z porównania widać, że GPT-3.5 4K nie był w stanie wyprodukować wszystkich pierwiastków promieniotwórczych w swojej odpowiedzi i pominął niektóre pierwiastki. Z kolei GPT-3.5 16K wyprodukował prawie wszystkie pierwiastki promieniotwórcze obecne w podanej tabeli. Świadczy to o lepszym opracowaniu odpowiedzi dzięki większemu oknu kontekstowemu. To był tylko mały rzut oka na potencjał, jaki kryje w sobie okno kontekstowe 16k, z nieskończoną liczbą aplikacji i implementacji tego samego. Z GPT-4 32K w potoku, model 16K może ułatwić płynniejsze przejście do większego okna kontekstowego.
Czy powinieneś dokonać aktualizacji?
Większe okno kontekstowe jest niewątpliwie znaczącą aktualizacją, a nie tylko sztuczką. Lepsze zrozumienie kontekstu odgrywa kluczową rolę w poprawie jakości odpowiedzi, a większe okno kontekstowe uwalnia znaczny potencjał tych modeli modeli językowych (LLM). Pozwalając na szersze zrozumienie historii konwersacji i wskazówek kontekstowych, LLM może dostarczać bardziej dokładne i kontekstowo odpowiednie wyniki.
Jak wspomniano wcześniej, wariant 16K GPT-3.5 jest dostępny dla wszystkich użytkowników począwszy od planu podstawowego. Jeśli od jakiegoś czasu korzystasz z planu Personal (darmowego), to z pewnością doświadczyłeś już możliwości oferowanych przez Cody. Plan podstawowy zapewnia doskonały stosunek jakości do ceny, zwłaszcza jeśli nie potrzebujesz dodatkowych funkcji GPT-4. Jest odpowiedni dla osób, które budują bota jako projekt lub prototyp dla swojej firmy, z dodatkowym wyborem modelu GPT-3.5 16K. W przyszłości, gdy wydamy wariant GPT-4 32K, zawsze będzie można uaktualnić do planu premium, gdy pojawi się potrzeba większej liczby tokenów.
W przypadku większych przedsiębiorstw plan zaawansowany jest najpotężniejszą opcją, spełniającą wymagania dotyczące intensywnego wykorzystania zasobów i dużej ilości danych. Oferuje wszechstronne możliwości, aby sprostać wymaganiom operacji na dużą skalę.
Przewodnik dla początkujących do zrozumienia terminologii Cody w uproszczony sposób.
Zanim zaczniesz budować własnego bota opartego na GPT dla swojej firmy za pomocą Cody, ważne jest, abyś zrozumiał podstawową terminologię, aby elastyczność, jaką oferuje nasz kreator botów, nie onieśmielała Cię. Nie musisz być ekspertem w dziedzinie sztucznej inteligencji ani mieć wcześniejszej wiedzy w tej dziedzinie, aby zrozumieć te terminologie, ponieważ zostaną one wyjaśnione w najbardziej uproszczony sposób. Potraktuj to jako przewodnik dla początkujących lub“Cody For Dummies“.
Ten blog nie będzie obejmował konfiguracji Cody ani importowania danych do Cody, ponieważ opublikowaliśmy już kilka blogów, które pomogą ci w konfiguracji. W nadchodzących blogach zagłębimy się w te tematy. Bez zbędnych ceregieli przyjrzyjmy się różnym terminologiom, z którymi można się zetknąć podczas tworzenia bota.
Osobowość
Cody oferuje dwa sposoby definiowania osobowości bota: Tryb szablonu i Tryb zaawansowany . Osobowość bota określa kontekst i zachowanie bota, aby upewnić się, że generuje on pomocne odpowiedzi, które są zgodne z oczekiwaniami użytkownika i zapobiegają nieprzewidzianym halucynacjom.
Halucynacja odnosi się do zjawiska, w którym model językowy generuje odpowiedzi, które mogą być wyobrażeniowe, spekulacyjne lub nieoparte na faktycznych informacjach.
Tryb szablonu
Ten tryb jest przydatny dla tych firm, które potrzebują rozwiązania plug-and-play do tworzenia bota. Nasi deweloperzy stworzyli szablony botów dla różnych domen biznesowych, takich jak Wsparcie , Szkolenia , HR i Marketing .
Wybierz dowolną domenę z poniższych, a Cody zajmie się resztą. W celu zwiększenia elastyczności, Cody zapewnia również ustawienia, które można wykorzystać do dostosowania osobowości do pewnego stopnia.
Na przykład, jeśli zdecydujesz się na wsparcie IT jako osobowość bota, możesz zmienić pseudonim bota i zdecydować, w jaki sposób będzie on obsługiwał zapytania bez odpowiedzi (przypadek domyślny) oraz języki, w których bot ma rozmawiać.
Tryb ten jest nadal w fazie rozwoju i wkrótce zostanie zaktualizowany, aby móc obsługiwać wiele innych domen biznesowych z wieloma funkcjami dostosowywania.
Potrzebujesz większej elastyczności? Nie martw się, mamy dla Ciebie tryb zaawansowany.
Tryb zaawansowany
Advanced Bot Builder daje ci swobodę dostosowywania wielu parametrów i pozwala zbudować idealnego bota, który pasuje do twojego przypadku użycia. Obecnie można dostosować następujące parametry:
Podpowiedź
Wynik trafności
Dystrybucja tokenów
Stały monit
Odwrotne wyszukiwanie wektorów
Podpowiedź
Podpowiedź będzie zdefiniuje osobowość twojego bota. Aby uprościć proces podpowiadania, potraktuj bota jako pracownika swojej firmy. Chociaż nie ma konkretnej struktury pisania podpowiedzi dotyczących osobowości, przygotowaliśmy listę parametrów w celach informacyjnych.
Parametr
Przykład
Pseudonim AI
“Ty jesteś Cody”.
Profil zawodowy
“Pracujesz jako inżynier wsparcia IT w mojej firmie”.
Ton
“Utrzymuj profesjonalną i przyjazną postawę podczas wszystkich interakcji, zapewniając użytkownikom komfort i wsparcie”.
“Pamiętaj, aby przekazywać poczucie wiedzy i pewności siebie w swoich odpowiedziach”.
Wytyczne etyczne
“Nie wymyślaj własnych odpowiedzi ani nie używaj danych, które nie istnieją w danych szkoleniowych. Powstrzymaj się od wspominania o “nieustrukturyzowanej bazie wiedzy” lub nazwach plików podczas rozmowy”.
Usługi dodatkowe (opcjonalnie)
“Staraj się promować sprzedaż XYZ wszędzie tam, gdzie to możliwe”.
Przypadek domyślny (dla zapytań bez odpowiedzi)
“W przypadkach, gdy ostateczna odpowiedź jest niedostępna, potwierdź swoją niezdolność do udzielenia odpowiedzi i poinformuj użytkownika, że nie możesz odpowiedzieć”.
Przykładowy monit:
“Jesteś kelnerem w pizzerii. Utrzymuj profesjonalną i przyjazną postawę podczas wszystkich interakcji, zapewniając użytkownikom poczucie komfortu i wsparcia. Pamiętaj, aby przekazywać poczucie wiedzy i pewności siebie w swoich odpowiedziach. Ponadto zachęcam do aktywnego promowania naszych pizz premium w stosownych przypadkach. Nie odwołuj się do innych źródeł menu niż te podane w bazie wiedzy. Polecając pizze, podawaj ich ceny i wszelkie oferty, które mają do nich zastosowanie”.
Wynik trafności
Wynik trafności odzwierciedla stopień podobieństwa między zapytaniem użytkownika a odpowiedzią Cody. Korzystając z wyszukiwania semantycznego, Cody porównuje zapytanie użytkownika z danymi obecnymi w bazie wiedzy. Wyższy wynik trafności zaowocuje precyzyjną odpowiedzią, ale pogorszy zrozumienie ogólnego kontekstu zapytania i odwrotnie. Mówiąc prościej, wynik trafności to stopień, w jakim sztuczna inteligencja obawia się popełniania błędów i podejmowania ryzyka podczas reagowania.
Dystrybucja tokenów
Token jest walutą obliczeniową dla dużych modeli językowych, takich jak rodzina GPT. Zapytanie (instrukcja wejściowa) zadane przez użytkownika jest podzielone na bloki znaków znane jako tokeny ‘. Ponieważ modele sztucznej inteligencji są bardzo zasobochłonne, aby sprostać ograniczeniom obliczeniowym i ograniczeniom pamięci, modele te mają pewien limit danych wejściowych, które mogą być przetwarzane i generowane. Tym ograniczeniem jest ‘ okno kontekstowe ‘.
Cody korzysta z rodziny modeli GPT, a liczba dostępnych tokenów jest ograniczona. Funkcja dystrybucji tokenów pomaga w mikrozarządzaniu wykorzystaniem tokenów do różnych celów.
Są one głównie podzielone na Kontekst, Historię i Generowanie odpowiedzi.
Kontekst: Tokeny wymagane do zrozumienia zapytania użytkownika i kontekstu bazy wiedzy.
Historia: Tokeny wymagane do dodania kontekstu do zapytania użytkownika przy użyciu historii czatu.
Generowanie odpowiedzi: Tokeny wymagane do oceny spójności, gramatyki i poprawności semantycznej wygenerowanego tekstu.
Dla najwyższej dokładności ważne jest, aby kontekst stanowi dużą część dystrybucji tokenów.
Stały monit
Poprzez ciągłe wzmacnianie podpowiedzi (osobowości bota), tworzysz formę kontekstu konwersacyjnego i ograniczeń, które utrzymują sztuczną inteligencję na właściwym torze i pomagają utrzymać zgodność z pożądanymi wynikami. Działa jako przypomnienie dla sztucznej inteligencji, aby pozostała we wcześniej zdefiniowanych granicach i udzielała odpowiedzi, które są istotne, dokładne i zgodne z celami.
Odwrotne wyszukiwanie wektorów
Reverse Vector Search to funkcja zaprojektowana specjalnie dla firm, które wykorzystują Cody do celów szkoleniowych pracowników. Płynnie integruje wcześniej wygenerowane odpowiedzi AI z zapytaniami użytkowników, tworząc kompleksowe zrozumienie kontekstowe, które poprawia jakość i trafność kolejnych odpowiedzi. Jest to szczególnie cenne w przypadku korzystania z Cody’ego do przewodników krok po kroku i celów instruktażowych.
Podsumowując
Gdy dobrze zrozumiesz te terminologie, będziesz w stanie udoskonalić odpowiedzi bota i uczynić je jeszcze bardziej spersonalizowanymi. Bądź na bieżąco z nadchodzącymi blogami oferującymi dalsze wskazówki, aktualizacje i dodatkowe informacje, aby uwolnić pełny potencjał bota Cody AI. Aby uzyskać więcej zasobów, możesz również sprawdzić nasze Centrum pomocy i dołączyć do naszej społeczności Discord.