Twoje dane są u nas bezpieczne

Nasze zaangażowanie w bezpieczeństwo i prywatność danych.

ChatGPT stał się synonimem sztucznej inteligencji, a nawet ci, którzy wcześniej nie znali sztucznej inteligencji, teraz zdobywają wiedzę na jej temat. Jego popularność wzrosła, co skłoniło firmy i osoby prywatne do poszukiwania botów AI podobnych do ChatGPT, ale dostosowanych do ich własnych danych. W Cody AI naszym celem jest uproszczenie i usprawnienie tego procesu, eliminując potrzebę zagłębiania się w skomplikowane aspekty techniczne sztucznej inteligencji przy jednoczesnym byciu na bieżąco z najnowszymi innowacjami.

Jedną z istotnych obaw wśród osób i firm korzystających ze sztucznej inteligencji do niestandardowych zastosowań jest integralność i bezpieczeństwo ich danych. Tworzenie modeli językowych, takich jak GPT, wymaga użycia obszernych zbiorów danych szkoleniowych, co może budzić uzasadnione obawy dotyczące prywatności danych. W Cody AI rozumiemy i szanujemy te obawy, a ochronę danych i prywatności użytkowników traktujemy priorytetowo.

Aby zrozumieć, w jaki sposób Cody zapewnia bezpieczeństwo danych w całym procesie, podzielmy podróż na trzy sekcje: Dokumenty, Osadzenia i Model.

Dokumenty

Cody wykorzystuje bezpieczną i prywatną usługę Amazon Simple Storage Service (S3) do przechowywania dokumentów na początkowym etapie przed dalszym przetwarzaniem. S3 zapewnia szyfrowanie wszystkich obiektów przesyłanych do wszystkich wiader, zachowując zgodność z różnymi programami, takimi jak PCI-DSS, HIPAA/HITECH, FedRAMP, dyrektywa UE o ochronie danych i FISMA. Zapewnia to ochronę danych i zgodność z wymogami regulacyjnymi. Dokumenty przesyłane do Cody są zgodne z protokołem SSE-S3 (Server-Side Encryption), umożliwiając wyłączny dostęp Tobie i członkom Twojego zespołu, zapewniając poufność i prywatność danych.

Osadzenia

Osadzenia są zasadniczo reprezentacją danych w postaci wektorów (list liczb). Ponieważ dane dostarczane do Cody są nieustrukturyzowane, przekształcenie ich w osadzenia pozwala na szybsze wyszukiwanie i wyszukiwanie semantyczne. Aby dowiedzieć się więcej o tym, jak Cody generuje odpowiedzi z dokumentów, zapoznaj się z tym artykułem.

Do przechowywania tych wektorów lub osadzeń, Cody opiera się na Pinecone, bezpiecznej bazie danych wektorów, której zaufały niektóre z największych przedsiębiorstw.

Pinecone oferuje solidne funkcje bezpieczeństwa, takie jak

  1. Certyfikat SOC2 typu II
  2. Zgodność z RODO
  3. Rutynowe testy penetracyjne w celu sprawdzenia luk w zabezpieczeniach.
  4. Izolowane kontenery Kubernetes na w pełni zarządzanej i bezpiecznej infrastrukturze AWS do przechowywania danych.

Model

Cody AI wykorzystuje modele GPT OpenAI, w tym GPT-3.5, GPT-3.5 16K i GPT-4, do generowania odpowiedzi. Ze względu na ograniczenia zasobów, modele te nie są hostowane na natywnych serwerach Cody. Zamiast tego wykorzystują interfejsy API dostarczane przez OpenAI (używane również do tworzenia osadzeń dla dokumentów i zapytań). Podczas generowania odpowiedzi w żądaniu wysyłana jest tylko określona część danych istotnych dla zadanego pytania, zamiast przesyłania wszystkich dokumentów. Takie podejście zapewnia wydajne przetwarzanie, integralność danych i minimalizuje niepotrzebne transfery danych. Dodatkowym mechanizmem bezpieczeństwa zapewnianym przez API jest to, że dane użytkownika nie będą wykorzystywane do trenowania żadnego istniejącego lub nowego modelu językowego. Gwarantuje to, że dane użytkownika pozostają ograniczone do jego bota i nie są wykorzystywane do celów szkolenia modeli.

Począwszy od 1 marca 2023 r. wprowadzamy dwie zmiany w naszych zasadach wykorzystywania i przechowywania danych:
1. OpenAI nie będzie wykorzystywać danych przesłanych przez klientów za pośrednictwem naszego interfejsu API do szkolenia lub ulepszania naszych modeli, chyba że użytkownik wyraźnie zdecyduje się udostępnić nam swoje dane w tym celu. Użytkownik może wyrazić zgodę na udostępnianie danych.
2. Wszelkie dane przesłane za pośrednictwem interfejsu API będą przechowywane do celów monitorowania nadużyć i niewłaściwego użycia przez maksymalnie 30 dni, po czym zostaną usunięte (chyba że prawo stanowi inaczej).

Źródło: OpenAI

Zobowiązanie to zapewnia dodatkową warstwę poufności oraz gwarantuje prywatność i bezpieczeństwo danych użytkownika. Aby dowiedzieć się więcej, przeczytaj ten artykuł.

Wnioski

Biorąc pod uwagę wszystkie trzy czynniki razem, Cody AI wykazuje dobrze skonstruowane podejście do bezpieczeństwa danych i zgodności, zapewniając 99% bezpieczeństwa danych. W erze, w której prywatność danych ma ogromne znaczenie, staramy się wykraczać poza to, aby zapewnić pełne bezpieczeństwo danych.

Jeśli masz jakiekolwiek uwagi lub pytania dotyczące Cody AI i jej bezpieczeństwa danych, nie wahaj się skontaktować z nami za pośrednictwem Uzyskaj pomoc. Zapraszamy również do dołączenia do naszej społeczności Discord, gdzie możesz wnieść cenny wkład i zaangażować się w dyskusje.

More From Our Blog

5 najlepszych darmowych programów LLM Open Source w 2024 roku

5 najlepszych darmowych programów LLM Open Source w 2024 roku

Studia LLM są obecnie wszechobecne i nie trzeba ich nikomu przedstawiać. Niezależnie od tego, czy pracujesz w branży technologicznej, czy nie, istnieje duże prawdopodobieństwo, że spotkałeś się lub obecnie korzystasz z jakiejś formy LLM na...

Read More
Zabójca ChatGPT? Co Gemini 1.5 oznacza dla przyszłości sztucznej inteligencji Google?

Zabójca ChatGPT? Co Gemini 1.5 oznacza dla przyszłości sztucznej inteligencji Google?

Google vs OpenAI: czy Google wygrywa? Po tym, jak Bard nie trafił w gusta fanów AI, Google niedawno zaprezentowało swój najnowszy produkt AI, Gemini. W ramach tej premiery Bard został przemianowany na Gemini i teraz zawiera nowy Gemini Pro LLM. ...

Read More

Build Your Own Business AI

Get Started Free
Top