Author: Om Kamath

Om Kamath

O interpretador de código: Um novo salto para o ChatGPT

Cover Photo

Como o interpretador de código do ChatGPT está a levar a IA para o próximo nível

Quando o burburinho em torno do ChatGPT parecia estar a acalmar, a OpenAI reacendeu o entusiasmo ao revelar uma nova funcionalidade revolucionária. Esta melhoria veio dar uma nova dimensão às capacidades da IA, reafirmando o potencial ilimitado desta tecnologia.

Anteriormente, as capacidades do ChatGPT limitavam-se principalmente a compreender e fornecer texto, incluindo código. Esta capacidade, embora impressionante, era limitada no seu âmbito. Poderá ajudar os utilizadores com a sintaxe do código, auxiliar na depuração e até fornecer fragmentos de código para realizar determinadas tarefas. No entanto, não conseguiu executar os blocos de código para obter resultados finais. Essencialmente, era como um editor de código altamente inteligente, mas não um programador de pleno direito.

Com o advento da nova funcionalidade, o Intérprete de Código, o ChatGPT é agora capaz de mais do que apenas compreender código. Pode compreender instruções em linguagem natural, converter essas instruções em código, executar o código e responder com os resultados finais.

Como o Code Interpreter está a mudar o jogo da programação

A mais recente adição da OpenAI, a funcionalidade Code Interpreter, foi recentemente introduzida no universo ChatGPT (precisamente, no modelo GPT-4). Esta funcionalidade permite a execução em direto do código Python num ambiente Python protegido. Pode parecer uma funcionalidade feita à medida para programadores, mas, na realidade, é uma ferramenta versátil que pode ajudar um vasto espetro de utilizadores a realizar várias tarefas.

O interpretador de código é muito mais do que uma simples ferramenta incorporada na interface de conversação para execução de código. É uma instalação polivalente, que permite aos utilizadores testar trechos de código, depurar e até enriquecer a sua jornada de aprendizagem de código. A execução ocorre diretamente no ambiente sandbox do ChatGPT. Além disso, o interpretador de código pode ser uma ferramenta eficaz para automatizar tarefas e integrar-se noutras API.

Provavelmente, a vantagem mais proeminente da funcionalidade de Interpretação de Código reside no seu potencial para aumentar a produtividade e poupar tempo. Os utilizadores podem testar e depurar rapidamente o seu código sem o incómodo de ter de se deslocar entre diferentes softwares ou ferramentas. Isto torna-se particularmente benéfico para os programadores envolvidos em projectos complexos que necessitam de testes e iterações frequentes. Ao erradicar a necessidade de mudar de ferramenta, o Code Interpreter ajuda efetivamente os programadores a capitalizar o seu tempo, aumentando assim a sua produtividade.

Da teoria à prática: As aplicações reais do Code Interpreter

O intérprete de código no ChatGPT tem vários casos de utilização. Eis alguns exemplos:

  1. Análise de dados: O Code Interpreter revoluciona a análise de dados, permitindo-lhe escrever prompts numa linguagem clara e simples. Esta abordagem de fácil utilização torna a análise de dados uma tarefa fácil, mesmo para quem não tem conhecimentos de programação. A sua versatilidade vai desde a segmentação de clientes e análise de acções e criptomoedas, até à conversão dos seus dados em mapas de calor.
  2. Análises quantitativas automatizadas: De forma engenhosa, o Code Interpreter é capaz de automatizar análises quantitativas complexas, fundir e limpar dados e raciocinar sobre dados de forma semelhante à humana. Esta poderosa caraterística torna-o uma ferramenta indispensável para a automatização de tarefas e operações de código.
  3. Geração de gráficos: O Code Interpreter destaca-se pela sua capacidade de criar gráficos e diagramas de aspeto profissional sem necessidade de conhecimentos de programação. Isto revela-se inestimável para visualizar dados e apresentá-los de uma forma sucinta e clara.
  4. Bibliotecas Python: Outra caraterística notável do Code Interpreter é a sua capacidade de importar e utilizar uma variedade de bibliotecas Python, melhorando ainda mais as suas tarefas de automatização. Esta disposição permite-lhe tirar partido da funcionalidade de bibliotecas populares para análise de dados, aprendizagem automática e muito mais.

Ao incorporar o Code Interpreter no ChatGPT, não só está a simplificar as suas tarefas de automatização, como também a efetuar a análise de dados e a execução de códigos diretamente na interface do ChatGPT. É uma ferramenta conveniente e poderosa para automatizar tarefas e trabalhar com código.

Passos para ativar o interpretador de código

Vamos embarcar na emocionante jornada de desbloquear a mais nova funcionalidade do ChatGPT, o Intérprete de código. Esta inovação revolucionária não só está a revolucionar o panorama da IA, como também a torná-la mais acessível e fácil de utilizar. Eis um guia passo-a-passo para ativar esta fantástica funcionalidade.

Passo 1: Aceder à funcionalidade

Atualizar para o ChatGPT Plus seleccionando Atualizar para o ChatGPT Plus. Iniciar o processo é tão simples como clicar na opção “Definições” na interface do ChatGPT. Procure o separador “Características Beta” para explorar o tesouro de funcionalidades oferecidas pelo ChatGPT.

Passo 2: Ativar o interpretador de código

Na secção “Funcionalidades Beta”, encontra a opção “Interpretador de código”. Basta clicar na caixa de verificação junto à mesma para ativar esta funcionalidade. Lembrem-se que um grande poder implica uma grande responsabilidade. Certifique-se de que o utiliza de forma sensata!

Passo 3: Confirmar e aplicar

Depois de ativar o “Interpretador de código”, certifique-se de que guarda as alterações. Clique em “Aplicar” para confirmar as alterações e já está! Activou com sucesso o Intérprete de Código, pronto para experimentar o próximo nível de IA.

Utilização de documentos com GPT

Bem, e se não quiser que o GPT codifique por si e, em vez disso, o treinar com os seus dados? Conheça o Cody, a sua IA personalizada que actua como um ChatGPT adaptado ao seu negócio. O Cody é um assistente de IA inteligente concebido especificamente para as empresas. Pode ser treinado na sua própria base de conhecimentos, incluindo os processos da sua empresa, informações da equipa e dados dos clientes. O Cody pode apoiar a sua equipa, respondendo a perguntas, fornecendo assistência criativa, resolvendo problemas e fazendo brainstorming de ideias. As suas capacidades vão para além das pesquisas por palavras-chave e das respostas regurgitadas, permitindo interacções mais personalizadas e conscientes do contexto. O Cody também pode integrar-se nas suas ferramentas favoritas e fornecer respostas instantâneas às suas questões comerciais através da análise de documentos acumulados.

Quer saber mais sobre o Cody, ou talvez precise de ajuda? Dispomos de uma variedade de recursos para o ajudar a tirar o máximo partido desta plataforma inovadora. Junte-se à nossa comunidade Discord para interagir com outros utilizadores Cody e com a nossa equipa de especialistas, ou aprofunde as nossas capacidades no nosso Blogue. E se precisar de ajuda personalizada, a nossa equipa de apoio dedicada está sempre pronta a ajudar. Visite o nosso Centro de Ajuda para obter perguntas frequentes ou para enviar um pedido de assistência. Saiba mais sobre nós e como a Cody está a redefinir os limites da IA no nosso sítio Web.

Os seus dados estão seguros connosco

O nosso compromisso com a segurança e a privacidade dos dados.

ChatGPT tornou-se sinónimo de Inteligência Artificial, e mesmo aqueles que anteriormente não estavam familiarizados com a IA estão agora a adquirir conhecimentos sobre a mesma. A sua popularidade disparou, levando empresas e particulares a procurar bots de IA semelhantes ao ChatGPT, mas adaptados aos seus próprios dados. Na Cody AI, o nosso objetivo é simplificar e agilizar este processo, eliminando a necessidade de se aprofundar nos complexos aspectos técnicos da IA e mantendo-se atualizado com as últimas inovações.

Uma preocupação significativa entre os indivíduos e as empresas que utilizam a IA para os seus casos de utilização personalizados é a integridade e a segurança dos seus dados. A construção de modelos linguísticos como o GPT exige a utilização de conjuntos de dados de treino extensos, o que pode suscitar preocupações válidas sobre a privacidade dos dados. Na Cody AI, compreendemos e respeitamos estas preocupações e damos prioridade à proteção dos seus dados e da sua privacidade.

Para compreender como a Cody garante a segurança dos seus dados ao longo do processo, vamos dividir o percurso em três secções: Documentos, Embeddings e Modelo.

Documentos

A Cody utiliza o Amazon Simple Storage Service (S3), seguro e privado, para armazenar os seus documentos na fase inicial antes do processamento posterior. O S3 assegura a encriptação de todos os carregamentos de objectos para todos os buckets, mantendo a conformidade com vários programas como o PCI-DSS, HIPAA/HITECH, FedRAMP, Diretiva de Proteção de Dados da UE e FISMA. Isto garante que os seus dados permanecem protegidos e em conformidade com os requisitos regulamentares. Os documentos carregados na Cody seguem o protocolo SSE-S3 (Server-Side Encryption), permitindo o acesso exclusivo a si e aos membros da sua equipa, garantindo a confidencialidade e a privacidade dos dados.

Embeddings

Os embeddings são essencialmente uma representação dos seus dados sob a forma de vectores (listas de números). Uma vez que os dados fornecidos ao Cody não estão estruturados, a sua conversão em ligações permite recuperações mais rápidas e pesquisas semânticas. Para saber mais sobre como a Cody gera respostas a partir dos seus documentos, consulte este artigo.

Para armazenar estes vectores ou embeddings, a Cody baseia-se na Pinecone, uma base de dados de vectores segura em que confiam algumas das maiores empresas.

O Pinecone oferece características de segurança robustas como:

  1. Certificação SOC2 Tipo II
  2. Conformidade com o RGPD
  3. Testes de penetração de rotina para verificar as vulnerabilidades.
  4. Contentores Kubernetes isolados numa infraestrutura AWS totalmente gerida e segura para armazenar dados.

Modelo

A Cody AI utiliza os modelos GPT da OpenAI, incluindo GPT-3.5, GPT-3.5 16K e GPT-4, para gerar respostas. Devido a limitações de recursos, estes modelos não estão alojados nos servidores nativos da Cody. Em vez disso, utilizam as APIs fornecidas pela OpenAI (também utilizadas para criar embeddings para os seus documentos e consultas). Ao gerar respostas, apenas a parte específica dos dados relevantes para a pergunta feita é enviada no pedido, em vez de transmitir todos os documentos. Esta abordagem garante um processamento eficiente, a integridade dos dados e minimiza as transferências de dados desnecessárias. Um mecanismo de segurança adicional fornecido pela API é que os seus dados não serão utilizados para treinar qualquer modelo linguístico existente ou novo. Isto garante que os seus dados permanecem restritos ao seu bot e não são utilizados para fins de treino de modelos.

A partir de 1 de março de 2023, estamos a fazer duas alterações às nossas políticas de utilização e retenção de dados:
1. A OpenAI não utilizará os dados enviados pelos clientes através da nossa API para treinar ou melhorar os nossos modelos, a menos que o utilizador decida explicitamente partilhar os seus dados connosco para este fim. Pode optar por partilhar dados.
2. Todos os dados enviados através da API serão conservados para efeitos de controlo de abusos e utilizações indevidas durante um período máximo de 30 dias, após o qual serão eliminados (salvo disposição legal em contrário).

Fonte: OpenAI

Este compromisso proporciona um nível adicional de confidencialidade e garante a privacidade e a segurança dos seus dados. Para saber mais, pode ler este artigo.

Conclusão

Ao considerar os três factores em conjunto, a Cody AI demonstra uma abordagem bem construída à segurança e conformidade dos dados, garantindo a segurança de 99% dos seus dados. Numa era em que a privacidade dos dados é da maior importância, esforçamo-nos por ir mais além para garantir a segurança total dos seus dados.

Se tiver algum comentário ou perguntas sobre a Cody AI e a segurança dos seus dados, não hesite em contactar-nos através de Obter ajuda. Também é bem-vindo a juntar-se à nossa comunidade Discord, onde pode dar contributos valiosos e participar em debates.

Como treinar GPT em dados do Excel gratuitamente? (Beta)

Um guia para adicionar dados Excel à sua base de conhecimentos e formação Cody ChatGPT gratuitamente.

Antes de começar a treinar o Cody com os dados Excel da sua empresa, é necessário esclarecer alguns conceitos para garantir as melhores respostas do seu bot. GPT, ou Generative Pre-Trained Transformers, são modelos linguísticos treinados em conjuntos de dados extensos para prever a palavra seguinte numa frase ou expressão, de modo a completá-la. São especificamente treinados em conjuntos de dados de linguagem natural que incluem grandes amostras de dados de conversação ou literais não estruturados. Ao contrário dos modelos estatísticos como a Regressão Linear, os GPTs não são proficientes na previsão de números utilizando dados de treino lógicos. Por exemplo, se treinar o GPT num conjunto de dados que afirma que 2+2=5, ele responderá afirmando que 2+2=5 sem tentar compreender a inconsistência lógica (isto é apenas um exemplo; o OpenAI lida com este tipo de questões com respostas exactas). Este facto, associado a outra limitação dos LLM, que são as alucinações, cria um ambiente que não é adequado para cálculos matemáticos.

Agora que compreende as limitações da GPT, deixe-nos guiá-lo através de um processo de treino da GPT em dados Excel gratuitamente. Desenvolvemos um método para adicionar dados Excel ou CSV à sua base de conhecimentos Cody. Como mencionado anteriormente, o GPT é excelente na compreensão da linguagem natural, portanto, converteremos os dados do Excel em um formato legível que possa ser facilmente consumido pelo modelo de linguagem.

Passo 1: Transformar os dados do Excel

Pegue nos dados CSV ou Excel com os quais pretende treinar o seu Bot e converta-os num ficheiro de texto utilizando este utilitário criado por nós. O utilitário converte os dados do Excel num ficheiro de texto, anotando os dados com os cabeçalhos correspondentes. Ao anotar os itens das células com cabeçalhos, permite que o modelo de linguagem compreenda melhor o contexto, uma vez que existe uma grande probabilidade de os cabeçalhos serem ignorados devido à segmentação do documento na fase de pré-processamento.

Por exemplo.

Dados Excel:

Dados de texto:

{The Name is ‘John’. The Age is ‘16’.}, {The Name is ‘Marie’. The Age is ‘18’.}

O ficheiro de texto gerado segue um formato semelhante ao JSON, mas com um estilo mais literário para proporcionar uma sensação mais humana. Embora esta solução esteja atualmente numa fase experimental e ainda não esteja integrada na aplicação Cody, funciona bem com os três modelos GPT, mas estamos continuamente a explorar melhores soluções para este fim.

Interface de Utilidade:

Conversor CSV/Excel para TXT para Cody para Treinar GPT em dados Excel gratuitamente

Amostra de dados CSV:

Amostra de dados CSV para Treinar GPT em dados Excel gratuitamente

Recomenda-se que limpe os dados antes da transformação para obter a melhor qualidade de respostas do seu bot.

Interface de utilizador do conversor para Treinar GPT em dados Excel gratuitamente

Depois de carregar os dados CSV ou Excel para o utilitário, pode pré-visualizar os dados antes de gerar o ficheiro de texto compatível com GPT.

Linhas por parte: Para conjuntos de dados maiores, é aconselhável dividir o conjunto de dados em várias partes. Esta divisão melhora a pesquisa semântica e aumenta a qualidade das respostas.

Incluir referências de células: Se pretender que o ficheiro de texto inclua referências a células do Excel, pode selecionar esta opção. O bot pode então referir-se a estas referências de células ao criar guias passo-a-passo para acções que podem ser executadas no Excel. Por exemplo, pode gerar uma fórmula para encontrar a mediana.

Será gerada uma pasta zip comprimida que conterá todas as partes dos seus dados Excel em formato .txt.

Ficheiros gerados para Treinar GPT em dados Excel gratuitamente

Passo 2: Adicionar os dados à sua base de conhecimentos Cody

Para adicionar os dados transformados à Base de Conhecimento Cody, siga estes passos:

  1. Aceda à aplicação Cody e navegue até à secção “Conteúdo”.
  2. Crie uma nova pasta na base de conhecimentos onde pretende armazenar os dados.
  3. Uma vez criada a pasta, navegue no seu interior.
  4. Clique no botão “Upload” para carregar os dados transformados.
  5. Seleccione todos os ficheiros de dados transformados do seu armazenamento local que pretende adicionar à base de conhecimentos.
  6. Confirme a seleção e inicie o processo de carregamento.
  7. Os ficheiros de dados transformados serão carregados e adicionados à Base de Dados de Conhecimento Cody, armazenados na pasta que criou. Depois de os documentos terem sido aprendidos com sucesso, o estado do documento será apresentado como “aprendido”.

Ficheiros de texto carregados para Treinar GPT em dados Excel gratuitamente

Passo 3: Configurar a Personalidade do Bot

Uma vez que ainda se encontra numa fase experimental, estamos a trabalhar para melhorar o aviso antes de o adicionarmos ao modo de modelo.

Prompt:

É o Data Cody, um analista de dados de IA da minha empresa. O seu principal objetivo é gerar inferências a partir dos dados Excel que lhe são fornecidos. As referências de células do Excel podem ser dadas sob a forma de $Cell. Não mencionar a referência da célula nas respostas. A informação contida em “{}” é um registo. Se lhe for pedido que indique os pormenores de um registo específico, enumere-os sob a forma de indicadores.

Prompt do sistema:

Tente responder de forma humana quando lhe perguntarem sobre qualquer pormenor. Não justifique as suas respostas.

Este processo funciona bem com os três modelos GPT, por isso, mesmo que esteja no plano gratuito, pode experimentá-lo. No entanto, vale a pena notar que os modelos GPT-3.5 16K e GPT-4 tendem a compreender melhor os dados. Se está satisfeito com as respostas que recebe no plano gratuito, mas pretende mais flexibilidade na formatação das respostas e a capacidade de comparar vários registos, a atualização para o GPT-3.5 16K ou GPT-4 pode ser benéfica. A janela de contexto adicional fornecida por estes modelos permite uma análise e manipulação mais abrangentes dos dados.

Demonstração

Demo para Treinar GPT em dados do Excel gratuitamente

Referência para a primeira consulta:

Referência para a segunda consulta:

Limitações

A capacidade de carregar ficheiros Excel ou CSV para o Cody não o torna uma alternativa direta a ferramentas de folhas de cálculo como o Google Sheets ou o Microsoft Excel. Há várias limitações a considerar quando se trabalha com dados estruturados no Cody:

  1. Alucinações durante tarefas analíticas: Tarefas que envolvam cálculos estatísticos ou analíticos, tais como pedir a Cody médias, medianas ou valores mínimos/máximos, podem produzir respostas incorrectas. O Cody não efectua cálculos em tempo real e pode fornecer resultados imprecisos. As recentes actualizações da OpenAI, como o Code Interpreter e a chamada de funções, podem melhorar esta situação no futuro.
  2. Erro ao comparar registos: Em certos casos, o Cody pode encontrar dificuldades na obtenção de dados de diferentes segmentos do documento, resultando em respostas que indicam que a informação não está disponível. Este cenário é mais provável com o modelo GPT-3.5 disponível no plano gratuito. A atualização para os planos Basic ou Premium permite-lhe utilizar o modelo GPT-3.5 16K ou o modelo GPT-4. Ambos os modelos têm janelas de contexto maiores e podem potencialmente resolver esta limitação.

Conclusão

Apesar destas limitações, este processo é particularmente útil para cenários em que os dados de FAQ da sua empresa ou outros dados literais, tais como dados de formação de funcionários, são armazenados em formato Excel ou CSV. O Cody pode ser treinado com estes dados sem necessitar de quaisquer modificações. O Cody também tem um bom desempenho quando vai buscar detalhes de um único registo, descrevendo os dados ou fornecendo sugestões com base em informações inferidas de conjuntos de dados numéricos, como balanços ou números de vendas.

Como solução provisória para a formação da Cody em dados Excel ou CSV, agradecemos imenso o seu feedback sobre esta abordagem. Valorizamos a sua opinião e encorajamo-lo a partilhar as suas ideias connosco no nosso servidor Discord ou contactando-nos através da funcionalidade Obter ajuda. Estamos ansiosos por conhecer a sua experiência e aprender mais com os seus comentários. Esperamos que tenha gostado da nossa abordagem de formação de GPT em dados Excel gratuitamente. Consulte os nossos blogues para saber mais sobre o Cody.

 

Integração da IA do Discord

A configurar o Cody para o Discord. Jogo em andamento!

Como o nosso objetivo é melhorar continuamente a experiência do utilizador, temos o prazer de anunciar outra adição monumental ao nosso arsenal de funcionalidades: uma integração suave e perfeita da Cody AI para o Discord. Reconhecida como uma das integrações mais esperadas, estamos a levar os seus servidores Discord para o próximo nível. Quer pretenda alimentar discussões apaixonadas sobre jogos, aceder a recursos académicos para trabalhos de casa ou simplesmente ter compromissos interactivos, a Cody AI é o seu assistente dedicado.

Como adicionar Cody AI ao seu servidor Discord:

  1. Para convidar o bot para o seu servidor, utilize este
    ligação
    ou pode visitar a secção de integrações nas Definições de IA da Cody.
  2. Inicie sessão na sua conta Discord.
  3. Seleccione o servidor onde pretende adicionar o bot Cody.
  4. Defina a chave da API utilizando a opção /set-cody-token em qualquer canal de texto. O Cody AI Token só pode ser definido pelos administradores do servidor. Se precisar de ajuda para obter a chave da API, consulte este artigo.Configurar a IA do Discord
  5. Atribuir um bot a um canal de texto utilizando o /assign-bot comando. Pode utilizar este comando para canais diferentes para definir bots diferentes para cada canal.Selecionando seu bot do Discord
  6. Para fazer perguntas ao seu bot, basta digitar @Cody seguido da sua pergunta. Cody AI criará um novo tópico no canal para responder à sua pergunta. Todas as mensagens desse tópico serão consideradas como Histórico do Chat. Se quiser iniciar uma nova conversa, saia do tópico e mencione @Cody novamente.Tópico de IA do Discord

A sua opinião é importante

Sempre fomos movidos pelo feedback dos utilizadores. As suas ideias e experiências são a nossa luz orientadora. Ao navegar pela integração Cody-Discord, convidamo-lo a partilhar as suas ideias e sugestões. Ligue-se a nós no nosso próprio
Servidor Discord
ou contacte-nos através do botão Obter ajuda na aplicação Web da Cody AI. A tua viagem com o Cody no Discord é importante para nós e estamos ansiosos por torná-la o mais enriquecedora possível. Para mais integrações, leia sobre a nossa nova integração ai Zapier.

 

Integração de IA do Slack

No atual mundo digital de ritmo acelerado, a integração da IA nas nossas ferramentas de comunicação diárias não é apenas um luxo – é uma necessidade. Reconhecendo essa necessidade, temos o prazer de anunciar o recurso de integração do AI Slack com o Cody. Esta integração foi concebida para melhorar a experiência do Slack para empresas e corporações que dependem fortemente dele para a sua comunicação. Ao integrar bots Cody treinados em documentos empresariais, os utilizadores podem agora desfrutar de um processo de comunicação mais simplificado e eficiente nos seus espaços de trabalho Slack.

Como integrar a IA da Cody no seu espaço de trabalho do Slack

  1. Adicione o Cody Bot ao seu espaço de trabalho do Slack navegando até as Configurações do Cody > Integrações e clicando em Instalar Slack.Integração de IA do Slack
  2. Obter a chave da API em Cody Settings > API Keys, clicando em Create API Key.
  3. No seu espaço de trabalho do Slack, procure a sua aplicação Cody e defina a chave da API na secção Página inicial.Integração da API de IA do Slack
  4. Vá para qualquer canal no seu espaço de trabalho e use o comando
    /assign-bot
    para atribuir um bot da sua conta Cody a esse canal.Selecione seu bot de IA do Slack
  5. Para fazer perguntas ao seu bot, basta digitar @Cody seguido da sua pergunta. O Cody vai criar um novo tópico no canal para responder à tua pergunta. Todas as mensagens desse tópico serão consideradas Histórico do Chat. Se quiser iniciar uma nova conversa, saia do tópico e mencione @Cody novamente.Fazer perguntas ao Cody Rosca expandida

 

O futuro das integrações de IA da Cody

Esta integração AI Slack marca uma das nossas aventuras pioneiras em integrações de aplicações de terceiros. A enorme procura e popularidade desta funcionalidade entre os nossos utilizadores foram a força motriz por detrás da sua criação. E isto é apenas o início! Estamos atualmente a desenvolver funcionalidades e integrações adicionais, incluindo as doDiscord e do Zapier. Estas actualizações interessantes serão lançadas num futuro próximo.

O seu feedback é importante

As suas ideias e comentários são inestimáveis para nós. Eles moldam a direção das nossas inovações e garantem que estamos sempre a oferecer o melhor. Convidamo-lo a partilhar as suas ideias e experiências com esta integração. Liga-te a nós no nosso servidor Discord ou entra em contacto connosco através do botão “Obter ajuda” na nossa aplicação.

Anatomia de uma personalidade de bot

Dicas para criar um bot que faça exatamente o que pretende.

É essencial reconhecer que, ao construir bots que utilizam modelos de linguagem, a paciência é crucial, especialmente no início. Depois de estabelecer uma base sólida, torna-se mais fácil acrescentar componentes adicionais. Construir bots com o Cody é como pintar numa tela. É necessário um certo grau de criatividade e alguma compreensão dos fundamentos para dar o seu toque pessoal ao bot.

O parâmetro principal que permite ao seu bot adotar um estilo de pensamento particular é o Prompt de Personalidade. A personalidade do bot é moldada por vários factores, incluindo a distribuição de tokens, a pontuação de relevância e muito mais. No entanto, o pedido de personalidade é o aspeto mais distinto e criativo, uma vez que pode ser personalizado de forma diferente por cada utilizador. Os utilizadores têm a liberdade de criar e ajustar a personalidade do bot de acordo com as suas necessidades específicas.

A liberdade é algo que todos apreciamos, mas quando se começa com uma folha em branco, também se pode tornar intimidante e levar à ambiguidade sobre por onde começar. Se tem sentido o mesmo, não se preocupe; este blogue deve ajudá-lo a criar uma melhor personalidade. Começaremos por apresentar a estrutura recomendada para os avisos e, em seguida, forneceremos alguns exemplos de avisos.

Nome

É sempre vantajoso começar por dar um nome ao seu bot. Dar um nome ao seu bot dá um toque humano, especialmente quando cumprimenta os utilizadores ou aborda questões relacionadas com o bot.

Sugestões:

O teu nome é [Name of your Bot].
OU
Você é ‘[Name of your Bot]’.

Descrição

A descrição do bot torna-o consciente do contexto que será fornecido pela base de conhecimentos. A consciência do contexto fornece ao bot uma estrutura para responder a perguntas, tendo em mente um domínio específico.

Sugestões:

A sua principal tarefa é [specify the domain].
OU
O vosso principal objetivo é ajudar-me em [specify the domain].

Nota: O Nome do Bot e a Descrição definidos na Secção Geral são apenas para conveniência do utilizador na diferenciação entre vários bots. O próprio bot não tem conhecimento destas definições. Portanto, é necessário definir explicitamente o nome e a descrição do bot no Prompt de Personalidade para estabelecer sua identidade e características.

Limites

Uma potencial desvantagem da utilização de LLMs treinados em grandes conjuntos de dados é a tendência para gerar respostas alucinadas. É importante notar que os dados utilizados para gerar respostas não são utilizados para afinar ou reciclar o LLM a pedido do Cody. Em vez disso, serve de referência contextual para a consulta da LLM, resultando em respostas mais rápidas e preservando a privacidade dos dados.

Para garantir que o bot não se refere a pontos de dados do conjunto de dados LLM original, que podem sobrepor-se a domínios ou conceitos semelhantes, temos de delimitar o contexto estritamente à nossa base de conhecimentos.

Sugestões:

A base de conhecimentos é a sua única fonte de informação.
OU
É relutante em fazer quaisquer afirmações, a menos que estejam indicadas na base de conhecimentos.

Pode haver alguns casos em que o bot não necessite de uma base de conhecimentos ou utilize a base de conhecimentos como fonte de referência. Nestes casos, a mensagem muda consideravelmente.

Prompt:

A sua principal fonte de referência é a base de conhecimentos.

Características da resposta

As características da resposta gerada pelo bot também podem ser controladas, em certa medida, pela personalidade do bot. Pode consistir em definir o tom, a duração, a linguagem e o tipo de resposta que espera do seu bot.

Sugestões:

1. Tom: Deve responder de uma forma [polite/friendly/professional].

2. Comprimento: As respostas devem ser dadas em [pointers/paragraphs].

3. Língua: Responder ao utilizador [in the same language/specify different language].

4. Tipo: Fornecer ao utilizador [creative/professional/precise] respostas.

É livre de experimentar várias combinações e características. Os exemplos fornecidos são apenas para efeitos de aprendizagem e as possibilidades são infinitas.

Media

Uma das características mais interessantes do Cody é a possibilidade de incorporar conteúdos multimédia nas respostas. Ao incorporar meios de comunicação, como imagens, GIFs ou vídeos, é sempre recomendável importar os meios de comunicação para um documento separado ou importar todo o documento em bruto utilizando o editor de texto Cody incorporado, onde pode adicionar meios de comunicação. Pode copiar/colar os meios de comunicação ou incorporá-los no documento utilizando URLs.

Uma imagem que ilustra os botões multimédia.

Depois de importar com êxito os suportes de dados, é necessário especificar os mesmos no nosso prompt de personalidade do bot. O prompt pode ser dividido em duas partes: Inicialização e Ilustração.

Sugestões:

Inicialização:
Incorporar [images/videos/both] relevante da base de conhecimentos quando adequado.

Ilustração:
Adicione imagens utilizando a etiqueta <img> e vídeos utilizando o iframe <>
Por exemplo:
<img src=”[Image URL]”>
<iframe src=”[Video URL]”></iframe>

Recuos

Haverá alturas em que o bot não consegue encontrar conteúdo relevante para a pergunta feita pelo utilizador. É sempre mais seguro definir soluções alternativas para esses cenários, a fim de evitar fornecer informações enganosas ou incorrectas ao utilizador (apenas aplicável em casos de utilização em que exista uma base de conhecimentos).

Sugestões:

1. Não mencionar “base de conhecimentos não estruturada” ou nomes de ficheiros durante a conversa.

2. Nos casos em que não é possível obter uma resposta definitiva, [Define fallback].

OU

Se não for possível encontrar informações relevantes na base de conhecimentos ou se o utilizador fizer perguntas não relacionadas que não façam parte da base de conhecimentos, [Define fallback].

Etapas (opcional)

Se quiser que o seu bot siga uma linha de tempo ou um fluxo de conversação específico, pode defini-lo facilmente utilizando passos. Esta abordagem é particularmente útil quando se utiliza o bot para fins de formação ou de resolução de problemas. Cada passo representa uma fase ou etapa específica da conversa, permitindo-lhe controlar a progressão e garantir que o bot fornece as informações ou a assistência desejadas de uma forma sistemática.

Prompt:

Siga estes passos enquanto conversa com o utilizador:

1. [Step 1]

2. [Step 2]

3. [Step 3]

Nota: Ao definir as etapas, recomenda-se ativara “Pesquisa de vetor invertido” para melhorar as respostas e atribuir um número adequado de tokens ao histórico de conversações. Isto permite que o modelo considere o histórico da conversa, incluindo a entrada do utilizador e a resposta anterior do bot, ao gerar uma resposta.

Captura de dados (opcional)

Este prompt, em harmonia com o fluxo de conversação (etapas), é particularmente benéfico quando o caso de utilização do seu bot gira em torno de cenários de apoio ou recrutamento. Atualmente, não existe memória de longo prazo ou conetividade de base de dados no Cody que possa captar os dados e armazená-los para consumo analítico. No futuro, com as novas actualizações da API da OpenAI, como a chamada de funções, iremos certamente introduzir novas funcionalidades para podermos captar e armazenar os dados a longo prazo.

Por enquanto, pode aceder aos chats dos utilizadores do seu bot (através de widgets) navegando para os chats“Convidados” na secção de chats. Pode então analisar manualmente os dados capturados para obter mais informações.

Prompt:

Recolha os seguintes dados dos utilizadores:

– [Field 1]

– [Field 2]

– [Field 3]

– [Field 4]

Fazer uma pergunta de cada vez. Quando tiver recolhido todas as informações necessárias, encerre a conversa agradecendo e mostrando os dados recolhidos. Lembre-se de que a sua tarefa consiste apenas em recolher dados.

Formatação da resposta*

Uma caraterística interessante do Cody é o seu suporte para formatar respostas de bots utilizando etiquetas markdown ou HTML. Ao fornecer ao seu bot um modelo de formato HTML ou markdown na personalidade do bot, este tentará formatar as respostas em conformidade, sempre que necessário.

Prompt:

Formato de resposta:

<h1>[Field Name]</h1>

<p>[Field Name]</p>

<p>[Field Name]</p>

*A formataçãofunciona melhor em GPT-4

Exemplo de aviso

Cody como um bot de geração de leads

Anatomia de um aviso (etiquetado).

 

Conversa de demonstração que apresenta o prompt em utilização.

Cody como um bot de marketing

Cody como um bot de treino

Para saber mais sobre os avisos de personalidade, consulte os nossos casos de utilização, que contêm avisos pormenorizados juntamente com as suas definições paramétricas.

Conclusão

Se estiver a utilizar o plano gratuito do Cody, existe a possibilidade de o bot perder a aderência ao prompt ou de simplesmente ignorar alguns parâmetros devido à janela de contexto mais pequena ou à falta de coerência. Recomendamos a todos que utilizem o plano gratuito apenas para fins de teste ou como uma fase de transição para compreender a utilização da Cody e determinar a sua adequação à sua empresa.

Ao construir prompts para o seu bot, também é importante manter a concisão e evitar incorporar todos os parâmetros mencionados no artigo. Como há um limite para o número de fichas disponíveis e o prompt de personalidade também consome fichas, deve construí-las criteriosamente. Pode alterar os prompts apresentados neste artigo de acordo com as suas necessidades e preferências. Descobriu algo novo? Pode sempre partilhá-lo connosco, e teremos todo o gosto em discuti-lo.

Esta foi apenas uma introdução à vasta paisagem da criação de personalidades de bots. Os LLM estão a melhorar continuamente a cada dia que passa, e ainda temos um longo caminho a percorrer para utilizar plenamente o seu potencial. Toda esta viagem é uma experiência nova para todos nós. À medida que continuamos a experimentar, aprender e implementar novos casos de utilização e cenários, partilhá-los-emos consigo através de artigos e tutoriais. Para obter mais recursos, pode também consultar o nosso Centro de ajuda e não hesite em colocar quaisquer questões relativas ao Cody, juntando-se à nossa comunidade Discord. Consulte também os nossos blogues anteriores para obter mais informações interessantes.