LLM OpenAI

O componente LLM OpenAI no FlowHunt conecta modelos ChatGPT aos seus fluxos, permitindo controle sobre a escolha do modelo e configurações de saída para aplicações versáteis de chatbot IA.

LLM OpenAI

Descrição do componente

Como o componente LLM OpenAI funciona

O que é o componente LLM OpenAI?

O componente LLM OpenAI conecta modelos ChatGPT ao seu fluxo. Embora os Generators e Agents sejam onde a mágica realmente acontece, os componentes LLM permitem controlar o modelo utilizado. Todos os componentes vêm com o ChatGPT-4 por padrão. Você pode conectar este componente se desejar trocar o modelo ou ter mais controle sobre ele.

Componente LLM OpenAI

Configurações do Componente LLM OpenAI

Nome do Modelo

Este é o seletor de modelo. Aqui, você encontrará todos os modelos OpenAI suportados pelo FlowHunt. O ChatGPT oferece uma lista completa de modelos com capacidades e preços diferentes. Por exemplo, usar o GPT-3.5, menos avançado e mais antigo, custará menos do que usar o mais novo 4o, mas a qualidade e velocidade da resposta serão inferiores.

Modelos OpenAI disponíveis no FlowHunt:

  • GPT-4o – O modelo mais recente e popular da OpenAI. Um modelo multimodal capaz de processar texto, imagens, áudio e fazer buscas na web. Saiba mais aqui.
  • GPT-4o Mini – Uma versão menor e econômica do GPT-4o, oferecendo desempenho superior ao GPT-3.5 Turbo, com uma janela de contexto de 128K e redução de custos acima de 60%. Veja como lida com tarefas.
  • o1 Mini – Uma versão enxuta do modelo o1, projetada para tarefas de raciocínio complexo, oferecendo equilíbrio entre desempenho e eficiência. Veja como se saiu em nossos testes.
  • o1 Preview – Um modelo avançado com capacidades aprimoradas de raciocínio, destacando-se em resolução de problemas complexos, especialmente em codificação e raciocínio científico, disponível em formato de prévia. Veja como pensa e executa tarefas.
  • gpt-4-vision-preview – Modelo de prévia que aceita entradas de texto e imagem, suportando recursos como modo JSON e chamadas de função paralela, ampliando as capacidades de interação multimodal. Descubra mais aqui.
  • GPT-3.5 Turbo – Uma versão legada do GPT, excelente para tarefas simples sem gastar muito. Veja nossos testes de Agente de IA para compará-lo com modelos mais novos.

Ao escolher o modelo certo para a tarefa, considere a qualidade e velocidade que o trabalho exige. Modelos mais antigos são ótimos para economizar em tarefas em massa simples e chats. Se você estiver gerando conteúdo ou pesquisando na web, sugerimos optar por um modelo mais novo e refinado.

Máximo de Tokens

Tokens representam as unidades individuais de texto que o modelo processa e gera. O uso de tokens varia entre modelos, e um único token pode ser uma palavra, subpalavra ou um único caractere. Os modelos geralmente são tarifados por milhões de tokens.

A configuração de máximo de tokens limita o total de tokens que pode ser processado em uma única interação ou solicitação, garantindo que as respostas sejam geradas dentro de limites razoáveis. O limite padrão é de 4.000 tokens, tamanho ideal para resumir documentos e várias fontes para gerar uma resposta.

Temperatura

A temperatura controla a variabilidade das respostas, variando de 0 a 1.

Uma temperatura de 0,1 fará com que as respostas sejam muito objetivas, porém possivelmente repetitivas e deficientes.

Uma temperatura alta de 1 permite máxima criatividade nas respostas, mas cria o risco de respostas irrelevantes ou até alucinatórias.

Por exemplo, a temperatura recomendada para um bot de atendimento ao cliente é entre 0,2 e 0,5. Esse nível deve manter as respostas relevantes e dentro do roteiro, permitindo ao mesmo tempo um grau natural de variação nas respostas.

Como Adicionar o LLM OpenAI ao seu Fluxo

Você notará que todos os componentes LLM possuem apenas um conector de saída. A entrada não passa pelo componente, pois ele apenas representa o modelo, enquanto a geração real acontece nos Agentes de IA e Generators.

O conector LLM é sempre roxo. O conector de entrada LLM é encontrado em qualquer componente que usa IA para gerar texto ou processar dados. Você pode ver as opções clicando no conector:

Compatibilidade Open AI

Isso permite criar todos os tipos de ferramentas. Vamos ver o componente em ação. Aqui está um fluxo simples de chatbot movido por Agente usando o o1 Preview para gerar respostas. Você pode pensar nele como um chatbot básico do ChatGPT.

Este fluxo simples de Chatbot inclui:

  • Entrada de chat: Representa a mensagem que o usuário envia no chat.
  • Histórico de chat: Garante que o chatbot possa lembrar e considerar respostas anteriores.
  • Saída de chat: Representa a resposta final do chatbot.
  • Agente de IA: Um agente de IA autônomo que gera respostas.
  • LLM OpenAI: A conexão com os modelos de geração de texto da OpenAI.

openAI chatbot Flow

Exemplos de modelos de fluxo usando o componente LLM OpenAI

Para ajudá-lo a começar rapidamente, preparamos vários modelos de fluxo de exemplo que demonstram como usar o componente LLM OpenAI de forma eficaz. Esses modelos apresentam diferentes casos de uso e melhores práticas, tornando mais fácil para você entender e implementar o componente em seus próprios projetos.

Perguntas frequentes

O que são LLMs?

Modelos de linguagem de grande porte são tipos de IA treinados para processar, compreender e gerar texto semelhante ao humano. Um exemplo comum é o ChatGPT, capaz de fornecer respostas elaboradas para quase qualquer pergunta.

Posso conectar um LLM diretamente à Saída do Chat?

Não, o componente LLM é apenas uma representação do modelo de IA. Ele altera o modelo que o Generator utilizará. O LLM padrão no Generator é o ChatGPT-4o.

Quais LLMs estão disponíveis nos Flows?

No momento, apenas o componente OpenAI está disponível. Planejamos adicionar mais no futuro.

Preciso adicionar um LLM ao meu fluxo?

Não, os Flows são um recurso versátil com muitos casos de uso sem a necessidade de um LLM. Você adiciona um LLM se quiser criar um chatbot conversacional que gere respostas de texto livremente.

O componente LLM OpenAI gera a resposta?

Na verdade, não. O componente apenas representa o modelo e cria regras para ele seguir. É o componente generator que faz a conexão com a entrada e executa a consulta pelo LLM para criar a saída.

Pronto para criar sua própria IA?

Chatbots inteligentes e ferramentas de IA em um só lugar. Conecte blocos intuitivos para transformar suas ideias em Flows automatizados.

Saiba mais