LLM xAI

O LLM xAI do FlowHunt permite integrar modelos de geração de texto da xAI como o Grok-beta aos seus chatbots e ferramentas de IA, com configurações flexíveis para tokens, temperatura e seleção de modelo.

LLM xAI

Descrição do componente

Como o componente LLM xAI funciona

O que é o componente LLM xAI?

O componente LLM xAI conecta o modelo Grok ao seu fluxo. Enquanto os Geradores e Agentes são onde acontece a verdadeira mágica, os componentes LLM permitem controlar o modelo utilizado. Todos os componentes vêm com o ChatGPT-4 por padrão. Você pode conectar este componente caso queira trocar o modelo ou ter mais controle sobre ele.

LLM xAI Settings

Lembre-se de que conectar um Componente LLM é opcional. Todos os componentes que usam um LLM vêm com o ChatGPT-4o como padrão. Os componentes LLM permitem que você troque o modelo e controle as configurações do modelo.

Configurações do Componente LLM xAI

Máximo de Tokens

Tokens representam as unidades individuais de texto que o modelo processa e gera. O uso de tokens varia conforme o modelo, e um único token pode ser desde palavras ou subpalavras até um único caractere. Os modelos geralmente são precificados por milhões de tokens.

A configuração de máximo de tokens limita o total de tokens que podem ser processados em uma única interação ou solicitação, garantindo que as respostas sejam geradas dentro de limites razoáveis. O limite padrão é de 4.000 tokens, que é o tamanho ideal para resumir documentos e várias fontes para gerar uma resposta.

Temperatura

A temperatura controla a variabilidade das respostas, variando de 0 a 1.

Uma temperatura de 0,1 tornará as respostas muito objetivas, mas potencialmente repetitivas e deficientes.

Uma temperatura alta de 1 permite máxima criatividade nas respostas, mas cria o risco de respostas irrelevantes ou até mesmo alucinatórias.

Por exemplo, a temperatura recomendada para um bot de atendimento ao cliente é entre 0,2 e 0,5. Esse nível mantém as respostas relevantes e dentro do script, ao mesmo tempo em que permite uma variação natural.

Modelo

Este é o seletor de modelo. Aqui você encontrará todos os modelos suportados pelo provedor xAI. O principal modelo de texto da xAI se chama Grok. Atualmente, só suportamos o modelo grok-beta, pois é o único que foi disponibilizado para uso público via API.

Quer saber mais sobre o Grok-beta e ver como ele se compara com outros modelos? Veja este artigo.

Como adicionar o LLM xAI ao seu fluxo

Você notará que todos os componentes LLM possuem apenas um manipulador de saída. A entrada não passa pelo componente, pois ele apenas representa o modelo, enquanto a geração real ocorre nos Agentes de IA e Geradores.

O manipulador LLM é sempre roxo. O manipulador de entrada do LLM é encontrado em qualquer componente que use IA para gerar texto ou processar dados. Você pode ver as opções clicando no manipulador:

xAI component compatibility

Isso permite criar todos os tipos de ferramentas. Vamos ver o componente em ação. Aqui está um fluxo simples de chatbot de Agente de IA utilizando o grok-beta da xAI para gerar respostas. Você pode pensar nisso como um chatbot xAI básico.

Esse fluxo simples de Chatbot inclui:

  • Entrada do chat: Representa a mensagem que o usuário envia no chat.
  • Histórico do chat: Garante que o chatbot possa lembrar e considerar respostas anteriores.
  • Saída do chat: Representa a resposta final do chatbot.
  • Agente de IA: Um agente de IA autônomo que gera respostas.
  • LLM xAI: A conexão com os modelos de geração de texto da xAI.
xAI chatbot flow

Perguntas frequentes

O que é o LLM xAI no FlowHunt?

O LLM xAI é um componente do FlowHunt que permite conectar e controlar modelos de geração de texto de provedores xAI como o Grok-beta dentro dos seus fluxos de IA e chatbots.

Quais modelos xAI o FlowHunt suporta?

Atualmente, o FlowHunt suporta o modelo grok-beta da xAI, com mais modelos a serem adicionados à medida que estiverem disponíveis para uso público via API.

Quais configurações posso controlar com o componente LLM xAI?

Você pode ajustar o número máximo de tokens, a temperatura (variabilidade das respostas) e selecionar entre os modelos xAI disponíveis para personalizar o comportamento do seu chatbot ou ferramenta de IA.

É obrigatório conectar o componente LLM xAI para cada chatbot?

Não, é opcional. Por padrão, os componentes usam o ChatGPT-4o, mas você pode conectar o LLM xAI para alternar para modelos xAI ou ter mais controle.

Como adiciono o componente LLM xAI ao meu projeto FlowHunt?

Basta adicionar o componente LLM ao seu fluxo; ele atua como o seletor de modelo. A geração real de texto ocorre nos Agentes de IA e Geradores conectados a ele.

Experimente hoje o LLM xAI do FlowHunt

Comece a construir chatbots e ferramentas de IA mais inteligentes com o FlowHunt. Conecte-se aos principais modelos da xAI como Grok-beta em um painel flexível e sem código.

Saiba mais