Descrição do componente
Como o componente LLM xAI funciona
O que é o componente LLM xAI?
O componente LLM xAI conecta o modelo Grok ao seu fluxo. Enquanto os Geradores e Agentes são onde acontece a verdadeira mágica, os componentes LLM permitem controlar o modelo utilizado. Todos os componentes vêm com o ChatGPT-4 por padrão. Você pode conectar este componente caso queira trocar o modelo ou ter mais controle sobre ele.

Lembre-se de que conectar um Componente LLM é opcional. Todos os componentes que usam um LLM vêm com o ChatGPT-4o como padrão. Os componentes LLM permitem que você troque o modelo e controle as configurações do modelo.
Configurações do Componente LLM xAI
Máximo de Tokens
Tokens representam as unidades individuais de texto que o modelo processa e gera. O uso de tokens varia conforme o modelo, e um único token pode ser desde palavras ou subpalavras até um único caractere. Os modelos geralmente são precificados por milhões de tokens.
A configuração de máximo de tokens limita o total de tokens que podem ser processados em uma única interação ou solicitação, garantindo que as respostas sejam geradas dentro de limites razoáveis. O limite padrão é de 4.000 tokens, que é o tamanho ideal para resumir documentos e várias fontes para gerar uma resposta.
Temperatura
A temperatura controla a variabilidade das respostas, variando de 0 a 1.
Uma temperatura de 0,1 tornará as respostas muito objetivas, mas potencialmente repetitivas e deficientes.
Uma temperatura alta de 1 permite máxima criatividade nas respostas, mas cria o risco de respostas irrelevantes ou até mesmo alucinatórias.
Por exemplo, a temperatura recomendada para um bot de atendimento ao cliente é entre 0,2 e 0,5. Esse nível mantém as respostas relevantes e dentro do script, ao mesmo tempo em que permite uma variação natural.
Modelo
Este é o seletor de modelo. Aqui você encontrará todos os modelos suportados pelo provedor xAI. O principal modelo de texto da xAI se chama Grok. Atualmente, só suportamos o modelo grok-beta, pois é o único que foi disponibilizado para uso público via API.
Quer saber mais sobre o Grok-beta e ver como ele se compara com outros modelos? Veja este artigo.
Como adicionar o LLM xAI ao seu fluxo
Você notará que todos os componentes LLM possuem apenas um manipulador de saída. A entrada não passa pelo componente, pois ele apenas representa o modelo, enquanto a geração real ocorre nos Agentes de IA e Geradores.
O manipulador LLM é sempre roxo. O manipulador de entrada do LLM é encontrado em qualquer componente que use IA para gerar texto ou processar dados. Você pode ver as opções clicando no manipulador:

Isso permite criar todos os tipos de ferramentas. Vamos ver o componente em ação. Aqui está um fluxo simples de chatbot de Agente de IA utilizando o grok-beta da xAI para gerar respostas. Você pode pensar nisso como um chatbot xAI básico.
Esse fluxo simples de Chatbot inclui:
- Entrada do chat: Representa a mensagem que o usuário envia no chat.
- Histórico do chat: Garante que o chatbot possa lembrar e considerar respostas anteriores.
- Saída do chat: Representa a resposta final do chatbot.
- Agente de IA: Um agente de IA autônomo que gera respostas.
- LLM xAI: A conexão com os modelos de geração de texto da xAI.

Perguntas frequentes
- O que é o LLM xAI no FlowHunt?
O LLM xAI é um componente do FlowHunt que permite conectar e controlar modelos de geração de texto de provedores xAI como o Grok-beta dentro dos seus fluxos de IA e chatbots.
- Quais modelos xAI o FlowHunt suporta?
Atualmente, o FlowHunt suporta o modelo grok-beta da xAI, com mais modelos a serem adicionados à medida que estiverem disponíveis para uso público via API.
- Quais configurações posso controlar com o componente LLM xAI?
Você pode ajustar o número máximo de tokens, a temperatura (variabilidade das respostas) e selecionar entre os modelos xAI disponíveis para personalizar o comportamento do seu chatbot ou ferramenta de IA.
- É obrigatório conectar o componente LLM xAI para cada chatbot?
Não, é opcional. Por padrão, os componentes usam o ChatGPT-4o, mas você pode conectar o LLM xAI para alternar para modelos xAI ou ter mais controle.
- Como adiciono o componente LLM xAI ao meu projeto FlowHunt?
Basta adicionar o componente LLM ao seu fluxo; ele atua como o seletor de modelo. A geração real de texto ocorre nos Agentes de IA e Geradores conectados a ele.
Experimente hoje o LLM xAI do FlowHunt
Comece a construir chatbots e ferramentas de IA mais inteligentes com o FlowHunt. Conecte-se aos principais modelos da xAI como Grok-beta em um painel flexível e sem código.