Componente Prompt in FlowHunt

Il componente Prompt in FlowHunt specifica ruoli e comportamento del bot per risposte AI personalizzate. Controlla l’output con template personalizzati per costruire chatbot efficaci e sensibili al contesto.

Componente Prompt in FlowHunt

Descrizione del componente

Come funziona il componente Componente Prompt in FlowHunt

Senza un buon prompt, tutti i bot si comporterebbero allo stesso modo e spesso sbaglierebbero le risposte. I prompt forniscono istruzioni e contesto al modello linguistico, aiutandolo a capire che tipo di testo deve produrre.

Panoramica del componente Prompt

Il componente Prompt è progettato per generare template di prompt flessibili da utilizzare nei flussi AI, consentendo l’inserimento dinamico di variabili e contesto. Questo componente è particolarmente utile in scenari di intelligenza artificiale conversazionale, come chatbot o assistenti virtuali, dove è essenziale creare prompt adattabili e consapevoli del contesto.

Cosa fa il componente?

Il componente Prompt crea un template di prompt che può incorporare diverse variabili dinamiche, come input dell’utente, cronologia chat, istruzioni di sistema e messaggi di contesto. Sfruttando queste variabili, il componente ti aiuta a strutturare prompt ricchi e sensibili al contesto che migliorano la performance e la pertinenza dei modelli o agenti AI a valle.

Caratteristiche principali

  • Template dinamici: Costruisci prompt che includono automaticamente informazioni disponibili come la cronologia chat, l’input utente e il contesto.
  • Variabili personalizzate: Supporta l’inserimento di variabili come {input}, {human_input}, {context}, {chat_history}, {system_message} e {all_input_variables} direttamente nel template del prompt.
  • Supporto per messaggi di sistema: Permette l’aggiunta di istruzioni a livello di sistema per influenzare il comportamento dell’AI.
  • Riutilizzabile nei flussi: L’output di questo componente può essere usato come input per altri componenti, come LLM (Large Language Models) o ulteriori passaggi di elaborazione.

Input

I seguenti input possono essere forniti al componente Prompt:

Nome inputTipoObbligatorioDescrizione
Cronologia ChatInMemoryChatMessageHistoryNoMessaggi delle conversazioni precedenti. Utile per mantenere il contesto o generare query alternative.
ContestoMessageNoInformazioni contestuali aggiuntive da includere nel prompt.
InputMessageNoL’input o il messaggio principale dell’utente.
Messaggio di sistemaStringa (multilinea)NoIstruzioni a livello di sistema per guidare il comportamento dell’AI.
TemplatePrompt (multilinea)NoIl vero e proprio template del prompt, con supporto alle variabili dinamiche per la personalizzazione.

Output

  • Messaggio:
    Il componente restituisce un singolo oggetto messaggio che contiene il prompt costruito, con tutte le variabili dinamiche sostituite con i rispettivi valori.
Nome outputTipoDescrizione
MessaggioMessageIl prompt generato, pronto per l’uso nei componenti AI a valle.

Esempi d’uso

  • AI conversazionale: Genera automaticamente prompt per chatbot in base all’input utente, alla cronologia delle conversazioni e al contesto aggiuntivo.
  • Generazione aumentata dal recupero: Personalizza i prompt per i task di retrieval includendo interazioni passate pertinenti e istruzioni di sistema.
  • Istruzioni personalizzate: Adatta facilmente i prompt a diversi compiti o profili utente modificando il template e il messaggio di sistema.

Perché usare questo componente?

  • Migliora il Prompt Engineering: Gestisci e aggiorna facilmente i template dei prompt senza hardcoding.
  • Aumenta la pertinenza dell’AI: Grazie a contesto, messaggi di sistema e cronologia, i prompt sono più informativi e precisi.
  • Maggiore flessibilità: Supporta un’ampia gamma di casi d’uso, dalle semplici domande/risposte alle conversazioni complesse e multi-turno.

Tabella riepilogativa

CaratteristicaVantaggio
Iniezione dinamica di variabiliPrompt adattabili e sensibili al contesto
Supporto per la cronologia chatMantiene la continuità nelle interazioni multi-turno
Integrazione del messaggio di sistemaAffina la personalità o le istruzioni dell’AI
Integrazione semplice nei flussiSemplifica la creazione di prompt per l’AI a valle

Questo componente è uno strumento fondamentale per chiunque voglia costruire flussi AI sofisticati e sensibili al contesto, dove la costruzione del prompt è la chiave per ottenere risultati di alta qualità.

Template

Questa è un’impostazione avanzata e opzionale. Puoi creare template di prompt con variabili specifiche per controllare pienamente l’output della chat. Ad esempio:

Come esperto SEO, analizza il contenuto dell’URL e crea un titolo lungo fino a 65 caratteri.— Contenuto dell’URL —{input}Task: Genera un titolo simile ad altri usando la query {human_input}. Non cambiare {human_input} nel nuovo titolo. NUOVO TITOLO:

Il prompt di default è il seguente:

Sei un assistente AI modello linguistico.
Il tuo compito è generare una risposta basata sulla query di input.
Se viene fornito un contesto, usalo per generare la risposta alla query INPUT e HUMAN_INPUT.
Formatta la risposta in markdown.

RISPOSTA IN LINGUA: {lang}
VARIABILI:
{"session_start_time": "2025-06-03 07:35:22", "current_page_url": "https://app.flowhunt.io/aistudio/flows/de6c2e2c-d817-4b2f-af2c-12dba3f46870?ws=74be5f74-d7c5-4076-839d-8ac1771a3b75"}
INPUT: {input}

RISPOSTA:

Il prompt predefinito copia la stessa struttura delle impostazioni del componente. Puoi sovrascrivere le impostazioni modificando e usando le variabili nel campo template. Creare i tuoi template ti dà un maggiore controllo sull’output.

Come collegare il componente Prompt al tuo flusso

Il prompt è un componente opzionale che modifica e specifica ulteriormente l’output finale. Richiede il collegamento di diversi componenti:

  • Cronologia chat: Collegare la cronologia non è obbligatorio ma spesso vantaggioso. Ricordare i messaggi precedenti rende le risposte future più pertinenti.
  • Contesto: Qualsiasi testo significativo può servire da contesto. La scelta più comune è collegare la conoscenza dai retriever.
  • Input: Solo il componente Chat Input può essere collegato qui.

L’output di questo componente è un testo che può essere collegato a vari componenti. Nella maggior parte dei casi, si prosegue subito con il componente Generatore per collegare il prompt a un LLM.

Esempio

Creiamo un bot molto semplice. Amplieremo l’esempio del bot cavaliere medievale visto prima. Anche se parla in modo buffo, la sua missione principale è essere un bot di assistenza clienti utile e vogliamo che dia informazioni pertinenti.

Facciamo una domanda tipica di customer service al nostro bot. Chiederemo il prezzo di URLsLab. Per ottenere una risposta corretta, dobbiamo:

  • Dargli un contesto: In questo esempio, usiamo il componente URL retriever per fornirgli una pagina con tutte le informazioni necessarie.
  • Collegare l’input: L’input è sempre il messaggio umano dal componente Chat Input.
  • Cronologia chat: È opzionale, ma colleghiamola per questo caso specifico.
  • Template: Manteniamo il prompt, “Sei un bot di assistenza clienti utile che parla come un cavaliere medievale.”. I prompt possono essere molto più elaborati. Consulta la nostra libreria di prompt per ispirazione.
  • Aggiungi Generatore: Vogliamo che il bot abbia capacità conversazionali. Per farlo, collega il Generatore. Il Prompt serve da input per il generatore.

Il flusso risultante sarà simile a questo:

Result flow using Prompt component in FlowHunt

È il momento di testare la conoscenza del nostro bot cavaliere medievale. L’URL che gli abbiamo fornito contiene i prezzi di URLsLab. Quindi chiediamoglielo:

Flowhunt bot answers according to Prompt

Ora il nostro bot risponde alle domande di base con un linguaggio pomposo d’altri tempi. Ma, cosa più importante, il bot aderisce al suo ruolo centrale di assistente clienti utile e utilizza con successo le informazioni dell’URL specificato.

Esempi di modelli di flusso che utilizzano il componente Componente Prompt in FlowHunt

Per aiutarti a iniziare rapidamente, abbiamo preparato diversi modelli di flusso di esempio che mostrano come utilizzare efficacemente il componente Componente Prompt in FlowHunt. Questi modelli presentano diversi casi d'uso e best practice, rendendo più facile per te comprendere e implementare il componente nei tuoi progetti.

Precedente Successivo

Domande frequenti

Cos’è il componente Prompt?

Il componente Prompt fornisce al bot istruzioni e contesto, assicurando che risponda nel modo desiderato.

Devo sempre includere Prompt nei miei flussi?

Includerlo in molti casi d’uso è un’ottima idea, ma il componente è opzionale.

Cos’è il messaggio di sistema?

È un campo di testo modificabile in cui imposti la personalità e il ruolo del bot. Basta compilare il template: 'Sei un {role} che {behavior}.' Ad esempio, 'Sei un bot di assistenza clienti utile che parla come un cavaliere medievale.'

Devo sempre includere Prompt nei miei flussi?

Sicuramente è una buona idea includerlo in molti casi d’uso, ma il componente è opzionale.

Prova il componente Prompt di FlowHunt

Inizia a costruire chatbot AI personalizzati e contestualizzati con l’intuitiva funzione Prompt di FlowHunt. Definisci ruoli, comportamenti e controlla l’output per automazioni più intelligenti.

Scopri di più