Descrizione del flusso
Scopo e benefici
Panoramica
Questo workflow automatizza il processo di recupero dei messaggi dei clienti da un sistema di ticketing o di supporto, estraendo il messaggio più recente e rilevante, arricchendolo con il contesto e la cronologia chat, e sfruttando l’intelligenza artificiale avanzata (LLM) combinata con strumenti di conoscenza per generare risposte professionali e multilingue di supporto clienti. Il processo poi prepara e invia queste risposte ai sistemi esterni, rendendolo ideale per scalare e automatizzare il supporto clienti, il recupero della conoscenza e l’integrazione con API esterne.
Scomposizione Passo-Passo
- Input Chat: Il workflow può ricevere direttamente messaggi in arrivo dalla chat.
- Creazione Prompt per API: Il sistema utilizza un template di prompt per costruire dinamicamente l’URL per il recupero dei messaggi del ticket da un’API esterna (es.
https://arshiakahani.ladesk.com/api/v3/tickets/{input}/messages
). Questo consente un recupero flessibile basato sui dati forniti dall’utente. - Costruzione Parametri Query: Un nodo di creazione dati viene usato per costruire dinamicamente i parametri di query necessari per la richiesta API.
2. Recupero Dati Esterni
- Richiesta API: Utilizzando l’URL e i parametri di query costruiti, il workflow invia una richiesta GET per recuperare la cronologia dei messaggi del ticket da un sistema di ticketing esterno. L’autenticazione tramite API key è supportata via header.
- Parsing dei Dati Recuperati: Una volta che l’API restituisce i dati, un nodo parser struttura e converte questi dati in testo semplice tramite template, rendendoli adatti all’elaborazione AI a valle.
3. Estrazione e Pre-elaborazione del Messaggio
- Estrazione tramite LLM: Un LLM OpenAI (es. GPT-4.1) viene utilizzato con un system prompt per estrarre solo l’ultimo messaggio utente dai dati del ticket (specificamente i messaggi di tipo “M”)—garantendo che solo i contenuti rilevanti vengano processati.
- Arricchimento del Prompt: Il messaggio estratto e il contesto chat vengono inseriti in un sofisticato prompt template che include la segmentazione della cronologia conversazione e dell’ultimo messaggio, preparando l’input per l’agente principale di supporto.
4. Arricchimento della Conoscenza
- Cronologia Chat: Il sistema può recuperare gli ultimi N messaggi della conversazione per fornire continuità e contesto più ricco.
- Recupero Documenti: Uno strumento document retriever ricerca nella base di conoscenza interna/esterna (opzionalmente inclusi Google Docs) le informazioni rilevanti per rispondere alla richiesta del cliente. Questo è essenziale per fondare le risposte su conoscenza aggiornata e accurata.
- Integrazione degli Strumenti: Sia il document retriever che il Google Docs retriever sono registrati come “tools” disponibili all’agente, consentendo ricerche dinamiche durante la generazione della risposta.
5. Generazione della Risposta Guidata dall’Agente
- Tool Calling Agent: Al centro vi è un Tool Calling Agent (alimentato da un LLM), che riceve il prompt arricchito, la cronologia chat e l’accesso agli strumenti di conoscenza. Il suo ruolo è determinare l’intento dell’utente, cercare la risposta nella base di conoscenza/strumenti e comporre una risposta concisa, cordiale e professionale.
- L’agente risponde sempre di default in slovacco, oppure passa alla lingua del cliente se rilevata diversa.
- La formattazione strutturata è obbligatoria: paragrafi brevi, grassetto per enfasi, punti elenco, ed emoji per coinvolgimento.
- L’agente dà priorità all’uso della conoscenza recuperata, non inventa mai fatti o URL, chiede chiarimenti se necessario, ed esegue escalation agli agenti umani per problemi non risolti.
- Tutte le risposte rispettano il tono e la struttura del supporto clienti, adatte alla comunicazione via email.
6. Post-elaborazione e Output
- Formattazione della Risposta: La risposta dell’agente viene ulteriormente processata tramite template di prompt per costruire l’output multilingue (es. includendo sia lo slovacco che la lingua originale del cliente).
- Generazione LLM: Un altro nodo LLM può generare o tradurre parti dell’output secondo necessità.
- Integrazione API per Messaggi in Uscita: Il workflow costruisce dinamicamente oggetti dati per le richieste API in uscita, impacchetta la risposta generata e la invia (tipicamente via POST) al sistema esterno pertinente.
- Parsing e Output Finale: Le risposte API in uscita possono essere elaborate e visualizzate nella chat playground o restituite all’interfaccia utente.
Componenti Chiave & Scopo
Componente | Scopo |
---|
Input Chat | Riceve i messaggi utente/cliente |
Prompt Template | Costruisce dinamicamente URL e prompt dei messaggi |
Richiesta API | Recupera dati/messaggi del ticket da sistemi esterni |
Parse Data | Converte dati strutturati in testo semplice |
OpenAI LLM | Estrae messaggi rilevanti, genera o traduce risposte |
Document Retriever | Cerca informazioni rilevanti nella base di conoscenza |
Google Docs Retriever | Integra documenti esterni come conoscenza per l’agente |
Tool Calling Agent | Agente AI centrale—usa strumenti e cronologia chat |
Create Data | Prepara risposte e dati per richieste API in uscita |
Output Chat | Mostra il risultato finale all’utente o al sistema |
Note | Fornisce istruzioni all’operatore (es. dove inserire API key/URL) |
Casi d’Uso & Benefici
- Supporto Clienti Automatizzato: Semplifica il processo di estrazione, arricchimento e risposta alle richieste clienti con risposte professionali, accurate e consapevoli del contesto.
- Supporto Multilingue: Rileva e risponde automaticamente nella lingua del cliente, con traduzione e formattazione gestite dal workflow.
- Gestione della Conoscenza Scalabile: Integra più fonti di conoscenza (documenti interni, Google Docs, ecc.) per risposte complete e aggiornate.
- Integrazione Agevole con Sistemi Esterni: Si collega facilmente a varie API sia per azioni in entrata (recupero messaggi) che in uscita (invio risposte).
- Escalation con Intervento Umano: Inoltra automaticamente i casi non risolti o poco chiari agli agenti umani, garantendo un supporto di alta qualità.
Perché Questo Workflow è Utile per la Scalabilità & l’Automazione
- Riduce il Lavoro Manuale: Automatizzando il recupero dati, l’estrazione dei messaggi, la costruzione del contesto e la generazione delle risposte, minimizza l’intervento umano per le richieste di supporto di routine.
- Coerenza & Qualità: Garantisce che tutte le comunicazioni con i clienti rispettino il tono, il formato e l’accuratezza delle informazioni dell’azienda, indipendentemente dall’agente o dal turno.
- Adattamento Rapido: Si collega facilmente a nuove fonti dati o API, si adatta a nuove lingue e può scalare per gestire volumi di supporto più elevati con poca configurazione aggiuntiva.
- Soddisfazione del Cliente Migliorata: Risposte rapide, pertinenti e cordiali—personalizzate sulla lingua e la richiesta di ogni cliente—portano a migliori esperienze e maggiore fidelizzazione.
Flusso Visivo (Semplificato)
Di seguito una rappresentazione semplificata delle principali fasi:
- Input Chat / Query API →
- Recupero Messaggi Ticket (Richiesta API) →
- Parsing Dati →
- Estrazione Ultimo Messaggio Utente (LLM) →
- Arricchimento Prompt con Contesto & Cronologia →
- Recupero Conoscenza (Document/Google Docs Retriever) →
- Generazione Risposta da Tool Calling Agent (LLM) →
- Formattazione/Traduzione/Invio Risposta (Richiesta API) →
- Visualizzazione/Consegna Output
Questo workflow rappresenta una base solida per qualsiasi organizzazione che desideri automatizzare e scalare il supporto clienti, assistenza tecnica o flussi di delivery informativa che richiedano integrazione con API esterne, basi di conoscenza e risposte AI avanzate.