Description du flux
Objectif et avantages
Vue d’ensemble
Ce workflow automatise le processus de récupération de messages clients depuis un système de ticket ou de support, extrait le dernier message pertinent, l’enrichit avec du contexte et l’historique de conversation, puis exploite une IA avancée (LLMs) combinée à des outils de connaissance pour générer des réponses professionnelles et multilingues en assistance client. Le processus prépare ensuite ces réponses et les envoie vers les systèmes externes, ce qui le rend idéal pour industrialiser et automatiser l’assistance client, la recherche de connaissances et l’intégration d’API externes.
Décomposition étape par étape
1. Acquisition et préparation des entrées
- Entrée chat : Le workflow peut recevoir directement les messages de chat entrants.
- Création de prompt pour l’API : Le système utilise un modèle de prompt pour construire dynamiquement l’URL permettant de récupérer les messages de tickets via une API externe (ex :
https://arshiakahani.ladesk.com/api/v3/tickets/{input}/messages
). Cela permet une récupération flexible selon les données utilisateur entrantes. - Construction des paramètres de requête : Un nœud de création de données est utilisé pour construire dynamiquement les paramètres de requête nécessaires à la requête API.
2. Récupération de données externes
- Requête API : À l’aide de l’URL et des paramètres de requête construits, le workflow envoie une requête GET pour récupérer l’historique des messages du ticket depuis un système de ticketing externe. L’authentification par clé API est prise en charge via les headers.
- Analyse des données récupérées : Une fois les données retournées par l’API, un nœud de parsing structure et convertit ces données en texte brut à l’aide de modèles, les rendant adaptées au traitement en aval par l’IA.
- Extraction basée LLM : Un OpenAI LLM (ex : GPT-4.1) est utilisé avec un prompt système pour extraire uniquement le dernier message utilisateur à partir des données du ticket (spécifiquement les messages de type “M”) — garantissant que seul le contenu pertinent soit traité par la suite.
- Enrichissement du prompt : Le message extrait et le contexte de chat sont insérés dans un prompt sophistiqué incluant l’historique de la conversation et la segmentation du dernier message, préparant l’entrée pour l’agent principal d’assistance.
4. Augmentation des connaissances
- Historique de chat : Le système peut consulter les N derniers messages de la conversation pour fournir continuité et contexte enrichi.
- Recherche documentaire : Un extracteur de documents recherche dans les bases de connaissances internes/externes (incluant éventuellement Google Docs) les informations pertinentes pour répondre à la demande du client. Ceci est essentiel pour ancrer les réponses dans des connaissances à jour et fiables.
- Intégration d’outils : L’extracteur de documents et l’extracteur Google Docs sont tous deux enregistrés comme « outils » disponibles pour l’agent, permettant une recherche dynamique lors de la génération de la réponse.
5. Génération de la réponse par l’agent
- Agent appelant des outils : Au cœur du système se trouve un agent d’appel d’outils (propulsé par un LLM), qui reçoit le prompt enrichi, l’historique du chat et l’accès aux outils de connaissances. Son rôle est de déterminer l’intention utilisateur, rechercher dans la base de connaissances/outils les réponses et composer une réponse concise, amicale et professionnelle.
- L’agent répond toujours par défaut en slovaque ou bascule dans la langue du client si elle est détectée.
- Le format structuré est appliqué : paragraphes courts, mise en gras pour l’emphase, listes à puces et émojis pour l’engagement.
- L’agent privilégie l’utilisation des connaissances récupérées, n’invente jamais de faits ou d’URL, pose des questions de clarification si besoin et transfère les cas non résolus à un agent humain.
- Toutes les réponses respectent le ton et la structure de l’assistance client, adaptées à une communication par email.
6. Post-traitement et sortie
- Mise en forme de la réponse : La réponse de l’agent est ensuite traitée via des modèles de prompt pour construire une sortie multilingue (ex : incluant le slovaque et la langue du client).
- Génération LLM : Un autre nœud LLM peut générer ou traduire des portions de la sortie si nécessaire.
- Intégration API pour messages sortants : Le workflow construit dynamiquement les objets de données pour les requêtes API sortantes, emballe la réponse générée et l’envoie (généralement via POST) au système externe concerné.
- Parsing et sortie finale : Les réponses API sortantes peuvent être analysées et affichées dans l’espace de chat ou renvoyées à l’interface utilisateur.
Principaux composants et leur rôle
Composant | Rôle |
---|
Entrée Chat | Accepte les messages utilisateur/client |
Modèle de Prompt | Construit dynamiquement URLs et prompts de messages |
Requête API | Récupère les données/messages de tickets du système externe |
Analyse de Données | Convertit les données structurées en texte brut |
OpenAI LLM | Extrait les messages pertinents, génère ou traduit des réponses |
Extracteur de Documents | Recherche dans la base de connaissances |
Extracteur Google Docs | Intègre des docs externes pour l’agent |
Agent appelant d’outils | Agent IA central — exploite outils et historique de chat |
Création de Données | Prépare les réponses et données pour les requêtes API sortantes |
Sortie Chat | Affiche le résultat final à l’utilisateur ou au système |
Notes | Conseils opérateur (ex : où saisir les clés API/URLs) |
Cas d’usage & bénéfices
- Support client automatisé : Rationalise l’extraction, l’enrichissement et la réponse aux demandes avec des réponses professionnelles, précises et contextualisées.
- Support multilingue : Détecte et répond automatiquement dans la langue du client, avec traduction et mise en forme gérées par le workflow.
- Gestion de connaissances évolutive : Intègre plusieurs sources (docs internes, Google Docs, etc.) pour des réponses exhaustives et à jour.
- Intégration fluide de systèmes externes : Se connecte facilement à diverses API pour les actions entrantes (messages) et sortantes (réponses).
- Transfert humain en cas de besoin : Transfère automatiquement les cas non résolus ou ambigus à un agent humain, garantissant une assistance de qualité.
Pourquoi ce workflow est utile pour l’automatisation et la montée en charge
- Réduction du travail manuel : En automatisant la récupération de données, l’extraction des messages, la construction du contexte et la génération de réponses, il minimise l’intervention humaine sur les demandes courantes.
- Cohérence & qualité : Garantit que toutes les communications clients respectent le ton, le format et l’exactitude de l’information, quel que soit l’agent ou l’horaire.
- Adaptation rapide : Se connecte facilement à de nouvelles sources ou APIs, s’adapte à de nouvelles langues et peut monter en charge pour des volumes plus élevés avec peu de configuration supplémentaire.
- Satisfaction client accrue : Des réponses rapides, pertinentes et amicales — adaptées à chaque langue et demande — pour de meilleures expériences et fidélisation.
Flux visuel (simplifié)
Voici une représentation schématique simplifiée des principales étapes :
- Entrée Chat / Requête API →
- Récupérer les messages du ticket (Requête API) →
- Analyse des données →
- Extraction du dernier message utilisateur (LLM) →
- Enrichir le prompt avec contexte & historique →
- Recherche documentaire (Extracteur/Google Docs) →
- Agent IA génère la réponse →
- Mise en forme/Traduction/Envoi de la réponse (Requête API) →
- Affichage/Livraison de la sortie
Ce workflow constitue une base robuste pour toute organisation souhaitant automatiser et faire passer à l’échelle son support client, son assistance technique ou ses processus de diffusion d’information nécessitant l’intégration à des APIs externes, des bases de connaissances et des réponses IA avancées.