KI-Kundensupport-Agent mit LiveAgent-API-Integration

Dieser KI-gestützte Workflow automatisiert den Kundensupport, indem er Benutzeranfragen mit Wissensquellen des Unternehmens, externen APIs (wie LiveAgent) und einem Sprachmodell verbindet, um professionelle, freundliche und hochrelevante Antworten zu liefern. Der Flow ruft die Gesprächshistorie ab, nutzt Dokumentensuche und interagiert mit externen Systemen, um prägnante, strukturierte Antworten zu geben und eskaliert bei Bedarf an den menschlichen Support. Ideal für Unternehmen, die Support, Produktempfehlungen und Informationsbereitstellung optimieren möchten.

So funktioniert der KI-Flow - KI-Kundensupport-Agent mit LiveAgent-API-Integration

Flows

So funktioniert der KI-Flow

Kundenanfrage erfassen und strukturieren.
Erfasst die Frage oder das Anliegen des Nutzers, bereitet dynamische API-Anfragen und Kontext mithilfe von Prompt-Vorlagen vor und strukturiert die initialen Dateneingaben.
Externe Systeme abfragen und Daten abrufen.
Sendet Anfragen an externe Kundensupport-APIs (z. B. LiveAgent) und sammelt Konto- oder Gesprächsdaten, die zur Lösung des Kundenanliegens benötigt werden.
Relevanten Kontext extrahieren und generieren.
Verarbeitet die abgerufenen Daten, extrahiert Schlüsselinformationen und nutzt ein LLM, um den Kontext der Kundenanfrage für präzisen Support zu generieren oder zu verfeinern.
KI-Agent antwortet mit Wissensdatenbank und Tools.
Ein KI-Agent nutzt Unternehmenswissensquellen, Dokumentenrecherche-Tools, Gesprächshistorie und das Sprachmodell, um prägnante, professionelle Antworten oder Empfehlungen zu formulieren.
Dem Kunden antworten oder eskalieren.
Übermittelt die KI-generierte Antwort in strukturierter Form an den Kunden und eskaliert an einen menschlichen Agenten, falls die Anfrage nicht automatisch gelöst werden kann.

In diesem Flow verwendete Prompts

Nachfolgend finden Sie eine vollständige Liste aller in diesem Flow verwendeten Prompts, um dessen Funktionalität zu gewährleisten. Prompts sind die Anweisungen, die dem KI-Modell gegeben werden, um Antworten zu generieren oder Aktionen auszuführen. Sie leiten die KI dabei, die Absicht des Benutzers zu verstehen und relevante Ausgaben zu generieren.

Tool Calling Agent

System-Prompt für den Agenten, als Kundenservice- und Shopping-Assistent für *YOURCOMPANY* auf Slowakisch zu agieren, inklusive Verhaltensregeln und Tool-Nutzun...

                You are an AI language model assistant acting as a friendly and professional customer support and shopping assistant for<u> *YOURCOMPANY*</u>

You respond in Slovak language by default, or in the customer's input language if detected to be different than Slovak. AND ALWAYS USE EMAIL TONE AND FORMAT.

<u>Your role:</u>

You combine the responsibilities of technical customer support and product recommendation assistant. You help customers solve issues, make decisions, and complete purchases related to <u>*YOURCOMPANY*</u> products and services. Your tone is always friendly and professional, and your goal is to ensure the customer feels understood, supported, and confident in their next step.

<u>Your Goal:</u>

you receive conversation history and the most recent user query you goal is to answer the most recent query based on the tools at your disposal.&#x20;

<u>Identify intent and provide answers:</u>

First source: ALWAYS SEARCH THE knowledge_source_tool TO ANSWER USER'S QUESTION AND NEVER ANSWER FROM YOURSELF.

Second source: Always use the Document Retriever tool to find context related to the question.

If relevant context is found:

Use it to provide accurate, concise answers.

Include ONLY RELEVANT URLs retrieved from the Document Retriever, never edit the url.

Never invent product names and category names. You can recognize a category by the fact that the page MUST contain a list of different products.; use only those available in your knowledge base.

Follow the information exactly as stated in the reference.

If no relevant context is found and the question is about <u>*YOURCOMPANY*</u>:

Ask polite clarifying questions to gather more details.

If still unresolved, use the Contact Human Assist tool to transfer to a human support agent.

If the customer’s message is unclear or incomplete:

Do not guess — always ask for more information before answering.

If the customer shows interest in a specific product:

Let them know that pricing and ordering is quick and simple directly on the website.

They can configure the product (dimensions, extras, quantity…) and see the price immediately and the production time.

If the question is about production time, always include express options if available.

For inquiries not related to <u>*YOURCOMPANY*</u>:

Politely inform the customer that you only provide support for <u>*YOURCOMPANY*</u>.

Suggest contacting the appropriate business support team at [<u>*YOURCOMPANY*</u>@EMAIL.EMAIL](mailto:YOURCOMPANY@EMAIL.EMAIL)

<u>Resource Utilization:</u>

Use the Document Retriever to search for knowledge relevant to the customer question.

Use the Contact Human Assist tool to escalate if needed.

Use the Document Retriever to provide valid product or info links - NEVER invent or assume URLs

<u>Formatting:</u>

Your tone is always friendly, clear, and professional.

The answers should be SHORT - max. about 100-200 tokens.

Use structured formatting:

Short paragraphs

Bold text for emphasis

Bullet points where appropriate

Emojis to make the messages more engaging 😊

Write in plain text format. Do not use markdown.

            

In diesem Flow verwendete Komponenten

Nachfolgend finden Sie eine vollständige Liste aller Komponenten, die in diesem Flow verwendet werden, um seine Funktionalität zu gewährleisten. Komponenten sind die Bausteine jedes KI-Flows. Sie ermöglichen es Ihnen, komplexe Interaktionen zu erstellen und Aufgaben zu automatisieren, indem verschiedene Funktionalitäten verbunden werden. Jede Komponente dient einem bestimmten Zweck, wie z.B. der Verarbeitung von Benutzereingaben, der Datenverarbeitung oder der Integration mit externen Diensten.

ChatInput

Die Chat Input-Komponente in FlowHunt initiiert Benutzerinteraktionen, indem sie Nachrichten aus dem Playground erfasst. Sie dient als Startpunkt für Flows und ermöglicht die Verarbeitung von Text- und dateibasierten Eingaben im Workflow.

Prompt-Komponente in FlowHunt

Erfahren Sie, wie die Prompt-Komponente von FlowHunt es ermöglicht, die Rolle und das Verhalten Ihres KI-Bots zu definieren und so relevante, personalisierte Antworten sicherstellt. Passen Sie Prompts und Vorlagen an, um effektive, kontextbewusste Chatbot-Flows zu erstellen.

API-Anfrage

Integrieren Sie externe Daten und Dienste in Ihren Workflow mit der API-Anfrage-Komponente. Senden Sie mühelos HTTP-Anfragen, setzen Sie benutzerdefinierte Header, Body und Query-Parameter und nutzen Sie verschiedene Methoden wie GET und POST. Unverzichtbar, um Ihre Automatisierungen mit jeder Web-API oder jedem Dienst zu verbinden.

Daten erstellen

Die Komponente 'Daten erstellen' ermöglicht das dynamische Generieren strukturierter Datensätze mit einer anpassbaren Anzahl an Feldern. Ideal für Workflows, die das Erstellen neuer Datenobjekte in Echtzeit erfordern – mit flexibler Feldkonfiguration und nahtloser Integration in weitere Automatisierungsschritte.

Daten parsen

Die Komponente 'Daten parsen' wandelt strukturierte Daten mithilfe anpassbarer Vorlagen in Klartext um. Sie ermöglicht eine flexible Formatierung und Konvertierung von Dateneingaben für die weitere Verwendung im Workflow und hilft, Informationen zu standardisieren oder für nachgelagerte Komponenten vorzubereiten.

Generator

Entdecken Sie die Komponente Generator in FlowHunt – leistungsstarke, KI-gesteuerte Textgenerierung mit Ihrem gewählten LLM-Modell. Erstellen Sie mühelos dynamische Chatbot-Antworten, indem Sie Prompts, optionale Systemanweisungen und sogar Bilder als Eingabe kombinieren. So wird es zu einem zentralen Werkzeug für den Aufbau intelligenter, konversationeller Workflows.

LLM OpenAI

FlowHunt unterstützt Dutzende von Textgenerierungsmodellen, darunter Modelle von OpenAI. So verwenden Sie ChatGPT in Ihren AI-Tools und Chatbots.

Tool Calling Agent

Entdecken Sie den Tool Calling Agent in FlowHunt – eine fortschrittliche Workflow-Komponente, die es KI-Agenten ermöglicht, externe Tools intelligent auszuwählen und zu nutzen, um komplexe Anfragen zu beantworten. Perfekt für den Aufbau intelligenter KI-Lösungen, die dynamische Tool-Nutzung, iteratives Denken und die Integration mehrerer Ressourcen erfordern.

Dokumenten-Retriever

FlowHunts Dokumenten-Retriever verbessert die Genauigkeit von KI, indem generative Modelle mit Ihren eigenen aktuellen Dokumenten und URLs verbunden werden. So erhalten Sie zuverlässige und relevante Antworten durch Retrieval-Augmented Generation (RAG).

Chatverlauf-Komponente

Die Chatverlauf-Komponente in FlowHunt ermöglicht es Chatbots, sich an vorherige Nachrichten zu erinnern. So werden zusammenhängende Gespräche und ein verbessertes Kundenerlebnis gewährleistet, während Speicher und Token-Nutzung optimiert werden.

Chat-Ausgabe

Entdecken Sie die Chat-Ausgabe-Komponente in FlowHunt – finalisieren Sie Chatbot-Antworten mit flexiblen, mehrteiligen Ausgaben. Unverzichtbar für nahtlose Flow-Abschlüsse und die Erstellung fortschrittlicher, interaktiver KI-Chatbots.

Flow-Beschreibung

Zweck und Vorteile

Dieser Workflow wurde entwickelt, um den Prozess des Kundensupports und der Produktempfehlung zu automatisieren, zu optimieren und zu skalieren – mittels API-Integrationen, Dokumentenrecherche, Sprachmodellen und dynamischer Datenverarbeitung. Nachfolgend finden Sie eine detaillierte Übersicht über den Aufbau, die Komponenten und die bereitgestellte Automatisierung.

Überblick und Zweck

Das Hauptziel des Flows ist es, als intelligenter, automatisierter Kundenservice- und Shopping-Assistent für ein Unternehmen zu agieren – unter Einsatz fortschrittlicher KI (OpenAI LLMs), dynamischer Prompt-Erstellung, API-Aufrufen und Dokumentenrecherche. Er ist darauf ausgelegt, Kundenanfragen zu beantworten, relevantes Wissen abzurufen, Produkte zu empfehlen und bei Bedarf an menschliche Agenten zu eskalieren – stets in freundlichem, professionellem Ton und mit strukturierter Ausgabe.

Ein solcher Workflow ermöglicht skalierbare und konsistente Kundeninteraktion, reduziert manuellen Aufwand und garantiert qualitativ hochwertige Support-Antworten selbst bei wachsender Nachfrage.


Aufbau des Workflows und zentrale Schritte

1. Eingabe und Chatverlauf

  • Die Chat Input-Node sammelt Benutzernachrichten und Dateianhänge als Ausgangspunkt.
  • Die Chat History-Node ruft die letzten N Nachrichten ab und stellt Gesprächskontext bereit, um personalisierte, kontextbezogene Antworten zu ermöglichen.

2. Prompt-Erstellung

  • Prompt Templates generieren dynamisch API-URLs mittels Benutzereingaben und Chatverlauf. Zum Beispiel:
    • Eine Vorlage erstellt eine URL zum Abruf von Konversationsdaten aus LiveAgent (ersetzen Sie YOURLINK durch Ihre tatsächliche Domain).
    • Eine weitere Vorlage wird genutzt, um neue Nachrichten an LiveAgent zu senden.
  • Notizen dienen als Erinnerung, API-Keys einzufügen oder den LiveAgent-Link in den Vorlagen zu aktualisieren.

3. API-Anfragen

  • Der Workflow verwendet zwei API Request-Nodes:
    • Eine zum Abrufen von Konversationsinformationen (GET-Anfragen).
    • Eine andere zum Senden von Nachrichten oder Interaktionen mit der Konversation (POST-Anfragen).
  • Create Data-Nodes erstellen die erforderlichen Query-Parameter oder Body-Daten dynamisch für diese API-Aufrufe (z. B. Einfügen von API-Keys oder Nachrichteninhalten).

4. Daten-Parsing und -Verarbeitung

  • Parse Data-Nodes wandeln API-Antworten aus strukturierten Daten in Klartext um, optional unter Verwendung von Templates für das Formatieren.
  • Dadurch werden die Ausgaben der API-Aufrufe für die weitere KI-Verarbeitung oder zur Anzeige für den Nutzer aufbereitet.

5. Wissensabruf

  • Der Document Retriever ist ein integriertes Tool, das in der Wissensdatenbank oder Dokumentation des Unternehmens nach der Benutzeranfrage sucht und die relevantesten Dokumente, Ausschnitte oder Links zurückgibt.
  • Er stellt der KI einen Wissensfundus als Referenz zur Verfügung – so bleiben Antworten im Unternehmenskontext fundiert.

6. KI-Generierung und Nachbearbeitung

  • LLM OpenAI-Nodes (zwei mit unterschiedlichen Konfigurationen) bieten Zugang zu großen Sprachmodellen (z. B. GPT-4.1) für die Antwortgenerierung und das Extrahieren strukturierter Informationen.
  • Die Generator-Node nutzt das LLM, um spezifische Bereiche (z. B. “Preview”) aus den verarbeiteten API-Antworten zu extrahieren.

7. Agenten-orchestriertes Reasoning

  • Der Tool Calling Agent ist die zentrale Reasoning-Engine:
    • Erhält aufbereitete Eingaben, Chatverlauf und Zugriff auf Tools (wie Document Retriever).
    • Nutzt ein umfassendes Systemprompt, damit Antworten den Unternehmensrichtlinien, Tonalität und Struktur folgen.
    • Entscheidet dynamisch, ob aus der Wissensdatenbank geantwortet, Rückfragen gestellt oder an einen menschlichen Agenten eskaliert werden soll.
    • Garantiert eine prägnante (100–200 Tokens), gut formatierte Ausgabe in der bevorzugten Sprache des Kunden.

8. Ausgabeanzeige

  • Chat Output-Nodes zeigen die finale KI-generierte oder verarbeitete Nachricht an den Nutzer an.
  • Der Workflow unterstützt mehrere Ausgabepunkte für verschiedene Phasen (z. B. nach KI-Generierung, nach Agenten-Reasoning usw.).

Komponentenbeziehungen (vereinfachte Tabelle)

SchrittEingabe(n)Ausgabe(n)Zweck
Chat InputBenutzernachrichtNachrichtEinstiegspunkt für Nutzeranfragen
Chat History-ChatverlaufStellt Kontext für personalisierte Antworten bereit
Prompt TemplatesBenutzereingabe, ChatverlaufAPI-URLs (als Text)Baut dynamisch URLs für API-Aufrufe
Create Data-Query-/Body-DatenErstellt erforderliche Daten für API-Anfragen
API RequestURL, Params/BodyAPI-AntwortdatenHolt oder sendet Daten an externen Dienst (z. B. LiveAgent)
Parse DataAPI-AntwortTextWandelt strukturierte Daten in Klartext für LLM oder Nutzer um
LLM OpenAIPrompt, ParameterKI-generierter TextErstellt Text, extrahiert Informationen
GeneratorText, ModellVerarbeiteter TextExtrahiert bestimmte Infos (z. B. “Preview”) aus Input
Document RetrieverAnfrageDokumente/ToolFindet relevante Infos in der Wissensdatenbank
Tool Calling AgentInput, Tools, Verlauf, ModellBegründete NachrichtOrchestriert Antwort, Tool-Nutzung, Eskalation, Formatierung
Chat OutputNachricht-Zeigt Nachricht dem Nutzer an

Warum dieser Flow für Automatisierung und Skalierung nützlich ist

  • Konsistenz: Garantiert, dass jeder Kunde akkurate, richtlinienkonforme und markengerechte Antworten erhält – unabhängig vom Volumen.
  • Skalierbarkeit: Bewältigt unbegrenzt parallele Gespräche, indem KI und automatisierte Tools statt ausschließlich menschlicher Agenten eingesetzt werden.
  • Effizienz: Reduziert manuelle Arbeit für Agenten durch automatisierte Wissenssuche, Antwortgenerierung und sogar Eskalationslogik.
  • Personalisierung: Integriert Chatverlauf und Kontext für maßgeschneiderte Antworten.
  • Erweiterbarkeit: Leicht anpassbar durch Änderung von Prompt-Vorlagen, Hinzufügen neuer API-Integrationen oder Aktualisieren von Wissensquellen.
  • Mehrsprachigkeit: Der KI-Agent kann in der bevorzugten Sprache des Kunden antworten und verbessert so das Nutzererlebnis.

Highlights der Automatisierungslogik

  • Dynamische Eingabeverarbeitung: Der Flow passt API-Aufrufe und Wissensanfragen live an die Nutzereingabe und den Gesprächskontext an.
  • Konditioniertes Reasoning: Der Agent entscheidet für jede Antwort die optimale Quelle (Wissensdatenbank, API oder menschliche Eskalation).
  • Strukturierte Ausgabe: Erzwingt kurze, gut formatierte und ansprechende Antworten, inklusive Aufzählungen, Fettdruck und Emojis.
  • Sicherheit: Erinnerungen, API-Keys sicher einzufügen und unternehmensspezifische Links zu aktualisieren.
  • Feedbackschleifen: Der Agent kann Rückfragen stellen oder an den menschlichen Support eskalieren, wenn die Automatisierung das Anliegen nicht lösen kann.

Zusammenfassung

Dieser Workflow ist eine robuste, modulare Automatisierung für KI-gestützten Kundensupport und Produktempfehlung. Er kombiniert Chat-Eingabe, dynamische API-Integration, Dokumentenrecherche und fortschrittliche Sprachmodelle unter einem orchestrierten Agenten. Durch Automatisierung repetitiver Aufgaben und KI-gestütztes Reasoning ermöglicht er Ihrem Support-Team eine effiziente Skalierung bei gleichbleibend hohem Service- und Personalisierungsstandard.

Lassen Sie uns Ihr eigenes KI-Team aufbauen

Wir helfen Unternehmen wie Ihrem, intelligente Chatbots, MCP-Server, KI-Tools oder andere Arten von KI-Automatisierungen zu entwickeln, um Menschen bei sich wiederholenden Aufgaben in Ihrer Organisation zu ersetzen.

Mehr erfahren

Shopify Produktbeschreibung-Optimierer
Shopify Produktbeschreibung-Optimierer

Shopify Produktbeschreibung-Optimierer

Dieser KI-gestützte Workflow optimiert Shopify-Produktbeschreibungen basierend auf dem vom Nutzer angegebenen Produktnamen oder der Produkt-URL. Er nutzt große ...

3 Min. Lesezeit
Shopify KI-Kundensupport-Agent
Shopify KI-Kundensupport-Agent

Shopify KI-Kundensupport-Agent

Ein Workflow für einen KI-gestützten Kundendienst-Agenten, der Anfragen zu Shopify-Produkten beantworten, den Bestellstatus abrufen und Informationen aus intern...

4 Min. Lesezeit
KI-Kundenservice-Chatbot mit Übergabe an Menschen
KI-Kundenservice-Chatbot mit Übergabe an Menschen

KI-Kundenservice-Chatbot mit Übergabe an Menschen

Ein KI-gestützter Kundenservice-Chatbot, der Benutzer automatisch unterstützt, Informationen aus internen Dokumenten und dem Web abruft und bei Bedarf nahtlos a...

3 Min. Lesezeit