Die Herausforderung: Untriagierte Low-Value-Tickets

Customer-Service-Teams fungieren zunehmend als Auffangbecken für jede noch so kleine Kundenfrage: Passwort-Resets, Adressänderungen, Lieferstatus, einfache How-tos. Diese Low-Value-Tickets benötigen selten menschliche Expertise, landen aber in denselben Queues wie komplexe Incidents. Ohne intelligente Triage und Deflection verbringen Agenten unverhältnismäßig viel Zeit mit Arbeit, die wenig Wert schafft.

Traditionelle Ansätze wie statische FAQs, einfache Kontaktformulare und manuelle Routing-Regeln halten nicht mehr mit. Kunden erwarten dialogfähige, sofortige Antworten – nicht lange Knowledge-Base-Artikel und mehrstufige Login-Flows. Regelbasierte Chatbots stoßen schnell an ihre Grenzen, wenn Kunden Anfragen anders formulieren oder mehrere Fragen kombinieren. Das Ergebnis: Kunden landen standardmäßig bei der Ticketerstellung, und das Versprechen von Self-Service wird nie eingelöst.

Die geschäftlichen Auswirkungen sind erheblich. Agentenqueues verstopfen, Bearbeitungszeiten steigen, und hochpriorisierte Themen warten hinter trivialen Anfragen. Die Anzahl der Mitarbeitenden wächst allein, um das Volumen zu bewältigen – obwohl ein großer Teil davon repetitiv ist. Das Management sieht, wie die Kosten pro Ticket steigen, während Kundenzufriedenheit und wahrgenommene Reaktionsgeschwindigkeit sinken. Gleichzeitig gehen wertvolle Erkenntnisse aus komplexen Fällen im Rauschen der Low-Value-Tickets unter.

Diese Situation ist frustrierend, aber nicht unvermeidlich. Mit moderner KI-gestützter Triage und Self-Service können viele einfache Anfragen gelöst werden, bevor sie überhaupt einen Agenten erreichen. Bei Reruption sehen wir, wie angewandte KI – mit technischer Tiefe und Geschwindigkeit implementiert – Support-Workflows von „Posteingang-Feuerwehr“ zu strukturierter, intelligenter Servicebereitstellung transformieren kann. In diesem Leitfaden finden Sie konkrete Schritte, wie Sie Gemini einsetzen, um Ihre Queues zurückzugewinnen und Ihr Team auf die Kundenprobleme zu fokussieren, die wirklich zählen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions praktischer Arbeit beim Aufbau von KI-Assistenten und Chatbots für den Kundenservice wissen wir: Tools wie Gemini entfalten ihre Wirkung vor allem dann, wenn sie als Teil eines neu gestalteten Support-Flows implementiert werden – nicht als kosmetisches Add-on. Geminis Stärken in der Verarbeitung natürlicher Sprache, Klassifikation und Inhaltserzeugung machen es besonders geeignet, Low-Value-Tickets automatisch zu triagieren und zu lösen, bevor sie Ihre Agenten belasten.

„Low-Value“ datenbasiert statt aus dem Bauch heraus definieren

Viele Organisationen stufen alle kurzen oder einfach klingenden Tickets als „Low-Value“ ein – und übersehen dabei Edge-Cases und Risiken. Bevor Sie Gemini für die Ticket-Triage einsetzen, sollten Sie historische Ticketdaten analysieren: Kategorien, Lösungszeiten, Eskalationen, Rückerstattungen und CSAT. Ziel ist eine klare, evidenzbasierte Definition, welche Anfragen wirklich sicher automatisiert oder in den Self-Service verschoben werden können.

Clustern Sie Betreffzeilen und Beschreibungen von Tickets und ordnen Sie sie dann ihrem geschäftlichen Impact zu. Ein Passwort-Reset mit Risiko einer Kontoübernahme ist etwas völlig anderes als eine einfache Bestellstatus-Abfrage. Diese analytische Denkweise stellt sicher, dass sich der KI-gestützte Self-Service auf den richtigen Ausschnitt der Tickets konzentriert und Sie davor schützt, Szenarien zu automatisieren, die immer von einem Menschen bearbeitet werden sollten.

KI-Triage als Layer entwerfen, nicht als separaten Kanal

Ein häufiger strategischer Fehler ist es, einen „KI-Chatbot“ als weiteren Support-Einstiegspunkt zu launchen und damit parallele Prozesse und Verwirrung zu schaffen. Besser ist es, die Gemini-basierte Triage als Schicht über all Ihren bestehenden Kanälen zu verstehen: Webformulare, Help Center, Mobile App und sogar E-Mail.

Strategisch bedeutet das, ein „Routing-Gehirn“ zu entwerfen, das die Nutzerintention einmal liest, den besten Pfad bewertet (Self-Service, KI-unterstützte Antwort oder Agent) und dann den Flow orchestriert. Agenten sehen wiederum denselben Kontext und KI-generierte Vorschläge in ihren bestehenden Tools. Dieser integrierte Ansatz maximiert die Deflection von Low-Value-Tickets und erhält gleichzeitig ein konsistentes Erlebnis.

Kundenerlebnis und Risikobereitschaft vor der Automatisierung abstimmen

Ticket-Deflection ist nicht nur eine Kostenfrage, sondern auch eine Entscheidung rund um Marke und Vertrauen. Das Management muss klare Leitplanken für den Einsatz von KI im Kundenservice setzen: Welche Themen dürfen niemals ohne einen Menschen gelöst werden, wie sensible Daten gehandhabt werden und welche Fehlerraten bei automatisierten Antworten akzeptabel sind.

Führen Sie gemeinsame Sessions zwischen Customer Service, Legal/Compliance und Produkt durch, um diese Guardrails zu definieren. Dieses gemeinsame Verständnis verhindert spätere Reibungen, wenn Gemini live ist, und vermeidet nervöse „Not-Aus-Schalter“, die die Adoption abwürgen. Wenn alle sich einig sind, dass z. B. Sendungsverfolgung und FAQ-Abfragen sicher automatisierbar sind, während Abrechnungsstreitigkeiten es nicht sind, kann die Implementierung deutlich schneller und mit weniger internem Widerstand vorangehen.

Ihre Agenten darauf vorbereiten, mit KI – nicht gegen sie – zu arbeiten

Wenn Low-Value-Tickets von Menschen weg verlagert werden, verändert sich die Arbeit Ihres Support-Teams. Statt endlose einfache Anfragen abzuarbeiten, werden Agenten weniger, aber komplexere und emotional aufgeladene Fälle bearbeiten. Strategisch müssen Sie sie auf KI-augmentierte Workflows vorbereiten, in denen Gemini Antworten vorschreibt, Historien zusammenfasst und Knowledge-Base-Artikel vorschlägt.

Investieren Sie in Enablement: Erklären Sie konzeptionell, wie Gemini funktioniert, wo seine Stärken und Schwächen liegen und wie qualitatives Feedback die Modelle verbessert. Positionieren Sie KI als Werkzeug, das „Fleißarbeit“ eliminiert – nicht als Bedrohung für Jobs. Aus unserer Erfahrung steigt die Akzeptanz deutlich, wenn Agenten sehen, dass Gemini repetitive Passwort-Reset-Konversationen eliminiert und sie dadurch sinnvolle Feedback-Loops beisteuern können.

Governance, Monitoring und kontinuierliche Optimierung von Anfang an einplanen

KI-Triage ist kein „Einmal konfigurieren und vergessen“-Feature. Damit die Gemini-Ticket-Deflection sicher und effektiv bleibt, benötigen Sie ein Governance-Modell, das Zuständigkeiten für Prompts, Richtlinien und Performance-Monitoring definiert. Dazu gehören klare KPIs wie Deflection-Rate, Containment-Rate, CSAT für KI-gelöste Interaktionen und Eskalationsgenauigkeit.

Etablieren Sie einen bereichsübergreifenden Review-Rhythmus, in dem Support Operations, Produkt und Data/KI-Verantwortliche Metriken und Beispiele von KI-Interaktionen prüfen. Dieser strategische Loop ermöglicht es, Prompts zu verfeinern, den Satz der automatisierbaren Low-Value-Tickets zu erweitern und schnell zu reagieren, wenn sich Kundenerwartungen oder Produkte ändern.

Gemini zur Triage und Deflection von Low-Value-Support-Tickets einzusetzen, ist am wirksamsten, wenn es als zentrale Service-Fähigkeit verstanden wird – nicht als Nebenprojekt. Mit klaren Definitionen dessen, was automatisiert werden darf, integriertem Routing über alle Kanäle und Agenten, die auf die Zusammenarbeit mit KI vorbereitet sind, können Sie erhebliche Kapazitäten freisetzen, ohne das Kundenerlebnis zu opfern. Reruption verbindet strategische Klarheit mit tiefgehender Engineering-Kompetenz, um diese Gemini-getriebenen Workflows in Ihrem bestehenden Stack zu entwerfen und umzusetzen; wenn Sie diesen Schritt prüfen, unterstützen wir Sie gerne mit einem fokussierten PoC und skalieren, was funktioniert.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Fintech bis Landwirtschaft: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Nubank (Pix Payments)

Fintech

Nubank, Lateinamerikas größte digitale Bank mit über 114 Millionen Kunden in Brasilien, Mexiko und Kolumbien, stand vor der Herausforderung, sein Pix-Sofortzahlungssystem angesichts explosionsartiger Nachfrage zu skalieren. Traditionelle Pix-Transaktionen erforderten, dass Nutzer sich manuell durch die App navigieren, was Reibung erzeugte — insbesondere bei schnellen Zahlungen unterwegs. Dieser Navigationsengpass erhöhte die Verarbeitungszeit und schränkte die Zugänglichkeit für Nutzer ein, die bevorzugt konversationelle Schnittstellen wie WhatsApp nutzen, über die 80% der Brasilianer täglich kommunizieren. Hinzu kam, dass die sichere und genaue Interpretation diverser Eingaben — Sprachbefehle, natürliche Texte und Bilder (z. B. handschriftliche Notizen oder Belege) — erhebliche Hürden darstellte. Nubank musste Probleme in der multimodalen Verständigung lösen, die Einhaltung der Vorgaben der Zentralbank Brasiliens sicherstellen und Vertrauen in einem finanziell sensiblen Umfeld bewahren, während täglich Millionen Transaktionen abgewickelt werden.

Lösung

Nubank setzte eine multimodale generative KI-Lösung ein, angetrieben durch OpenAI-Modelle, die es Kunden ermöglicht, Pix-Zahlungen per Sprachnachricht, Textanweisung oder Bild-Upload direkt in der App oder über WhatsApp zu initiieren. Die KI verarbeitet Speech-to-Text, Natural Language Processing zur Intent-Extraktion und optische Zeichenerkennung (OCR) für Bilder und wandelt diese in ausführbare Pix-Überweisungen um. Nahtlos in Nubanks Backend integriert, verifiziert das System die Nutzeridentität, extrahiert Schlüsseldaten wie Betrag und Empfänger und führt Transaktionen in Sekunden aus — ohne die traditionellen App-Bildschirme. Dieser KI-first-Ansatz erhöht Bequemlichkeit, Geschwindigkeit und Sicherheit und skaliert den Betrieb, ohne proportionalen menschlichen Aufwand zu benötigen.

Ergebnisse

  • 60% Reduktion der Transaktionsverarbeitungszeit
  • Bis Ende 2024 mit 2 Millionen Nutzern getestet
  • Bedient 114 Millionen Kunden in 3 Ländern
  • Tests begonnen im August 2024
  • Verarbeitet Sprach-, Text- und Bildeingaben für Pix
  • Ermöglicht Sofortzahlungen über WhatsApp-Integration
Fallstudie lesen →

Nubank

Fintech

Nubank, die größte digitale Bank Lateinamerikas, die 114 Millionen Kunden in Brasilien, Mexiko und Kolumbien betreut, stand unter enormem Druck, den Kundensupport angesichts des explosiven Wachstums zu skalieren. Traditionelle Systeme kamen mit dem hohen Volumen an Tier‑1‑Anfragen nicht zurecht, was zu längeren Wartezeiten und inkonsistenter Personalisierung führte, während die Betrugserkennung eine Echtzeitanalyse riesiger Transaktionsdaten von über 100 Millionen Nutzern erforderte. Die Balance zwischen gebührenfreien Services, personalisierten Erlebnissen und robuster Sicherheit war in einem wettbewerbsintensiven Fintech‑Umfeld, das von ausgefeilten Betrugsformen wie Spoofing und komplexen zentralen Betrugsfällen geprägt ist, entscheidend. Intern brauchten Callcenter und Support‑Teams Werkzeuge, um komplexe Anfragen effizient zu bearbeiten, ohne die Qualität zu opfern. Vor der KI führten lange Antwortzeiten zu Engpässen, und manuelle Betrugsprüfungen waren ressourcenintensiv, was Vertrauen der Kunden und regulatorische Compliance in den dynamischen Märkten Lateinamerikas gefährdete.

Lösung

Nubank integrierte OpenAI GPT-4‑Modelle in sein Ökosystem für einen generativen KI‑Chatassistenten, einen Copilot für Callcenter und eine fortschrittliche Betrugserkennung, die NLP und Computer Vision kombiniert. Der Chatassistent löst autonom Tier‑1‑Probleme, während der Copilot menschliche Agenten mit Echtzeit‑Insights unterstützt. Für die Betrugserkennung analysiert ein auf Foundation‑Modellen basierendes ML System Transaktionsmuster in großem Maßstab. Die Implementierung erfolgte in Phasen: Pilotierung von GPT‑4 für den Support Anfang 2024, Ausbau auf interne Tools bis Anfang 2025 und Erweiterung der Betrugssysteme mit multimodaler KI. Diese KI‑zentrische Strategie, verankert im maschinellen Lernen, ermöglichte nahtlose Personalisierung und deutliche Effizienzgewinne in den Abläufen.

Ergebnisse

  • 55 % der Tier‑1‑Supportanfragen werden autonom von KI bearbeitet
  • 70 % Reduktion der Chat‑Antwortzeiten
  • Mehr als 5.000 Mitarbeitende nutzen bis 2025 interne KI‑Tools
  • 114 Millionen Kunden profitieren von personalisiertem KI‑Service
  • Echtzeit‑Betrugserkennung für über 100 Mio. Transaktionsanalysen
  • Deutlicher Effizienzschub in den Callcentern
Fallstudie lesen →

HSBC

Bankwesen

Als eine der weltweit größten Banken nach Vermögenswerten verarbeitet HSBCMilliarden von Transaktionen, wodurch die Betrugserkennung und die Geldwäschebekämpfung (AML) zu einer enormen Herausforderung werden. Traditionelle regelbasierte Systeme litten unter hohen Falsch-Positiv-Raten, was zu übermäßigen manuellen Prüfungen führte, Compliance-Teams belastete, Kosten erhöhte und Kunden-Transaktionen verlangsamte . Die Gewährleistung der regulatorischen Compliance in 62 Ländern bei gleichzeitiger Minimierung finanzieller Kriminalität war kritisch, doch Legacy-Systeme fehlte die Raffinesse für Echtzeit- und nuancierte Bedrohungserkennung. Die Skalierung des Kundenservice stellte eine weitere Hürde dar, da die Nachfrage nach 24/7 personalisiertem Support menschliche Agenten überwältigte. NLP-Chatbots waren erforderlich, um komplexe Anfragen effizient zu bearbeiten, ohne Datenschutz oder Genauigkeit zu gefährden. Gleichzeitig brachte die Erforschung von generativer KI (GenAI) Herausforderungen bei ethischer Implementierung, Bias-Minderung und Integration mit strengen Bankvorschriften wie GDPR und Basel III mit sich, da schnelle technologische Fortschritte das Risiko von Non-Compliance erhöhten . Die Umsetzungsherausforderungen umfassten länderübergreifend isolierte Daten, Fachkräftemangel im KI-Bereich und die Balance zwischen Innovationsgeschwindigkeit und robuster Governance .

Lösung

HSBC begegnete Betrug mit Google Cloud KI-gestützten ML-Modellen für AML, die fortschrittliche Algorithmen nutzen, um Transaktionsmuster, Kundenverhalten und externe Daten für präzise Anomalieerkennung zu analysieren und so Falsch-Positiv-Raten drastisch zu senken . Dies war Teil einer breiteren Strategie, die global Hunderte von KI-Anwendungsfällen implementierte, von Risikomodellen bis zu Überwachungssystemen . Für das Kundenengagement wurden NLP-getriebene Chatbots eingeführt, die natürliche Sprachverarbeitung nutzen, um Anfragen zu interpretieren, maßgeschneiderte Beratung zu liefern und komplexe Fälle nahtlos weiterzuleiten, während Compliance-Standards eingehalten werden . Im GenAI-F&E-Bereich nahm HSBC an einem GenAI-Sandbox-Programm teil und schloss Ende 2025 eine mehrjährige Partnerschaft mit Mistral AI, um generative Werkzeuge bankweit zu integrieren. Ziel ist die Automatisierung interner Aufgaben, personalisierte Kundeninsights, Verstärkung der Betrugserkennung und Produktivitätssteigerungen, untermauert von einem starken ethischen KI-Rahmen, der die menschliche Aufsicht betont .

Ergebnisse

  • Hunderte von global eingesetzten KI-Anwendungsfällen in den Betriebsbereichen
  • Mehrjährige Partnerschaft mit Mistral AI beschleunigt GenAI-Einführung bankweit
  • Verbesserte AML-Erkennung mit reduzierten Falsch-Positiven durch Google Cloud ML
  • Echtzeit-Betrugskennzeichnung für Milliarden täglicher Transaktionen
  • GenAI-Tools zielen auf 20–40% Produktivitätssteigerungen bei Bankaufgaben
  • Transformierter Kundenservice mit 24/7 skalierbaren NLP-Chatbots
Fallstudie lesen →

NatWest

Bankwesen

NatWest Group, eine führende britische Bank, die über 19 Millionen Kunden bedient, sah sich zunehmenden Anforderungen an den digitalen Kundenservice gegenüber. Traditionelle Systeme wie der ursprüngliche Cora-Chatbot bewältigten Routineanfragen zwar zuverlässig, hatten jedoch Schwierigkeiten mit komplexen, nuancierten Interaktionen und eskalierten häufig 80–90 % der Fälle an menschliche Mitarbeitende. Das führte zu Verzögerungen, höheren Betriebskosten und Risiken für die Kundenzufriedenheit, während die Erwartungen an sofortige, personalisierte Unterstützung stiegen . Gleichzeitig stellte der Anstieg von Finanzbetrug eine kritische Bedrohung dar, die nahtloses Betrugsreporting und Erkennung innerhalb von Chat-Oberflächen erforderte, ohne Sicherheit oder Vertrauen der Nutzer zu gefährden. Regulatorische Vorgaben, Datenschutz nach UK GDPR und ethische KI-Einsätze erhöhten die Komplexität, da die Bank Support skalieren wollte und gleichzeitig Fehler in risikoreichen Bankprozessen minimieren musste . Die Balance zwischen Innovation und Zuverlässigkeit war entscheidend; mangelhafte KI-Leistungen könnten in einem Sektor, in dem die Kundenzufriedenheit direkt Kundenbindung und Umsatz beeinflusst, Vertrauen untergraben .

Lösung

Mit der Einführung von Cora+ im Juni 2024 führte NatWest sein erstes umfassendes Upgrade mit generativer KI ein, um proaktive, intuitive Antworten auf komplexe Anfragen zu ermöglichen, Eskalationen zu reduzieren und die Selbstbedienung zu verbessern . Dies baute auf der etablierten Cora-Plattform auf, die bereits Millionen von Interaktionen pro Monat verwaltete. In einem wegweisenden Schritt ging NatWest im März 2025 eine Partnerschaft mit OpenAI ein und wurde damit die erste in Großbritannien ansässige Bank, die dies tat. LLMs wurden sowohl in das kundenorientierte Cora als auch in das interne Tool Ask Archie integriert. Dadurch wurden natürliche Sprachverarbeitung für Betrugsmeldungen, personalisierte Beratung und Prozessvereinfachung möglich, während zugleich Schutzmaßnahmen für Compliance und Bias-Minderung implementiert wurden . Der Ansatz legte starken Wert auf ethische KI, mit rigorosen Tests, menschlicher Aufsicht und kontinuierlichem Monitoring, um sichere und präzise Interaktionen bei Betrugserkennung und Serviceleistungen zu gewährleisten .

Ergebnisse

  • 150 % Anstieg der Cora-Kundenzufriedenheitswerte (2024)
  • Proaktive Auflösung komplexer Anfragen ohne menschliches Eingreifen
  • Erste OpenAI-Partnerschaft einer UK-Bank, beschleunigt KI-Einführung
  • Verbesserte Betrugserkennung durch Echtzeit-Chat-Analyse
  • Millionen monatlicher Interaktionen, die autonom verarbeitet werden
  • Deutliche Reduktion der Eskalationsraten an Agenten
Fallstudie lesen →

UC San Francisco Health

Gesundheitswesen

Bei UC San Francisco Health (UCSF Health), einem der führenden akademischen Medizinzentren des Landes, sahen sich Klinikteams mit enormen Dokumentationslasten konfrontiert. Ärzt:innen verbrachten nahezu zwei Stunden mit Aufgaben im elektronischen Gesundheitsaktensystem (EHR) für jede Stunde direkter Patientenversorgung, was zu Burnout und vermindertem Patientenkontakt beitrug . In hoch-akuten Bereichen wie der ICU verschärfte sich die Lage: Das manuelle Durchforsten großer, komplexer Datenströme für Echtzeit-Erkenntnisse war fehleranfällig und verzögerte kritische Interventionen bei Patientenverschlechterungen . Das Fehlen integrierter Werkzeuge führte dazu, dass prädiktive Analytik kaum genutzt wurde; traditionelle regelbasierte Systeme erfassten feingliedrige Muster in multimodalen Daten (Vitalwerte, Laborwerte, Notizen) nicht zuverlässig. Das führte zu verpassten Frühwarnungen bei Sepsis oder Verschlechterungen, längeren Verweildauern und suboptimalen Ergebnissen in einem System, das Millionen von Begegnungen pro Jahr verarbeitet . UCSF wollte Ärzt:innen Zeit zurückgeben und gleichzeitig die Entscheidungsgenauigkeit verbessern.

Lösung

UCSF Health baute eine sichere, interne KI‑Plattform, die generative KI (LLMs) für „digitale Schreibassistenten“ nutzt, die Notizen, Nachrichten und Zusammenfassungen automatisch vorentwerfen und direkt in ihr Epic EHR integriert sind – dabei kommt GPT‑4 über Microsoft Azure zum Einsatz . Für prädiktive Anwendungsfälle wurden ML‑Modelle für Echtzeit‑ICU‑Verschlechterungswarnungen implementiert, die EHR‑Daten verarbeiten, um Risiken wie Sepsis vorherzusagen . In Partnerschaft mit H2O.ai für Document AI automatisierten sie die Extraktion unstrukturierter Daten aus PDFs und Scans und speisten diese sowohl in die Scribe‑ als auch in die Prädiktions‑Pipelines ein . Ein klinikerzentrierter Ansatz stellte HIPAA‑Konformität sicher: Modelle wurden auf de‑identifizierten Daten trainiert und durch Human‑in‑the‑loop‑Validierung abgesichert, um regulatorische Hürden zu überwinden . Diese ganzheitliche Lösung beseitigte sowohl administrative Lasten als auch Lücken in der klinischen Vorhersagefähigkeit.

Ergebnisse

  • 50% Reduktion der Nachtdokumentationszeit
  • 76% schnellere Notizerstellung mit digitalen Schreibassistenten
  • 30% Verbesserung der Genauigkeit bei ICU‑Verschlechterungs‑Vorhersagen
  • 25% Verringerung unerwarteter ICU‑Verlegungen
  • 2x mehr Face‑Time zwischen Klinikteam und Patient:innen
  • 80% Automatisierung der Verarbeitung von Überweisungsdokumenten
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Intent-Klassifikation implementieren, um Low-Value-Tickets automatisch zu routen

Die Grundlage einer KI-gestützten Triage ist robuste Intent-Erkennung. Konfigurieren Sie Gemini so, dass eingehende Tickettexte (Betreff, Body und Basis-Metadaten) gelesen und in einen standardisierten Satz von Intents klassifiziert werden, etwa „password reset“, „order status“, „address change“, „faq-product-info“ oder „billing-issue“. Diese Intents steuern dann die Routing-Regeln.

Starten Sie mit einem einfachen Klassifikations-Prompt, der ein strenges Schema erzwingt und in Ihr Ticketsystem oder Middleware-System integrierbar ist.

System: Sie sind ein Assistent, der Kundenservice-Tickets klassifiziert.
Geben Sie NUR ein JSON-Objekt mit den Feldern aus: intent, confidence (0-1), sensitive (true/false).

User-Ticket:
{{ticket_subject}}
{{ticket_body}}

Gültige Intents:
- password_reset
- order_status
- change_address
- faq_product_info
- technical_issue
- billing_issue
- other

Beschreiben Sie den Haupt-Intent mit einem der gültigen Intents.

Nutzen Sie die Werte für intent und confidence, um zu entscheiden, ob ein Ticket automatisch beantwortet, in den Self-Service geführt oder an einen Agenten geroutet werden soll. Klassifikationen mit niedriger Confidence sollten immer an einen Menschen zurückfallen.

Gemini-basierten Assistenten vor dem Ticketformular platzieren

Einer der schnellsten Wege, Low-Value-Tickets abzuwehren, ist, sie abzufangen, bevor sie eingereicht werden. Betten Sie einen Gemini-basierten, konversationellen Assistenten direkt in Ihre Web- und mobilen Kontaktstrecken ein. Aufgabe des Assistenten: die Anfrage verstehen, passende Knowledge-Base-Artikel anbieten und Nutzer durch einfache Workflows führen (z. B. Passwort zurücksetzen oder Bestellung verfolgen), ohne dass ein Ticket erstellt wird.

Nutzen Sie einen Prompt, der möglichst weitgehende Containment erzwingt, wo es sicher ist, und bei Bedarf sauber eskaliert.

System: Sie sind ein Self-Service-Assistent für Kunden.
Ziel: Lösen Sie das Anliegen, OHNE ein Support-Ticket zu erstellen, WENN es um Folgendes geht:
- Passwort zurücksetzen
- Bestellstatus
- Adressänderung
- allgemeine FAQs
Wenn das Anliegen komplex ist, sagen Sie dem Nutzer klar, dass Sie ihn an einen menschlichen Agenten übergeben.
Stellen Sie nur dann gezielte Fragen, wenn sie nötig sind. Halten Sie Antworten kurz und umsetzbar.

Instrumentieren Sie den Assistenten mit Events ("resolved", "escalated", "requested_agent"), damit Sie nachvollziehen können, wie viele Interaktionen erfolgreich enthalten werden versus eskaliert werden.

Wissensartikel und Erstantworten für Agenten automatisch vorschlagen

Nicht jedes Low-Value-Ticket lässt sich vollständig deflecten, viele können aber deutlich beschleunigt werden. Integrieren Sie Gemini in Ihren Agenten-Desktop, sodass jedes eingehende Ticket mit vorgeschlagenen Knowledge-Base-Artikeln und einem formulierten Erstentwurf einer Antwort angereichert wird, den der Agent schnell prüfen und versenden kann.

Konfigurieren Sie Gemini so, dass es Ihre KB-Inhalte durchsucht und darauf begründet und markenkonform eine prägnante Antwort generiert.

System: Sie sind ein Kundenservice-Assistent.
Sie erhalten ein Ticket und dazu passende Knowledge-Base-Artikel.
Schreiben Sie eine kurze, freundliche Antwort, die:
- die Frage direkt beantwortet
- klare Schritte oder Links enthält
- Spekulationen vermeidet
Wenn es keinen relevanten Artikel gibt, stellen Sie 1–2 klärende Fragen.

Ticket:
{{ticket_text}}

Relevante Artikel:
{{kb_snippets}}

Messen Sie den Einfluss auf die Average Handle Time (AHT) und die First-Response-Time für diese Tickets mit niedriger Komplexität. Mit der Zeit können Sie bestimmte Intents von „KI-unterstützter Agent“ auf „voller Self-Service“ verschieben.

Gemini nutzen, um E-Mail-Backlogs zu zusammenzufassen und zu triagieren

Im E-Mail-Kanal verbirgt sich oft ein langer Rattenschwanz von Low-Value-Anfragen. Verbinden Sie Gemini mit Ihrem Support-Postfach (über Ihr Helpdesk oder eine Middleware), um eingehende Nachrichten im Batch zu verarbeiten: zusammenfassen, klassifizieren und Handlungen vorschlagen. Bei offensichtlich Low-Value-Intents (z. B. Bestellstatus) kann das System nach einem optionalen menschlichen Check automatisch eine Antwortvorlage versenden, die mit dynamischen Daten (z. B. Bestelllink oder Tracking-Informationen) angereichert ist.

Entwerfen Sie einen Backend-Workflow, bei dem jede E-Mail an Gemini zur strukturierten Zusammenfassung übergeben wird.

System: Fassen Sie diese Kunden-E-Mail in 2 Sätzen zusammen.
Geben Sie anschließend strukturierte Felder aus: intent, urgency (low/medium/high),
requires_human (true/false), suggested_reply.

E-Mail:
{{email_body}}

Nutzen Sie das Flag requires_human, um zu filtern, welche Tickets ein Agent zwingend sehen muss, und versenden Sie die suggested_reply bei Low-Risk-Fällen automatisch, sobald ein Agent sie kurz überflogen und freigegeben hat.

Gemini mit operativen Systemen verbinden für echten Self-Service

Um Tickets wirklich zu deflecten, braucht Gemini mehr als nur Text – es braucht Zugriff auf operative Daten wie Bestellungen, Konten und Abonnements. Arbeiten Sie mit Ihrem Engineering-Team daran, Read-Only-APIs bereitzustellen (z. B. get_order_status, list_recent_orders, get_account_state), die Gemini über eine kontrollierte Orchestrierungsschicht aufrufen kann.

Statt das Modell halluzinieren zu lassen, definieren Sie deterministische „Tools“, die es nutzen darf, und weisen Sie es im Prompt entsprechend an.

System: Sie können die folgenden Tools verwenden:
- get_order_status(order_id)
- list_recent_orders(customer_id)
Verwenden Sie Tools NUR, wenn sie zur Beantwortung der Frage nötig sind.
Wenn die Tool-Daten fehlen, sagen Sie, dass Sie keinen Zugriff haben, und bieten Sie an, einen Agenten hinzuzuziehen.
Raten Sie NIEMALS Bestellnummern.

Nutzer:
"Wo ist meine letzte Bestellung?"

Mit diesem Pattern kann Gemini einen großen Anteil an Status- und Kontoanfragen mit Live-Daten bearbeiten und dennoch sauber eskalieren, wenn Informationen unvollständig oder riskant sind.

KPIs tracken und kontrollierte Experimente zur Deflection durchführen

Sobald Gemini-gestützte Triage live ist, sollten Sie in den Messmodus wechseln. Definieren Sie ein minimales KPI-Set für Ticket-Deflection und KI-Performance: Deflection-Rate (Anteil der Interaktionen ohne Ticketerstellung), Containment-Rate (nicht eskalierte KI-Konversationen), AHT für Low-Value-Tickets, CSAT für KI-unterstützte und KI-only-Interaktionen sowie die Zufriedenheit der Agenten.

Führen Sie A/B-Tests für kritische Flows durch, z. B. unterschiedliche Formulierungen im Self-Service-Assistenten oder strengere vs. lockerere Eskalationsschwellen. Sie können etwa testen, ob eine zusätzliche klärende Frage vor der Eskalation die Containment-Rate erhöht, ohne die CSAT zu beeinträchtigen. Prüfen Sie Transkripte regelmäßig mit Ihren Support-Leads und verfeinern Sie Prompts und Routing-Regeln anhand konkreter Beispiele.

Mit gut gestalteten Workflows können die meisten Organisationen realistisch eine Reduktion des Low-Value-Ticket-Volumens um 20–40 % über mehrere Monate erwarten – bei gleichzeitig schnelleren Erstantworten und stärker fokussierter Agentenzeit auf komplexe Themen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini ist besonders geeignet für wiederkehrende, risikoarme Kundenservice-Anfragen wie Unterstützung beim Passwort-Zurücksetzen, Bestellstatus-Abfragen, Liefer-FAQs, Adressänderungen sowie standardisierte Fragen zu Produkten oder Richtlinien. Diese Tickets folgen in der Regel einem klaren Muster und lassen sich mit bestehendem Knowledge-Base-Content oder einfachen Integrationen in Bestell-/Kontosysteme lösen.

Höher riskante Szenarien (z. B. Rückerstattungen, Beschwerden, rechtliche Themen, komplexe technische Incidents) sollten entweder von der Automatisierung ausgenommen werden oder so konfiguriert sein, dass Gemini Agenten nur mit Entwürfen und Zusammenfassungen unterstützt, statt direkt an Kunden zu antworten.

Das initiale Setup für einen fokussierten Gemini-Triage-Piloten lässt sich in der Regel in wenigen Wochen realisieren, vorausgesetzt, Sie verfügen bereits über ein Helpdesk-System und eine grundlegende Knowledge Base. Ein typischer Zeitplan sieht so aus:

  • 1–2 Wochen: Ticketdaten analysieren, „Low-Value“-Intents definieren, Flows und Guardrails entwerfen.
  • 2–3 Wochen: Gemini-Prompts implementieren, Integration mit Ihrem Ticketsystem oder Web-Assistenten umsetzen und mit internem Traffic testen.
  • 2–4 Wochen: Kontrollierten Piloten mit einem Teil der Nutzer oder Kanäle durchführen, KPIs monitoren und verfeinern.

Das Skalieren über den Piloten hinaus (auf mehr Intents, Sprachen oder Systeme) hängt von Ihrer internen IT-Landschaft und der Geschwindigkeit ab, mit der Sie die notwendigen APIs bereitstellen können.

Sie brauchen kein großes KI-Forschungsteam, aber eine Mischung aus Customer-Service-Operations, grundlegender Engineering-Kompetenz und Product Ownership. Praktisch umfasst das Kernteam in der Regel:

  • Eine Leitung im Support Operations, die definiert, welche Tickets Low-Value und sicher automatisierbar sind.
  • Einen Product- oder Projekt-Owner, der Workflow-Design und Backlog verantwortet.
  • Entwickler, die Gemini über APIs oder Middleware in Ihr Helpdesk, Ihre Website oder Ihre App integrieren.
  • Optional eine daten- bzw. KI-affine Person, die bei Prompt-Design und Performance-Monitoring unterstützt.

Reruption kann Ihr Team mit KI-Engineering- und Workflow-Design-Kompetenz ergänzen, sodass sich Ihr internes Team auf Richtlinien, Inhalte und Adoption konzentrieren kann.

Der ROI der KI-basierten Ticket-Deflection speist sich aus mehreren Quellen: weniger Agentenzeit für repetitive Anfragen, geringerer Bedarf an zusätzlicher Personalkapazität bei wachsendem Volumen, schnellere Antworten und höhere Zufriedenheit der Mitarbeitenden. In vielen Umgebungen ist es über die Zeit realistisch, 20–40 % der Low-Complexity-Tickets zu deflecten oder deutlich zu beschleunigen.

Die exakten finanziellen Effekte hängen von Ihrem aktuellen Ticketvolumen und den Kosten pro Ticket ab. Wenn Sie beispielsweise 50.000 Tickets pro Monat mit durchschnittlichen Vollkosten von 4 € pro Ticket bearbeiten, kann die Deflection oder Teilautomatisierung von 30 % der wirklich Low-Value-Tickets zu Einsparungen in Höhe von mehreren hunderttausend Euro pro Jahr führen – und gleichzeitig Agenten dafür freisetzen, sich auf komplexe, wertschaffende Interaktionen wie Upsell-Chancen oder die Lösung risikoreicher Incidents zu konzentrieren.

Reruption ist darauf spezialisiert, KI-first-Kundenservice-Fähigkeiten direkt in Unternehmen aufzubauen. Mit unserem KI-PoC-Angebot (9.900 €) können wir schnell validieren, ob Gemini Ihre spezifischen Low-Value-Tickets zuverlässig triagieren und deflecten kann – von Use-Case-Scope und Prompt-/Architekturdesign bis hin zu einem funktionsfähigen Prototypen, der in Ihr Helpdesk oder Frontend integriert ist.

Über den PoC hinaus arbeiten wir mit einem Co-Preneur-Ansatz: Wir arbeiten eng mit Ihrem Team zusammen, entwerfen den End-to-End-Workflow, implementieren die notwendigen Integrationen und helfen beim Aufbau von Governance, KPIs und Enablement für Ihre Agenten. So erhalten Sie nicht nur einen Demo-Chatbot, sondern eine robuste, messbare, Gemini-basierte Deflection-Schicht, die Ihr Ticketvolumen in Ihrer realen Umgebung tatsächlich reduziert.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media