Die Herausforderung: Untriagierte Low-Value-Tickets

Customer-Service-Teams fungieren zunehmend als Auffangbecken für jede noch so kleine Kundenfrage: Passwort-Resets, Adressänderungen, Lieferstatus, einfache How-tos. Diese Low-Value-Tickets benötigen selten menschliche Expertise, landen aber in denselben Queues wie komplexe Incidents. Ohne intelligente Triage und Deflection verbringen Agenten unverhältnismäßig viel Zeit mit Arbeit, die wenig Wert schafft.

Traditionelle Ansätze wie statische FAQs, einfache Kontaktformulare und manuelle Routing-Regeln halten nicht mehr mit. Kunden erwarten dialogfähige, sofortige Antworten – nicht lange Knowledge-Base-Artikel und mehrstufige Login-Flows. Regelbasierte Chatbots stoßen schnell an ihre Grenzen, wenn Kunden Anfragen anders formulieren oder mehrere Fragen kombinieren. Das Ergebnis: Kunden landen standardmäßig bei der Ticketerstellung, und das Versprechen von Self-Service wird nie eingelöst.

Die geschäftlichen Auswirkungen sind erheblich. Agentenqueues verstopfen, Bearbeitungszeiten steigen, und hochpriorisierte Themen warten hinter trivialen Anfragen. Die Anzahl der Mitarbeitenden wächst allein, um das Volumen zu bewältigen – obwohl ein großer Teil davon repetitiv ist. Das Management sieht, wie die Kosten pro Ticket steigen, während Kundenzufriedenheit und wahrgenommene Reaktionsgeschwindigkeit sinken. Gleichzeitig gehen wertvolle Erkenntnisse aus komplexen Fällen im Rauschen der Low-Value-Tickets unter.

Diese Situation ist frustrierend, aber nicht unvermeidlich. Mit moderner KI-gestützter Triage und Self-Service können viele einfache Anfragen gelöst werden, bevor sie überhaupt einen Agenten erreichen. Bei Reruption sehen wir, wie angewandte KI – mit technischer Tiefe und Geschwindigkeit implementiert – Support-Workflows von „Posteingang-Feuerwehr“ zu strukturierter, intelligenter Servicebereitstellung transformieren kann. In diesem Leitfaden finden Sie konkrete Schritte, wie Sie Gemini einsetzen, um Ihre Queues zurückzugewinnen und Ihr Team auf die Kundenprobleme zu fokussieren, die wirklich zählen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions praktischer Arbeit beim Aufbau von KI-Assistenten und Chatbots für den Kundenservice wissen wir: Tools wie Gemini entfalten ihre Wirkung vor allem dann, wenn sie als Teil eines neu gestalteten Support-Flows implementiert werden – nicht als kosmetisches Add-on. Geminis Stärken in der Verarbeitung natürlicher Sprache, Klassifikation und Inhaltserzeugung machen es besonders geeignet, Low-Value-Tickets automatisch zu triagieren und zu lösen, bevor sie Ihre Agenten belasten.

„Low-Value“ datenbasiert statt aus dem Bauch heraus definieren

Viele Organisationen stufen alle kurzen oder einfach klingenden Tickets als „Low-Value“ ein – und übersehen dabei Edge-Cases und Risiken. Bevor Sie Gemini für die Ticket-Triage einsetzen, sollten Sie historische Ticketdaten analysieren: Kategorien, Lösungszeiten, Eskalationen, Rückerstattungen und CSAT. Ziel ist eine klare, evidenzbasierte Definition, welche Anfragen wirklich sicher automatisiert oder in den Self-Service verschoben werden können.

Clustern Sie Betreffzeilen und Beschreibungen von Tickets und ordnen Sie sie dann ihrem geschäftlichen Impact zu. Ein Passwort-Reset mit Risiko einer Kontoübernahme ist etwas völlig anderes als eine einfache Bestellstatus-Abfrage. Diese analytische Denkweise stellt sicher, dass sich der KI-gestützte Self-Service auf den richtigen Ausschnitt der Tickets konzentriert und Sie davor schützt, Szenarien zu automatisieren, die immer von einem Menschen bearbeitet werden sollten.

KI-Triage als Layer entwerfen, nicht als separaten Kanal

Ein häufiger strategischer Fehler ist es, einen „KI-Chatbot“ als weiteren Support-Einstiegspunkt zu launchen und damit parallele Prozesse und Verwirrung zu schaffen. Besser ist es, die Gemini-basierte Triage als Schicht über all Ihren bestehenden Kanälen zu verstehen: Webformulare, Help Center, Mobile App und sogar E-Mail.

Strategisch bedeutet das, ein „Routing-Gehirn“ zu entwerfen, das die Nutzerintention einmal liest, den besten Pfad bewertet (Self-Service, KI-unterstützte Antwort oder Agent) und dann den Flow orchestriert. Agenten sehen wiederum denselben Kontext und KI-generierte Vorschläge in ihren bestehenden Tools. Dieser integrierte Ansatz maximiert die Deflection von Low-Value-Tickets und erhält gleichzeitig ein konsistentes Erlebnis.

Kundenerlebnis und Risikobereitschaft vor der Automatisierung abstimmen

Ticket-Deflection ist nicht nur eine Kostenfrage, sondern auch eine Entscheidung rund um Marke und Vertrauen. Das Management muss klare Leitplanken für den Einsatz von KI im Kundenservice setzen: Welche Themen dürfen niemals ohne einen Menschen gelöst werden, wie sensible Daten gehandhabt werden und welche Fehlerraten bei automatisierten Antworten akzeptabel sind.

Führen Sie gemeinsame Sessions zwischen Customer Service, Legal/Compliance und Produkt durch, um diese Guardrails zu definieren. Dieses gemeinsame Verständnis verhindert spätere Reibungen, wenn Gemini live ist, und vermeidet nervöse „Not-Aus-Schalter“, die die Adoption abwürgen. Wenn alle sich einig sind, dass z. B. Sendungsverfolgung und FAQ-Abfragen sicher automatisierbar sind, während Abrechnungsstreitigkeiten es nicht sind, kann die Implementierung deutlich schneller und mit weniger internem Widerstand vorangehen.

Ihre Agenten darauf vorbereiten, mit KI – nicht gegen sie – zu arbeiten

Wenn Low-Value-Tickets von Menschen weg verlagert werden, verändert sich die Arbeit Ihres Support-Teams. Statt endlose einfache Anfragen abzuarbeiten, werden Agenten weniger, aber komplexere und emotional aufgeladene Fälle bearbeiten. Strategisch müssen Sie sie auf KI-augmentierte Workflows vorbereiten, in denen Gemini Antworten vorschreibt, Historien zusammenfasst und Knowledge-Base-Artikel vorschlägt.

Investieren Sie in Enablement: Erklären Sie konzeptionell, wie Gemini funktioniert, wo seine Stärken und Schwächen liegen und wie qualitatives Feedback die Modelle verbessert. Positionieren Sie KI als Werkzeug, das „Fleißarbeit“ eliminiert – nicht als Bedrohung für Jobs. Aus unserer Erfahrung steigt die Akzeptanz deutlich, wenn Agenten sehen, dass Gemini repetitive Passwort-Reset-Konversationen eliminiert und sie dadurch sinnvolle Feedback-Loops beisteuern können.

Governance, Monitoring und kontinuierliche Optimierung von Anfang an einplanen

KI-Triage ist kein „Einmal konfigurieren und vergessen“-Feature. Damit die Gemini-Ticket-Deflection sicher und effektiv bleibt, benötigen Sie ein Governance-Modell, das Zuständigkeiten für Prompts, Richtlinien und Performance-Monitoring definiert. Dazu gehören klare KPIs wie Deflection-Rate, Containment-Rate, CSAT für KI-gelöste Interaktionen und Eskalationsgenauigkeit.

Etablieren Sie einen bereichsübergreifenden Review-Rhythmus, in dem Support Operations, Produkt und Data/KI-Verantwortliche Metriken und Beispiele von KI-Interaktionen prüfen. Dieser strategische Loop ermöglicht es, Prompts zu verfeinern, den Satz der automatisierbaren Low-Value-Tickets zu erweitern und schnell zu reagieren, wenn sich Kundenerwartungen oder Produkte ändern.

Gemini zur Triage und Deflection von Low-Value-Support-Tickets einzusetzen, ist am wirksamsten, wenn es als zentrale Service-Fähigkeit verstanden wird – nicht als Nebenprojekt. Mit klaren Definitionen dessen, was automatisiert werden darf, integriertem Routing über alle Kanäle und Agenten, die auf die Zusammenarbeit mit KI vorbereitet sind, können Sie erhebliche Kapazitäten freisetzen, ohne das Kundenerlebnis zu opfern. Reruption verbindet strategische Klarheit mit tiefgehender Engineering-Kompetenz, um diese Gemini-getriebenen Workflows in Ihrem bestehenden Stack zu entwerfen und umzusetzen; wenn Sie diesen Schritt prüfen, unterstützen wir Sie gerne mit einem fokussierten PoC und skalieren, was funktioniert.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Zahlungsverkehr bis Logistik: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Mastercard

Zahlungsverkehr

In der hochbrisanten Welt der digitalen Zahlungen stellten sich Card-Testing-Angriffe als kritische Bedrohung für das Mastercard-Ökosystem heraus. Betrüger setzen automatisierte Bots ein, um gestohlene Kartendaten mittels Mikrotransaktionen bei Tausenden von Händlern zu testen und damit Zugang für größere Betrugsschemata zu validieren. Traditionelle regelbasierte und klassische Machine-Learning-Systeme erkannten diese Angriffe häufig erst, nachdem erste Tests Erfolg hatten, was zu jährlichen Verlusten in Milliardenhöhe führte und legitimen Handel störte. Die Subtilität dieser Angriffe – geringwertige, hochfrequente Tests, die normales Verhalten imitieren – überforderte Legacy-Modelle, verstärkt durch den Einsatz von KI durch Betrüger, um Erkennungsmuster zu umgehen. Als die Transaktionsvolumina nach der Pandemie explodierten, stand Mastercard unter steigendem Druck, von reaktiver zu proaktiver Betrugsprävention überzugehen. Fehlalarme durch überharte Warnungen führten zu abgelehnten legitimen Transaktionen und damit zu Vertrauensverlust bei Kunden, während ausgeklügelte Methoden wie Card-Testing in Echtzeit der Erkennung entgingen. Das Unternehmen benötigte eine Lösung, die kompromittierte Karten präventiv identifizieren kann und dabei riesige Netze miteinander verbundener Transaktionen analysiert, ohne Geschwindigkeit oder Genauigkeit zu opfern.

Lösung

Mastercards Decision Intelligence (DI)-Plattform integrierte generative KI mit graphbasiertem Machine Learning, um die Betrugserkennung zu revolutionieren. Generative KI simuliert Betrugsszenarien und erzeugt synthetische Transaktionsdaten, was das Modelltraining und die Anomalieerkennung beschleunigt, indem seltene Angriffsvarianten nachgebildet werden, die in echten Daten fehlen. Die Graph-Technologie bildet Entitäten wie Karten, Händler, IP-Adressen und Geräte als miteinander verbundene Knoten ab und macht verborgene Betrugsringe sowie Ausbreitungspfade in Transaktionsgraphen sichtbar. Dieser hybride Ansatz verarbeitet Signale in bislang ungekanntem Umfang, nutzt die generative KI zur Priorisierung risikoreicher Muster und Graphen, um Beziehungen zu kontextualisieren. Über Mastercards AI Garage implementiert, ermöglicht er die Echtzeit-Bewertung des Kompromittierungsrisikos von Karten und alarmiert ausgebende Institute, bevor Betrug eskaliert. Das System bekämpft Card-Testing, indem es anomale Testcluster frühzeitig markiert. Die Einführung erfolgte mit iterativen Tests bei Finanzinstituten, wobei Mastercards globales Netzwerk für robuste Validierung genutzt wurde, gleichzeitig wurde auf Erklärbarkeit geachtet, um das Vertrauen der Emittenten zu stärken.

Ergebnisse

  • 2x schnellere Erkennung potenziell kompromittierter Karten
  • Bis zu 300% Steigerung der Effektivität der Betrugserkennung
  • Verdopplung der Rate proaktiver Benachrichtigungen über kompromittierte Karten
  • Deutliche Reduktion betrügerischer Transaktionen nach Erkennung
  • Minimierung falsch abgelehnter legitimer Transaktionen
  • Echtzeit-Verarbeitung von Milliarden von Transaktionen
Fallstudie lesen →

Insilico Medicine

Biotechnologie

Der Wirkstoffentdeckungsprozess in der Biotechnologie ist berüchtigt dafür, lang und teuer zu sein, typischerweise 10–15 Jahre dauernd und 2–3 Milliarden USD pro zugelassenem Wirkstoff kostend, mit einer Fehlerrate von 90 % in klinischen Studien. Bei idiopathischer Lungenfibrose (IPF), einer fortschreitenden Lungenerkrankung mit begrenzten Behandlungsoptionen, sind die Herausforderungen noch größer: die Identifizierung neuartiger Targets inmitten komplexer Biologie, die Entwicklung wirksamer Moleküle sowie die Vorhersage von Eigenschaften wie Toxizität und Wirksamkeit erfordern enorme Datenmengen und aufwändiges Trial‑and‑Error‑Screening. Traditionelle Methoden stützen sich auf Hochdurchsatzscreening und medizinische Chemie, die jedoch bei seltenen Erkrankungen wie IPF ineffizient sind, da die Patientenzahl begrenzt ist und die Heterogenität der Krankheit den Fortschritt hemmt. Insilico stand vor der Herausforderung, die Zielidentifikation und Moleküldesign zu beschleunigen und gleichzeitig die präklinische Durchführbarkeit sicherzustellen — in einem Umfeld, das gegenüber der Zuverlässigkeit von KI in der realen Pharmawelt skeptisch war.

Lösung

Insilico setzte seine End‑to‑End‑Plattform Pharma.AI ein, die generative KI über Chemistry42 zur neuartigen Molekülgenerierung, PandaOmics zur Zielentdeckung (Deep Learning auf Multi‑Omics‑Daten) und InClinico für Trial‑Simulationen integriert. Deep‑Learning‑Modelle, trainiert auf riesigen Datensätzen, generierten 10.000+ neuartige Moleküle de novo und optimierten diese für IPF‑spezifische Targets wie TNIK. Diese KI‑getriebene Pipeline überwand manuelle Beschränkungen, indem sie ADMET‑Eigenschaften vorhersagte, Top‑Kandidaten per Robotik synthetisierte und in Tiermodellen validierte. Der Ansatz reduzierte Iterationen und ermöglichte den schnellen Fortschritt vom Target bis zur IND in 30 Monaten.

Ergebnisse

  • Zeit bis Phase I: 30 Monate (vs. 5+ Jahre traditionell)
  • Generierte Moleküle: 10.000+ neuartige Strukturen
  • Phase‑II‑Einschreibung: 70+ Patienten in mehreren Regionen
  • Kostensenkung: Geschätzt 70–80 % geringere Entdeckungskosten
  • Präklinischer Erfolg: Wirkstoff erfüllte alle Sicherheits‑/Wirksamkeitsmarker
  • Studiengeschwindigkeit: Phase II‑Start 2,5 Jahre nach Target‑Identifikation
Fallstudie lesen →

Royal Bank of Canada (RBC)

Finanzdienstleistungen

RBC‑Kunden sahen sich erheblichen Problemen bei der Verwaltung ihrer persönlichen Finanzen gegenüber, insbesondere beim Sparen von Kleingeld, klugen Investitionen und Einhalten des Budgets. Traditionelle Banktools boten allgemeine Ratschläge, die individuelle Ausgabemuster nicht berücksichtigten, was zu suboptimalen Finanzentscheidungen und geringer Nutzung von Sparprodukten führte. Viele Kunden kämpften mit unregelmäßigen Cashflows, Impulsausgaben und fehlender Sichtbarkeit künftiger Ausgaben, was zu niedrigeren Sparquoten und verpassten Investitionschancen führte. Als der Wettbewerb im Privatkundengeschäft zunahm, erkannte RBC die Notwendigkeit für hyper‑personalisierte Einsichten, um Kundenloyalität aufzubauen und Wachstum zu fördern. Ohne fortgeschrittene Analytik fehlten proaktive Anstöße wie das Aufrunden von Käufen zum Sparen oder die Vorhersage von Liquiditätsengpässen, was besonders nach der Pandemie finanziellen Stress verstärkte.

Lösung

RBC führte NOMI ein, einen KI‑gesteuerten Finanzassistenten in der mobilen Banking‑App, der maschinelles Lernen nutzt, um Transaktionsdaten zu analysieren, Ausgaben zu kategorisieren und maßgeschneiderte Empfehlungen zu liefern. Funktionen wie NOMI Insights beleuchten Ausgabentrends, NOMI Budgets generieren automatisch personalisierte Budgets und NOMI Find & Save identifiziert Kleingeld‑Potentiale für automatische Überweisungen auf verzinste Sparkonten oder in Investments. Über RBC Borealis, das KI‑Innovationszentrum der Bank, wurde NOMI skaliert und auf robuste Datenplattformen gestellt, die Datenschutz und Genauigkeit gewährleisten. Diese ML‑Personalisierungs‑Engine verarbeitet umfangreiche Datensätze in Echtzeit und bietet Anstöße wie 'Überweise 25 $ Kleingeld in ein GIC' oder 'Passe das Essensbudget um 15 % an', wodurch Nutzer umsetzbare, kontextbezogene Ratschläge erhalten.

Ergebnisse

  • 700 Mio. $–1 Mrd. $ Unternehmenswert durch KI‑Investitionen bis 2027
  • Top‑3 Platzierung in der globalen KI‑Reife unter Banken
  • Über 98.000 Mitarbeitende, die KI in den Betriebsprozessen nutzen
  • 57 Mrd. $ Jahresumsatz mit KI‑getriebenem Wachstum
  • Millionen NOMI‑Nutzer mit verbesserten Sparquoten
  • 20–30% Zuwachs bei Sparbeiträgen durch gezielte Anstöße
Fallstudie lesen →

Nubank

Fintech

Nubank, die größte digitale Bank Lateinamerikas, die 114 Millionen Kunden in Brasilien, Mexiko und Kolumbien betreut, stand unter enormem Druck, den Kundensupport angesichts des explosiven Wachstums zu skalieren. Traditionelle Systeme kamen mit dem hohen Volumen an Tier‑1‑Anfragen nicht zurecht, was zu längeren Wartezeiten und inkonsistenter Personalisierung führte, während die Betrugserkennung eine Echtzeitanalyse riesiger Transaktionsdaten von über 100 Millionen Nutzern erforderte. Die Balance zwischen gebührenfreien Services, personalisierten Erlebnissen und robuster Sicherheit war in einem wettbewerbsintensiven Fintech‑Umfeld, das von ausgefeilten Betrugsformen wie Spoofing und komplexen zentralen Betrugsfällen geprägt ist, entscheidend. Intern brauchten Callcenter und Support‑Teams Werkzeuge, um komplexe Anfragen effizient zu bearbeiten, ohne die Qualität zu opfern. Vor der KI führten lange Antwortzeiten zu Engpässen, und manuelle Betrugsprüfungen waren ressourcenintensiv, was Vertrauen der Kunden und regulatorische Compliance in den dynamischen Märkten Lateinamerikas gefährdete.

Lösung

Nubank integrierte OpenAI GPT-4‑Modelle in sein Ökosystem für einen generativen KI‑Chatassistenten, einen Copilot für Callcenter und eine fortschrittliche Betrugserkennung, die NLP und Computer Vision kombiniert. Der Chatassistent löst autonom Tier‑1‑Probleme, während der Copilot menschliche Agenten mit Echtzeit‑Insights unterstützt. Für die Betrugserkennung analysiert ein auf Foundation‑Modellen basierendes ML System Transaktionsmuster in großem Maßstab. Die Implementierung erfolgte in Phasen: Pilotierung von GPT‑4 für den Support Anfang 2024, Ausbau auf interne Tools bis Anfang 2025 und Erweiterung der Betrugssysteme mit multimodaler KI. Diese KI‑zentrische Strategie, verankert im maschinellen Lernen, ermöglichte nahtlose Personalisierung und deutliche Effizienzgewinne in den Abläufen.

Ergebnisse

  • 55 % der Tier‑1‑Supportanfragen werden autonom von KI bearbeitet
  • 70 % Reduktion der Chat‑Antwortzeiten
  • Mehr als 5.000 Mitarbeitende nutzen bis 2025 interne KI‑Tools
  • 114 Millionen Kunden profitieren von personalisiertem KI‑Service
  • Echtzeit‑Betrugserkennung für über 100 Mio. Transaktionsanalysen
  • Deutlicher Effizienzschub in den Callcentern
Fallstudie lesen →

Netflix

Streaming‑Medien

Mit über 17.000 Titeln und weiter wachsendem Katalog stand Netflix vor dem klassischen Cold‑Start‑Problem und der Daten‑Sparsität bei Empfehlungen: Neue Nutzer oder wenig beachtete Inhalte hatten zu wenig Interaktionsdaten, was zu schlechter Personalisierung und höheren Abwanderungsraten führte . Zuschauer hatten oft Schwierigkeiten, aus Tausenden Optionen fesselnde Inhalte zu entdecken; dadurch verlängerten sich die Suchzeiten und es kam zu Desinteresse — Schätzungen zufolge gingen bis zu 75 % der Sitzungszeit für Suchen statt fürs Schauen verloren . Das riskierte Abonnentenverluste in einem hart umkämpften Streaming‑Markt, in dem Nutzerbindung deutlich günstiger ist als Neukundengewinnung. Skalierbarkeit war eine weitere Hürde: Die Bewältigung von 200M+ Abonnenten, die täglich Milliarden von Interaktionen erzeugen, erforderte die Verarbeitung von Petabytes an Daten in Echtzeit, während sich die Vorlieben der Zuschauer so schnell änderten, dass adaptive Modelle jenseits der traditionellen Grenzen des kollaborativen Filterns nötig waren — etwa im Umgang mit dem Popularitäts‑Bias, der Mainstream‑Hits bevorzugt . Frühe Systeme nach dem Netflix Prize (2006–2009) verbesserten zwar die Genauigkeit, hatten aber Probleme mit kontextuellen Faktoren wie Gerät, Uhrzeit und Stimmung .

Lösung

Netflix entwickelte ein hybrides Empfehlungssystem, das kollaboratives Filtern (CF) — angefangen bei FunkSVD und Probabilistic Matrix Factorization aus dem Netflix Prize — mit fortgeschrittenen Deep‑Learning-Modellen für Embeddings und Vorhersagen kombiniert . Zahlreiche Anwendungsmodell‑Silos wurden in ein einheitliches Multi‑Task‑Neurales Netzwerk überführt, was Leistung und Wartbarkeit verbesserte und gleichzeitig Suche, Startseite und Zeilenempfehlungen unterstützte . Wesentliche Innovationen sind kontextuelle Banditen für Exploration–Exploitation, umfangreiche A/B‑Tests an Thumbnails und Metadaten sowie inhaltsbasierte Features aus Computer Vision und Audio‑Analysen zur Abmilderung des Cold‑Starts . Echtzeit‑Inference auf Kubernetes-Clustern verarbeitet Hunderte Millionen Vorhersagen pro Nutzersitzung, personalisiert anhand von Seh‑Verlauf, Bewertungen, Pausen und sogar Suchanfragen . Die Entwicklung reichte von den Gewinneransätzen des Prize (2009) bis hin zu Transformer‑basierten Architekturen bis 2023 .

Ergebnisse

  • 80 % der Sehstunden stammen aus Empfehlungen
  • $1 Mrd.+ jährliche Einsparungen durch reduzierte Abwanderung
  • 75 % Reduktion der Zeit, die Nutzer mit Browsen statt Schauen verbringen
  • 10 % RMSE‑Verbesserung durch Netflix Prize CF‑Techniken
  • 93 % der Views stammen aus personalisierten Reihen
  • Verarbeitet Milliarden täglicher Interaktionen für 270M Abonnenten
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Intent-Klassifikation implementieren, um Low-Value-Tickets automatisch zu routen

Die Grundlage einer KI-gestützten Triage ist robuste Intent-Erkennung. Konfigurieren Sie Gemini so, dass eingehende Tickettexte (Betreff, Body und Basis-Metadaten) gelesen und in einen standardisierten Satz von Intents klassifiziert werden, etwa „password reset“, „order status“, „address change“, „faq-product-info“ oder „billing-issue“. Diese Intents steuern dann die Routing-Regeln.

Starten Sie mit einem einfachen Klassifikations-Prompt, der ein strenges Schema erzwingt und in Ihr Ticketsystem oder Middleware-System integrierbar ist.

System: Sie sind ein Assistent, der Kundenservice-Tickets klassifiziert.
Geben Sie NUR ein JSON-Objekt mit den Feldern aus: intent, confidence (0-1), sensitive (true/false).

User-Ticket:
{{ticket_subject}}
{{ticket_body}}

Gültige Intents:
- password_reset
- order_status
- change_address
- faq_product_info
- technical_issue
- billing_issue
- other

Beschreiben Sie den Haupt-Intent mit einem der gültigen Intents.

Nutzen Sie die Werte für intent und confidence, um zu entscheiden, ob ein Ticket automatisch beantwortet, in den Self-Service geführt oder an einen Agenten geroutet werden soll. Klassifikationen mit niedriger Confidence sollten immer an einen Menschen zurückfallen.

Gemini-basierten Assistenten vor dem Ticketformular platzieren

Einer der schnellsten Wege, Low-Value-Tickets abzuwehren, ist, sie abzufangen, bevor sie eingereicht werden. Betten Sie einen Gemini-basierten, konversationellen Assistenten direkt in Ihre Web- und mobilen Kontaktstrecken ein. Aufgabe des Assistenten: die Anfrage verstehen, passende Knowledge-Base-Artikel anbieten und Nutzer durch einfache Workflows führen (z. B. Passwort zurücksetzen oder Bestellung verfolgen), ohne dass ein Ticket erstellt wird.

Nutzen Sie einen Prompt, der möglichst weitgehende Containment erzwingt, wo es sicher ist, und bei Bedarf sauber eskaliert.

System: Sie sind ein Self-Service-Assistent für Kunden.
Ziel: Lösen Sie das Anliegen, OHNE ein Support-Ticket zu erstellen, WENN es um Folgendes geht:
- Passwort zurücksetzen
- Bestellstatus
- Adressänderung
- allgemeine FAQs
Wenn das Anliegen komplex ist, sagen Sie dem Nutzer klar, dass Sie ihn an einen menschlichen Agenten übergeben.
Stellen Sie nur dann gezielte Fragen, wenn sie nötig sind. Halten Sie Antworten kurz und umsetzbar.

Instrumentieren Sie den Assistenten mit Events ("resolved", "escalated", "requested_agent"), damit Sie nachvollziehen können, wie viele Interaktionen erfolgreich enthalten werden versus eskaliert werden.

Wissensartikel und Erstantworten für Agenten automatisch vorschlagen

Nicht jedes Low-Value-Ticket lässt sich vollständig deflecten, viele können aber deutlich beschleunigt werden. Integrieren Sie Gemini in Ihren Agenten-Desktop, sodass jedes eingehende Ticket mit vorgeschlagenen Knowledge-Base-Artikeln und einem formulierten Erstentwurf einer Antwort angereichert wird, den der Agent schnell prüfen und versenden kann.

Konfigurieren Sie Gemini so, dass es Ihre KB-Inhalte durchsucht und darauf begründet und markenkonform eine prägnante Antwort generiert.

System: Sie sind ein Kundenservice-Assistent.
Sie erhalten ein Ticket und dazu passende Knowledge-Base-Artikel.
Schreiben Sie eine kurze, freundliche Antwort, die:
- die Frage direkt beantwortet
- klare Schritte oder Links enthält
- Spekulationen vermeidet
Wenn es keinen relevanten Artikel gibt, stellen Sie 1–2 klärende Fragen.

Ticket:
{{ticket_text}}

Relevante Artikel:
{{kb_snippets}}

Messen Sie den Einfluss auf die Average Handle Time (AHT) und die First-Response-Time für diese Tickets mit niedriger Komplexität. Mit der Zeit können Sie bestimmte Intents von „KI-unterstützter Agent“ auf „voller Self-Service“ verschieben.

Gemini nutzen, um E-Mail-Backlogs zu zusammenzufassen und zu triagieren

Im E-Mail-Kanal verbirgt sich oft ein langer Rattenschwanz von Low-Value-Anfragen. Verbinden Sie Gemini mit Ihrem Support-Postfach (über Ihr Helpdesk oder eine Middleware), um eingehende Nachrichten im Batch zu verarbeiten: zusammenfassen, klassifizieren und Handlungen vorschlagen. Bei offensichtlich Low-Value-Intents (z. B. Bestellstatus) kann das System nach einem optionalen menschlichen Check automatisch eine Antwortvorlage versenden, die mit dynamischen Daten (z. B. Bestelllink oder Tracking-Informationen) angereichert ist.

Entwerfen Sie einen Backend-Workflow, bei dem jede E-Mail an Gemini zur strukturierten Zusammenfassung übergeben wird.

System: Fassen Sie diese Kunden-E-Mail in 2 Sätzen zusammen.
Geben Sie anschließend strukturierte Felder aus: intent, urgency (low/medium/high),
requires_human (true/false), suggested_reply.

E-Mail:
{{email_body}}

Nutzen Sie das Flag requires_human, um zu filtern, welche Tickets ein Agent zwingend sehen muss, und versenden Sie die suggested_reply bei Low-Risk-Fällen automatisch, sobald ein Agent sie kurz überflogen und freigegeben hat.

Gemini mit operativen Systemen verbinden für echten Self-Service

Um Tickets wirklich zu deflecten, braucht Gemini mehr als nur Text – es braucht Zugriff auf operative Daten wie Bestellungen, Konten und Abonnements. Arbeiten Sie mit Ihrem Engineering-Team daran, Read-Only-APIs bereitzustellen (z. B. get_order_status, list_recent_orders, get_account_state), die Gemini über eine kontrollierte Orchestrierungsschicht aufrufen kann.

Statt das Modell halluzinieren zu lassen, definieren Sie deterministische „Tools“, die es nutzen darf, und weisen Sie es im Prompt entsprechend an.

System: Sie können die folgenden Tools verwenden:
- get_order_status(order_id)
- list_recent_orders(customer_id)
Verwenden Sie Tools NUR, wenn sie zur Beantwortung der Frage nötig sind.
Wenn die Tool-Daten fehlen, sagen Sie, dass Sie keinen Zugriff haben, und bieten Sie an, einen Agenten hinzuzuziehen.
Raten Sie NIEMALS Bestellnummern.

Nutzer:
"Wo ist meine letzte Bestellung?"

Mit diesem Pattern kann Gemini einen großen Anteil an Status- und Kontoanfragen mit Live-Daten bearbeiten und dennoch sauber eskalieren, wenn Informationen unvollständig oder riskant sind.

KPIs tracken und kontrollierte Experimente zur Deflection durchführen

Sobald Gemini-gestützte Triage live ist, sollten Sie in den Messmodus wechseln. Definieren Sie ein minimales KPI-Set für Ticket-Deflection und KI-Performance: Deflection-Rate (Anteil der Interaktionen ohne Ticketerstellung), Containment-Rate (nicht eskalierte KI-Konversationen), AHT für Low-Value-Tickets, CSAT für KI-unterstützte und KI-only-Interaktionen sowie die Zufriedenheit der Agenten.

Führen Sie A/B-Tests für kritische Flows durch, z. B. unterschiedliche Formulierungen im Self-Service-Assistenten oder strengere vs. lockerere Eskalationsschwellen. Sie können etwa testen, ob eine zusätzliche klärende Frage vor der Eskalation die Containment-Rate erhöht, ohne die CSAT zu beeinträchtigen. Prüfen Sie Transkripte regelmäßig mit Ihren Support-Leads und verfeinern Sie Prompts und Routing-Regeln anhand konkreter Beispiele.

Mit gut gestalteten Workflows können die meisten Organisationen realistisch eine Reduktion des Low-Value-Ticket-Volumens um 20–40 % über mehrere Monate erwarten – bei gleichzeitig schnelleren Erstantworten und stärker fokussierter Agentenzeit auf komplexe Themen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini ist besonders geeignet für wiederkehrende, risikoarme Kundenservice-Anfragen wie Unterstützung beim Passwort-Zurücksetzen, Bestellstatus-Abfragen, Liefer-FAQs, Adressänderungen sowie standardisierte Fragen zu Produkten oder Richtlinien. Diese Tickets folgen in der Regel einem klaren Muster und lassen sich mit bestehendem Knowledge-Base-Content oder einfachen Integrationen in Bestell-/Kontosysteme lösen.

Höher riskante Szenarien (z. B. Rückerstattungen, Beschwerden, rechtliche Themen, komplexe technische Incidents) sollten entweder von der Automatisierung ausgenommen werden oder so konfiguriert sein, dass Gemini Agenten nur mit Entwürfen und Zusammenfassungen unterstützt, statt direkt an Kunden zu antworten.

Das initiale Setup für einen fokussierten Gemini-Triage-Piloten lässt sich in der Regel in wenigen Wochen realisieren, vorausgesetzt, Sie verfügen bereits über ein Helpdesk-System und eine grundlegende Knowledge Base. Ein typischer Zeitplan sieht so aus:

  • 1–2 Wochen: Ticketdaten analysieren, „Low-Value“-Intents definieren, Flows und Guardrails entwerfen.
  • 2–3 Wochen: Gemini-Prompts implementieren, Integration mit Ihrem Ticketsystem oder Web-Assistenten umsetzen und mit internem Traffic testen.
  • 2–4 Wochen: Kontrollierten Piloten mit einem Teil der Nutzer oder Kanäle durchführen, KPIs monitoren und verfeinern.

Das Skalieren über den Piloten hinaus (auf mehr Intents, Sprachen oder Systeme) hängt von Ihrer internen IT-Landschaft und der Geschwindigkeit ab, mit der Sie die notwendigen APIs bereitstellen können.

Sie brauchen kein großes KI-Forschungsteam, aber eine Mischung aus Customer-Service-Operations, grundlegender Engineering-Kompetenz und Product Ownership. Praktisch umfasst das Kernteam in der Regel:

  • Eine Leitung im Support Operations, die definiert, welche Tickets Low-Value und sicher automatisierbar sind.
  • Einen Product- oder Projekt-Owner, der Workflow-Design und Backlog verantwortet.
  • Entwickler, die Gemini über APIs oder Middleware in Ihr Helpdesk, Ihre Website oder Ihre App integrieren.
  • Optional eine daten- bzw. KI-affine Person, die bei Prompt-Design und Performance-Monitoring unterstützt.

Reruption kann Ihr Team mit KI-Engineering- und Workflow-Design-Kompetenz ergänzen, sodass sich Ihr internes Team auf Richtlinien, Inhalte und Adoption konzentrieren kann.

Der ROI der KI-basierten Ticket-Deflection speist sich aus mehreren Quellen: weniger Agentenzeit für repetitive Anfragen, geringerer Bedarf an zusätzlicher Personalkapazität bei wachsendem Volumen, schnellere Antworten und höhere Zufriedenheit der Mitarbeitenden. In vielen Umgebungen ist es über die Zeit realistisch, 20–40 % der Low-Complexity-Tickets zu deflecten oder deutlich zu beschleunigen.

Die exakten finanziellen Effekte hängen von Ihrem aktuellen Ticketvolumen und den Kosten pro Ticket ab. Wenn Sie beispielsweise 50.000 Tickets pro Monat mit durchschnittlichen Vollkosten von 4 € pro Ticket bearbeiten, kann die Deflection oder Teilautomatisierung von 30 % der wirklich Low-Value-Tickets zu Einsparungen in Höhe von mehreren hunderttausend Euro pro Jahr führen – und gleichzeitig Agenten dafür freisetzen, sich auf komplexe, wertschaffende Interaktionen wie Upsell-Chancen oder die Lösung risikoreicher Incidents zu konzentrieren.

Reruption ist darauf spezialisiert, KI-first-Kundenservice-Fähigkeiten direkt in Unternehmen aufzubauen. Mit unserem KI-PoC-Angebot (9.900 €) können wir schnell validieren, ob Gemini Ihre spezifischen Low-Value-Tickets zuverlässig triagieren und deflecten kann – von Use-Case-Scope und Prompt-/Architekturdesign bis hin zu einem funktionsfähigen Prototypen, der in Ihr Helpdesk oder Frontend integriert ist.

Über den PoC hinaus arbeiten wir mit einem Co-Preneur-Ansatz: Wir arbeiten eng mit Ihrem Team zusammen, entwerfen den End-to-End-Workflow, implementieren die notwendigen Integrationen und helfen beim Aufbau von Governance, KPIs und Enablement für Ihre Agenten. So erhalten Sie nicht nur einen Demo-Chatbot, sondern eine robuste, messbare, Gemini-basierte Deflection-Schicht, die Ihr Ticketvolumen in Ihrer realen Umgebung tatsächlich reduziert.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media