Die Herausforderung: Manuelle Ticket-Triage

Die meisten Kundenservice-Teams verlassen sich noch immer darauf, dass Mitarbeitende jede neue E-Mail, jedes Formular und jedes Chat-Transkript lesen und dann entscheiden, worum es geht, wie dringend es ist und wer sich darum kümmern soll. Dieser Prozess der manuellen Ticket-Triage ist langsam, inkonsistent und stark von der individuellen Erfahrung abhängig. Wenn Volumen und Kanäle zunehmen, stoßen selbst starke Teams schnell an ihre Grenzen.

Traditionelle Ansätze wie statische Routing-Regeln, Keyword-Filter oder starre Ticket-Formulare kommen mit der tatsächlichen Kommunikationsweise von Kundinnen und Kunden nicht mehr mit. Menschen schreiben Freitext, mischen mehrere Anliegen in einer Nachricht und nutzen verschiedene Sprachen und Kanäle. Regelbasierte Systeme haben Schwierigkeiten mit Nuancen wie Stimmung, vertraglichen Verpflichtungen oder der Frage, ob es sich bei einer Nachricht um eine einfache „How-to“-Frage oder ein potenzielles Churn-Risiko handelt. Agents verbringen ihre Zeit damit, fehlgeleitete Tickets zu korrigieren, statt Probleme zu lösen.

Die geschäftlichen Auswirkungen sind erheblich: Dringende Tickets landen in der falschen Warteschlange, SLAs werden verletzt und hochwertige Kundinnen und Kunden warten zu lange auf eine Antwort. Die durchschnittliche Bearbeitungszeit steigt, weil Agents pro Ticket wertvolle Minuten für Kategorisierung und Routing aufwenden. Führungskräfte verlieren den Überblick über die tatsächliche Nachfrage, weil Kategorien inkonsistent vergeben werden. Am Ende führt das zu höheren Supportkosten, frustrierten Kundinnen und Kunden und einem Wettbewerbsnachteil gegenüber Unternehmen, die bereits KI nutzen, um ihren Kundenservice zu beschleunigen.

Die gute Nachricht: Genau um diese Art von Mustererkennung geht es bei moderner KI für den Kundenservice. Mit Tools wie Google Gemini ist es heute möglich, jedes Ticket in Echtzeit zu analysieren, Absicht, Thema und Auswirkungen auf SLAs über Sprachen hinweg zu verstehen und es von Anfang an korrekt zu routen. Bei Reruption verfügen wir über praktische Erfahrung im Aufbau von KI-gestützten Support-Workflows und internen Tools. Im weiteren Verlauf dieser Seite führen wir Sie durch konkrete Schritte, mit denen Sie manuelle Triage in einen automatisierten, verlässlichen Prozess verwandeln.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Sicht von Reruption ist das Automatisieren der manuellen Ticket-Triage mit Gemini einer der schnellsten Hebel, um Reibung im Kundenservice zu reduzieren. In unserer täglichen KI-Engineering-Arbeit sehen wir immer wieder, dass große Sprachmodelle Freitext-Anfragen zuverlässig interpretieren, Absicht und Dringlichkeit erkennen und strukturierte Labels in bestehende Support-Tools einspeisen können. Durch die enge Integration von Gemini in Google Workspace und die API eignet es sich besonders gut, um KI-Triage-Logik direkt in Ihre bestehenden E-Mail-, Chat- und Ticketing-Flows einzubetten – ohne einen vollständigen Systemwechsel.

In Flows denken, nicht in Features

Bevor Sie eine KI-gestützte Ticket-Triage mit Gemini aktivieren, sollten Sie den tatsächlichen Weg eines Tickets abbilden – von dem Moment an, in dem eine Kundin oder ein Kunde Sie kontaktiert, bis zu dem Punkt, an dem ein Agent das Ticket löst. Die meisten Organisationen stellen fest, dass es mehrere parallele Flows gibt (z. B. Beschwerden, Bestelländerungen, technische Störungen, Abrechnung), die unterschiedliche Routing- und Priorisierungsregeln benötigen. Gemini sollte diese Flows unterstützen, nicht vorgeben.

Strategisch bedeutet das, zu definieren, an welcher Stelle im Flow Gemini Mehrwert stiftet: beim Interpretieren der Rohnachricht, beim Prognostizieren der Absicht, bei der Prioritätsvergabe, beim Vorschlagen von Tags oder sogar beim Generieren erster Antwortvorschläge. Ein klarer Flow-Blick verhindert, dass Sie Gemini wie eine Blackbox behandeln, und positioniert es stattdessen als Baustein in einem durchdachten Customer-Service-Prozess.

Schmal starten mit Ticket-Typen mit hohem Impact

Nicht jedes Ticket braucht vom ersten Tag an KI. Eine sinnvolle Strategie ist, für Ihren ersten Gemini-Triage-Pilot ein eng umrissenes, aber volumenstarkes und geschäftskritisches Segment auszuwählen – zum Beispiel „Passwort-Reset und Login-Probleme“ oder „Fragen zum Bestellstatus“. Diese sind meist leicht zu erkennen, treten häufig auf und führen zu Frustration, wenn sie falsch geroutet werden.

Durch die Begrenzung des Umfangs können Sie schnell messen, wie gut Gemini diesen spezifischen Ticket-Typ im Vergleich zur manuellen Triage identifiziert und routet. Das schafft Vertrauen im Team, offenbart Edge Cases aus der Praxis und baut das interne Know-how auf, das Sie benötigen, bevor Sie auf komplexere, nuancenreichere Themen wie Eskalationen oder rechtliche Beschwerden ausweiten.

Teams auf KI-unterstützte Entscheidungen vorbereiten

Die Automatisierung der Ticket-Triage ist nicht nur ein technisches Projekt – sie verändert die Arbeitsweise von Agents und Koordinatoren. Statt alles selbst zu entscheiden, überprüfen und korrigieren sie künftig Geminis Triage-Vorschläge. Wenn Sie das nicht explizit adressieren, riskieren Sie Widerstand oder stille Umgehungsstrategien, bei denen Ergebnisse der KI ignoriert werden.

Setzen Sie früh klare Erwartungen: Definieren Sie, welche Triage-Entscheidungen vollständig automatisiert werden können und welche in menschlicher Verantwortung bleiben. In der Anfangsphase bietet sich ein Human-in-the-Loop-Ansatz an, bei dem Gemini Absicht, Priorität und Queue vorschlägt und Agents nur bestätigen oder anpassen. Schulung und klare Kommunikation stellen sicher, dass Mitarbeitende Gemini als Co-Pilot sehen, der Routinearbeit abnimmt – nicht als Blackbox, die Autonomie entzieht.

Von Anfang an für Risiko und Governance designen

Der strategische Einsatz von KI für die Automatisierung im Kundenservice bedeutet, über Risiken nachzudenken, bevor Probleme auftreten. Die Fehlklassifizierung eines Tickets mit niedriger Priorität ist ärgerlich, die falsche Einstufung einer risikoreichen Beschwerde, eines Rechtsfalls oder eines Sicherheitsvorfalls dagegen kritisch. Sie brauchen klare Richtlinien dafür, für welche Ticket-Kategorien Gemini automatisch routen darf und wo Eskalationsregeln oder zusätzliche Prüfungen obligatorisch sind.

Führen Sie Leitplanken ein, etwa Confidence-Thresholds, Sonderbehandlung bestimmter Schlüsselbegriffe (z. B. „Betrug“, „Datenpanne“, „rechtlich“) und automatische Weiterleitung an erfahrene Teams, wenn Gemini unsicher ist. Dokumentieren Sie, wie Triage-Entscheidungen zustande kommen, und stellen Sie sicher, dass sowohl das Verhalten des Modells als auch die Auswirkungen auf SLAs und Compliance prüfbar sind.

Feedback-Loops und Ownership rund um das Modell aufbauen

Die Performance von Gemini in der automatischen Ticket-Triage verbessert sich nur dann nachhaltig, wenn jemand den Lebenszyklus von Prompts, Regeln und Trainingsbeispielen verantwortet. Ohne klares Ownership entfernt sich die Triage-Logik mit der Zeit von der Realität, wenn sich Produkte, Richtlinien und Kundenverhalten ändern.

Benennen Sie eine funktionsübergreifende verantwortliche Person (häufig eine Produktmanagerin bzw. ein Produktmanager oder Process Owner für den Kundenservice), die für die Überwachung der Triage-Genauigkeit, das Sammeln von Fehlklassifizierungen aus dem Agenten-Team und die iterative Verfeinerung von Prompts und Logik in Zusammenarbeit mit Engineering zuständig ist. Analysieren Sie regelmäßig typische Verwechslungsmuster (z. B. wenn „Kündigungsanfrage“ als „Produktfrage“ gelabelt wird) und passen Sie das System an. So wird Gemini von einem einmaligen Tool zu einem kontinuierlich wertschöpfenden Asset.

Sorgfältig eingesetzt kann Gemini manuelle Ticket-Triage in einen schnellen, konsistenten und datenreichen Prozess verwandeln, der Ihre Agents von monotonen Aufgaben entlastet, damit sie sich auf echte Kundenprobleme konzentrieren können. Entscheidend ist, Gemini mit klaren Leitplanken, Feedback-Schleifen und klarem Ownership in Ihre bestehenden Workflows einzubetten, statt es als Plug-and-Play-Gadget zu betrachten. Bei Reruption verbinden wir tiefe Engineering-Erfahrung mit einem Co-Preneur-Mindset, um genau solche KI-gestützten Support-Flows zu entwerfen und umzusetzen. Wenn Sie prüfen, wie Sie Triage mit Gemini in Ihrer Kundenservice-Organisation automatisieren können, unterstützen wir Sie gerne bei Scoping, Prototyping und der sicheren Einführung.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Fertigung bis Bankwesen: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Ford Motor Company

Fertigung

In Fords Automobilfertigungsstätten stellten Schleifen und Lackieren von Karosserien einen großen Engpass dar. Diese arbeitsintensiven Tätigkeiten erforderten manuelles Schleifen der Karosserien durch Mitarbeitende, ein Prozess, der zu Inkonsistenzen, Ermüdung und ergonomischen Verletzungen aufgrund repetitiver Bewegungen über Stunden führte . Traditionelle Robotersysteme hatten Probleme mit der Variabilität von Karosserieteilen, Krümmungen und Materialunterschieden, was eine vollständige Automatisierung in bestehenden 'Brownfield'-Anlagen erschwerte . Zudem war das Erreichen einer konstanten Oberflächenqualität für die Lackierung entscheidend, da Fehler zu Nacharbeit, Verzögerungen und höheren Kosten führen konnten. Mit steigender Nachfrage nach Elektrofahrzeugen (EVs) und zunehmender Produktionsskalierung musste Ford modernisieren, ohne massive Investitionsausgaben oder Störungen des laufenden Betriebs zu verursachen, und dabei die Sicherheit der Belegschaft und deren Qualifizierung priorisieren . Die Herausforderung bestand darin, eine skalierbare Automatisierung zu integrieren, die nahtlos mit Menschen zusammenarbeitet.

Lösung

Ford begegnete dieser Herausforderung durch den Einsatz von KI-geführten kollaborativen Robotern (Cobots), ausgestattet mit Maschinenvision und Automatisierungsalgorithmen. In der Karosseriewerkstatt scannen sechs Cobots mit Kameras und KI die Karosserien in Echtzeit, erkennen Flächen, Defekte und Konturen mit hoher Präzision . Diese Systeme nutzen Computer-Vision-Modelle für 3D-Mapping und Bahnplanung, wodurch sich die Cobots dynamisch anpassen können, ohne neu programmiert werden zu müssen . Die Lösung setzte auf eine workforce-first Brownfield-Strategie, beginnend mit Pilotprojekten in Werken in Michigan. Cobots übernehmen das Schleifen autonom, während Menschen die Qualitätsüberwachung durchführen, wodurch Verletzungsrisiken reduziert werden. Partnerschaften mit Robotikfirmen und interne KI-Entwicklung ermöglichten Low-Code-Inspektionstools für eine einfache Skalierung .

Ergebnisse

  • Schleifzeit: 35 Sekunden pro vollständiger Karosserie (statt Stunden manuell)
  • Produktivitätssteigerung: 4x schneller in Montageprozessen
  • Verletzungsreduktion: 70 % weniger ergonomische Belastungen in Cobots-Bereichen
  • Konsistenzverbesserung: 95 % fehlerfreie Oberflächen nach dem Schleifen
  • Einsatzumfang: 6 Cobots im Betrieb, Ausbau auf über 50 Einheiten geplant
  • ROI-Zeitraum: Amortisation in 12–18 Monaten pro Werk
Fallstudie lesen →

NatWest

Bankwesen

NatWest Group, eine führende britische Bank, die über 19 Millionen Kunden bedient, sah sich zunehmenden Anforderungen an den digitalen Kundenservice gegenüber. Traditionelle Systeme wie der ursprüngliche Cora-Chatbot bewältigten Routineanfragen zwar zuverlässig, hatten jedoch Schwierigkeiten mit komplexen, nuancierten Interaktionen und eskalierten häufig 80–90 % der Fälle an menschliche Mitarbeitende. Das führte zu Verzögerungen, höheren Betriebskosten und Risiken für die Kundenzufriedenheit, während die Erwartungen an sofortige, personalisierte Unterstützung stiegen . Gleichzeitig stellte der Anstieg von Finanzbetrug eine kritische Bedrohung dar, die nahtloses Betrugsreporting und Erkennung innerhalb von Chat-Oberflächen erforderte, ohne Sicherheit oder Vertrauen der Nutzer zu gefährden. Regulatorische Vorgaben, Datenschutz nach UK GDPR und ethische KI-Einsätze erhöhten die Komplexität, da die Bank Support skalieren wollte und gleichzeitig Fehler in risikoreichen Bankprozessen minimieren musste . Die Balance zwischen Innovation und Zuverlässigkeit war entscheidend; mangelhafte KI-Leistungen könnten in einem Sektor, in dem die Kundenzufriedenheit direkt Kundenbindung und Umsatz beeinflusst, Vertrauen untergraben .

Lösung

Mit der Einführung von Cora+ im Juni 2024 führte NatWest sein erstes umfassendes Upgrade mit generativer KI ein, um proaktive, intuitive Antworten auf komplexe Anfragen zu ermöglichen, Eskalationen zu reduzieren und die Selbstbedienung zu verbessern . Dies baute auf der etablierten Cora-Plattform auf, die bereits Millionen von Interaktionen pro Monat verwaltete. In einem wegweisenden Schritt ging NatWest im März 2025 eine Partnerschaft mit OpenAI ein und wurde damit die erste in Großbritannien ansässige Bank, die dies tat. LLMs wurden sowohl in das kundenorientierte Cora als auch in das interne Tool Ask Archie integriert. Dadurch wurden natürliche Sprachverarbeitung für Betrugsmeldungen, personalisierte Beratung und Prozessvereinfachung möglich, während zugleich Schutzmaßnahmen für Compliance und Bias-Minderung implementiert wurden . Der Ansatz legte starken Wert auf ethische KI, mit rigorosen Tests, menschlicher Aufsicht und kontinuierlichem Monitoring, um sichere und präzise Interaktionen bei Betrugserkennung und Serviceleistungen zu gewährleisten .

Ergebnisse

  • 150 % Anstieg der Cora-Kundenzufriedenheitswerte (2024)
  • Proaktive Auflösung komplexer Anfragen ohne menschliches Eingreifen
  • Erste OpenAI-Partnerschaft einer UK-Bank, beschleunigt KI-Einführung
  • Verbesserte Betrugserkennung durch Echtzeit-Chat-Analyse
  • Millionen monatlicher Interaktionen, die autonom verarbeitet werden
  • Deutliche Reduktion der Eskalationsraten an Agenten
Fallstudie lesen →

Nubank

Fintech

Nubank, die größte digitale Bank Lateinamerikas, die 114 Millionen Kunden in Brasilien, Mexiko und Kolumbien betreut, stand unter enormem Druck, den Kundensupport angesichts des explosiven Wachstums zu skalieren. Traditionelle Systeme kamen mit dem hohen Volumen an Tier‑1‑Anfragen nicht zurecht, was zu längeren Wartezeiten und inkonsistenter Personalisierung führte, während die Betrugserkennung eine Echtzeitanalyse riesiger Transaktionsdaten von über 100 Millionen Nutzern erforderte. Die Balance zwischen gebührenfreien Services, personalisierten Erlebnissen und robuster Sicherheit war in einem wettbewerbsintensiven Fintech‑Umfeld, das von ausgefeilten Betrugsformen wie Spoofing und komplexen zentralen Betrugsfällen geprägt ist, entscheidend. Intern brauchten Callcenter und Support‑Teams Werkzeuge, um komplexe Anfragen effizient zu bearbeiten, ohne die Qualität zu opfern. Vor der KI führten lange Antwortzeiten zu Engpässen, und manuelle Betrugsprüfungen waren ressourcenintensiv, was Vertrauen der Kunden und regulatorische Compliance in den dynamischen Märkten Lateinamerikas gefährdete.

Lösung

Nubank integrierte OpenAI GPT-4‑Modelle in sein Ökosystem für einen generativen KI‑Chatassistenten, einen Copilot für Callcenter und eine fortschrittliche Betrugserkennung, die NLP und Computer Vision kombiniert. Der Chatassistent löst autonom Tier‑1‑Probleme, während der Copilot menschliche Agenten mit Echtzeit‑Insights unterstützt. Für die Betrugserkennung analysiert ein auf Foundation‑Modellen basierendes ML System Transaktionsmuster in großem Maßstab. Die Implementierung erfolgte in Phasen: Pilotierung von GPT‑4 für den Support Anfang 2024, Ausbau auf interne Tools bis Anfang 2025 und Erweiterung der Betrugssysteme mit multimodaler KI. Diese KI‑zentrische Strategie, verankert im maschinellen Lernen, ermöglichte nahtlose Personalisierung und deutliche Effizienzgewinne in den Abläufen.

Ergebnisse

  • 55 % der Tier‑1‑Supportanfragen werden autonom von KI bearbeitet
  • 70 % Reduktion der Chat‑Antwortzeiten
  • Mehr als 5.000 Mitarbeitende nutzen bis 2025 interne KI‑Tools
  • 114 Millionen Kunden profitieren von personalisiertem KI‑Service
  • Echtzeit‑Betrugserkennung für über 100 Mio. Transaktionsanalysen
  • Deutlicher Effizienzschub in den Callcentern
Fallstudie lesen →

Wells Fargo

Bankwesen

Wells Fargo, das 70 Millionen Kunden in 35 Ländern betreut, sah sich mit hoher Nachfrage nach 24/7-Kundendienst in seiner Mobile-Banking-App konfrontiert, in der Nutzer sofortige Unterstützung bei Transaktionen wie Überweisungen und Rechnungszahlungen benötigten. Traditionelle Systeme hatten Schwierigkeiten mit hohen Interaktionsvolumina, langen Wartezeiten und der Notwendigkeit schneller Antworten per Sprache und Text, insbesondere da die Kundenerwartungen sich hin zu nahtlosen digitalen Erlebnissen wandelten. Regulatorischer Druck im Bankwesen verschärfte die Herausforderungen und erforderte strenge Datenschutz-Maßnahmen, um PII-Exposition zu verhindern und KI ohne menschliches Eingreifen skalierbar zu machen. Zusätzlich steckten die meisten großen Banken in Proof-of-Concept-Phasen für generative KI fest und hatten keine produktionsreifen Lösungen, die Innovation und Compliance ausbalancierten. Wells Fargo benötigte einen virtuellen Assistenten, der komplexe Anfragen autonom bearbeiten, Ausgabenanalysen liefern und sich kontinuierlich verbessern konnte, ohne Sicherheit oder Effizienz zu gefährden.

Lösung

Wells Fargo entwickelte Fargo, einen generativen KI-Virtual-Assistenten, der in die Banking-App integriert ist und auf Google Cloud AI setzt, einschließlich Dialogflow für den Konversationsfluss und PaLM 2/Flash 2.0 LLMs für das Verständnis natürlicher Sprache. Diese modell-agnostische Architektur ermöglichte eine datenschutzorientierte Orchestrierung, die Anfragen routet, ohne PII an externe Modelle zu senden. Im März 2023 nach einer Ankündigung 2022 gestartet, unterstützt Fargo Sprach- und Textinteraktionen für Aufgaben wie Überweisungen, Rechnungszahlungen und Ausgabenanalysen. Kontinuierliche Updates ergänzten KI-gesteuerte Insights und agentische Fähigkeiten über Google Agentspace, wodurch keine menschlichen Übergaben erforderlich sind und die Lösung für regulierte Branchen skalierbar bleibt. Der Ansatz löste die Herausforderungen durch Fokus auf sichere, effiziente KI-Bereitstellung.

Ergebnisse

  • 245 Millionen Interaktionen in 2024
  • 20 Millionen Interaktionen bis Januar 2024 seit dem Start im März 2023
  • Prognose: 100 Millionen Interaktionen jährlich (Prognose 2024)
  • Keine menschlichen Übergaben bei allen Interaktionen
  • Keine PII an LLMs weitergegeben
  • Durchschnittlich 2,7 Interaktionen pro Nutzersitzung
Fallstudie lesen →

NYU Langone Health

Gesundheitswesen

At NYU Langone Health, one of the largest U.S. academic medical centers, 80% of electronic health record (EHR) data exists as unstructured free-text clinical notes, rich in nuanced patient insights but notoriously difficult to process for predictive analytics . Traditional machine learning models depend on structured data like vital signs and labs, missing subtle signals in physician narratives that could forecast critical outcomes such as in-hospital mortality, prolonged length of stay (LOS), readmissions, and even operational issues like appointment no-shows . This gap leads to less accurate risk stratification, inefficient resource use, and delayed interventions in a system handling millions of encounters yearly . Developing task-specific models exacerbates challenges: each requires laborious feature engineering, labeled data curation, and maintenance, straining resources in a dynamic clinical environment. With rising patient volumes and complexity, NYU Langone needed a scalable, versatile prediction engine capable of leveraging raw notes without preprocessing hurdles .

Lösung

NYU Langone's Division of Applied AI Technologies at the Center for Healthcare Innovation and Delivery Science created NYUTron, a foundational 6.7-billion-parameter large language model (LLM) pretrained on 10+ years of de-identified inpatient clinical notes—4 billion words from 4.4 million encounters . Using a GPT-like architecture, NYUTron learns medical language intricacies, enabling it to serve as an 'all-purpose clinical prediction engine' . The model is fine-tuned on modest labeled datasets for 10 diverse tasks, from clinical predictions (e.g., mortality, LOS) to operational forecasts (e.g., no-shows), bypassing complex pipelines of prior models . This approach yields superior performance over baselines like ClinicalBERT and structured models, with easy deployment into workflows . Ongoing expansions include generative applications and education tools .

Ergebnisse

  • AUROC für stationäre Mortalität: 0.932 (vs. strukturiertes Baseline-Modell 0.886)
  • AUROC für verlängerte Verweildauer (LOS): 0.906 (vs. 0.870)
  • AUROC für 30‑Tage‑Wiederaufnahmen: 0.773 (vs. 0.727)
  • AUROC für 48‑Stunden‑Mortalität: 0.969
  • AUROC für Vorhersage von Hochkostenaufenthalten: 0.842 (vs. 0.808)
  • Durchschnittlicher AUROC‑Zuwachs gegenüber Top‑Baselines: 4.4 Punkte
  • Korpusgröße: 4 Mrd. Wörter aus 10 Jahren von 4.4 Mio. Begegnungen
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Ein klares Triage-Schema definieren, mit dem Gemini arbeiten kann

Bevor Sie Gemini mit Ihrem Ticket-System verbinden, brauchen Sie eine gemeinsame Sprache für die Triage: Was sind die gültigen Ticket-Kategorien, Prioritäten und Queues? Viele Support-Organisationen stellen fest, dass ihr aktuelles Schema entweder zu vage ist („Allgemeine Anfrage“) oder zu detailliert (Hunderte von Kategorien, die niemand konsistent nutzt).

Konsolidieren Sie Ihre Kategorien zu einem handhabbaren Set (z. B. 10–25), das 80–90 % der eingehenden Tickets abdeckt, und definieren Sie objektive Regeln für jede Prioritätsstufe (z. B. P1 = Serviceausfall, P2 = blockierter Workflow, P3 = Informationsanfrage). Stellen Sie Gemini diese Definitionen als Teil des Systemprompts zur Verfügung, damit das Modell Ihre spezifische Taxonomie versteht.

Systemprompt-Beispiel für Gemini-Ticket-Triage:
Sie sind ein KI-Assistent, der einem Kundenservice-Team bei der Triage von Support-Tickets hilft.
Für jedes Ticket MÜSSEN Sie in gültigem JSON mit folgenden Feldern antworten:
- intent: eines von ["order_status", "billing", "login_issue", "cancellation", "technical_bug", "feedback", "other"]
- priority: eines von ["P1", "P2", "P3"]
- queue: eines von ["first_level", "billing_team", "tech_support", "retention"]
- rationale: kurze Erklärung auf Englisch

Prioritätsregeln:
- P1: Serviceausfall, Sicherheitsvorfall oder Kundin/Kunde kann den Kernservice nicht nutzen
- P2: erhebliche Beeinträchtigung, aber es existiert ein Workaround
- P3: Informationsfragen oder Anliegen mit geringer Auswirkung

Analysieren Sie nun den folgenden Ticket-Text:
{{ticket_text}}

Durch die frühzeitige Standardisierung dieses Schemas erleichtern Sie die Integration der Gemini-Ausgaben in Ihr Helpdesk oder CRM und schaffen eine Grundlage zur Messung der Genauigkeit.

Gemini am Eingangspunkt der Tickets integrieren

Um den Effekt zu maximieren, sollte die Gemini-Klassifikation so nah wie möglich am Zeitpunkt des Ticket-Eingangs stattfinden – wenn eine E-Mail ein Shared Postfach erreicht, ein Webformular abgeschickt wird oder eine Chat-Sitzung endet. So reduzieren Sie die Wartezeit in der Queue und sorgen dafür, dass Agents bereits geroutete Tickets sehen, statt unstrukturierte Rohtexte.

In der Praxis bedeutet dies häufig den Aufbau eines kleinen Middleware-Services oder den Einsatz von Automatisierungstools:

  • Bei E-Mail-basiertem Support: Nutzen Sie Google-Workspace-APIs oder Gmail-Add-ons, um eine Cloud Function oder einen Webhook auszulösen, der den E-Mail-Inhalt an Gemini sendet, das Triage-JSON empfängt und ein Ticket in Ihrem Helpdesk mit der richtigen Kategorie und Queue erstellt oder aktualisiert.
  • Für Webformulare und Chat: Verbinden Sie Ihr Formular-/Chat-Backend mit einem ähnlichen Triage-Service, der Gemini aufruft, bevor das Ticket in Ihr Ticketing-System übertragen wird.

Gestalten Sie dies als zustandslose API: Input sind Rohtext plus Metadaten (z. B. Kundensegment, Sprache, Kanal), Output sind strukturierte Triage-Felder. So bleibt die Architektur einfach und wartbar.

Mehrsprachige Erkennung und Routing nutzen

Eine Stärke von Gemini ist die Verarbeitung von mehrsprachigem Kundenservice. Statt separate Triage-Regeln pro Sprache aufzubauen, können Sie Gemini Sprache und Absicht in einem Schritt erkennen lassen. Fügen Sie in Ihrem Systemprompt explizite Anweisungen ein, immer ein Feld language zusammen mit den anderen Triage-Informationen zurückzugeben.

JSON-Schema im Systemprompt erweitern:
- language: ISO-639-1-Sprachcode (z. B. "en", "de", "fr")

Zusätzliche Regel:
- Erkennen Sie immer die Ticket-Sprache, auch wenn der Text kurz ist.
- Wenn Sie unsicher sind, geben Sie die wahrscheinlichste Sprache zurück und vermerken Sie die Unsicherheit in der Begründung.

Operativ können Sie Tickets dann anhand dieses Feldes an sprachspezifische Queues oder Agents routen oder automatische Übersetzungs-Workflows auslösen, wenn Teams in einer primären Support-Sprache arbeiten. Das ist besonders hilfreich für europäische Organisationen mit verteilten Kundenbasen.

Gemini-Scores mit Business-Regeln für SLA-bewusste Priorisierung kombinieren

Reine inhaltsbasierte Priorisierung reicht für reife Kundenservice-Teams nicht aus; Sie müssen zudem SLAs, Kundenwert und Verträge berücksichtigen. Eine Best Practice ist, Gemini die semantische Interpretation übernehmen zu lassen (Was fragt die Kundin/der Kunde? Wie dringend wirkt es?) und diese anschließend mit Business-Regeln aus Ihrem CRM oder Vertragsdatenbank zu kombinieren.

Beispielsweise gibt Gemini eine vorgeschlagene Priorität plus einen Stimmungs-/Dringlichkeitsscore von 1–5 aus:

Beispiel-Antwortausschnitt von Gemini:
{
  "intent": "technical_bug",
  "priority": "P2",
  "urgency_score": 4,
  "sentiment": "very_negative"
}

Ihre Middleware passt die finale Priorität anschließend anhand von Kundensegment und SLA an, zum Beispiel:

  • Wenn customer_tier = "enterprise" und urgency_score ≥ 4 → eine Stufe hochstufen (P2 → P1).
  • Wenn contract_SLA = 2h Antwortzeit und sentiment = "very_negative" → in die Eskalations-Queue routen.

Dieser hybride Ansatz stellt sicher, dass Sie Ihre vertraglichen Verpflichtungen einhalten und gleichzeitig von Geminis Verständnis von Inhalt und Tonfall profitieren.

Agentenfreundliche Triage-Overlays und Feedback-Buttons aufbauen

Auch wenn Sie das Routing automatisieren, sollten Agents transparent sehen können, was Gemini entschieden hat und warum. Blenden Sie in Ihrem Helpdesk-UI eine kleine Triage-Karte ein, die die von Gemini gelieferten Felder Absicht, Priorität, Queue, Sprache und Begründung anzeigt. Das hilft Agents, Randfälle zu verstehen und Vertrauen in das System aufzubauen.

Ergänzen Sie anschließend einfache Feedback-Controls wie „Triage korrekt“ / „Triage inkorrekt“ mit einem Dropdown für die richtige Kategorie oder Priorität. Erfassen Sie dieses Feedback als gelabelte Daten. Exportieren Sie diese Beispiele regelmäßig, um Prompts zu verfeinern oder nachgelagerte Komponenten zu optimieren. Mit der Zeit verbessert dieses direkte Agenten-Feedback die Qualität der automatisierten Triage deutlich und reduziert die Override-Rate.

Genauigkeit, Geschwindigkeit und Impact mit klaren KPIs messen

Um KI-basierte Ticket-Triage als produktiven Capability zu betreiben, brauchen Sie mehr als nur Modellgenauigkeit. Definieren Sie KPIs entlang von drei Dimensionen:

  • Qualität: Anteil der Tickets mit korrekter Kategorie/Queue, Override-Rate durch Agents, Precision/Recall für kritische Kategorien (z. B. Ausfälle, Kündigungen).
  • Geschwindigkeit: Zeit von Ticket-Eingang bis zur ersten korrekten Queue-Zuordnung, Veränderung der durchschnittlichen First-Response-Time.
  • Kosten & Effizienz: Reduktion der manuellen Triage-Zeit pro Ticket, Veränderung der Anzahl bearbeiteter Tickets pro Agent und Tag.

Instrumentieren Sie Ihren Workflow so, dass Sie diese KPIs vor und nach der Einführung von Gemini vergleichen können. Ein realistisches Ergebnis nach sauberer Konfiguration: 60–80 % der eingehenden Tickets werden ohne Eingriff automatisch geroutet, 20–40 % weniger manuelle Triage-Zeit und messbare Verbesserungen in der SLA-Einhaltung bei hochpriorisierten Fällen.

Wenn Sie diese taktischen Best Practices umsetzen, kann Gemini-gestützte Ticket-Triage zum stabilen Rückgrat Ihrer Kundenservice-Operationen werden – mit weniger manueller Arbeit, kürzeren Antwortzeiten und besserer Transparenz darüber, was Kundinnen und Kunden wirklich brauchen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

In gut konzipierten Setups kann Gemini-basierte Ticket-Triage bei Kernkategorien und Queues eine Trefferquote von 80–90 % erreichen – insbesondere bei volumenstarken, klar definierten Ticket-Typen wie Bestellfragen, Login-Problemen und standardisierten technischen Issues. Die wichtigsten Treiber für hohe Genauigkeit sind:

  • ein klares, dokumentiertes Triage-Schema (Kategorien, Prioritäten, Queues),
  • gut formulierte Prompts, die Ihre Taxonomie und Regeln erklären,
  • kontinuierliches Feedback der Agents zur Korrektur und Verfeinerung des Systems.

Für kritische Kategorien (z. B. Ausfälle, Sicherheitsvorfälle) können Sie zusätzliche Schutzmechanismen wie Keyword-Trigger, Confidence-Thresholds oder verpflichtende manuelle Prüfung einbauen. Diese Kombination liefert in der Regel sowohl hohe Sicherheit als auch spürbare Effizienzgewinne.

Die Einführung von Gemini für die Automatisierung der manuellen Ticket-Triage umfasst typischerweise drei Bausteine:

  • Prozess & Design: Abbildung der bestehenden Triage-Workflows, Definition des Zielschemas (Intents, Prioritäten, Queues) und Festlegung, wo Automatisierung sinnvoll ist und wo menschliche Prüfung erforderlich bleibt.
  • Technische Integration: Aufbau eines leichtgewichtigen Services oder Nutzung von Integrationen, die eingehende Ticket-Texte an Gemini senden, strukturiertes JSON empfangen und dieses in Ihr Ticketing- oder CRM-System schreiben.
  • Change Management: Anpassung der Agenten-Workflows, Klärung von Erwartungen an die Überprüfung von KI-Entscheidungen und Einrichtung von Feedback-Mechanismen bei Fehlklassifizierungen.

Für die meisten Organisationen ist ein erster produktionsreifer Pilot innerhalb weniger Wochen erreichbar – insbesondere, wenn Ihr Support-Stack bereits cloudbasiert ist und per API angesprochen werden kann.

Ein fokussierter Pilot für KI-gestütztes Ticket-Routing mit Gemini kann innerhalb von 4–8 Wochen messbare Ergebnisse liefern. In den ersten 1–2 Wochen definieren Sie in der Regel das Triage-Schema, setzen Prompts auf und bauen die Integration. Die anschließenden Wochen dienen Live-Tests, dem Sammeln von Agenten-Feedback und der Iteration an der Logik.

Erste Effekte sind häufig eine unmittelbare Reduktion der manuellen Triage-Zeit und ein schnelleres Routing von einfachen Standard-Tickets. Mit der Verfeinerung von Prompts und Regeln anhand echter Beispiele können Sie den Anteil der Tickets schrittweise erhöhen, die vollständig ohne menschlichen Eingriff geroutet werden, und SLA-Verletzungen bei priorisierten Fällen reduzieren.

Der ROI von automatisierter Ticket-Triage ergibt sich aus einer Kombination von Kosteneinsparungen und Serviceverbesserungen. Typische, klar messbare Vorteile sind:

  • Reduktion der manuellen Triage-Zeit pro Ticket (oft 30–60 Sekunden), was sich bei hohem Volumen deutlich summiert.
  • Weniger fehlgeroutete Tickets, was zu kürzeren Lösungszeiten und weniger Eskalationen führt.
  • Verbesserte SLA-Einhaltung und höhere Zufriedenheit bei dringenden oder besonders wertvollen Kundinnen und Kunden.

Da Gemini nutzungsbasiert abgerechnet wird, zahlen Sie im Wesentlichen nur für die Tickets, die Sie tatsächlich triagieren. Für viele Organisationen übersteigt der Wert der freigesetzten Agentenzeit – plus der Effekt auf NPS und Churn – die Modell- und Integrationskosten bereits nach wenigen Monaten. Ein strukturiertes PoC mit klaren Metriken hilft Ihnen, dies für Ihren spezifischen Kontext zu quantifizieren.

Reruption unterstützt Sie End-to-End bei der Automatisierung manueller Ticket-Triage mit Gemini. Mit unserem KI-PoC-Angebot (9.900 €) prüfen wir zunächst, ob Gemini Ihre realen Tickets zuverlässig klassifizieren und routen kann, indem wir:

  • den Use Case abgrenzen sowie Triage-Schema und Erfolgskriterien definieren,
  • eine Gemini-Integration prototypisch auf Basis Ihrer anonymisierten historischen Tickets umsetzen,
  • Genauigkeit, Geschwindigkeit und Kosten pro Lauf in einem funktionierenden Prototyp messen.

Von dort aus bedeutet unser Co-Preneur-Ansatz, dass wir uns wie ein Produkt- und Engineering-Partner in Ihre Organisation einbetten: Wir helfen Ihnen, die Produktionsarchitektur zu entwerfen, Ihre bestehende Support-Landschaft zu integrieren, Feedback-Loops für Agents aufzubauen und die Lösung schrittweise auszurollen. Anstatt Sie mit Folien allein zu lassen, arbeiten wir mit Ihrem Team, bis ein echtes, wartbares, Gemini-basiertes Triage-System live ist und messbaren Wert liefert.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media