Die Herausforderung: Unklare Verantwortlichkeiten für die nächsten Schritte

In vielen Kundenserviceorganisationen enden Interaktionen mit vagen Zusagen wie „wir schauen uns das an“ oder „wir melden uns bei Ihnen“. Oft ist unklar, ob der nächste Schritt bei der Frontline-Mitarbeiterin, einem Backoffice-Team oder der Kundin selbst liegt. Fristen werden eher angedeutet als definiert, und Zusagen werden selten strukturiert erfasst. Das Ergebnis: Kundinnen und Kunden verlassen Gespräche mit dem unguten Gefühl, dass nichts Konkretes vereinbart wurde.

Traditionelle Ansätze verlassen sich darauf, dass sich Mitarbeitende jede Follow-up-Regel, jeden Eskalationspfad und jede Abhängigkeit über Produkte, Regionen und Kanäle hinweg merken. Statische Skripte und generische Checklisten spiegeln weder die Komplexität moderner Customer Journeys noch die Vielzahl von Sonderfällen wider. Selbst mit den besten Absichten überspringen Mitarbeitende unter Zeitdruck Bestätigungsschritte, klassifizieren Fälle falsch oder vergessen zu dokumentieren, wer was übernimmt – insbesondere, wenn Gespräche sich über E-Mail, Chat und Telefon erstrecken.

Die Auswirkungen sind erheblich. Unklare Verantwortlichkeiten für die nächsten Schritte führen zu wiederholten Kontakten, längeren Gesamtbearbeitungszeiten und höheren Betriebskosten, da Fälle zwischen Teams hin- und hergeschoben werden. Sie schaden dem Vertrauen der Kundschaft, wenn versprochene Rückrufe nicht erfolgen oder Aufgaben durchs Raster fallen. Führungskräfte verlieren die Transparenz über die tatsächliche Erstlösungsquote (First Contact Resolution, FCR), weil dasselbe Anliegen unter unterschiedlichen Ticketnummern oder Kanälen erneut auftaucht. Mit der Zeit wird diese Unklarheit zum Wettbewerbsnachteil, da Kundinnen und Kunden zu Anbietern wechseln, die klare, verlässliche Antworten und konsequente Nachverfolgung bieten.

Diese Herausforderung ist real, aber lösbar. Mit moderner KI wie Gemini können Sie die richtige Bearbeitergruppe ableiten, Zuständigkeiten vorhersagen und aus dem Gesprächskontext heraus explizite, prüfbare nächste Schritte generieren. Bei Reruption sehen wir, wie KI-gestützte Assistenten chaotische, kanalübergreifende Interaktionen in klare Aktionspläne für Mitarbeitende und Kundschaft verwandeln. In den folgenden Abschnitten finden Sie praxisnahe Hinweise, wie Sie Gemini einsetzen, um am Ende jeder Kundeninteraktion für Struktur, Klarheit und Verbindlichkeit zu sorgen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions Arbeit mit realen KI-Copiloten für den Kundenservice wissen wir, dass unklare nächste Schritte selten nur ein Trainingsproblem sind – sie sind ein Systemproblem. Gemini ist für diese Herausforderung besonders geeignet, weil es Omnichannel-Transkripte verarbeiten, Intentionen verstehen, die richtige Bearbeitergruppe ableiten und in Echtzeit präzise Maßnahmen vorschlagen kann. Richtig eingesetzt wird es zu einer Entscheidungsschicht, die Mitarbeitenden hilft, Gespräche mit kristallklarer Verantwortlichkeit für die nächsten Schritte statt mit vagen Versprechungen zu beenden.

Verstehen Sie Verantwortlichkeiten als Datenproblem, nicht nur als Skriptproblem

Die meisten Organisationen versuchen unklare Follow-ups zu beheben, indem sie mehr Skripte, Checklisten oder Trainings einführen. Strategisch wirksamer ist es, Klarheit über Zuständigkeiten als Daten- und Entscheidungsproblem zu betrachten. Sie brauchen ein System, das das gesamte Gespräch konsistent interpretiert, es mit bekannten Prozessen abgleicht und einen strukturierten Satz von Maßnahmen mit Verantwortlichen und Zeitplänen ausgibt.

Mit Gemini für den Kundenservice bedeutet das, Ihren Use Case rund um die Daten zu konzipieren, die das System sieht: Gesprächstranskripte, Ticket-Metadaten, Routingregeln und Wissensartikel. Statt zu fragen „Wie bringen wir Mitarbeitende dazu, sich alles zu merken?“, sollten Sie fragen: „Wie geben wir Gemini die richtigen Signale, damit es zuverlässig empfehlen kann, wer was bis wann erledigt?“ Dieser Mindset-Wechsel ermöglicht Ihnen, eine skalierbare Fähigkeit aufzubauen statt nur ein weiteres Skript.

Beginnen Sie mit hochvolumigen, ambigen Journeys

Aus strategischer Sicht muss Gemini am ersten Tag nicht jede mögliche Interaktion abdecken. Konzentrieren Sie sich auf die Customer Journeys, in denen unklare Zuständigkeiten Ihnen am meisten schaden: wiederkehrende Rechnungsreklamationen, Produktruecksendungen mit Ausnahmen oder Anliegen, die häufig zwischen Frontoffice und Backoffice hin- und hergeschoben werden.

Indem Sie einige wenige, besonders wirkungsvolle Abläufe priorisieren, können Sie Intent-Erkennung und Ownership-Vorhersage mit Gemini auf Daten trainieren und validieren, die Ihre FCR-Kennzahlen tatsächlich bewegen. Sobald Sie nachweisen, dass KI-generierte nächste Schritte in diesen Journeys wiederholte Kontakte reduzieren, wird es deutlich einfacher, organisatorische Unterstützung zu gewinnen und auf komplexere Prozesse zu skalieren.

Human-in-the-Loop statt Human-oder-KI designen

Bei Zuständigkeiten und nächsten Schritten sind die Risiken von Fehlentscheidungen real: verpasste regulatorische Fristen, falsche Freigaben oder Zusagen, die Ihre Organisation nicht einhalten kann. Strategisch sollten Sie Gemini als Copiloten für Mitarbeitende konzipieren, nicht als autonomen Entscheider.

Das bedeutet: Gemini schlägt eine strukturierte Zusammenfassung vor – Verantwortliche, Maßnahmen, Fälligkeiten – und die Mitarbeiterin oder der Mitarbeiter bleibt dafür verantwortlich, diese zu bestätigen oder zu bearbeiten. Dieses Human-in-the-Loop-Setup stärkt das Vertrauen, schafft Nachvollziehbarkeit (Mitarbeitende sehen, warum ein bestimmtes Team oder eine Kundenaktion vorgeschlagen wird) und erzeugt wertvolle Feedbackdaten, mit denen Sie das Modell kontinuierlich nachtrainieren und verbessern können, ohne die Servicequalität zu gefährden.

Recht, Compliance und Operations frühzeitig einbinden

Der Einsatz von KI, um Zuständigkeiten für die nächsten Schritte abzuleiten, kann rechtliche und Compliance-Grenzen berühren – insbesondere, wenn Zusagen gegenüber Kundinnen und Kunden SLAs, finanzielle Anpassungen oder sensible Daten betreffen. Strategisch sollten Sie Legal, Compliance und Operations früh in den Designprozess einbeziehen, statt erst am Ende eine Freigabe einzuholen.

Besprechen Sie, wo Gemini Maßnahmen eigenständig vorschlagen darf (z. B. „Verfolgen Sie Ihr Paket über diesen Link“) und wo es nur Optionen vorschlagen darf, die die Mitarbeitenden bestätigen müssen (z. B. „Kulanzgutschrift bis zu 20 € anbieten“). Frühe Abstimmung vermeidet Blockaden in der späten Projektphase und hilft Ihnen, die betrieblichen Leitplanken zu definieren – Eskalationsschwellen, Freigaberegeln, Formulierungsvorgaben –, die Ihre KI-Kundenservice-Lösung in der Praxis robust machen.

In Change Management und Vertrauen der Mitarbeitenden investieren

Auch die beste Gemini-Integration scheitert, wenn Mitarbeitende die Empfehlungen ignorieren. Strategisch müssen Sie dies als Adoptions- und Veränderungsthema behandeln, nicht nur als technischen Rollout. Mitarbeitende müssen verstehen, warum das System eingeführt wird, wie es trainiert wurde und wo seine Grenzen liegen.

Binden Sie leistungsstarke Mitarbeitende in die Konzeption und das Testen der Vorschläge für nächste Schritte ein. Zeigen Sie ihnen, wie KI-generierte Zusammenfassungen der Verantwortlichkeiten ihre Nachbearbeitung reduzieren und sie vor Vorwürfen schützen, wenn etwas durchs Raster fällt. So wird Gemini zu einem Werkzeug, das ihre Professionalität stärkt und die kognitive Belastung reduziert – statt zu einer Blackbox, die ihnen vorschreibt, was sie tun sollen.

Mit der richtigen Strategie eingesetzt, kann Gemini vage Gesprächsenden in klare, umsetzbare Zusagen verwandeln, indem es Intent-Erkennung, Ownership-Vorhersage und Wissensbereitstellung in einem Flow kombiniert. Reruption hat erlebt, wie ein solcher KI-Copilot den Arbeitsalltag von Serviceteams verändert – weniger zurückspringende Tickets, weniger „Ich wollte nur mal nachfragen“-Anrufe und deutlich mehr Vertrauen, dass jede Interaktion mit einem konkreten Plan endet. Wenn Sie prüfen, wie Sie Gemini für Ihre eigenen Herausforderungen rund um die Erstlösungsquote einsetzen können, unterstützen wir Sie gerne dabei, eine passende Lösung zu definieren, zu testen und für Ihre Umgebung zu härten.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Technologie: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Duke Health

Gesundheitswesen

Sepsis ist ein lebensbedrohlicher Zustand, der in den USA jährlich für über 270.000 Todesfälle verantwortlich ist, mit Mortalitätsraten von bis zu 40% in Krankenhäusern aufgrund verzögerter Erkennung. Frühsymptome sind oft unspezifisch—Fieber, Tachykardie, veränderter Geisteszustand—und ähneln häufigen Erkrankungen, wodurch eine rechtzeitige Erkennung in stark frequentierten Notaufnahmen (EDs) schwierig ist. Traditionelle Bewertungssysteme wie qSOFA und SIRS leiden unter geringer Sensitivität (etwa 50–60%) und schlechter prädiktiver Leistung Stunden vor Auftreten, was zu späten Interventionen und schlechteren Ergebnissen führt. Duke Health, das hohe Patientenzahlen in seinen drei Notaufnahmen bewältigt, stand vor der doppelten Herausforderung, Frühwarnsysteme zu skalieren und gleichzeitig Alarmmüdigkeit und Workflow-Störungen zu vermeiden. Die Integration neuartiger KI erforderte strenge Validierung, Akzeptanz durch Kliniker und nahtlose Einbettung in das EHR, ohne die Sicherheit zu beeinträchtigen oder unnötige Behandlungen zu erhöhen.

Lösung

Sepsis Watch ist ein auf Deep Learning basierendes Vorhersagemodell, das Echtzeit-EHR-Daten (Vitalwerte, Labore, Demografie) analysiert, um den Sepsisanfall bis zu 48 Stunden im Voraus vorherzusagen, mit dem primären Fokus auf 6-Stunden-Vorhersagen. Entwickelt vom Duke Institute for Health Innovation (DIHI) verwendet es eine rekurrente neuronale Netzwerkarchitektur, die auf historischen Daten von über 600.000 Patientenkontakten (2008–2016) trainiert wurde und eine beeindruckende AUROC von 0,922 erzielte. Die Lösung integriert sich als pflegeorientiertes Best Practice Advisory (BPA) in das Epic EHR und löst nicht-interruptive Warnungen für Hochrisikopatienten aus. Dieses klinikerzentrierte Design fördert Maßnahmen wie frühe Antibiotikagabe und Flüssigkeitszufuhr und minimiert gleichzeitig falsch positive Alarme durch Schwellenwertanpassung. Pilotversuche und iteratives Feedback sicherten eine sichere Einführung.

Ergebnisse

  • AUROC: 92,2% für 6-Stunden-Sepsisvorhersage
  • Früherkennung: Bis zu 6 Stunden vor klinischem Auftreten
  • Einsatzumfang: Alle 3 Duke-Notaufnahmen, Tausende überwachte Patienten
  • Alarm-Compliance: Hohe Akzeptanzraten nach Integration
  • Bundle-Compliance: Deutliche Verbesserungen in Verbindung mit Warnungen
  • Auswirkung auf Sterblichkeit: Assoziiert mit reduzierten in-hospitalen Sepsis-Todesfällen
Fallstudie lesen →

bunq

Bankwesen

Als bunq ein rasantes Wachstum als zweitgrößte Neobank in Europa verzeichnete, wurde die Skalierung des Kundenservice zu einer kritischen Herausforderung. Bei Millionen von Nutzern, die personalisierte Banking-Informationen zu Konten, Ausgabeverhalten und Finanzberatung auf Abruf verlangen, stand das Unternehmen unter Druck, sofortige Antworten zu liefern, ohne die Zahl der menschlichen Supportteams proportional zu erhöhen — was Kosten treiben und Abläufe verlangsamen würde. Traditionelle Suchfunktionen in der App reichten für komplexe, kontextabhängige Anfragen nicht aus und führten zu Ineffizienzen und Nutzerfrustration. Zudem stellten die Gewährleistung von Datenschutz und Genauigkeit in einem stark regulierten Fintech-Umfeld erhebliche Risiken dar. bunq benötigte eine Lösung, die nuancierte Unterhaltungen führen und gleichzeitig EU-Bankvorschriften einhalten konnte, Halluzinationen vermeiden würde, wie sie in frühen GenAI-Modellen vorkommen, und sich nahtlos integrieren ließe, ohne die App-Performance zu beeinträchtigen. Ziel war es, Routineanfragen zu automatisieren, sodass menschliche Agenten sich auf wertschöpfende Fälle konzentrieren konnten.

Lösung

bunq begegnete diesen Herausforderungen durch die Entwicklung von Finn, einer proprietären GenAI-Plattform, die direkt in die mobile App integriert wurde und die herkömmliche Suchfunktion durch einen konversationellen KI-Chatbot ersetzte. Nach der Einstellung von mehr als einem Dutzend Datenexperten im Vorjahr baute das Team Finn so, dass er sicher auf nutzerspezifische Finanzdaten zugreift, Fragen zu Kontoständen, Transaktionen und Budgets beantwortet und sogar allgemeine Ratschläge gibt, wobei der Gesprächskontext über Sitzungen hinweg erhalten bleibt. Nach einer Beta wurde Finn im Dezember 2023 als Europas erster KI-gestützter Bankassistent eingeführt und entwickelte sich schnell weiter. Bis Mai 2024 wurde er vollständig konversationell, was natürliche Mehrfachrunden-Interaktionen ermöglichte. Dieser retrieval-augmented generation (RAG)-Ansatz stützte Antworten auf Echtzeit-Nutzerdaten, minimierte Fehler und erhöhte die Personalisierung.

Ergebnisse

  • 100.000+ Fragen innerhalb von Monaten nach der Beta beantwortet (Ende 2023)
  • 40 % der Nutzeranfragen bis Mitte 2024 autonom vollständig gelöst
  • 35 % der Anfragen unterstützt, insgesamt 75 % sofortige Support-Abdeckung
  • Vor dem Start 12+ Datenexperten für die Dateninfrastruktur eingestellt
  • Zweitgrößte Neobank Europas nach Nutzerbasis (1M+ Nutzer)
Fallstudie lesen →

HSBC

Bankwesen

Als eine der weltweit größten Banken nach Vermögenswerten verarbeitet HSBCMilliarden von Transaktionen, wodurch die Betrugserkennung und die Geldwäschebekämpfung (AML) zu einer enormen Herausforderung werden. Traditionelle regelbasierte Systeme litten unter hohen Falsch-Positiv-Raten, was zu übermäßigen manuellen Prüfungen führte, Compliance-Teams belastete, Kosten erhöhte und Kunden-Transaktionen verlangsamte . Die Gewährleistung der regulatorischen Compliance in 62 Ländern bei gleichzeitiger Minimierung finanzieller Kriminalität war kritisch, doch Legacy-Systeme fehlte die Raffinesse für Echtzeit- und nuancierte Bedrohungserkennung. Die Skalierung des Kundenservice stellte eine weitere Hürde dar, da die Nachfrage nach 24/7 personalisiertem Support menschliche Agenten überwältigte. NLP-Chatbots waren erforderlich, um komplexe Anfragen effizient zu bearbeiten, ohne Datenschutz oder Genauigkeit zu gefährden. Gleichzeitig brachte die Erforschung von generativer KI (GenAI) Herausforderungen bei ethischer Implementierung, Bias-Minderung und Integration mit strengen Bankvorschriften wie GDPR und Basel III mit sich, da schnelle technologische Fortschritte das Risiko von Non-Compliance erhöhten . Die Umsetzungsherausforderungen umfassten länderübergreifend isolierte Daten, Fachkräftemangel im KI-Bereich und die Balance zwischen Innovationsgeschwindigkeit und robuster Governance .

Lösung

HSBC begegnete Betrug mit Google Cloud KI-gestützten ML-Modellen für AML, die fortschrittliche Algorithmen nutzen, um Transaktionsmuster, Kundenverhalten und externe Daten für präzise Anomalieerkennung zu analysieren und so Falsch-Positiv-Raten drastisch zu senken . Dies war Teil einer breiteren Strategie, die global Hunderte von KI-Anwendungsfällen implementierte, von Risikomodellen bis zu Überwachungssystemen . Für das Kundenengagement wurden NLP-getriebene Chatbots eingeführt, die natürliche Sprachverarbeitung nutzen, um Anfragen zu interpretieren, maßgeschneiderte Beratung zu liefern und komplexe Fälle nahtlos weiterzuleiten, während Compliance-Standards eingehalten werden . Im GenAI-F&E-Bereich nahm HSBC an einem GenAI-Sandbox-Programm teil und schloss Ende 2025 eine mehrjährige Partnerschaft mit Mistral AI, um generative Werkzeuge bankweit zu integrieren. Ziel ist die Automatisierung interner Aufgaben, personalisierte Kundeninsights, Verstärkung der Betrugserkennung und Produktivitätssteigerungen, untermauert von einem starken ethischen KI-Rahmen, der die menschliche Aufsicht betont .

Ergebnisse

  • Hunderte von global eingesetzten KI-Anwendungsfällen in den Betriebsbereichen
  • Mehrjährige Partnerschaft mit Mistral AI beschleunigt GenAI-Einführung bankweit
  • Verbesserte AML-Erkennung mit reduzierten Falsch-Positiven durch Google Cloud ML
  • Echtzeit-Betrugskennzeichnung für Milliarden täglicher Transaktionen
  • GenAI-Tools zielen auf 20–40% Produktivitätssteigerungen bei Bankaufgaben
  • Transformierter Kundenservice mit 24/7 skalierbaren NLP-Chatbots
Fallstudie lesen →

Revolut

Fintech

Revolut sah sich einem zunehmenden Authorized Push Payment (APP)-Betrug gegenüber, bei dem Betrüger Kunden psychologisch manipulieren, damit diese Überweisungen an betrügerische Konten autorisieren – oft unter dem Vorwand von Anlageangeboten. Traditionelle regelbasierte Systeme kamen gegen ausgefeilte Social-Engineering-Taktiken kaum an, was trotz Revoluts schnellem Wachstum auf über 35 Millionen Kunden weltweit zu erheblichen finanziellen Verlusten führte. Der Anstieg digitaler Zahlungen verstärkte Verwundbarkeiten, da Betrüger Echtzeit-Überweisungen ausnutzten, die herkömmliche Kontrollen umgingen. APP-Betrügereien entzogen sich der Erkennung, indem sie legitimes Verhalten nachahmten, was weltweit zu jährlichen Milliardenverlusten führte und das Vertrauen in Fintech-Plattformen wie Revolut untergrub. Es bestand dringender Bedarf an intelligenter, adaptiver Anomalieerkennung, die eingreift, bevor Gelder freigegeben werden.

Lösung

Revolut führte eine KI-gestützte Betrugsabwehrfunktion ein, die maschinelles Lernen zur Anomalieerkennung verwendet, um Transaktionen und Nutzerverhalten in Echtzeit zu überwachen. Das System analysiert Muster, die auf Betrug hindeuten – etwa ungewöhnliche Zahlungsaufforderungen im Zusammenhang mit Anlageködern – und greift ein, indem es Nutzer warnt oder verdächtige Aktionen blockiert. Durch den Einsatz von überwachten und unüberwachten ML-Algorithmen erkennt es Abweichungen vom normalen Verhalten in risikoreichen Momenten und "bricht den Zauber" der Betrüger, bevor eine Autorisierung erfolgt. In die App integriert, verarbeitet es große Mengen an Transaktionsdaten für proaktive Betrugsprävention, ohne legitime Zahlungsflüsse zu stören.

Ergebnisse

  • 30% Reduktion der Betrugsverluste bei APP-bezogenen Kartenbetrugsfällen
  • Gezielte Bekämpfung von Anlagebetrugsversuchen
  • Echtzeit-Interventionen während der Testphase
  • Schützt 35 Millionen globale Kunden
  • Eingesetzt seit Februar 2024
Fallstudie lesen →

DBS Bank

Bankwesen

DBS Bank, die führende Finanzinstitution in Südostasien, kämpfte damit, KI von Experimenten in die Produktion zu skalieren, während Betrugsbedrohungen zunahmen, die Nachfrage nach hyperpersonalisierten Kundenerlebnissen stieg und operative Ineffizienzen im Service-Support bestanden. Traditionelle Systeme zur Betrugserkennung hatten Schwierigkeiten, bis zu 15.000 Datenpunkte pro Kunde in Echtzeit zu verarbeiten, was zu übersehenen Bedrohungen und suboptimalen Risikobewertungen führte. Personalisierungsbemühungen wurden durch isolierte Datensilos und fehlende skalierbare Algorithmen für Millionen von Nutzern in unterschiedlichen Märkten behindert. Zusätzlich sahen sich Kundendienstteams mit überwältigenden Anfragevolumina konfrontiert, wobei manuelle Prozesse die Reaktionszeiten verlangsamten und die Kosten erhöhten. Regulatorischer Druck im Bankwesen erforderte verantwortungsvolle KI-Governance, während Fachkräftemangel und Integrationsherausforderungen eine unternehmensweite Einführung erschwerten. DBS benötigte einen robusten Rahmen, um Datenqualitätsprobleme, Modell-Drift und ethische Bedenken bei der Einführung generativer KI zu überwinden und gleichzeitig Vertrauen und Compliance in einem wettbewerbsintensiven südostasiatischen Umfeld sicherzustellen.

Lösung

DBS startete ein konzernweites KI-Programm mit über 20 Anwendungsfällen, nutzte maschinelles Lernen für fortschrittliche Betrugsrisikomodelle und Personalisierung und ergänzte dies durch generative KI für einen internen Support-Assistenten. Die Betrugsmodelle integrierten umfangreiche Datensätze für die Erkennung von Anomalien in Echtzeit, während Personalisierungsalgorithmen hyperzielgerichtete Hinweise und Anlageideen über die digibank-App lieferten. Ein Mensch-KI-Synergie-Ansatz befähigte Serviceteams mit einem GenAI-Assistenten, der Routineanfragen aus internen Wissensdatenbanken bearbeitet. DBS legte Wert auf verantwortungsvolle KI durch Governance-Rahmenwerke, Qualifizierungsmaßnahmen für über 40.000 Mitarbeitende und eine gestaffelte Einführung, beginnend mit Pilotprojekten 2021 und Skalierung in die Produktion bis 2024. Partnerschaften mit Technologieführern und eine von Harvard unterstützte Strategie sicherten ein ethisches Skalieren in den Bereichen Betrug, Personalisierung und Betrieb.

Ergebnisse

  • 17 % Steigerung der Einsparungen durch verhinderte Betrugsversuche
  • Über 100 maßgeschneiderte Algorithmen für Kundenanalysen
  • 250.000 monatliche Anfragen effizient vom GenAI-Assistenten bearbeitet
  • Mehr als 20 konzernweite KI-Anwendungsfälle eingeführt
  • Analysiert bis zu 15.000 Datenpunkte pro Kunde zur Betrugserkennung
  • Produktivitätssteigerung um 20 % durch KI-Einführung (CEO-Aussage)
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Nutzen Sie Gemini, um am Ende von Anruf/Chat strukturierte Zusammenfassungen der nächsten Schritte zu erzeugen

Ein praktischer Einstieg besteht darin, Gemini die gesamte Interaktion in eine strukturierte Zusammenfassung umwandeln zu lassen, sobald das Gespräch kurz vor dem Ende steht. Diese Zusammenfassung sollte Anliegen, vereinbarte Maßnahmen, Verantwortliche und Zeitpläne in einem maschinenlesbaren Format erfassen, das Ihr CRM- oder Ticketsystem versteht.

Implementieren Sie einen Trigger – zum Beispiel das Drücken einer Taste im Agenten-Desktop oder das Erkennen von Abschlussfloskeln wie „Kann ich sonst noch etwas für Sie tun?“ – der das Gesprächstranskript und zentrale Metadaten an Gemini sendet. Das Modell gibt ein JSON-Objekt mit Feldern wie customer_action, agent_action, backoffice_action, due_by und internal_routing_group zurück. Zeigen Sie dieses der Mitarbeiterin oder dem Mitarbeiter zur Bestätigung an, bevor es gespeichert wird.

Beispiel-Prompt für Gemini (serverseitig):
Sie sind ein Assistent, der Kundenservice-Interaktionen strukturiert.
Extrahieren Sie aus dem folgenden Gespräch und dem Ticketkontext:
- Eine einzeilige Zusammenfassung des Anliegens
- Alle nächsten Maßnahmen, gruppiert nach Verantwortlichen: Kunde, Agent, Backoffice
- Ein realistisches Fälligkeitsdatum oder SLA, falls erwähnt oder impliziert
- Die wahrscheinlichste Bearbeitergruppe (interner Teamname)

Geben Sie JSON mit folgendem Schema zurück:
{
  "issue_summary": "...",
  "actions": [
    {"owner": "agent|customer|backoffice", "description": "...", "due_by": "ISO8601 oder null"}
  ],
  "resolver_group": "...",
  "customer_facing_closing_text": "Kurzfassung für die Kundin / den Kunden in einfacher Sprache"
}

Gespräch:
{{full_transcript}}
Ticket-Metadaten:
{{metadata}}

Erwartetes Ergebnis: Mitarbeitende beenden jede Interaktion mit einer konsistenten Struktur, die durchsucht, nachverfolgt und geprüft werden kann – vergessene Follow-ups und Missverständnisse werden reduziert.

Eigentumsvorschläge direkt in den Agenten-Desktop einbetten

Damit Gemini die Erstlösungsquote beeinflusst, müssen seine Empfehlungen dort erscheinen, wo die Mitarbeitenden arbeiten – nicht in einem separaten Tool. Integrieren Sie Gemini per API in Ihr bestehendes CRM, Ticketing- oder Contact-Center-UI, sodass die Vorschläge zur Zuständigkeit im Kontext sichtbar sind – idealerweise in einem eigenen „Nächste Schritte“-Panel.

Ordnen Sie die resolver_group-Ausgabe von Gemini Ihren internen Queue- oder Teamcodes zu und füllen Sie die Routingfelder automatisch vor. Ermöglichen Sie Mitarbeitenden, Vorschläge mit einem einfachen Dropdown zu überschreiben, und protokollieren Sie diese Überschreibungen, um analysieren zu können, wo das Modell verbessert werden muss. Dieses Integrationsmuster hält den Workflow vertraut und hebt gleichzeitig die Qualität der Entscheidungen zur Zuständigkeit auf ein neues Niveau.

Konfigurationsschritte:
1. Mapping zwischen den resolver_group-Labels von Gemini und internen Queues definieren.
2. Ihr Ticket-Schema um Felder für Verantwortliche, due_by und Maßnahmenliste erweitern.
3. Eine UI-Komponente hinzufügen, die Ihren Gemini-Backend-Endpunkt mit Transcript+Ticketdaten aufruft.
4. Die Antwort von Gemini als editierbare Formularfelder darstellen; Bestätigung vor dem Schließen verlangen.
5. Sowohl den KI-Vorschlag als auch die endgültige Auswahl durch die Mitarbeitenden zur Überwachung und für Retraining protokollieren.

Erwartetes Ergebnis: Mitarbeitende routen und dokumentieren nächste Schritte schneller und präziser, reduzieren Übergabefehler und erhöhen die Qualität, ohne zusätzliche Klicks zu erzeugen.

Ownership-Vorhersagen mit Vorschlägen für Wissensartikel kombinieren

Die Klärung, wer den nächsten Schritt übernimmt, ist bereits wirkungsvoll – noch mehr Mehrwert entsteht, wenn Gemini zusätzlich passende Wissensartikel und Prozessleitfäden anzeigt, mit denen Mitarbeitende das Anliegen direkt selbst lösen können, statt es weiterzugeben. Konfigurieren Sie Gemini so, dass sowohl eine Bearbeitergruppe als auch 2–3 relevante Artikel basierend auf der erkannten Intention vorgeschlagen werden.

Wenn eine Interaktion einem bekannten Muster „kann im Erstkontakt gelöst werden“ entspricht, sollte die UI dies hervorheben und die Mitarbeitenden ermutigen, die vorgeschlagenen Schritte zu nutzen, anstatt zu eskalieren. Hier zeigt sich, wie Geminis semantisches Verständnis über Kanäle hinweg (E-Mail, Chat, Voice-Transkripte) zum echten Hebel für das Steigern der Erstlösungsquote wird.

Beispiel-Promptausschnitt für Artikelvorschläge:
Identifizieren Sie außerdem bis zu 3 interne Wissensdatenbank-Artikel,
die helfen können, dieses Anliegen ohne Eskalation zu lösen. Geben Sie für jeden zurück:
- Titel
- kb_id
- in einem Satz, warum der Artikel relevant ist.

Erwartetes Ergebnis: Mehr Interaktionen werden bereits im Erstkontakt vollständig gelöst, und Eskalationen bleiben echten, komplexen Fällen vorbehalten.

Kundenseitige Bestätigungsnachrichten mit Gemini standardisieren

Selbst wenn interne Zuständigkeiten klar sind, verlassen Kundinnen und Kunden den Kontakt häufig ohne eine konkrete schriftliche Bestätigung, was als Nächstes passiert. Nutzen Sie Gemini, um eine kurze, kundenfreundliche Abschlussnachricht zu erzeugen, die die Mitarbeiterin oder der Mitarbeiter vorlesen und per E-Mail oder Chat versenden kann.

Speisen Sie Gemini mit den strukturierten Maßnahmen, die es extrahiert hat, und lassen Sie daraus eine kurze Bestätigung in Ihrer Tonalität generieren – inklusive Verantwortlichen und Zeitplänen in klarer Sprache. Stellen Sie diese Nachricht per One-Click zur Verfügung, damit sie den Ablauf nicht verlangsamt.

Beispiel-Prompt für Abschlusstext:
Sie sind ein Kundenservice-Assistent.
Formulieren Sie aus den unten stehenden strukturierten Maßnahmen
eine kurze Bestätigungsnachricht für die Kundin / den Kunden.
Verwenden Sie klare, beruhigende Sprache und geben Sie an,
wer was bis wann erledigt.

Actions-JSON:
{{actions_json}}

Stil des Unternehmens: professionell, prägnant, ohne Fachjargon.

Erwartetes Ergebnis: Weniger Missverständnisse nach der Interaktion und weniger „Ich wollte nur den Status prüfen“-Kontakte, weil die Erwartungen von Anfang an klar waren.

Qualitätsmonitoring für die Genauigkeit der Zuständigkeitsvorhersagen implementieren

Damit Gemini im Produktivbetrieb zuverlässig bleibt, müssen Sie systematisch überwachen, wie gut seine Ownership- und Bearbeiterprognosen mit der Realität übereinstimmen. Richten Sie einen wöchentlichen Prozess ein, in dem eine Stichprobe von Interaktionen überprüft wird: War der vorgeschlagene Verantwortliche korrekt? War die Frist realistisch? Ist der Fall trotzdem gesprungen?

Spielen Sie diese Ergebnisse zurück in Ihren Trainingsdatensatz und nutzen Sie sie für regelmäßiges Fine-Tuning oder Prompt-Optimierungen. Erfassen Sie außerdem operative Kennzahlen (Rate wiederholter Kontakte, FCR, durchschnittliche Bearbeitungszeit) für jene Abläufe, in denen Gemini aktiv ist, im Vergleich zu Kontrollgruppen. Das verbessert nicht nur das Modell, sondern liefert auch ein klares ROI-Bild für Ihre Stakeholder.

Wichtige KPIs pro Journey:
- Erstlösungsquote (% der Anliegen, die ohne Follow-up gelöst werden)
- Rate wiederholter Kontakte innerhalb von 7/30 Tagen
- Anzahl der Queue-Übergaben pro Fall
- Durchschnittliche Bearbeitungszeit und Nachbearbeitungszeit
- % der KI-Vorschläge zur Zuständigkeit, die unverändert akzeptiert werden

Erwartetes Ergebnis: Innerhalb von 3–6 Monaten sehen Organisationen typischerweise messbare Verbesserungen, z. B. 10–20 % weniger wiederholte Kontakte in den adressierten Journeys, einen spürbaren Anstieg der Erstlösungsquote und eine Reduktion der manuellen Nachbearbeitung – ohne erhöhtes Risiko oder Einbußen beim Vertrauen der Kundschaft.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini analysiert das gesamte Gespräch (Sprachtranskript, Chat, E-Mail) plus Ticket-Metadaten, um das Anliegen zu identifizieren, die Intention abzuleiten und einen strukturierten Satz von nächsten Maßnahmen mit klaren Verantwortlichen vorzuschlagen. Es liefert eine maschinenlesbare Zusammenfassung, die Maßnahmen für Mitarbeitende, das Backoffice und die Kundin bzw. den Kunden trennt – inklusive vorgeschlagener Fälligkeiten oder SLAs, wo sinnvoll.

Diese strukturierte Ausgabe wird der Mitarbeiterin oder dem Mitarbeiter am Ende der Interaktion angezeigt und kann vor der Speicherung im CRM- oder Ticketsystem bestätigt oder angepasst werden. Das Ergebnis ist, dass jede Interaktion mit explizit dokumentierten Verantwortlichkeiten für die nächsten Schritte endet – statt mit vagen Versprechungen.

Sie benötigen drei zentrale Bausteine: (1) Zugriff auf Gesprächsdaten (Chat-Logs, E-Mail-Inhalte oder Sprachtranskripte) über Ihr Contact Center oder CRM; (2) eine Integrationsschicht (in der Regel einen kleinen Backend-Service), die die Gemini API aufrufen, Prompts anwenden und die Ausgabe auf Ihre Ticketfelder abbilden kann; und (3) eine Möglichkeit, die Vorschläge von Gemini in Ihrem bestehenden Agenten-Desktop anzuzeigen und zu bearbeiten.

Auf der Kompetenzseite brauchen Sie Entwicklerkapazitäten für API-Integration und grundlegende MLOps sowie Produkt- und Operations-Verantwortliche, die festlegen, mit welchen Journeys Sie starten und wie „gute“ Ownership-Empfehlungen aussehen. Reruption kann Sie in all diesen Bereichen unterstützen – von der Architektur bis zur Implementierung.

Für einen fokussierten Scope (z. B. 1–2 hochvolumige Anliegenarten) können Sie in der Regel innerhalb weniger Wochen einen funktionierenden Gemini-basierten Ownership-Assistenten in einen Piloten bringen – vorausgesetzt, Ihr Datenzugang und Ihre Werkzeuge stehen bereit. In vielen Umgebungen sind erste Verbesserungen bei der Dokumentationsqualität und der Klarheit der nächsten Schritte im Pilotteam nahezu sofort sichtbar.

Messbare Veränderungen bei Erstlösungsquote und Rate wiederholter Kontakte zeigen sich typischerweise innerhalb von 6–12 Wochen, sobald Mitarbeitende den Workflow übernommen haben und Sie Prompts und Mappings iteriert haben. Wichtig ist, dies als laufende Optimierung zu verstehen – nicht als einmaligen Launch.

Der ROI speist sich aus mehreren Quellen: weniger wiederholte Kontakte zum selben Anliegen, kürzere Nachbearbeitungszeiten, weniger falsch geroutete oder zurückgewiesene Tickets und höhere Kundenzufriedenheit. Für hochvolumige Journeys kann bereits eine moderate Reduktion wiederholter Kontakte (zum Beispiel um 10–15 %) zu erheblichen Kosteneinsparungen und zusätzlicher Kapazität führen.

Da Gemini als API läuft, haben Sie eine feingranulare Kontrolle über die Nutzung und können die Interaktionen priorisieren, bei denen der Mehrwert am höchsten ist. Mit einem sauberen Monitoring von FCR, Übergaben und Bearbeitungszeit können Sie eine klare Business-Case-Argumentation aufbauen, die über generische „KI-Einsparungen“ hinausgeht und direkt an Kundenservice-KPIs andockt.

Reruption arbeitet als Co-Preneur und eingebetteter Partner, der mit Ihrem Team gemeinsam echte KI-Lösungen konzipiert, baut und in die Praxis bringt – statt nur Konzepte zu liefern. Für diesen konkreten Use Case starten wir typischerweise mit unserem AI-PoC-Angebot (9.900 €), um zu belegen, dass Gemini aus Ihren realen Kundeninteraktionen zuverlässig Zuständigkeiten und nächste Schritte ableiten kann.

Der PoC umfasst Use-Case-Definition, Machbarkeitsprüfung, Rapid Prototyping, Performance-Bewertung und einen konkreten Produktionsplan. Darauf aufbauend können wir die vollständige Implementierung unterstützen: Integration von Gemini per API in Ihr CRM oder Contact Center, Gestaltung des Workflows für Mitarbeitende, Aufbau von Monitoring und iterative Prompt-Anpassung auf Basis realer Nutzung. Unser Ziel ist, Sie von der Idee zu einem produktiven KI-gestützten Kundenservice-Copiloten zu begleiten, der unklare Zuständigkeiten tatsächlich reduziert und Ihre Erstlösungsquote steigert.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media