Die Herausforderung: Unklare Zuständigkeit für nächste Schritte

In vielen Kundenserviceteams enden Interaktionen mit einer freundlichen Zusammenfassung, aber ohne echte Klarheit darüber, wer was bis wann erledigen muss. Der Agent verspricht, „sich darum zu kümmern“, das Backoffice wird vage erwähnt und die Kundin oder der Kunde verlässt das Gespräch in der Annahme, dass sich schon jemand kümmern wird. Tage später weiß niemand genau, wer den nächsten Schritt verantwortet, Tickets bleiben liegen und Kundinnen und Kunden melden sich erneut, um nach Updates oder Korrekturen zu fragen.

Traditionelle Ansätze versuchen, dies mit Skripten, Checklisten und manueller Nachbearbeitung zu lösen. Von Agenten wird erwartet, komplexe Richtlinien, Routing-Regeln und Service-Level-Agreements im Kopf zu behalten, während sie ein Gespräch unter Zeitdruck abschließen. CRM-Felder für „nächste Aktion“ oder „verantwortliches Team“ sind häufig Freitext, uneinheitlich und werden selten konsequent genutzt. Je komplexer Produkte, Richtlinien und Kanäle werden, desto weniger kann ein rein menschliches Modell alle Abhängigkeiten und Übergaberegeln in Echtzeit überblicken.

Die Auswirkungen sind erheblich: Die Erstlösungsquote (First Contact Resolution) sinkt, Bearbeitungszeiten steigen und Backlogs wachsen, weil Tickets zwischen Teams hin- und hergeschoben werden. Kundinnen und Kunden erleben gebrochene Versprechen, unklare Erwartungen und müssen aktiv wegen Updates nachfassen – mit direkten Folgen für NPS und Churn. Intern fehlt Führungskräften die Transparenz, wo Fälle stecken bleiben, und Agenten verlieren Zeit damit, lange Verläufe erneut zu lesen, um herauszufinden, was als Nächstes passieren sollte, statt neue Anliegen zu lösen.

Diese Herausforderung ist real, aber sie ist lösbar. Mit modernen KI-Assistenten wie Claude können Sie Richtlinien, vergangene Tickets und die laufende Konversation systematisch analysieren lassen, um noch während der Interaktion präzise nächste Schritte, Verantwortliche und Fristen vorzuschlagen. Bei Reruption haben wir gesehen, wie KI-first-Workflows fragile manuelle Routinen durch verlässliche, transparente Übergaben ersetzen. Im Folgenden zeigen wir einen pragmatischen Weg, wie Sie dies in Ihrem Kundenservice umsetzen können, ohne auf eine komplette Systemmodernisierung warten zu müssen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions Arbeit beim Aufbau von KI-gestützten Workflows in komplexen Umgebungen wissen wir, dass unklare Zuständigkeiten für nächste Schritte selten nur ein Tooling-Problem sind. Es ist eine Kombination aus verstreuten Richtlinien, inkonsistenten Prozessen und hoher kognitiver Belastung für Agenten. Richtig eingesetzt kann Claude für den Kundenservice lange Fallhistorien, Wissensdatenbank-Artikel und Prozessbeschreibungen lesen, um in Echtzeit konkrete Folgeaktionen mit klarer Zuständigkeit vorzuschlagen. Entscheidend ist, Claude als tief eingebetteten Entscheidungs-Co-Piloten in Ihrem CRM zu betrachten – nicht nur als weiteren Chatbot am Rand.

Den Wrap-up als Entscheidungszeitpunkt statt als Nebensache neu gestalten

Die meisten Service-Teams sehen das Ende einer Interaktion als administrativen Aufwand: zusammenfassen, einen Abschlusscode auswählen, weiter zum nächsten Fall. Um Claude für klare Zuständigkeit der nächsten Schritte zu nutzen, müssen Sie diesen Moment als strukturierten Entscheidungspunkt neu denken, an dem System und Agent gemeinsam festlegen, was als Nächstes passiert. Das bedeutet, den Flow so zu gestalten, dass Claude genau dann ausgelöst wird, wenn der Agent den Fall schließen oder übergeben möchte.

Strategisch erfordert dies, dass Produkt-, Operations- und Customer-Service-Verantwortliche sich darauf verständigen, wie ein „guter nächster Schritt“ aussieht: welche Felder definiert sein müssen (Verantwortliche/r, Aktion, Fälligkeitsdatum, Abhängigkeiten), welche internen SLAs gelten und was der Kundschaft zu kommunizieren ist. Sobald dies klar ist, kann Claude angewiesen werden, immer einen vollständigen, standardisierten Lösungspfad auszugeben, den Agenten nur noch bestätigen statt von Grund auf neu ausdenken.

Zuständigkeitsregeln kodifizieren, bevor Sie sie automatisieren

Claude kann komplexe Support-Richtlinien interpretieren, aber unklare oder widersprüchliche Regeln kann es nicht reparieren. Bevor Sie sich auf KI verlassen, investieren Sie Zeit, um Ihre Logik zur Zuständigkeit sichtbar zu machen und zu kodifizieren: welche Teams welche Produkte verantworten, welche Anliegen Genehmigungen erfordern, wie die Eskalationsstufen aussehen und wann die Kundschaft aktiv werden muss. Das muss kein jahrelanges Projekt sein, erfordert aber explizite Entscheidungen.

Aus strategischer Sicht sollten Sie Ihre 10–20 häufigsten Falltypen identifizieren, bei denen Zuständigkeit oft unklar ist. Dokumentieren Sie deren ideales „Resolution Playbook“ einfach, aber präzise (z. B. im RACI-Stil mit Verantwortlichkeiten und Standard-Folgeaktionen). Diese Artefakte werden zum Referenzmaterial, das Claude liest, um in Echtzeit die richtige Zuständigkeit zu bestimmen. Je klarer Ihre Regeln, desto zuverlässiger werden Claudes Vorschläge.

Claude als Assistent positionieren, nicht als Schiedsrichter

Agenten und Teamleads könnten befürchten, dass KI im Kundenservice ihr Urteilsvermögen überstimmt oder starre Workflows erzwingt. Um Akzeptanz zu sichern, positionieren Sie Claude als Assistenten, der einen empfohlenen Plan für die nächsten Schritte vorschlägt, während die finale Entscheidung beim Menschen bleibt. In der Praxis bedeutet das, dass Claude seine Begründung und Alternativen knapp darstellt und die Oberfläche es Agenten leicht macht, Zuständigkeiten oder Fälligkeiten vor der Bestätigung anzupassen.

Organisatorisch verschiebt dieses Framing die Diskussion von „Die KI sagt dir, was du tun sollst“ hin zu „Die KI übernimmt die aufwendige Lektüre und schlägt dir einen Plan vor, damit Sie sich auf die Kundschaft konzentrieren können.“ Das hilft auch beim Risikomanagement: Agenten werden geschult zu erkennen, wann eine Empfehlung nicht passt, und sie zu korrigieren – ein wertvolles Feedbacksignal, um Prompts und Richtlinien im Laufe der Zeit zu verfeinern.

KPIs auf Erstlösungsquote statt nur auf Geschwindigkeit ausrichten

Wenn Ihre primäre KPI die durchschnittliche Bearbeitungszeit ist, werden Agenten sich unter Druck fühlen, schnell zu schließen, statt einen vollständigen Plan für die nächsten Schritte zu definieren. Um den Wert von KI-getriebener Klarheit über nächste Schritte zu heben, muss das Management explizit Ergebnisse wie First Contact Resolution (FCR), Reduktion von Wiederholungskontakten und klare Zuständigkeiten belohnen – auch wenn einige Interaktionen dadurch etwas länger dauern.

Dieser strategische Wechsel schafft Raum dafür, dass Claude die richtigen Informationen bereitstellt und Agenten einen kurzen, aber inhaltlich klaren Abstimmungsmoment mit der Kundschaft über Verantwortlichkeiten haben. Im Zeitverlauf werden sich FCR und Geschwindigkeit meist gleichzeitig verbessern, da weniger Fälle zurückkommen und Übergaben reibungsloser laufen. Doch der Mindset-Wechsel muss zuerst kommen, damit die KI wie vorgesehen genutzt wird.

Governance und Compliance von Anfang an planen

Wenn Sie Claude in Ihr CRM- oder Ticketsystem einbetten, verarbeitet es reale Kundendaten und interne Richtlinien. Sie benötigen ein Governance-Modell, das Datenzugriff, Protokollierung und Erklärbarkeit von Entscheidungen abdeckt. Strategisch sollten Sie definieren, auf welche Daten Claude zugreifen darf (z. B. vergangene Tickets, KB-Artikel, Richtliniendokumente), wie Ausgaben gespeichert werden und wer für die Qualitätsüberwachung verantwortlich ist.

Reruptions Erfahrung im KI-Engineering zeigt, dass eine frühe Abstimmung mit Security, Legal und Compliance spätere, schmerzhafte Nacharbeiten vermeidet. Etablieren Sie klare Leitlinien dazu, wann Claudes Empfehlungen verbindlich versus beratend sind, wie mit Sonderfällen umzugehen ist und wie Vorfälle (z. B. falsche Zuständigkeitszuweisung) geprüft und zur Verbesserung des Systems genutzt werden. Das schafft internes Vertrauen und hält Risiken unter Kontrolle, während Sie die Nutzung skalieren.

Durchdacht eingesetzt kann Claude die chaotischen letzten Minuten einer Support-Interaktion in einen präzisen, gemeinsam getragenen Lösungsplan verwandeln: klare Verantwortliche, konkrete Aktionen, realistische Zeitpläne. Am meisten profitieren Organisationen, die bereit sind, ihre Zuständigkeitsregeln zu kodifizieren und die Komplexität von der KI handhaben zu lassen, während Menschen sich auf die Beziehung zur Kundschaft konzentrieren. Reruption verbindet diese strategische Neuausrichtung mit praktischem KI-Engineering, um Claude direkt in Ihre CRM- oder Ticketing-Workflows einzubetten. Wenn Sie Wiederholungskontakte reduzieren und Erstlösungen zum Standard machen möchten, unterstützen wir Sie dabei, eine Lösung zu konzipieren und auszurollen, die in Ihrer Umgebung tatsächlich funktioniert.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Logistik bis Mode‑Einzelhandel: Erfahren Sie, wie Unternehmen Claude erfolgreich einsetzen.

DHL

Logistik

DHL, ein globaler Logistikriese, sah sich erheblichen Herausforderungen durch Fahrzeugausfälle und suboptimale Wartungspläne gegenüber. Unvorhersehbare Ausfälle in der umfangreichen Fahrzeugflotte führten zu häufigen Lieferverzögerungen, gestiegenen Betriebskosten und verärgerten Kunden. Traditionelle reaktive Wartung – Probleme erst nach ihrem Auftreten zu beheben – führte zu übermäßigen Ausfallzeiten, wobei Fahrzeuge stunden- oder tagelang stillstanden und weltweite Lieferketten störten. Ineffizienzen wurden durch unterschiedliche Fahrzeugzustände in den Regionen verschärft, sodass geplante Wartungen ineffizient und verschwenderisch waren, oft gesunde Fahrzeuge zu intensiv gewartet wurden, während andere, gefährdete, unterversorgt blieben. Diese Probleme trieben nicht nur die Wartungskosten in einigen Segmenten um bis zu 20% in die Höhe, sondern untergruben auch das Kundenvertrauen durch unzuverlässige Lieferungen. Mit steigenden E‑Commerce-Anforderungen benötigte DHL einen proaktiven Ansatz, um Ausfälle vorherzusagen, bevor sie auftraten, und so Störungen in der hart umkämpften Logistikbranche zu minimieren.

Lösung

DHL implementierte ein System zur vorausschauenden Wartung, das IoT-Sensoren an Fahrzeugen nutzt, um Echtzeitdaten zu Motorleistung, Reifenverschleiß, Bremsen und mehr zu erfassen. Diese Daten fließen in Machine-Learning-Modelle, die Muster analysieren, potenzielle Ausfälle vorhersagen und optimale Wartungszeitpunkte empfehlen. Die KI-Lösung integriert sich in bestehende Flottenmanagementsysteme von DHL und verwendet Algorithmen wie Random Forests und neuronale Netze zur Anomalieerkennung und Ausfallprognose. Um Datensilos und Integrationsprobleme zu überwinden, ging DHL Partnerschaften mit Technologieanbietern ein und setzte Edge-Computing für schnellere Verarbeitung ein. Pilotprogramme in Schlüssel-Hubs wurden global ausgerollt, wodurch man von zeitbasierten auf zustandsbasierte Wartung umstellte und Ressourcen gezielt auf risikoreiche Fahrzeuge konzentrierte.

Ergebnisse

  • Fahrzeugausfallzeiten um 15% reduziert
  • Wartungskosten um 10% gesenkt
  • Ungeplante Ausfälle um 25% verringert
  • Pünktlichkeitsrate um 12% verbessert
  • Verfügbarkeit der Flotte um 20% erhöht
  • Gesamtbetriebliche Effizienz um 18% gesteigert
Fallstudie lesen →

Forever 21

E‑Commerce

Forever 21, ein führender Fast‑Fashion‑Händler, stand vor erheblichen Herausforderungen bei der Online-Produktentdeckung. Kund:innen hatten Schwierigkeiten mit textbasierten Suchanfragen, die subtile visuelle Details wie Stoffstrukturen, Farbabstufungen oder genaue Styles in einem riesigen Katalog mit Millionen von SKUs nicht erfassen konnten. Das führte zu hohen Absprungraten von über 50 % auf Suchseiten und dazu, dass frustrierte Käufer:innen Warenkörbe verließen. Die visuell geprägte Natur der Modebranche verstärkte diese Probleme. Beschreibende Keywords passten oft nicht zum Inventar wegen subjektiver Begriffe (z. B. „boho dress“ vs. spezifische Muster), was zu schlechten Nutzererlebnissen und verpassten Verkaufschancen führte. Vor dem Einsatz von KI basierte Forever 21s Suche auf einfachem Keyword‑Matching, was Personalisierung und Effizienz in einem wettbewerbsintensiven E‑Commerce‑Umfeld begrenzte. Zu den Implementierungsherausforderungen zählten das Skalieren für viele mobile Nutzer:innen und das Handling vielfältiger Bildinputs wie Nutzerfotos oder Screenshots.

Lösung

Um dem entgegenzuwirken, führte Forever 21 eine KI‑gestützte visuelle Suche in App und Website ein, die Nutzer:innen ermöglicht, Bilder hochzuladen und so ähnliche Artikel zu finden. Mithilfe von Computervision-Techniken extrahiert das System Merkmale mit vortrainierten CNN‑Modellen wie VGG16, berechnet Embeddings und rankt Produkte über Metriken wie Cosinus‑Ähnlichkeit oder euklidische Distanz. Die Lösung integrierte sich nahtlos in die bestehende Infrastruktur und verarbeitete Anfragen in Echtzeit. Forever 21 arbeitete wahrscheinlich mit Anbietern wie ViSenze zusammen oder baute die Lösung intern auf und trainierte auf firmeneigenen Katalogdaten für mode­spezifische Genauigkeit. Dadurch wurden die Grenzen textbasierter Suche überwunden, indem der Fokus auf visuelle Semantik gelegt wurde, mit Unterstützung für Stil-, Farb‑ und Musterabgleich. Herausforderungen wie das Feinabstimmen der Modelle für unterschiedliche Beleuchtungen und Nutzerbilder sowie A/B‑Tests zur UX‑Optimierung wurden systematisch adressiert.

Ergebnisse

  • 25% Steigerung der Conversion-Raten durch visuelle Suchen
  • 35% Reduktion der durchschnittlichen Suchzeit
  • 40% höhere Engagement‑Rate (Seiten pro Sitzung)
  • 18% Wachstum im durchschnittlichen Bestellwert
  • 92% Matching‑Genauigkeit für ähnliche Artikel
  • 50% Rückgang der Absprungrate auf Suchseiten
Fallstudie lesen →

DBS Bank

Bankwesen

DBS Bank, die führende Finanzinstitution in Südostasien, kämpfte damit, KI von Experimenten in die Produktion zu skalieren, während Betrugsbedrohungen zunahmen, die Nachfrage nach hyperpersonalisierten Kundenerlebnissen stieg und operative Ineffizienzen im Service-Support bestanden. Traditionelle Systeme zur Betrugserkennung hatten Schwierigkeiten, bis zu 15.000 Datenpunkte pro Kunde in Echtzeit zu verarbeiten, was zu übersehenen Bedrohungen und suboptimalen Risikobewertungen führte. Personalisierungsbemühungen wurden durch isolierte Datensilos und fehlende skalierbare Algorithmen für Millionen von Nutzern in unterschiedlichen Märkten behindert. Zusätzlich sahen sich Kundendienstteams mit überwältigenden Anfragevolumina konfrontiert, wobei manuelle Prozesse die Reaktionszeiten verlangsamten und die Kosten erhöhten. Regulatorischer Druck im Bankwesen erforderte verantwortungsvolle KI-Governance, während Fachkräftemangel und Integrationsherausforderungen eine unternehmensweite Einführung erschwerten. DBS benötigte einen robusten Rahmen, um Datenqualitätsprobleme, Modell-Drift und ethische Bedenken bei der Einführung generativer KI zu überwinden und gleichzeitig Vertrauen und Compliance in einem wettbewerbsintensiven südostasiatischen Umfeld sicherzustellen.

Lösung

DBS startete ein konzernweites KI-Programm mit über 20 Anwendungsfällen, nutzte maschinelles Lernen für fortschrittliche Betrugsrisikomodelle und Personalisierung und ergänzte dies durch generative KI für einen internen Support-Assistenten. Die Betrugsmodelle integrierten umfangreiche Datensätze für die Erkennung von Anomalien in Echtzeit, während Personalisierungsalgorithmen hyperzielgerichtete Hinweise und Anlageideen über die digibank-App lieferten. Ein Mensch-KI-Synergie-Ansatz befähigte Serviceteams mit einem GenAI-Assistenten, der Routineanfragen aus internen Wissensdatenbanken bearbeitet. DBS legte Wert auf verantwortungsvolle KI durch Governance-Rahmenwerke, Qualifizierungsmaßnahmen für über 40.000 Mitarbeitende und eine gestaffelte Einführung, beginnend mit Pilotprojekten 2021 und Skalierung in die Produktion bis 2024. Partnerschaften mit Technologieführern und eine von Harvard unterstützte Strategie sicherten ein ethisches Skalieren in den Bereichen Betrug, Personalisierung und Betrieb.

Ergebnisse

  • 17 % Steigerung der Einsparungen durch verhinderte Betrugsversuche
  • Über 100 maßgeschneiderte Algorithmen für Kundenanalysen
  • 250.000 monatliche Anfragen effizient vom GenAI-Assistenten bearbeitet
  • Mehr als 20 konzernweite KI-Anwendungsfälle eingeführt
  • Analysiert bis zu 15.000 Datenpunkte pro Kunde zur Betrugserkennung
  • Produktivitätssteigerung um 20 % durch KI-Einführung (CEO-Aussage)
Fallstudie lesen →

Visa

Zahlungsverkehr

Die Zahlungsbranche sah sich einem Anstieg an Online-Betrug gegenüber, insbesondere Enumeration-Angriffen, bei denen Angreifer automatisierte Skripte und Botnetze einsetzen, um gestohlene Kartendaten in großem Umfang zu testen. Diese Angriffe nutzen Schwachstellen bei Transaktionen ohne Kartenpräsenz (card-not-present) aus und verursachen weltweit jährliche Betrugsverluste in Höhe von 1,1 Mrd. $ sowie erhebliche Betriebskosten für Emittenten. Visa benötigte Echtzeiterkennung, um dem entgegenzuwirken, ohne hohe False-Positive-Raten zu erzeugen, die legitime Kundinnen und Kunden blockieren — insbesondere vor dem Hintergrund steigender E‑Commerce‑Volumina wie bei Cyber Monday-Spitzen. Traditionelle Betrugssysteme kämpften mit der Geschwindigkeit und Raffinesse dieser Angriffe, verstärkt durch KI-gesteuerte Bots. Die Herausforderung für Visa bestand darin, riesige Transaktionsdaten in Millisekunden zu analysieren, anomalische Muster zu erkennen und gleichzeitig nahtlose Nutzererfahrungen beizubehalten. Dafür waren fortgeschrittene KI- und Machine‑Learning‑Lösungen nötig, um Risiken präzise vorherzusagen und zu bewerten.

Lösung

Visa entwickelte den Visa Account Attack Intelligence (VAAI) Score, ein generative KI‑gestütztes Tool, das in Echtzeit die Wahrscheinlichkeit von Enumeration-Angriffen bei Transaktionen ohne Kartenpräsenz bewertet. Durch die Kombination von generativen KI‑Komponenten mit Machine‑Learning‑Modellen erkennt VAAI ausgeklügelte Muster von Botnetzen und Skripten, die legacy, regelbasierte Systeme umgehen. In Visa's breiterem KI-getriebenen Betrugs-Ökosystem, einschließlich Identity Behavior Analysis, verbessert die Lösung das Risikoscoring durch verhaltensbasierte Erkenntnisse. Zunächst 2024 für US‑Emittenten eingeführt, reduziert sie sowohl Betrug als auch falsche Ablehnungen und optimiert die Betriebsabläufe. Dieser Ansatz ermöglicht Emittenten, Bedrohungen in bislang ungekanntem Umfang proaktiv zu mindern.

Ergebnisse

  • 40 Mrd. $ an Betrug verhindert (Okt 2022–Sep 2023)
  • Fast 2x Steigerung YoY bei der Betrugsprävention
  • 1,1 Mrd. $ jährlich an globalen Verlusten durch Enumeration-Angriffe adressiert
  • 85 % mehr betrügerische Transaktionen an Cyber Monday 2024 YoY blockiert
  • 200 % Anstieg an Betrugsversuchen ohne Serviceunterbrechung abgewickelt
  • Verbesserte Genauigkeit des Risikoscorings durch ML und Identity Behavior Analysis
Fallstudie lesen →

Mastercard

Zahlungsverkehr

In der hochbrisanten Welt der digitalen Zahlungen stellten sich Card-Testing-Angriffe als kritische Bedrohung für das Mastercard-Ökosystem heraus. Betrüger setzen automatisierte Bots ein, um gestohlene Kartendaten mittels Mikrotransaktionen bei Tausenden von Händlern zu testen und damit Zugang für größere Betrugsschemata zu validieren. Traditionelle regelbasierte und klassische Machine-Learning-Systeme erkannten diese Angriffe häufig erst, nachdem erste Tests Erfolg hatten, was zu jährlichen Verlusten in Milliardenhöhe führte und legitimen Handel störte. Die Subtilität dieser Angriffe – geringwertige, hochfrequente Tests, die normales Verhalten imitieren – überforderte Legacy-Modelle, verstärkt durch den Einsatz von KI durch Betrüger, um Erkennungsmuster zu umgehen. Als die Transaktionsvolumina nach der Pandemie explodierten, stand Mastercard unter steigendem Druck, von reaktiver zu proaktiver Betrugsprävention überzugehen. Fehlalarme durch überharte Warnungen führten zu abgelehnten legitimen Transaktionen und damit zu Vertrauensverlust bei Kunden, während ausgeklügelte Methoden wie Card-Testing in Echtzeit der Erkennung entgingen. Das Unternehmen benötigte eine Lösung, die kompromittierte Karten präventiv identifizieren kann und dabei riesige Netze miteinander verbundener Transaktionen analysiert, ohne Geschwindigkeit oder Genauigkeit zu opfern.

Lösung

Mastercards Decision Intelligence (DI)-Plattform integrierte generative KI mit graphbasiertem Machine Learning, um die Betrugserkennung zu revolutionieren. Generative KI simuliert Betrugsszenarien und erzeugt synthetische Transaktionsdaten, was das Modelltraining und die Anomalieerkennung beschleunigt, indem seltene Angriffsvarianten nachgebildet werden, die in echten Daten fehlen. Die Graph-Technologie bildet Entitäten wie Karten, Händler, IP-Adressen und Geräte als miteinander verbundene Knoten ab und macht verborgene Betrugsringe sowie Ausbreitungspfade in Transaktionsgraphen sichtbar. Dieser hybride Ansatz verarbeitet Signale in bislang ungekanntem Umfang, nutzt die generative KI zur Priorisierung risikoreicher Muster und Graphen, um Beziehungen zu kontextualisieren. Über Mastercards AI Garage implementiert, ermöglicht er die Echtzeit-Bewertung des Kompromittierungsrisikos von Karten und alarmiert ausgebende Institute, bevor Betrug eskaliert. Das System bekämpft Card-Testing, indem es anomale Testcluster frühzeitig markiert. Die Einführung erfolgte mit iterativen Tests bei Finanzinstituten, wobei Mastercards globales Netzwerk für robuste Validierung genutzt wurde, gleichzeitig wurde auf Erklärbarkeit geachtet, um das Vertrauen der Emittenten zu stärken.

Ergebnisse

  • 2x schnellere Erkennung potenziell kompromittierter Karten
  • Bis zu 300% Steigerung der Effektivität der Betrugserkennung
  • Verdopplung der Rate proaktiver Benachrichtigungen über kompromittierte Karten
  • Deutliche Reduktion betrügerischer Transaktionen nach Erkennung
  • Minimierung falsch abgelehnter legitimer Transaktionen
  • Echtzeit-Verarbeitung von Milliarden von Transaktionen
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Claude direkt in Ihren CRM-Wrap-up-Screen einbetten

Der wirkungsvollste Weg, unklare Zuständigkeit für nächste Schritte zu adressieren, ist, Claude genau in dem Moment auszulösen, in dem der Agent die Interaktion beendet. Technisch bedeutet das, Claude per API in Ihr CRM- oder Ticketsystem zu integrieren, sodass beim Klick des Agenten auf „Abschließen“ oder „Konversation schließen“ ein Aufruf mit dem gesamten relevanten Kontext erfolgt: Gesprächstranskript, Fallhistorie, Kundendaten und geltende Richtlinien.

Claude sollte anschließend eine strukturierte Ausgabe liefern, die auf Ihre CRM-Felder abgebildet wird, etwa Beschreibung der nächsten Aktion, Verantwortliches Team / Verantwortliche Person, Fälligkeitsdatum / SLA und Aufgaben der Kundschaft. Die Oberfläche kann Claudes Vorschlag in einem bearbeitbaren Panel anzeigen, sodass der Agent vor dem Speichern bestätigen oder anpassen kann. Das reduziert manuellen Schreibaufwand und sorgt für konsistente, vollständige Pläne für nächste Schritte über alle Agenten hinweg.

Beispiel-Systemprompt für Claude zur Wrap-up-Unterstützung:
Sie sind ein KI-Assistent, der in ein Kundenservice-CRM eingebettet ist.
Ihre Aufgabe ist es, klare nächste Schritte, Verantwortliche und Fristen vorzuschlagen.

Gegeben:
- Vollständiges Gesprächstranskript
- Fallhistorie und interne Notizen
- Interne Richtlinien (Zuständigkeitsregeln, SLAs)

Geben Sie JSON zurück mit:
- next_action_summary: kurze Beschreibung in kundenfreundlicher Sprache
- internal_action_steps: Liste konkreter Aufgaben für interne Teams
- responsible_owner: Team oder Rolle, die den wichtigsten nächsten Schritt verantwortet
- customer_actions: präzise Schritte, die die Kundin / der Kunde ausführen muss (falls vorhanden)
- target_due_date: realistisches Datum/Uhrzeit unter Berücksichtigung der SLAs
- risks_or_dependencies: alles, was die Lösung verzögern könnte

Seien Sie präzise, vermeiden Sie vage Formulierungen und stellen Sie sicher, dass jede Aufgabe eine/n Verantwortliche/n hat.

Erwartetes Ergebnis: Ein standardisierter, KI-generierter Wrap-up, der die Wrap-up-Zeit um 20–30 % reduziert und Tickets mit fehlenden oder unklaren Zuständigkeitsinformationen drastisch verringert.

Claude mit einem strukturierten Ownership-Playbook versorgen

Damit Claude zuverlässig bestimmen kann, wer den nächsten Schritt verantworten sollte, benötigt es eine strukturierte „Single Source of Truth“. Anstatt ausschließlich unstrukturierte Richtliniendokumente zu übergeben, erstellen Sie ein maschinenlesbares „Ownership-Playbook“, das Fallattribute (Produkt, Region, Anliegen-Typ, Kanal, Kundensegment) verantwortlichen Teams und typischen nächsten Schritten zuordnet.

Das kann so einfach sein wie eine JSON-Konfiguration oder Tabelle, die Ihre Integrationsschicht mit jeder Anfrage übergibt:

Beispielausschnitt für Zuständigkeitsregeln:
[
  {
    "product": "Subscription",
    "issue_type": "Billing_correction",
    "region": "EU",
    "owner_team": "Billing Operations",
    "sla_hours": 24,
    "standard_next_step": "Anfrage zur Rechnungsanpassung erstellen und Bestätigungs-E-Mail senden."
  },
  {
    "product": "Hardware",
    "issue_type": "Warranty_claim",
    "region": "US",
    "owner_team": "Warranty Desk",
    "sla_hours": 72,
    "standard_next_step": "Kaufnachweis anfordern und RMA-Ticket erstellen."
  }
]

Der Integrationscode kann die relevanten Regeln vorfiltern und im Prompt-Kontext mitgeben. Claude wählt dann die passende Regel aus oder passt sie an und stellt so sicher, dass Vorschläge zur Zuständigkeit mit Ihrem internen Modell übereinstimmen. Im Zeitverlauf können Sie diese Regeln anhand von realer Nutzung und Feedback erweitern und verfeinern.

Claude eine kundenfertige Follow-up-Zusammenfassung verfassen lassen

Sobald intern klar ist, wer verantwortlich ist und welche Aufgaben anstehen, muss dies der Kundschaft verständlich kommuniziert werden. Konfigurieren Sie Claude so, dass es eine kundenorientierte Lösungssummary generiert, die der Agent vor Beendigung der Interaktion per E-Mail, SMS oder Chat versenden kann. Diese Zusammenfassung sollte erklären, wer was bis wann erledigt.

Beispielprompt für eine kundenorientierte Zusammenfassung:
Sie sind ein Kundenservice-Assistent.
Verfassen Sie eine kurze, freundliche Zusammenfassung der vereinbarten nächsten Schritte für die Kundin / den Kunden.

Nutzen Sie diesen internen Plan:
{{Claude_internal_plan_JSON}}

Anforderungen:
- 2–4 kurze Absätze
- Explizit formulieren, was WIR tun werden und bis wann
- Explizit formulieren, was SIE (die Kundin / der Kunde) tun müssen und bis wann
- Vermeiden Sie interne Teamnamen; verwenden Sie generische Bezeichnungen wie „unser Abrechnungsteam“.
- Fügen Sie eine Referenznummer und Informationen hinzu, wie der Support bei Bedarf kontaktiert werden kann.

Agenten können diese Zusammenfassung schnell prüfen und versenden, sodass Kundinnen und Kunden mit einer schriftlichen Bestätigung von Verantwortlichkeiten und Zeitplänen aus der Interaktion gehen. Allein dies kann Wiederholungskontakte, die durch Unklarheit oder falsch erinnerte Zusagen ausgelöst werden, deutlich reduzieren.

Claude nutzen, um mehrdeutige oder unvollständige Pläne zu kennzeichnen

Selbst mit guten Prompts wird es Fälle geben, in denen Informationen fehlen oder die Zuständigkeit tatsächlich unklar ist. Statt stillschweigend einen schwachen Plan zu generieren, sollten Sie Claude so konfigurieren, dass es Mehrdeutigkeit erkennt und kennzeichnet. Das System sollte fehlende Daten oder widersprüchliche Regeln explizit hervorheben und konkrete Rückfragen vorschlagen, die der Agent vor Gesprächsende stellen kann.

Beispiel für Kontrolllogik im Prompt:
Wenn Sie nicht mit ausreichender Sicherheit eine/n responsible_owner oder ein target_due_date
festlegen können (weil Richtlinien widersprüchlich sind oder Schlüsselinformationen fehlen), dann:
- Setzen Sie "confidence_level" auf "low"
- Listen Sie genau auf, welche Informationen fehlen
- Schlagen Sie 2–3 kurze Klärungsfragen vor, die der Agent jetzt stellen kann
- Schlagen Sie einen temporären Verantwortlichen gemäß Eskalationsregeln vor

In der Oberfläche können Empfehlungen mit geringer Sicherheit visuell hervorgehoben werden, sodass Agenten wissen, dass sie eingreifen müssen. Das verhindert vage Versprechen, verbessert die Datenqualität und gibt Teamleads Einblick, wo Richtlinien nachgeschärft werden sollten.

Feedbackschleife mit Agenten und Teamleads etablieren

Um KI-gestützte Vorschläge für nächste Schritte kontinuierlich zu verbessern, sollten Sie eine einfache Feedbackschleife in den Workflow einbauen. Ermöglichen Sie Agenten, Claudes Empfehlung als „zutreffend“, „teilweise korrekt“ (mit Anpassungen) oder „nicht korrekt“ zu markieren und den finalen, bearbeiteten Plan zu erfassen. Teamleads und Prozesseigner können diese Fälle regelmäßig prüfen, um Prompts zu verfeinern, Zuständigkeitsregeln anzupassen oder Inhalte der Wissensdatenbank zu aktualisieren.

Technisch können Sie den ursprünglichen Prompt, Claudes Output, Bearbeitungen durch Agenten und zentrale Ergebnisse protokollieren (z. B. ob der Fall ohne weiteren Kontakt gelöst wurde). Diese Daten sind äußerst wertvoll, um die Performance zu bewerten und gezielte Verbesserungen zu steuern – etwa durch Hinzufügen konkreter Beispiele für einen problematischen Anliegen-Typ oder durch Präzisierung von Eskalationslogik in den Richtlinien, die Claude liest.

Klare KPIs definieren und die richtigen Metriken überwachen

Um zu beurteilen, ob Claude das Problem der unklaren Zuständigkeit für nächste Schritte tatsächlich löst, sollten Sie vor dem Roll-out eine kleine Menge konkreter Kennzahlen definieren. Typische Metriken sind: Anteil der Tickets mit expliziter Zuständigkeit und Fälligkeitsdatum, Rate der Wiederholungskontakte zum gleichen Anliegen, durchschnittliche Lösungszeit sowie Erstlösungsquote für die abgedeckten Anliegen-Typen.

Instrumentieren Sie Ihr CRM so, dass diese Felder verpflichtend und auswertbar sind. Vergleichen Sie Basisdaten (vor der Implementierung) mit Zahlen nach der Implementierung für dieselben Queues oder Kategorien. Kombinieren Sie dies mit qualitativem Feedback von Kundschaft und Agenten, um ein vollständiges Bild zu erhalten. Rechnen Sie mit einer anfänglichen Lernphase; mit gezieltem Feintuning können viele Organisationen realistisch 10–25 % weniger Wiederholungskontakte und eine deutlich verbesserte FCR in den ersten 2–3 Monaten erreichen.

Wenn Sie diese taktischen Best Practices umsetzen – enge CRM-Integration, strukturierte Zuständigkeitsregeln, kundenfertige Zusammenfassungen, Umgang mit Mehrdeutigkeit, Feedbackschleifen und klare KPIs – können Sie mit greifbaren Ergebnissen rechnen: planbare Übergaben, weniger festhängende Tickets, ein messbarer Rückgang von „Wo steht mein Fall?“-Kontakten und ein sichtbarer Anstieg der Erstlösungsquote, ohne zusätzliche Köpfe aufzubauen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Claude analysiert die vollständige Konversation, die Fallhistorie und Ihre internen Richtlinien, um noch vor Abschluss der Interaktion einen konkreten Lösungsplan vorzuschlagen. Es schlägt vor:

  • Wer die nächste Aktion verantworten soll (Agent, bestimmtes Team, Backoffice-Rolle)
  • Welche Aufgaben intern erledigt werden müssen
  • Was die Kundin / der Kunde tun muss – falls überhaupt etwas
  • Bis wann jeder Schritt abgeschlossen sein sollte, basierend auf Ihren SLAs

Dieser Plan wird direkt in Ihrem CRM- oder Ticketsystem angezeigt, sodass der Agent ihn bestätigen oder anpassen kann. Das Ergebnis: Jede Interaktion endet mit einem klar definierten, dokumentierten Verantwortlichen und nächsten Schritt – statt mit vagen Versprechen.

Sie benötigen drei Hauptkomponenten: Datenzugang, Prozessklarheit und minimale Engineering-Kapazität. Technisch muss Ihr CRM- oder Ticketsystem in der Lage sein, Gesprächstranskripte, Basis-Metadaten zum Fall sowie relevante Richtlinien oder KB-Artikel per API an Claude zu senden und strukturierte Vorschläge zurückzuerhalten.

Auf Prozessebene sollten Sie mindestens einen Entwurf Ihrer Zuständigkeitsregeln haben (wer was verantwortet, Eskalationspfade, SLAs) für Ihre häufigsten Anliegen-Typen. Aus Engineering-Perspektive reicht in der Regel ein kleines, funktionsübergreifendes Team (typischerweise eine Entwicklerperson, eine CX-/Operations-Verantwortliche und eine Produktverantwortliche), um eine erste Version zu bauen und zu iterieren. Reruption arbeitet häufig direkt mit solchen Teams zusammen, um in Tagen statt Monaten vom Konzept zu einem funktionierenden Prototyp für Claude-gestützten Wrap-up zu kommen.

Wenn Sie mit einem fokussierten Scope starten (z. B. einem Teil Ihrer Queues oder bestimmten Anliegen-Typen) und Ihre Zuständigkeitsregeln einigermaßen klar sind, können Sie in der Regel innerhalb von 4–6 Wochen eine erste integrierte Version von Claude-unterstütztem Wrap-up ausrollen. Im ersten Monat nach dem Go-live werden Sie qualitative Verbesserungen sehen: klarere interne Notizen, konsistentere Zuständigkeiten und weniger „verlorene“ Tickets.

Messbare Verbesserungen bei Erstlösungsquote und Wiederholungskontakten werden meist nach 6–12 Wochen sichtbar, sobald Prompts und Regeln anhand der realen Nutzung feinjustiert sind. Viele Organisationen können realistisch mit einer Reduktion der Wiederholungskontakte um 10–25 % für die abgedeckten Anliegen-Typen rechnen – bei gleichzeitig spürbaren Verbesserungen in FCR und im Sicherheitsgefühl der Agenten beim Abschluss komplexer Interaktionen.

Die wichtigsten Kostentreiber sind: Nutzung der Claude-API, Integrationsaufwand und etwas Zeit aus dem Operations-Team zur Definition von Zuständigkeitsregeln. Dem gegenüber steht der ROI aus weniger Wiederholungskontakten, geringerem manuellen Aufwand im Wrap-up, schnelleren Lösungen durch sauberere Übergaben und höherer Kundenzufriedenheit (mit Effekten auf Bindung und Upsell).

Praktisch sehen viele Teams schon durch das geringere Anruf- und Chat-Volumen bei Follow-ups Einsparungen, die KI- und Engineering-Kosten teilweise oder vollständig kompensieren. Zusätzlich reduziert klarere Zuständigkeit interne Reibung und den Zeitaufwand für das Einholen von Updates zwischen Teams. Über einen Zeitraum von 6–12 Monaten betrachtet, liefert eine gut implementierte Lösung in der Regel einen starken ROI – insbesondere in mittel- bis hochvolumigen Support-Umgebungen.

Reruption verbindet strategische Klarheit mit tiefem KI-Engineering, um aus einer Folie eine funktionierende Lösung zu machen. Meist starten wir mit unserem AI-PoC-Angebot (9.900€), in dem wir den Use Case definieren, einen repräsentativen Ausschnitt Ihrer CRM- oder Ticketdaten anbinden und einen funktionierenden Prototyp für Claude-gestützten Wrap-up erstellen. Sie erhalten echte Performance-Metriken, nicht nur Theorie.

Darauf aufbauend setzen wir unseren Co-Preneur-Ansatz fort: Wir arbeiten Seite an Seite mit Ihrem Team, iterieren an Prompts und Zuständigkeitsregeln, klären Security- und Compliance-Fragen und integrieren die Lösung in Ihre produktiven Workflows. Wir agieren innerhalb Ihrer P&L und fokussieren auf messbare Ergebnisse wie höhere Erstlösungsquoten und weniger Wiederholungskontakte – statt nur Dokumente zu liefern.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media