Die Herausforderung: Unklare Zuständigkeit für nächste Schritte

In vielen Kundenserviceteams enden Interaktionen mit einer freundlichen Zusammenfassung, aber ohne echte Klarheit darüber, wer was bis wann erledigen muss. Der Agent verspricht, „sich darum zu kümmern“, das Backoffice wird vage erwähnt und die Kundin oder der Kunde verlässt das Gespräch in der Annahme, dass sich schon jemand kümmern wird. Tage später weiß niemand genau, wer den nächsten Schritt verantwortet, Tickets bleiben liegen und Kundinnen und Kunden melden sich erneut, um nach Updates oder Korrekturen zu fragen.

Traditionelle Ansätze versuchen, dies mit Skripten, Checklisten und manueller Nachbearbeitung zu lösen. Von Agenten wird erwartet, komplexe Richtlinien, Routing-Regeln und Service-Level-Agreements im Kopf zu behalten, während sie ein Gespräch unter Zeitdruck abschließen. CRM-Felder für „nächste Aktion“ oder „verantwortliches Team“ sind häufig Freitext, uneinheitlich und werden selten konsequent genutzt. Je komplexer Produkte, Richtlinien und Kanäle werden, desto weniger kann ein rein menschliches Modell alle Abhängigkeiten und Übergaberegeln in Echtzeit überblicken.

Die Auswirkungen sind erheblich: Die Erstlösungsquote (First Contact Resolution) sinkt, Bearbeitungszeiten steigen und Backlogs wachsen, weil Tickets zwischen Teams hin- und hergeschoben werden. Kundinnen und Kunden erleben gebrochene Versprechen, unklare Erwartungen und müssen aktiv wegen Updates nachfassen – mit direkten Folgen für NPS und Churn. Intern fehlt Führungskräften die Transparenz, wo Fälle stecken bleiben, und Agenten verlieren Zeit damit, lange Verläufe erneut zu lesen, um herauszufinden, was als Nächstes passieren sollte, statt neue Anliegen zu lösen.

Diese Herausforderung ist real, aber sie ist lösbar. Mit modernen KI-Assistenten wie Claude können Sie Richtlinien, vergangene Tickets und die laufende Konversation systematisch analysieren lassen, um noch während der Interaktion präzise nächste Schritte, Verantwortliche und Fristen vorzuschlagen. Bei Reruption haben wir gesehen, wie KI-first-Workflows fragile manuelle Routinen durch verlässliche, transparente Übergaben ersetzen. Im Folgenden zeigen wir einen pragmatischen Weg, wie Sie dies in Ihrem Kundenservice umsetzen können, ohne auf eine komplette Systemmodernisierung warten zu müssen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions Arbeit beim Aufbau von KI-gestützten Workflows in komplexen Umgebungen wissen wir, dass unklare Zuständigkeiten für nächste Schritte selten nur ein Tooling-Problem sind. Es ist eine Kombination aus verstreuten Richtlinien, inkonsistenten Prozessen und hoher kognitiver Belastung für Agenten. Richtig eingesetzt kann Claude für den Kundenservice lange Fallhistorien, Wissensdatenbank-Artikel und Prozessbeschreibungen lesen, um in Echtzeit konkrete Folgeaktionen mit klarer Zuständigkeit vorzuschlagen. Entscheidend ist, Claude als tief eingebetteten Entscheidungs-Co-Piloten in Ihrem CRM zu betrachten – nicht nur als weiteren Chatbot am Rand.

Den Wrap-up als Entscheidungszeitpunkt statt als Nebensache neu gestalten

Die meisten Service-Teams sehen das Ende einer Interaktion als administrativen Aufwand: zusammenfassen, einen Abschlusscode auswählen, weiter zum nächsten Fall. Um Claude für klare Zuständigkeit der nächsten Schritte zu nutzen, müssen Sie diesen Moment als strukturierten Entscheidungspunkt neu denken, an dem System und Agent gemeinsam festlegen, was als Nächstes passiert. Das bedeutet, den Flow so zu gestalten, dass Claude genau dann ausgelöst wird, wenn der Agent den Fall schließen oder übergeben möchte.

Strategisch erfordert dies, dass Produkt-, Operations- und Customer-Service-Verantwortliche sich darauf verständigen, wie ein „guter nächster Schritt“ aussieht: welche Felder definiert sein müssen (Verantwortliche/r, Aktion, Fälligkeitsdatum, Abhängigkeiten), welche internen SLAs gelten und was der Kundschaft zu kommunizieren ist. Sobald dies klar ist, kann Claude angewiesen werden, immer einen vollständigen, standardisierten Lösungspfad auszugeben, den Agenten nur noch bestätigen statt von Grund auf neu ausdenken.

Zuständigkeitsregeln kodifizieren, bevor Sie sie automatisieren

Claude kann komplexe Support-Richtlinien interpretieren, aber unklare oder widersprüchliche Regeln kann es nicht reparieren. Bevor Sie sich auf KI verlassen, investieren Sie Zeit, um Ihre Logik zur Zuständigkeit sichtbar zu machen und zu kodifizieren: welche Teams welche Produkte verantworten, welche Anliegen Genehmigungen erfordern, wie die Eskalationsstufen aussehen und wann die Kundschaft aktiv werden muss. Das muss kein jahrelanges Projekt sein, erfordert aber explizite Entscheidungen.

Aus strategischer Sicht sollten Sie Ihre 10–20 häufigsten Falltypen identifizieren, bei denen Zuständigkeit oft unklar ist. Dokumentieren Sie deren ideales „Resolution Playbook“ einfach, aber präzise (z. B. im RACI-Stil mit Verantwortlichkeiten und Standard-Folgeaktionen). Diese Artefakte werden zum Referenzmaterial, das Claude liest, um in Echtzeit die richtige Zuständigkeit zu bestimmen. Je klarer Ihre Regeln, desto zuverlässiger werden Claudes Vorschläge.

Claude als Assistent positionieren, nicht als Schiedsrichter

Agenten und Teamleads könnten befürchten, dass KI im Kundenservice ihr Urteilsvermögen überstimmt oder starre Workflows erzwingt. Um Akzeptanz zu sichern, positionieren Sie Claude als Assistenten, der einen empfohlenen Plan für die nächsten Schritte vorschlägt, während die finale Entscheidung beim Menschen bleibt. In der Praxis bedeutet das, dass Claude seine Begründung und Alternativen knapp darstellt und die Oberfläche es Agenten leicht macht, Zuständigkeiten oder Fälligkeiten vor der Bestätigung anzupassen.

Organisatorisch verschiebt dieses Framing die Diskussion von „Die KI sagt dir, was du tun sollst“ hin zu „Die KI übernimmt die aufwendige Lektüre und schlägt dir einen Plan vor, damit Sie sich auf die Kundschaft konzentrieren können.“ Das hilft auch beim Risikomanagement: Agenten werden geschult zu erkennen, wann eine Empfehlung nicht passt, und sie zu korrigieren – ein wertvolles Feedbacksignal, um Prompts und Richtlinien im Laufe der Zeit zu verfeinern.

KPIs auf Erstlösungsquote statt nur auf Geschwindigkeit ausrichten

Wenn Ihre primäre KPI die durchschnittliche Bearbeitungszeit ist, werden Agenten sich unter Druck fühlen, schnell zu schließen, statt einen vollständigen Plan für die nächsten Schritte zu definieren. Um den Wert von KI-getriebener Klarheit über nächste Schritte zu heben, muss das Management explizit Ergebnisse wie First Contact Resolution (FCR), Reduktion von Wiederholungskontakten und klare Zuständigkeiten belohnen – auch wenn einige Interaktionen dadurch etwas länger dauern.

Dieser strategische Wechsel schafft Raum dafür, dass Claude die richtigen Informationen bereitstellt und Agenten einen kurzen, aber inhaltlich klaren Abstimmungsmoment mit der Kundschaft über Verantwortlichkeiten haben. Im Zeitverlauf werden sich FCR und Geschwindigkeit meist gleichzeitig verbessern, da weniger Fälle zurückkommen und Übergaben reibungsloser laufen. Doch der Mindset-Wechsel muss zuerst kommen, damit die KI wie vorgesehen genutzt wird.

Governance und Compliance von Anfang an planen

Wenn Sie Claude in Ihr CRM- oder Ticketsystem einbetten, verarbeitet es reale Kundendaten und interne Richtlinien. Sie benötigen ein Governance-Modell, das Datenzugriff, Protokollierung und Erklärbarkeit von Entscheidungen abdeckt. Strategisch sollten Sie definieren, auf welche Daten Claude zugreifen darf (z. B. vergangene Tickets, KB-Artikel, Richtliniendokumente), wie Ausgaben gespeichert werden und wer für die Qualitätsüberwachung verantwortlich ist.

Reruptions Erfahrung im KI-Engineering zeigt, dass eine frühe Abstimmung mit Security, Legal und Compliance spätere, schmerzhafte Nacharbeiten vermeidet. Etablieren Sie klare Leitlinien dazu, wann Claudes Empfehlungen verbindlich versus beratend sind, wie mit Sonderfällen umzugehen ist und wie Vorfälle (z. B. falsche Zuständigkeitszuweisung) geprüft und zur Verbesserung des Systems genutzt werden. Das schafft internes Vertrauen und hält Risiken unter Kontrolle, während Sie die Nutzung skalieren.

Durchdacht eingesetzt kann Claude die chaotischen letzten Minuten einer Support-Interaktion in einen präzisen, gemeinsam getragenen Lösungsplan verwandeln: klare Verantwortliche, konkrete Aktionen, realistische Zeitpläne. Am meisten profitieren Organisationen, die bereit sind, ihre Zuständigkeitsregeln zu kodifizieren und die Komplexität von der KI handhaben zu lassen, während Menschen sich auf die Beziehung zur Kundschaft konzentrieren. Reruption verbindet diese strategische Neuausrichtung mit praktischem KI-Engineering, um Claude direkt in Ihre CRM- oder Ticketing-Workflows einzubetten. Wenn Sie Wiederholungskontakte reduzieren und Erstlösungen zum Standard machen möchten, unterstützen wir Sie dabei, eine Lösung zu konzipieren und auszurollen, die in Ihrer Umgebung tatsächlich funktioniert.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Bankwesen bis Intelligente Städte: Erfahren Sie, wie Unternehmen Claude erfolgreich einsetzen.

Lunar

Bankwesen

Lunar, eine führende dänische Neobank, sah sich mit einem starken Anstieg der Kundendienstnachfrage außerhalb der Geschäftszeiten konfrontiert, wobei viele Nutzer die Sprachinteraktion gegenüber Apps aufgrund von Zugänglichkeitsproblemen bevorzugten. Lange Wartezeiten frustrierten Kunden, insbesondere ältere oder weniger technikaffine Personen, die mit digitalen Schnittstellen Schwierigkeiten hatten, was zu Ineffizienzen und höheren Betriebskosten führte. Hinzu kam die Notwendigkeit von rund-um-die-Uhr-Support in einem wettbewerbsintensiven Fintech-Umfeld, in dem eine 24/7-Verfügbarkeit entscheidend ist. Traditionelle Callcenter konnten nicht ohne explodierende Kosten skalieren, und die Präferenz für Stimme war deutlich, aber unterversorgt — mit Folgen für Zufriedenheit und potenziellen Kundenverlust.

Lösung

Lunar implementierte Europas ersten GenAI-nativen Sprachassistenten, betrieben von GPT-4, der natürliche, telefonbasierte Gespräche ermöglicht, um Anfragen jederzeit ohne Warteschlangen zu bearbeiten. Der Agent verarbeitet komplexe Bankanfragen wie Kontostände, Überweisungen und Support auf Dänisch und Englisch. Integriert mit fortschrittlicher Sprach-zu-Text- und Text-zu-Sprache-Technologie ahmt er menschliche Agenten nach und eskaliert nur Randfälle an Menschen. Dieser Ansatz der konversationellen KI überwand Skalierungsgrenzen und nutzte OpenAIs Technologie für Genauigkeit in regulierten Fintech-Umgebungen.

Ergebnisse

  • ~75% aller Kundenanrufe sollen autonom bearbeitet werden
  • 24/7-Verfügbarkeit eliminiert Wartezeiten für Sprach-Anfragen
  • Positives frühes Feedback von App-gestörten Nutzern
  • Erste europäische Bank mit GenAI-nativer Sprachtechnologie
  • Signifikante projizierte Einsparungen bei Betriebskosten
Fallstudie lesen →

bunq

Bankwesen

Als bunq ein rasantes Wachstum als zweitgrößte Neobank in Europa verzeichnete, wurde die Skalierung des Kundenservice zu einer kritischen Herausforderung. Bei Millionen von Nutzern, die personalisierte Banking-Informationen zu Konten, Ausgabeverhalten und Finanzberatung auf Abruf verlangen, stand das Unternehmen unter Druck, sofortige Antworten zu liefern, ohne die Zahl der menschlichen Supportteams proportional zu erhöhen — was Kosten treiben und Abläufe verlangsamen würde. Traditionelle Suchfunktionen in der App reichten für komplexe, kontextabhängige Anfragen nicht aus und führten zu Ineffizienzen und Nutzerfrustration. Zudem stellten die Gewährleistung von Datenschutz und Genauigkeit in einem stark regulierten Fintech-Umfeld erhebliche Risiken dar. bunq benötigte eine Lösung, die nuancierte Unterhaltungen führen und gleichzeitig EU-Bankvorschriften einhalten konnte, Halluzinationen vermeiden würde, wie sie in frühen GenAI-Modellen vorkommen, und sich nahtlos integrieren ließe, ohne die App-Performance zu beeinträchtigen. Ziel war es, Routineanfragen zu automatisieren, sodass menschliche Agenten sich auf wertschöpfende Fälle konzentrieren konnten.

Lösung

bunq begegnete diesen Herausforderungen durch die Entwicklung von Finn, einer proprietären GenAI-Plattform, die direkt in die mobile App integriert wurde und die herkömmliche Suchfunktion durch einen konversationellen KI-Chatbot ersetzte. Nach der Einstellung von mehr als einem Dutzend Datenexperten im Vorjahr baute das Team Finn so, dass er sicher auf nutzerspezifische Finanzdaten zugreift, Fragen zu Kontoständen, Transaktionen und Budgets beantwortet und sogar allgemeine Ratschläge gibt, wobei der Gesprächskontext über Sitzungen hinweg erhalten bleibt. Nach einer Beta wurde Finn im Dezember 2023 als Europas erster KI-gestützter Bankassistent eingeführt und entwickelte sich schnell weiter. Bis Mai 2024 wurde er vollständig konversationell, was natürliche Mehrfachrunden-Interaktionen ermöglichte. Dieser retrieval-augmented generation (RAG)-Ansatz stützte Antworten auf Echtzeit-Nutzerdaten, minimierte Fehler und erhöhte die Personalisierung.

Ergebnisse

  • 100.000+ Fragen innerhalb von Monaten nach der Beta beantwortet (Ende 2023)
  • 40 % der Nutzeranfragen bis Mitte 2024 autonom vollständig gelöst
  • 35 % der Anfragen unterstützt, insgesamt 75 % sofortige Support-Abdeckung
  • Vor dem Start 12+ Datenexperten für die Dateninfrastruktur eingestellt
  • Zweitgrößte Neobank Europas nach Nutzerbasis (1M+ Nutzer)
Fallstudie lesen →

Stanford Health Care

Gesundheitswesen

Stanford Health Care, ein führendes akademisches medizinisches Zentrum, sah sich steigender Klinikermüdung durch überwältigende administrative Aufgaben gegenüber, darunter das Verfassen von Patientenkorrespondenz und das Management überfüllter Postfächer. Bei großen EHR-Datenmengen war das Gewinnen von Erkenntnissen für die Präzisionsmedizin und die Echtzeitüberwachung von Patienten manuell und zeitaufwendig, was die Versorgung verzögerte und das Fehlerpotenzial erhöhte. Traditionelle Arbeitsabläufe hatten Schwierigkeiten mit prädiktiver Analytik für Ereignisse wie Sepsis oder Stürze und mit Computer Vision für die Bildauswertung, bei gleichzeitig steigenden Patientenzahlen. Klinikteams verbrachten übermäßig viel Zeit mit Routinekommunikation, z. B. Benachrichtigungen zu Laborergebnissen, was die Konzentration auf komplexe Diagnosen beeinträchtigte. Der Bedarf an skalierbaren, unbeeinflussten KI-Algorithmen war entscheidend, um umfangreiche Datensätze für bessere Ergebnisse zu nutzen.

Lösung

In Partnerschaft mit Microsoft wurde Stanford eines der ersten Gesundheitssysteme, das den Azure OpenAI Service innerhalb von Epic EHR pilotierte und so generative KI zum Verfassen von Patientennachrichten und für natürliche Sprachabfragen zu klinischen Daten ermöglichte. Diese Integration nutzte GPT-4, um Korrespondenz zu automatisieren und manuellen Aufwand zu reduzieren. Ergänzend dazu setzte das Healthcare AI Applied Research Team maschinelles Lernen für prädiktive Analytik (z. B. Sepsis- und Sturzvorhersage) ein und untersuchte Computer Vision in Bildgebungsprojekten. Tools wie ChatEHR erlauben den konversationellen Zugriff auf Patientenakten und beschleunigen Chart-Reviews. Gestaffelte Pilotprojekte adressierten Datenschutz und Bias und stellten sicher, dass klinische Anwender durch erklärbare KI unterstützt werden.

Ergebnisse

  • 50% Reduktion der Zeit für das Verfassen von Patientenkorrespondenz
  • 30% Verringerung der Belastung durch Nachrichten im Postfach der Klinikteams durch KI-gestützte Nachrichtenzuweisung
  • 91% Genauigkeit bei prädiktiven Modellen für unerwünschte Ereignisse bei stationären Patienten
  • 20% schnellere Kommunikation von Laborergebnissen an Patienten
  • Verbesserte Erkennung von Autoimmunerkrankungen bis zu 1 Jahr vor der Diagnose
Fallstudie lesen →

AT&T

Telekommunikation

Als führender Netzbetreiber verwaltet AT&T eines der weltweit größten und komplexesten Netzwerke, das Millionen von Funkzellen, Glasfasern und 5G-Infrastruktur umfasst. Die zentralen Herausforderungen umfassten ineffiziente Netzplanung und -optimierung, etwa die Festlegung optimaler Standorte für Funkzellen und die Frequenzakquisition vor dem Hintergrund explodierender Datenanforderungen durch den 5G-Rollout und das Wachstum des IoT. Traditionelle Methoden beruhten auf manueller Analyse, was zu suboptimaler Ressourcenzuteilung und höheren Kapitalaufwendungen führte. Zusätzlich verursachte die reaktive Netzwartung häufige Ausfälle, da die Anomalieerkennung nicht mit den Echtzeitanforderungen Schritt hielt. Probleme proaktiv zu erkennen und zu beheben war entscheidend, um Ausfallzeiten zu minimieren, doch die enormen Datenmengen aus Netzwerksensoren überforderten die Altsysteme. Dies führte zu erhöhten Betriebskosten, Kundenunzufriedenheit und verzögerter 5G-Bereitstellung. AT&T benötigte skalierbare KI, um Ausfälle vorherzusagen, Selbstheilung zu automatisieren und die Nachfrage präzise zu prognostizieren.

Lösung

AT&T integrierte Maschinelles Lernen und Vorhersageanalytik über seine AT&T Labs und entwickelte Modelle für das Netzwerkdesign, einschließlich Spektrum-Refarming und Optimierung von Funkzellenstandorten. KI-Algorithmen analysieren Geodaten, Verkehrsprofile und historische Leistungsdaten, um ideale Standorte für Sendemasten zu empfehlen und so Baukosten zu reduzieren. Für den Betrieb nutzen Systeme zur Anomalieerkennung und Selbstheilung prädiktive Modelle auf NFV (Network Function Virtualization), um Ausfälle vorherzusagen und automatisierte Behebungen durchzuführen, etwa durch Umleitung von Traffic. Kausale KI geht über Korrelationen hinaus und liefert Ursachenanalysen bei Abwanderung und Netzproblemen. Die Implementierung umfasste Edge-to-Edge-Intelligenz und die Bereitstellung von KI in den Arbeitsabläufen von über 100.000 Ingenieurinnen und Ingenieuren.

Ergebnisse

  • Milliarden von Dollar an Einsparungen bei Netzwerkkosten
  • 20–30% Verbesserung der Netzauslastung und Effizienz
  • Signifikante Reduktion von Vor-Ort-Einsätzen (Truck Rolls) und manuellen Eingriffen
  • Proaktive Erkennung von Anomalien, die größere Ausfälle verhindert
  • Optimierte Standortwahl für Funkzellen, die CapEx um Millionen reduziert
  • Bis zu 40% bessere Genauigkeit bei 5G-Nachfrageprognosen
Fallstudie lesen →

Duke Health

Gesundheitswesen

Sepsis ist ein lebensbedrohlicher Zustand, der in den USA jährlich für über 270.000 Todesfälle verantwortlich ist, mit Mortalitätsraten von bis zu 40% in Krankenhäusern aufgrund verzögerter Erkennung. Frühsymptome sind oft unspezifisch—Fieber, Tachykardie, veränderter Geisteszustand—und ähneln häufigen Erkrankungen, wodurch eine rechtzeitige Erkennung in stark frequentierten Notaufnahmen (EDs) schwierig ist. Traditionelle Bewertungssysteme wie qSOFA und SIRS leiden unter geringer Sensitivität (etwa 50–60%) und schlechter prädiktiver Leistung Stunden vor Auftreten, was zu späten Interventionen und schlechteren Ergebnissen führt. Duke Health, das hohe Patientenzahlen in seinen drei Notaufnahmen bewältigt, stand vor der doppelten Herausforderung, Frühwarnsysteme zu skalieren und gleichzeitig Alarmmüdigkeit und Workflow-Störungen zu vermeiden. Die Integration neuartiger KI erforderte strenge Validierung, Akzeptanz durch Kliniker und nahtlose Einbettung in das EHR, ohne die Sicherheit zu beeinträchtigen oder unnötige Behandlungen zu erhöhen.

Lösung

Sepsis Watch ist ein auf Deep Learning basierendes Vorhersagemodell, das Echtzeit-EHR-Daten (Vitalwerte, Labore, Demografie) analysiert, um den Sepsisanfall bis zu 48 Stunden im Voraus vorherzusagen, mit dem primären Fokus auf 6-Stunden-Vorhersagen. Entwickelt vom Duke Institute for Health Innovation (DIHI) verwendet es eine rekurrente neuronale Netzwerkarchitektur, die auf historischen Daten von über 600.000 Patientenkontakten (2008–2016) trainiert wurde und eine beeindruckende AUROC von 0,922 erzielte. Die Lösung integriert sich als pflegeorientiertes Best Practice Advisory (BPA) in das Epic EHR und löst nicht-interruptive Warnungen für Hochrisikopatienten aus. Dieses klinikerzentrierte Design fördert Maßnahmen wie frühe Antibiotikagabe und Flüssigkeitszufuhr und minimiert gleichzeitig falsch positive Alarme durch Schwellenwertanpassung. Pilotversuche und iteratives Feedback sicherten eine sichere Einführung.

Ergebnisse

  • AUROC: 92,2% für 6-Stunden-Sepsisvorhersage
  • Früherkennung: Bis zu 6 Stunden vor klinischem Auftreten
  • Einsatzumfang: Alle 3 Duke-Notaufnahmen, Tausende überwachte Patienten
  • Alarm-Compliance: Hohe Akzeptanzraten nach Integration
  • Bundle-Compliance: Deutliche Verbesserungen in Verbindung mit Warnungen
  • Auswirkung auf Sterblichkeit: Assoziiert mit reduzierten in-hospitalen Sepsis-Todesfällen
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Claude direkt in Ihren CRM-Wrap-up-Screen einbetten

Der wirkungsvollste Weg, unklare Zuständigkeit für nächste Schritte zu adressieren, ist, Claude genau in dem Moment auszulösen, in dem der Agent die Interaktion beendet. Technisch bedeutet das, Claude per API in Ihr CRM- oder Ticketsystem zu integrieren, sodass beim Klick des Agenten auf „Abschließen“ oder „Konversation schließen“ ein Aufruf mit dem gesamten relevanten Kontext erfolgt: Gesprächstranskript, Fallhistorie, Kundendaten und geltende Richtlinien.

Claude sollte anschließend eine strukturierte Ausgabe liefern, die auf Ihre CRM-Felder abgebildet wird, etwa Beschreibung der nächsten Aktion, Verantwortliches Team / Verantwortliche Person, Fälligkeitsdatum / SLA und Aufgaben der Kundschaft. Die Oberfläche kann Claudes Vorschlag in einem bearbeitbaren Panel anzeigen, sodass der Agent vor dem Speichern bestätigen oder anpassen kann. Das reduziert manuellen Schreibaufwand und sorgt für konsistente, vollständige Pläne für nächste Schritte über alle Agenten hinweg.

Beispiel-Systemprompt für Claude zur Wrap-up-Unterstützung:
Sie sind ein KI-Assistent, der in ein Kundenservice-CRM eingebettet ist.
Ihre Aufgabe ist es, klare nächste Schritte, Verantwortliche und Fristen vorzuschlagen.

Gegeben:
- Vollständiges Gesprächstranskript
- Fallhistorie und interne Notizen
- Interne Richtlinien (Zuständigkeitsregeln, SLAs)

Geben Sie JSON zurück mit:
- next_action_summary: kurze Beschreibung in kundenfreundlicher Sprache
- internal_action_steps: Liste konkreter Aufgaben für interne Teams
- responsible_owner: Team oder Rolle, die den wichtigsten nächsten Schritt verantwortet
- customer_actions: präzise Schritte, die die Kundin / der Kunde ausführen muss (falls vorhanden)
- target_due_date: realistisches Datum/Uhrzeit unter Berücksichtigung der SLAs
- risks_or_dependencies: alles, was die Lösung verzögern könnte

Seien Sie präzise, vermeiden Sie vage Formulierungen und stellen Sie sicher, dass jede Aufgabe eine/n Verantwortliche/n hat.

Erwartetes Ergebnis: Ein standardisierter, KI-generierter Wrap-up, der die Wrap-up-Zeit um 20–30 % reduziert und Tickets mit fehlenden oder unklaren Zuständigkeitsinformationen drastisch verringert.

Claude mit einem strukturierten Ownership-Playbook versorgen

Damit Claude zuverlässig bestimmen kann, wer den nächsten Schritt verantworten sollte, benötigt es eine strukturierte „Single Source of Truth“. Anstatt ausschließlich unstrukturierte Richtliniendokumente zu übergeben, erstellen Sie ein maschinenlesbares „Ownership-Playbook“, das Fallattribute (Produkt, Region, Anliegen-Typ, Kanal, Kundensegment) verantwortlichen Teams und typischen nächsten Schritten zuordnet.

Das kann so einfach sein wie eine JSON-Konfiguration oder Tabelle, die Ihre Integrationsschicht mit jeder Anfrage übergibt:

Beispielausschnitt für Zuständigkeitsregeln:
[
  {
    "product": "Subscription",
    "issue_type": "Billing_correction",
    "region": "EU",
    "owner_team": "Billing Operations",
    "sla_hours": 24,
    "standard_next_step": "Anfrage zur Rechnungsanpassung erstellen und Bestätigungs-E-Mail senden."
  },
  {
    "product": "Hardware",
    "issue_type": "Warranty_claim",
    "region": "US",
    "owner_team": "Warranty Desk",
    "sla_hours": 72,
    "standard_next_step": "Kaufnachweis anfordern und RMA-Ticket erstellen."
  }
]

Der Integrationscode kann die relevanten Regeln vorfiltern und im Prompt-Kontext mitgeben. Claude wählt dann die passende Regel aus oder passt sie an und stellt so sicher, dass Vorschläge zur Zuständigkeit mit Ihrem internen Modell übereinstimmen. Im Zeitverlauf können Sie diese Regeln anhand von realer Nutzung und Feedback erweitern und verfeinern.

Claude eine kundenfertige Follow-up-Zusammenfassung verfassen lassen

Sobald intern klar ist, wer verantwortlich ist und welche Aufgaben anstehen, muss dies der Kundschaft verständlich kommuniziert werden. Konfigurieren Sie Claude so, dass es eine kundenorientierte Lösungssummary generiert, die der Agent vor Beendigung der Interaktion per E-Mail, SMS oder Chat versenden kann. Diese Zusammenfassung sollte erklären, wer was bis wann erledigt.

Beispielprompt für eine kundenorientierte Zusammenfassung:
Sie sind ein Kundenservice-Assistent.
Verfassen Sie eine kurze, freundliche Zusammenfassung der vereinbarten nächsten Schritte für die Kundin / den Kunden.

Nutzen Sie diesen internen Plan:
{{Claude_internal_plan_JSON}}

Anforderungen:
- 2–4 kurze Absätze
- Explizit formulieren, was WIR tun werden und bis wann
- Explizit formulieren, was SIE (die Kundin / der Kunde) tun müssen und bis wann
- Vermeiden Sie interne Teamnamen; verwenden Sie generische Bezeichnungen wie „unser Abrechnungsteam“.
- Fügen Sie eine Referenznummer und Informationen hinzu, wie der Support bei Bedarf kontaktiert werden kann.

Agenten können diese Zusammenfassung schnell prüfen und versenden, sodass Kundinnen und Kunden mit einer schriftlichen Bestätigung von Verantwortlichkeiten und Zeitplänen aus der Interaktion gehen. Allein dies kann Wiederholungskontakte, die durch Unklarheit oder falsch erinnerte Zusagen ausgelöst werden, deutlich reduzieren.

Claude nutzen, um mehrdeutige oder unvollständige Pläne zu kennzeichnen

Selbst mit guten Prompts wird es Fälle geben, in denen Informationen fehlen oder die Zuständigkeit tatsächlich unklar ist. Statt stillschweigend einen schwachen Plan zu generieren, sollten Sie Claude so konfigurieren, dass es Mehrdeutigkeit erkennt und kennzeichnet. Das System sollte fehlende Daten oder widersprüchliche Regeln explizit hervorheben und konkrete Rückfragen vorschlagen, die der Agent vor Gesprächsende stellen kann.

Beispiel für Kontrolllogik im Prompt:
Wenn Sie nicht mit ausreichender Sicherheit eine/n responsible_owner oder ein target_due_date
festlegen können (weil Richtlinien widersprüchlich sind oder Schlüsselinformationen fehlen), dann:
- Setzen Sie "confidence_level" auf "low"
- Listen Sie genau auf, welche Informationen fehlen
- Schlagen Sie 2–3 kurze Klärungsfragen vor, die der Agent jetzt stellen kann
- Schlagen Sie einen temporären Verantwortlichen gemäß Eskalationsregeln vor

In der Oberfläche können Empfehlungen mit geringer Sicherheit visuell hervorgehoben werden, sodass Agenten wissen, dass sie eingreifen müssen. Das verhindert vage Versprechen, verbessert die Datenqualität und gibt Teamleads Einblick, wo Richtlinien nachgeschärft werden sollten.

Feedbackschleife mit Agenten und Teamleads etablieren

Um KI-gestützte Vorschläge für nächste Schritte kontinuierlich zu verbessern, sollten Sie eine einfache Feedbackschleife in den Workflow einbauen. Ermöglichen Sie Agenten, Claudes Empfehlung als „zutreffend“, „teilweise korrekt“ (mit Anpassungen) oder „nicht korrekt“ zu markieren und den finalen, bearbeiteten Plan zu erfassen. Teamleads und Prozesseigner können diese Fälle regelmäßig prüfen, um Prompts zu verfeinern, Zuständigkeitsregeln anzupassen oder Inhalte der Wissensdatenbank zu aktualisieren.

Technisch können Sie den ursprünglichen Prompt, Claudes Output, Bearbeitungen durch Agenten und zentrale Ergebnisse protokollieren (z. B. ob der Fall ohne weiteren Kontakt gelöst wurde). Diese Daten sind äußerst wertvoll, um die Performance zu bewerten und gezielte Verbesserungen zu steuern – etwa durch Hinzufügen konkreter Beispiele für einen problematischen Anliegen-Typ oder durch Präzisierung von Eskalationslogik in den Richtlinien, die Claude liest.

Klare KPIs definieren und die richtigen Metriken überwachen

Um zu beurteilen, ob Claude das Problem der unklaren Zuständigkeit für nächste Schritte tatsächlich löst, sollten Sie vor dem Roll-out eine kleine Menge konkreter Kennzahlen definieren. Typische Metriken sind: Anteil der Tickets mit expliziter Zuständigkeit und Fälligkeitsdatum, Rate der Wiederholungskontakte zum gleichen Anliegen, durchschnittliche Lösungszeit sowie Erstlösungsquote für die abgedeckten Anliegen-Typen.

Instrumentieren Sie Ihr CRM so, dass diese Felder verpflichtend und auswertbar sind. Vergleichen Sie Basisdaten (vor der Implementierung) mit Zahlen nach der Implementierung für dieselben Queues oder Kategorien. Kombinieren Sie dies mit qualitativem Feedback von Kundschaft und Agenten, um ein vollständiges Bild zu erhalten. Rechnen Sie mit einer anfänglichen Lernphase; mit gezieltem Feintuning können viele Organisationen realistisch 10–25 % weniger Wiederholungskontakte und eine deutlich verbesserte FCR in den ersten 2–3 Monaten erreichen.

Wenn Sie diese taktischen Best Practices umsetzen – enge CRM-Integration, strukturierte Zuständigkeitsregeln, kundenfertige Zusammenfassungen, Umgang mit Mehrdeutigkeit, Feedbackschleifen und klare KPIs – können Sie mit greifbaren Ergebnissen rechnen: planbare Übergaben, weniger festhängende Tickets, ein messbarer Rückgang von „Wo steht mein Fall?“-Kontakten und ein sichtbarer Anstieg der Erstlösungsquote, ohne zusätzliche Köpfe aufzubauen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Claude analysiert die vollständige Konversation, die Fallhistorie und Ihre internen Richtlinien, um noch vor Abschluss der Interaktion einen konkreten Lösungsplan vorzuschlagen. Es schlägt vor:

  • Wer die nächste Aktion verantworten soll (Agent, bestimmtes Team, Backoffice-Rolle)
  • Welche Aufgaben intern erledigt werden müssen
  • Was die Kundin / der Kunde tun muss – falls überhaupt etwas
  • Bis wann jeder Schritt abgeschlossen sein sollte, basierend auf Ihren SLAs

Dieser Plan wird direkt in Ihrem CRM- oder Ticketsystem angezeigt, sodass der Agent ihn bestätigen oder anpassen kann. Das Ergebnis: Jede Interaktion endet mit einem klar definierten, dokumentierten Verantwortlichen und nächsten Schritt – statt mit vagen Versprechen.

Sie benötigen drei Hauptkomponenten: Datenzugang, Prozessklarheit und minimale Engineering-Kapazität. Technisch muss Ihr CRM- oder Ticketsystem in der Lage sein, Gesprächstranskripte, Basis-Metadaten zum Fall sowie relevante Richtlinien oder KB-Artikel per API an Claude zu senden und strukturierte Vorschläge zurückzuerhalten.

Auf Prozessebene sollten Sie mindestens einen Entwurf Ihrer Zuständigkeitsregeln haben (wer was verantwortet, Eskalationspfade, SLAs) für Ihre häufigsten Anliegen-Typen. Aus Engineering-Perspektive reicht in der Regel ein kleines, funktionsübergreifendes Team (typischerweise eine Entwicklerperson, eine CX-/Operations-Verantwortliche und eine Produktverantwortliche), um eine erste Version zu bauen und zu iterieren. Reruption arbeitet häufig direkt mit solchen Teams zusammen, um in Tagen statt Monaten vom Konzept zu einem funktionierenden Prototyp für Claude-gestützten Wrap-up zu kommen.

Wenn Sie mit einem fokussierten Scope starten (z. B. einem Teil Ihrer Queues oder bestimmten Anliegen-Typen) und Ihre Zuständigkeitsregeln einigermaßen klar sind, können Sie in der Regel innerhalb von 4–6 Wochen eine erste integrierte Version von Claude-unterstütztem Wrap-up ausrollen. Im ersten Monat nach dem Go-live werden Sie qualitative Verbesserungen sehen: klarere interne Notizen, konsistentere Zuständigkeiten und weniger „verlorene“ Tickets.

Messbare Verbesserungen bei Erstlösungsquote und Wiederholungskontakten werden meist nach 6–12 Wochen sichtbar, sobald Prompts und Regeln anhand der realen Nutzung feinjustiert sind. Viele Organisationen können realistisch mit einer Reduktion der Wiederholungskontakte um 10–25 % für die abgedeckten Anliegen-Typen rechnen – bei gleichzeitig spürbaren Verbesserungen in FCR und im Sicherheitsgefühl der Agenten beim Abschluss komplexer Interaktionen.

Die wichtigsten Kostentreiber sind: Nutzung der Claude-API, Integrationsaufwand und etwas Zeit aus dem Operations-Team zur Definition von Zuständigkeitsregeln. Dem gegenüber steht der ROI aus weniger Wiederholungskontakten, geringerem manuellen Aufwand im Wrap-up, schnelleren Lösungen durch sauberere Übergaben und höherer Kundenzufriedenheit (mit Effekten auf Bindung und Upsell).

Praktisch sehen viele Teams schon durch das geringere Anruf- und Chat-Volumen bei Follow-ups Einsparungen, die KI- und Engineering-Kosten teilweise oder vollständig kompensieren. Zusätzlich reduziert klarere Zuständigkeit interne Reibung und den Zeitaufwand für das Einholen von Updates zwischen Teams. Über einen Zeitraum von 6–12 Monaten betrachtet, liefert eine gut implementierte Lösung in der Regel einen starken ROI – insbesondere in mittel- bis hochvolumigen Support-Umgebungen.

Reruption verbindet strategische Klarheit mit tiefem KI-Engineering, um aus einer Folie eine funktionierende Lösung zu machen. Meist starten wir mit unserem AI-PoC-Angebot (9.900€), in dem wir den Use Case definieren, einen repräsentativen Ausschnitt Ihrer CRM- oder Ticketdaten anbinden und einen funktionierenden Prototyp für Claude-gestützten Wrap-up erstellen. Sie erhalten echte Performance-Metriken, nicht nur Theorie.

Darauf aufbauend setzen wir unseren Co-Preneur-Ansatz fort: Wir arbeiten Seite an Seite mit Ihrem Team, iterieren an Prompts und Zuständigkeitsregeln, klären Security- und Compliance-Fragen und integrieren die Lösung in Ihre produktiven Workflows. Wir agieren innerhalb Ihrer P&L und fokussieren auf messbare Ergebnisse wie höhere Erstlösungsquoten und weniger Wiederholungskontakte – statt nur Dokumente zu liefern.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media