Die Herausforderung: Unklare Zuständigkeit für nächste Schritte

In vielen Kundenserviceteams enden Interaktionen mit einer freundlichen Zusammenfassung, aber ohne echte Klarheit darüber, wer was bis wann erledigen muss. Der Agent verspricht, „sich darum zu kümmern“, das Backoffice wird vage erwähnt und die Kundin oder der Kunde verlässt das Gespräch in der Annahme, dass sich schon jemand kümmern wird. Tage später weiß niemand genau, wer den nächsten Schritt verantwortet, Tickets bleiben liegen und Kundinnen und Kunden melden sich erneut, um nach Updates oder Korrekturen zu fragen.

Traditionelle Ansätze versuchen, dies mit Skripten, Checklisten und manueller Nachbearbeitung zu lösen. Von Agenten wird erwartet, komplexe Richtlinien, Routing-Regeln und Service-Level-Agreements im Kopf zu behalten, während sie ein Gespräch unter Zeitdruck abschließen. CRM-Felder für „nächste Aktion“ oder „verantwortliches Team“ sind häufig Freitext, uneinheitlich und werden selten konsequent genutzt. Je komplexer Produkte, Richtlinien und Kanäle werden, desto weniger kann ein rein menschliches Modell alle Abhängigkeiten und Übergaberegeln in Echtzeit überblicken.

Die Auswirkungen sind erheblich: Die Erstlösungsquote (First Contact Resolution) sinkt, Bearbeitungszeiten steigen und Backlogs wachsen, weil Tickets zwischen Teams hin- und hergeschoben werden. Kundinnen und Kunden erleben gebrochene Versprechen, unklare Erwartungen und müssen aktiv wegen Updates nachfassen – mit direkten Folgen für NPS und Churn. Intern fehlt Führungskräften die Transparenz, wo Fälle stecken bleiben, und Agenten verlieren Zeit damit, lange Verläufe erneut zu lesen, um herauszufinden, was als Nächstes passieren sollte, statt neue Anliegen zu lösen.

Diese Herausforderung ist real, aber sie ist lösbar. Mit modernen KI-Assistenten wie Claude können Sie Richtlinien, vergangene Tickets und die laufende Konversation systematisch analysieren lassen, um noch während der Interaktion präzise nächste Schritte, Verantwortliche und Fristen vorzuschlagen. Bei Reruption haben wir gesehen, wie KI-first-Workflows fragile manuelle Routinen durch verlässliche, transparente Übergaben ersetzen. Im Folgenden zeigen wir einen pragmatischen Weg, wie Sie dies in Ihrem Kundenservice umsetzen können, ohne auf eine komplette Systemmodernisierung warten zu müssen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions Arbeit beim Aufbau von KI-gestützten Workflows in komplexen Umgebungen wissen wir, dass unklare Zuständigkeiten für nächste Schritte selten nur ein Tooling-Problem sind. Es ist eine Kombination aus verstreuten Richtlinien, inkonsistenten Prozessen und hoher kognitiver Belastung für Agenten. Richtig eingesetzt kann Claude für den Kundenservice lange Fallhistorien, Wissensdatenbank-Artikel und Prozessbeschreibungen lesen, um in Echtzeit konkrete Folgeaktionen mit klarer Zuständigkeit vorzuschlagen. Entscheidend ist, Claude als tief eingebetteten Entscheidungs-Co-Piloten in Ihrem CRM zu betrachten – nicht nur als weiteren Chatbot am Rand.

Den Wrap-up als Entscheidungszeitpunkt statt als Nebensache neu gestalten

Die meisten Service-Teams sehen das Ende einer Interaktion als administrativen Aufwand: zusammenfassen, einen Abschlusscode auswählen, weiter zum nächsten Fall. Um Claude für klare Zuständigkeit der nächsten Schritte zu nutzen, müssen Sie diesen Moment als strukturierten Entscheidungspunkt neu denken, an dem System und Agent gemeinsam festlegen, was als Nächstes passiert. Das bedeutet, den Flow so zu gestalten, dass Claude genau dann ausgelöst wird, wenn der Agent den Fall schließen oder übergeben möchte.

Strategisch erfordert dies, dass Produkt-, Operations- und Customer-Service-Verantwortliche sich darauf verständigen, wie ein „guter nächster Schritt“ aussieht: welche Felder definiert sein müssen (Verantwortliche/r, Aktion, Fälligkeitsdatum, Abhängigkeiten), welche internen SLAs gelten und was der Kundschaft zu kommunizieren ist. Sobald dies klar ist, kann Claude angewiesen werden, immer einen vollständigen, standardisierten Lösungspfad auszugeben, den Agenten nur noch bestätigen statt von Grund auf neu ausdenken.

Zuständigkeitsregeln kodifizieren, bevor Sie sie automatisieren

Claude kann komplexe Support-Richtlinien interpretieren, aber unklare oder widersprüchliche Regeln kann es nicht reparieren. Bevor Sie sich auf KI verlassen, investieren Sie Zeit, um Ihre Logik zur Zuständigkeit sichtbar zu machen und zu kodifizieren: welche Teams welche Produkte verantworten, welche Anliegen Genehmigungen erfordern, wie die Eskalationsstufen aussehen und wann die Kundschaft aktiv werden muss. Das muss kein jahrelanges Projekt sein, erfordert aber explizite Entscheidungen.

Aus strategischer Sicht sollten Sie Ihre 10–20 häufigsten Falltypen identifizieren, bei denen Zuständigkeit oft unklar ist. Dokumentieren Sie deren ideales „Resolution Playbook“ einfach, aber präzise (z. B. im RACI-Stil mit Verantwortlichkeiten und Standard-Folgeaktionen). Diese Artefakte werden zum Referenzmaterial, das Claude liest, um in Echtzeit die richtige Zuständigkeit zu bestimmen. Je klarer Ihre Regeln, desto zuverlässiger werden Claudes Vorschläge.

Claude als Assistent positionieren, nicht als Schiedsrichter

Agenten und Teamleads könnten befürchten, dass KI im Kundenservice ihr Urteilsvermögen überstimmt oder starre Workflows erzwingt. Um Akzeptanz zu sichern, positionieren Sie Claude als Assistenten, der einen empfohlenen Plan für die nächsten Schritte vorschlägt, während die finale Entscheidung beim Menschen bleibt. In der Praxis bedeutet das, dass Claude seine Begründung und Alternativen knapp darstellt und die Oberfläche es Agenten leicht macht, Zuständigkeiten oder Fälligkeiten vor der Bestätigung anzupassen.

Organisatorisch verschiebt dieses Framing die Diskussion von „Die KI sagt dir, was du tun sollst“ hin zu „Die KI übernimmt die aufwendige Lektüre und schlägt dir einen Plan vor, damit Sie sich auf die Kundschaft konzentrieren können.“ Das hilft auch beim Risikomanagement: Agenten werden geschult zu erkennen, wann eine Empfehlung nicht passt, und sie zu korrigieren – ein wertvolles Feedbacksignal, um Prompts und Richtlinien im Laufe der Zeit zu verfeinern.

KPIs auf Erstlösungsquote statt nur auf Geschwindigkeit ausrichten

Wenn Ihre primäre KPI die durchschnittliche Bearbeitungszeit ist, werden Agenten sich unter Druck fühlen, schnell zu schließen, statt einen vollständigen Plan für die nächsten Schritte zu definieren. Um den Wert von KI-getriebener Klarheit über nächste Schritte zu heben, muss das Management explizit Ergebnisse wie First Contact Resolution (FCR), Reduktion von Wiederholungskontakten und klare Zuständigkeiten belohnen – auch wenn einige Interaktionen dadurch etwas länger dauern.

Dieser strategische Wechsel schafft Raum dafür, dass Claude die richtigen Informationen bereitstellt und Agenten einen kurzen, aber inhaltlich klaren Abstimmungsmoment mit der Kundschaft über Verantwortlichkeiten haben. Im Zeitverlauf werden sich FCR und Geschwindigkeit meist gleichzeitig verbessern, da weniger Fälle zurückkommen und Übergaben reibungsloser laufen. Doch der Mindset-Wechsel muss zuerst kommen, damit die KI wie vorgesehen genutzt wird.

Governance und Compliance von Anfang an planen

Wenn Sie Claude in Ihr CRM- oder Ticketsystem einbetten, verarbeitet es reale Kundendaten und interne Richtlinien. Sie benötigen ein Governance-Modell, das Datenzugriff, Protokollierung und Erklärbarkeit von Entscheidungen abdeckt. Strategisch sollten Sie definieren, auf welche Daten Claude zugreifen darf (z. B. vergangene Tickets, KB-Artikel, Richtliniendokumente), wie Ausgaben gespeichert werden und wer für die Qualitätsüberwachung verantwortlich ist.

Reruptions Erfahrung im KI-Engineering zeigt, dass eine frühe Abstimmung mit Security, Legal und Compliance spätere, schmerzhafte Nacharbeiten vermeidet. Etablieren Sie klare Leitlinien dazu, wann Claudes Empfehlungen verbindlich versus beratend sind, wie mit Sonderfällen umzugehen ist und wie Vorfälle (z. B. falsche Zuständigkeitszuweisung) geprüft und zur Verbesserung des Systems genutzt werden. Das schafft internes Vertrauen und hält Risiken unter Kontrolle, während Sie die Nutzung skalieren.

Durchdacht eingesetzt kann Claude die chaotischen letzten Minuten einer Support-Interaktion in einen präzisen, gemeinsam getragenen Lösungsplan verwandeln: klare Verantwortliche, konkrete Aktionen, realistische Zeitpläne. Am meisten profitieren Organisationen, die bereit sind, ihre Zuständigkeitsregeln zu kodifizieren und die Komplexität von der KI handhaben zu lassen, während Menschen sich auf die Beziehung zur Kundschaft konzentrieren. Reruption verbindet diese strategische Neuausrichtung mit praktischem KI-Engineering, um Claude direkt in Ihre CRM- oder Ticketing-Workflows einzubetten. Wenn Sie Wiederholungskontakte reduzieren und Erstlösungen zum Standard machen möchten, unterstützen wir Sie dabei, eine Lösung zu konzipieren und auszurollen, die in Ihrer Umgebung tatsächlich funktioniert.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Fertigung bis Energie: Erfahren Sie, wie Unternehmen Claude erfolgreich einsetzen.

Ford Motor Company

Fertigung

In Fords Automobilfertigungsstätten stellten Schleifen und Lackieren von Karosserien einen großen Engpass dar. Diese arbeitsintensiven Tätigkeiten erforderten manuelles Schleifen der Karosserien durch Mitarbeitende, ein Prozess, der zu Inkonsistenzen, Ermüdung und ergonomischen Verletzungen aufgrund repetitiver Bewegungen über Stunden führte . Traditionelle Robotersysteme hatten Probleme mit der Variabilität von Karosserieteilen, Krümmungen und Materialunterschieden, was eine vollständige Automatisierung in bestehenden 'Brownfield'-Anlagen erschwerte . Zudem war das Erreichen einer konstanten Oberflächenqualität für die Lackierung entscheidend, da Fehler zu Nacharbeit, Verzögerungen und höheren Kosten führen konnten. Mit steigender Nachfrage nach Elektrofahrzeugen (EVs) und zunehmender Produktionsskalierung musste Ford modernisieren, ohne massive Investitionsausgaben oder Störungen des laufenden Betriebs zu verursachen, und dabei die Sicherheit der Belegschaft und deren Qualifizierung priorisieren . Die Herausforderung bestand darin, eine skalierbare Automatisierung zu integrieren, die nahtlos mit Menschen zusammenarbeitet.

Lösung

Ford begegnete dieser Herausforderung durch den Einsatz von KI-geführten kollaborativen Robotern (Cobots), ausgestattet mit Maschinenvision und Automatisierungsalgorithmen. In der Karosseriewerkstatt scannen sechs Cobots mit Kameras und KI die Karosserien in Echtzeit, erkennen Flächen, Defekte und Konturen mit hoher Präzision . Diese Systeme nutzen Computer-Vision-Modelle für 3D-Mapping und Bahnplanung, wodurch sich die Cobots dynamisch anpassen können, ohne neu programmiert werden zu müssen . Die Lösung setzte auf eine workforce-first Brownfield-Strategie, beginnend mit Pilotprojekten in Werken in Michigan. Cobots übernehmen das Schleifen autonom, während Menschen die Qualitätsüberwachung durchführen, wodurch Verletzungsrisiken reduziert werden. Partnerschaften mit Robotikfirmen und interne KI-Entwicklung ermöglichten Low-Code-Inspektionstools für eine einfache Skalierung .

Ergebnisse

  • Schleifzeit: 35 Sekunden pro vollständiger Karosserie (statt Stunden manuell)
  • Produktivitätssteigerung: 4x schneller in Montageprozessen
  • Verletzungsreduktion: 70 % weniger ergonomische Belastungen in Cobots-Bereichen
  • Konsistenzverbesserung: 95 % fehlerfreie Oberflächen nach dem Schleifen
  • Einsatzumfang: 6 Cobots im Betrieb, Ausbau auf über 50 Einheiten geplant
  • ROI-Zeitraum: Amortisation in 12–18 Monaten pro Werk
Fallstudie lesen →

UC San Diego Health

Gesundheitswesen

Sepsis, eine lebensbedrohliche Erkrankung, stellt in Notaufnahmen eine große Gefahr dar, da verzögerte Erkennung zu hohen Sterblichkeitsraten führt – in schweren Fällen bis zu 20–30 %. Bei UC San Diego Health, einem akademischen Medizinzentrum mit über 1 Million Patientenbesuchen jährlich, erschwerten unspezifische Frühsymptome rechtzeitige Interventionen und verschlechterten die Ergebnisse in stark ausgelasteten Notaufnahmen . Eine randomisierte Studie unterstrich die Notwendigkeit proaktiver Werkzeuge jenseits traditioneller Scores wie qSOFA. Das Kapazitätsmanagement und der Patientenfluss standen nach COVID weiter unter Druck: Bettenknappheit führte zu verlängerten Aufnahmewartezeiten und Verzögerungen bei Verlegungen. Die Ausbalancierung von elektiven Eingriffen, Notfällen und Entlassungen erforderte Echtzeiteinblicke . Die sichere Integration generativer KI, etwa GPT-4 in Epic, barg Risiken wie Datenschutzverletzungen und ungenaue klinische Empfehlungen . Diese Herausforderungen verlangten skalierbare KI-Lösungen zur Vorhersage von Risiken, zur Straffung der Abläufe und zur verantwortungsvollen Einführung neuer Technologien, ohne die Versorgungsqualität zu gefährden.

Lösung

UC San Diego Health implementierte COMPOSER, ein Deep-Learning-Modell, das auf elektronischen Gesundheitsakten trainiert wurde, um das Sepsisrisiko 6–12 Stunden im Voraus vorherzusagen und Epic Best Practice Advisory (BPA)-Alarme für Pflegekräfte auszulösen . Dieser quasi-experimentelle Ansatz in zwei Notaufnahmen integrierte sich nahtlos in Arbeitsabläufe. Mission Control, ein KI-gestütztes Operations-Kommandozentrum, finanziert durch eine Investition von 22 Mio. USD, nutzt prädiktive Analytik für Echtzeit-Bettenzuweisungen, Verlegungen und Kapazitätsprognosen und reduziert so Engpässe . Unter der Leitung des Chief Health AI Officer Karandeep Singh werden Daten aus Epic für ganzheitliche Transparenz genutzt. Für generative KI werden Pilotprojekte mit Epic GPT-4 durchgeführt, die NLP-Abfragen und automatisierte Patientenantworten ermöglichen; diese stehen unter strengen Sicherheitsprotokollen, um Halluzinationen zu minimieren und HIPAA-Konformität zu gewährleisten . Die mehrgleisige Strategie adressierte Erkennung, Ablaufsteuerung und Innovationsintegration.

Ergebnisse

  • Sepsis-In-Hospital-Sterblichkeit: 17 % Reduktion
  • Jährlich gerettete Leben: 50 in zwei Notaufnahmen
  • Einhaltung des Sepsis-Bundles: deutliche Verbesserung
  • 72‑Stunden‑SOFA-Verlauf: reduzierte Verschlechterung
  • Intensivstationskontakte: Rückgang nach Implementierung
  • Patientendurchsatz: verbessert durch Mission Control
Fallstudie lesen →

Pfizer

Gesundheitswesen

Die COVID-19-Pandemie erforderte beispiellose Geschwindigkeit in der Wirkstoffentwicklung, da traditionelle Zeiträume für antivirale Mittel von der Entdeckung bis zur Zulassung typischerweise 5–10 Jahre betrugen. Pfizer stand unter enormem Druck, potente, orale Inhibitoren gegen die SARS-CoV-2-Hauptprotease (Mpro) zu identifizieren, die für die virale Replikation entscheidend ist. Konventionelles strukturbasiertes Design beruhte auf arbeitsintensiver Kristallographie, Molekulardynamik-Simulationen und iterativer chemischer Synthese und war oft durch langsame Trefferidentifikation und Optimierungszyklen ausgebremst. Zu den zentralen Herausforderungen gehörten die Erzeugung hochwertiger Protein-Ligand-Strukturen, die genaue Vorhersage von Bindungsaffinitäten und das Design neuartiger Moleküle, die Resistenzmechanismen entgehen — und das alles unter extremen Zeitdruck. Mit weltweit stark ansteigenden Fallzahlen konnten Verzögerungen Millionen von Leben kosten, weshalb beschleunigte Rechenpipelines ohne Abstriche bei Sicherheit oder Wirksamkeit dringend nötig waren.

Lösung

Pfizer setzte Machine-Learning-(ML)-Modelle ein, die in strukturbasierte Wirkstoffdesign-Workflows integriert wurden, um diese Hürden zu überwinden. ML-Algorithmen analysierten Kryo-EM- und Röntgen-Proteinstrukturen von Mpro und ermöglichten schnelle virtuelle Screenings von Millionen von Verbindungen sowie die generative Gestaltung optimierter Inhibitoren. Ergänzt wurde dies durch KI-gestützte Molekulardynamik und Free-Energy-Perturbation-Berechnungen, die die Simulationszeiten drastisch verkürzten. Der Ansatz umfasste hybride ML-Physik-Modelle zur Vorhersage von Bindungsposen und Affinitätsbewertung, trainiert an umfangreichen Datensätzen aus Pfizers Bibliotheken. Iterative Design-Make-Test-Analyze-(DMTA)-Zyklen wurden beschleunigt, wobei KI die Priorisierung von Synthesen übernahm und experimentelle Iterationen reduzierte, indem sie sich auf Kandidaten mit hohem Potenzial konzentrierte.

Ergebnisse

  • Entwicklungszeitraum: 4 Monate von Trefferfindung bis präklinischer Kandidat
  • Beschleunigung der computergestützten Chemie: 80–90% Reduktion der Prozesszeit
  • Trefferidentifikation: Über 100 Mio. Verbindungen virtuell in Tagen gescreent
  • Erfolg in klinischen Studien: Gesamtquote 12% gesteigert durch KI-Priorisierung
  • Paxlovid-Wirksamkeit: 89% Reduktion des Risikos für Hospitalisierung/Tod
Fallstudie lesen →

Citibank Hong Kong

Vermögensverwaltung

Citibank Hong Kong sah sich einer wachsenden Nachfrage nach fortschrittlichen persönlichen Finanzmanagement-Tools ausgesetzt, die über mobile Geräte zugänglich sind. Kunden suchten nach prädiktiven Erkenntnissen zu Budgetierung, Investitionen und Finanzverfolgung, doch traditionelle Apps fehlten an Personalisierung und Echtzeit‑Interaktivität. In einem wettbewerbsintensiven Privatkundengeschäft‑Umfeld, insbesondere im Bereich der Vermögensverwaltung, erwarteten Kunden nahtlose, proaktive Beratung inmitten volatiler Märkte und steigender digitaler Erwartungen in Asien. Zu den zentralen Herausforderungen gehörten die Integration großer Kundendatenmengen für präzise Prognosen, die Gewährleistung, dass konversationelle Schnittstellen natürlich wirkten, sowie das Überwinden von Datenschutzhürden im regulierten Umfeld Hongkongs. Frühe mobile Tools zeigten ein niedriges Engagement, da Nutzer Apps wegen generischer Empfehlungen abbrachen — ein klares Signal für die Notwendigkeit KI‑getriebener Personalisierung, um hochvermögende Kunden zu binden.

Lösung

Wealth 360 entstand als Citibank HKs KI‑gestützter persönlicher Finanzmanager, eingebettet in die Citi Mobile App. Er nutzt prädiktive Analytik, um Ausgabemuster, Anlageerträge und Portfoliorisiken vorherzusagen und liefert personalisierte Empfehlungen über eine konversationelle Schnittstelle wie Chatbots. Aufbauend auf Cis globaler KI‑Expertise verarbeitet das System Transaktionsdaten, Markttrends und Nutzerverhalten für maßgeschneiderte Ratschläge zu Budgetierung und Vermögensaufbau. Die Implementierung umfasste Modelle des maschinellen Lernens zur Personalisierung und natürliche Sprachverarbeitung (NLP) für intuitive Chats, aufbauend auf Citibank‑Erfolgen wie Chatbots in der Asien‑Pazifik‑Region und API‑Lösungen. Die Lösung schloss Lücken, indem sie proaktive Alerts und virtuelle Beratungen erlaubte und so die Kundenerfahrung ohne menschliches Eingreifen verbesserte.

Ergebnisse

  • 30% Zunahme der Engagement‑Kennzahlen in der mobilen App
  • 25% Verbesserung der Kundenbindungsrate im Wealth‑Management
  • 40% schnellere Reaktionszeiten durch konversationelle KI
  • 85% Kundenzufriedenheitswert für personalisierte Insights
  • Über 18 Mio. API‑Aufrufe in vergleichbaren Citi‑Initiativen
  • 50% Reduktion manueller Beratungsanfragen
Fallstudie lesen →

Three UK

Telekommunikation

Three UK, ein führender Mobilfunkanbieter im Vereinigten Königreich, stand unter erheblichem Druck durch den stark ansteigenden Datenverkehr, getrieben vom 5G‑Ausbau, Video‑Streaming, Online‑Gaming und Remote‑Arbeit. Mit über 10 Millionen Kund:innen führten Spitzenzeiten‑Überlastungen in städtischen Gebieten zu Verbindungsabbrüchen, Buffering bei Streams und hoher Latenz, die das Gaming‑Erlebnis beeinträchtigte. Traditionelle Monitoring‑Tools kamen mit dem Volumen an Big‑Data aus Netzprobes nicht zurecht, sodass Echtzeit‑Optimierung unmöglich war und Kundenabwanderung drohte. Hinzu kam, dass Legacy On‑Premises‑Systeme nicht für 5G‑Network‑Slicing und dynamische Ressourcenallokation skalierten, was zu ineffizienter Spektrumnutzung und steigenden OPEX führte. Three UK benötigte eine Lösung, die Netzengpässe proaktiv vorhersagen und verhindern kann, um niedriglatenzige Dienste für latenzsensible Anwendungen sicherzustellen und gleichzeitig die QoS über verschiedene Verkehrsarten hinweg aufrechtzuerhalten.

Lösung

Microsoft Azure Operator Insights etablierte sich als cloudbasierte KI‑Plattform speziell für Telekommunikationsanbieter und nutzt Big‑Data‑Maschinelles Lernen, um Petabytes an Netztelemetrie in Echtzeit zu verarbeiten. Die Plattform analysiert KPIs wie Durchsatz, Paketverlust und Handover‑Erfolgsraten, erkennt Anomalien und sagt Überlastungen voraus. Three UK integrierte sie in sein Core‑Netzwerk, um automatisierte Erkenntnisse und Handlungsempfehlungen zu erhalten. Die Lösung setzte ML‑Modelle für Root‑Cause‑Analysen, Verkehrsvorhersagen und Optimierungsmaßnahmen wie Beamforming‑Anpassungen und Load‑Balancing ein. Auf Azure's skalierbarer Cloud betrieben, erleichterte sie die Migration von Legacy‑Tools, verringerte die Abhängigkeit von manuellen Eingriffen und stattete Ingenieurteams mit umsetzbaren Dashboards aus.

Ergebnisse

  • 25% Reduktion von Netzüberlastungsereignissen
  • 20% Verbesserung der durchschnittlichen Download‑Geschwindigkeiten
  • 15% Verringerung der End‑to‑End‑Latenz
  • 30% schnellere Anomalieerkennung
  • 10% OPEX‑Einsparungen im Netzbetrieb
  • NPS um 12 Punkte verbessert
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Claude direkt in Ihren CRM-Wrap-up-Screen einbetten

Der wirkungsvollste Weg, unklare Zuständigkeit für nächste Schritte zu adressieren, ist, Claude genau in dem Moment auszulösen, in dem der Agent die Interaktion beendet. Technisch bedeutet das, Claude per API in Ihr CRM- oder Ticketsystem zu integrieren, sodass beim Klick des Agenten auf „Abschließen“ oder „Konversation schließen“ ein Aufruf mit dem gesamten relevanten Kontext erfolgt: Gesprächstranskript, Fallhistorie, Kundendaten und geltende Richtlinien.

Claude sollte anschließend eine strukturierte Ausgabe liefern, die auf Ihre CRM-Felder abgebildet wird, etwa Beschreibung der nächsten Aktion, Verantwortliches Team / Verantwortliche Person, Fälligkeitsdatum / SLA und Aufgaben der Kundschaft. Die Oberfläche kann Claudes Vorschlag in einem bearbeitbaren Panel anzeigen, sodass der Agent vor dem Speichern bestätigen oder anpassen kann. Das reduziert manuellen Schreibaufwand und sorgt für konsistente, vollständige Pläne für nächste Schritte über alle Agenten hinweg.

Beispiel-Systemprompt für Claude zur Wrap-up-Unterstützung:
Sie sind ein KI-Assistent, der in ein Kundenservice-CRM eingebettet ist.
Ihre Aufgabe ist es, klare nächste Schritte, Verantwortliche und Fristen vorzuschlagen.

Gegeben:
- Vollständiges Gesprächstranskript
- Fallhistorie und interne Notizen
- Interne Richtlinien (Zuständigkeitsregeln, SLAs)

Geben Sie JSON zurück mit:
- next_action_summary: kurze Beschreibung in kundenfreundlicher Sprache
- internal_action_steps: Liste konkreter Aufgaben für interne Teams
- responsible_owner: Team oder Rolle, die den wichtigsten nächsten Schritt verantwortet
- customer_actions: präzise Schritte, die die Kundin / der Kunde ausführen muss (falls vorhanden)
- target_due_date: realistisches Datum/Uhrzeit unter Berücksichtigung der SLAs
- risks_or_dependencies: alles, was die Lösung verzögern könnte

Seien Sie präzise, vermeiden Sie vage Formulierungen und stellen Sie sicher, dass jede Aufgabe eine/n Verantwortliche/n hat.

Erwartetes Ergebnis: Ein standardisierter, KI-generierter Wrap-up, der die Wrap-up-Zeit um 20–30 % reduziert und Tickets mit fehlenden oder unklaren Zuständigkeitsinformationen drastisch verringert.

Claude mit einem strukturierten Ownership-Playbook versorgen

Damit Claude zuverlässig bestimmen kann, wer den nächsten Schritt verantworten sollte, benötigt es eine strukturierte „Single Source of Truth“. Anstatt ausschließlich unstrukturierte Richtliniendokumente zu übergeben, erstellen Sie ein maschinenlesbares „Ownership-Playbook“, das Fallattribute (Produkt, Region, Anliegen-Typ, Kanal, Kundensegment) verantwortlichen Teams und typischen nächsten Schritten zuordnet.

Das kann so einfach sein wie eine JSON-Konfiguration oder Tabelle, die Ihre Integrationsschicht mit jeder Anfrage übergibt:

Beispielausschnitt für Zuständigkeitsregeln:
[
  {
    "product": "Subscription",
    "issue_type": "Billing_correction",
    "region": "EU",
    "owner_team": "Billing Operations",
    "sla_hours": 24,
    "standard_next_step": "Anfrage zur Rechnungsanpassung erstellen und Bestätigungs-E-Mail senden."
  },
  {
    "product": "Hardware",
    "issue_type": "Warranty_claim",
    "region": "US",
    "owner_team": "Warranty Desk",
    "sla_hours": 72,
    "standard_next_step": "Kaufnachweis anfordern und RMA-Ticket erstellen."
  }
]

Der Integrationscode kann die relevanten Regeln vorfiltern und im Prompt-Kontext mitgeben. Claude wählt dann die passende Regel aus oder passt sie an und stellt so sicher, dass Vorschläge zur Zuständigkeit mit Ihrem internen Modell übereinstimmen. Im Zeitverlauf können Sie diese Regeln anhand von realer Nutzung und Feedback erweitern und verfeinern.

Claude eine kundenfertige Follow-up-Zusammenfassung verfassen lassen

Sobald intern klar ist, wer verantwortlich ist und welche Aufgaben anstehen, muss dies der Kundschaft verständlich kommuniziert werden. Konfigurieren Sie Claude so, dass es eine kundenorientierte Lösungssummary generiert, die der Agent vor Beendigung der Interaktion per E-Mail, SMS oder Chat versenden kann. Diese Zusammenfassung sollte erklären, wer was bis wann erledigt.

Beispielprompt für eine kundenorientierte Zusammenfassung:
Sie sind ein Kundenservice-Assistent.
Verfassen Sie eine kurze, freundliche Zusammenfassung der vereinbarten nächsten Schritte für die Kundin / den Kunden.

Nutzen Sie diesen internen Plan:
{{Claude_internal_plan_JSON}}

Anforderungen:
- 2–4 kurze Absätze
- Explizit formulieren, was WIR tun werden und bis wann
- Explizit formulieren, was SIE (die Kundin / der Kunde) tun müssen und bis wann
- Vermeiden Sie interne Teamnamen; verwenden Sie generische Bezeichnungen wie „unser Abrechnungsteam“.
- Fügen Sie eine Referenznummer und Informationen hinzu, wie der Support bei Bedarf kontaktiert werden kann.

Agenten können diese Zusammenfassung schnell prüfen und versenden, sodass Kundinnen und Kunden mit einer schriftlichen Bestätigung von Verantwortlichkeiten und Zeitplänen aus der Interaktion gehen. Allein dies kann Wiederholungskontakte, die durch Unklarheit oder falsch erinnerte Zusagen ausgelöst werden, deutlich reduzieren.

Claude nutzen, um mehrdeutige oder unvollständige Pläne zu kennzeichnen

Selbst mit guten Prompts wird es Fälle geben, in denen Informationen fehlen oder die Zuständigkeit tatsächlich unklar ist. Statt stillschweigend einen schwachen Plan zu generieren, sollten Sie Claude so konfigurieren, dass es Mehrdeutigkeit erkennt und kennzeichnet. Das System sollte fehlende Daten oder widersprüchliche Regeln explizit hervorheben und konkrete Rückfragen vorschlagen, die der Agent vor Gesprächsende stellen kann.

Beispiel für Kontrolllogik im Prompt:
Wenn Sie nicht mit ausreichender Sicherheit eine/n responsible_owner oder ein target_due_date
festlegen können (weil Richtlinien widersprüchlich sind oder Schlüsselinformationen fehlen), dann:
- Setzen Sie "confidence_level" auf "low"
- Listen Sie genau auf, welche Informationen fehlen
- Schlagen Sie 2–3 kurze Klärungsfragen vor, die der Agent jetzt stellen kann
- Schlagen Sie einen temporären Verantwortlichen gemäß Eskalationsregeln vor

In der Oberfläche können Empfehlungen mit geringer Sicherheit visuell hervorgehoben werden, sodass Agenten wissen, dass sie eingreifen müssen. Das verhindert vage Versprechen, verbessert die Datenqualität und gibt Teamleads Einblick, wo Richtlinien nachgeschärft werden sollten.

Feedbackschleife mit Agenten und Teamleads etablieren

Um KI-gestützte Vorschläge für nächste Schritte kontinuierlich zu verbessern, sollten Sie eine einfache Feedbackschleife in den Workflow einbauen. Ermöglichen Sie Agenten, Claudes Empfehlung als „zutreffend“, „teilweise korrekt“ (mit Anpassungen) oder „nicht korrekt“ zu markieren und den finalen, bearbeiteten Plan zu erfassen. Teamleads und Prozesseigner können diese Fälle regelmäßig prüfen, um Prompts zu verfeinern, Zuständigkeitsregeln anzupassen oder Inhalte der Wissensdatenbank zu aktualisieren.

Technisch können Sie den ursprünglichen Prompt, Claudes Output, Bearbeitungen durch Agenten und zentrale Ergebnisse protokollieren (z. B. ob der Fall ohne weiteren Kontakt gelöst wurde). Diese Daten sind äußerst wertvoll, um die Performance zu bewerten und gezielte Verbesserungen zu steuern – etwa durch Hinzufügen konkreter Beispiele für einen problematischen Anliegen-Typ oder durch Präzisierung von Eskalationslogik in den Richtlinien, die Claude liest.

Klare KPIs definieren und die richtigen Metriken überwachen

Um zu beurteilen, ob Claude das Problem der unklaren Zuständigkeit für nächste Schritte tatsächlich löst, sollten Sie vor dem Roll-out eine kleine Menge konkreter Kennzahlen definieren. Typische Metriken sind: Anteil der Tickets mit expliziter Zuständigkeit und Fälligkeitsdatum, Rate der Wiederholungskontakte zum gleichen Anliegen, durchschnittliche Lösungszeit sowie Erstlösungsquote für die abgedeckten Anliegen-Typen.

Instrumentieren Sie Ihr CRM so, dass diese Felder verpflichtend und auswertbar sind. Vergleichen Sie Basisdaten (vor der Implementierung) mit Zahlen nach der Implementierung für dieselben Queues oder Kategorien. Kombinieren Sie dies mit qualitativem Feedback von Kundschaft und Agenten, um ein vollständiges Bild zu erhalten. Rechnen Sie mit einer anfänglichen Lernphase; mit gezieltem Feintuning können viele Organisationen realistisch 10–25 % weniger Wiederholungskontakte und eine deutlich verbesserte FCR in den ersten 2–3 Monaten erreichen.

Wenn Sie diese taktischen Best Practices umsetzen – enge CRM-Integration, strukturierte Zuständigkeitsregeln, kundenfertige Zusammenfassungen, Umgang mit Mehrdeutigkeit, Feedbackschleifen und klare KPIs – können Sie mit greifbaren Ergebnissen rechnen: planbare Übergaben, weniger festhängende Tickets, ein messbarer Rückgang von „Wo steht mein Fall?“-Kontakten und ein sichtbarer Anstieg der Erstlösungsquote, ohne zusätzliche Köpfe aufzubauen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Claude analysiert die vollständige Konversation, die Fallhistorie und Ihre internen Richtlinien, um noch vor Abschluss der Interaktion einen konkreten Lösungsplan vorzuschlagen. Es schlägt vor:

  • Wer die nächste Aktion verantworten soll (Agent, bestimmtes Team, Backoffice-Rolle)
  • Welche Aufgaben intern erledigt werden müssen
  • Was die Kundin / der Kunde tun muss – falls überhaupt etwas
  • Bis wann jeder Schritt abgeschlossen sein sollte, basierend auf Ihren SLAs

Dieser Plan wird direkt in Ihrem CRM- oder Ticketsystem angezeigt, sodass der Agent ihn bestätigen oder anpassen kann. Das Ergebnis: Jede Interaktion endet mit einem klar definierten, dokumentierten Verantwortlichen und nächsten Schritt – statt mit vagen Versprechen.

Sie benötigen drei Hauptkomponenten: Datenzugang, Prozessklarheit und minimale Engineering-Kapazität. Technisch muss Ihr CRM- oder Ticketsystem in der Lage sein, Gesprächstranskripte, Basis-Metadaten zum Fall sowie relevante Richtlinien oder KB-Artikel per API an Claude zu senden und strukturierte Vorschläge zurückzuerhalten.

Auf Prozessebene sollten Sie mindestens einen Entwurf Ihrer Zuständigkeitsregeln haben (wer was verantwortet, Eskalationspfade, SLAs) für Ihre häufigsten Anliegen-Typen. Aus Engineering-Perspektive reicht in der Regel ein kleines, funktionsübergreifendes Team (typischerweise eine Entwicklerperson, eine CX-/Operations-Verantwortliche und eine Produktverantwortliche), um eine erste Version zu bauen und zu iterieren. Reruption arbeitet häufig direkt mit solchen Teams zusammen, um in Tagen statt Monaten vom Konzept zu einem funktionierenden Prototyp für Claude-gestützten Wrap-up zu kommen.

Wenn Sie mit einem fokussierten Scope starten (z. B. einem Teil Ihrer Queues oder bestimmten Anliegen-Typen) und Ihre Zuständigkeitsregeln einigermaßen klar sind, können Sie in der Regel innerhalb von 4–6 Wochen eine erste integrierte Version von Claude-unterstütztem Wrap-up ausrollen. Im ersten Monat nach dem Go-live werden Sie qualitative Verbesserungen sehen: klarere interne Notizen, konsistentere Zuständigkeiten und weniger „verlorene“ Tickets.

Messbare Verbesserungen bei Erstlösungsquote und Wiederholungskontakten werden meist nach 6–12 Wochen sichtbar, sobald Prompts und Regeln anhand der realen Nutzung feinjustiert sind. Viele Organisationen können realistisch mit einer Reduktion der Wiederholungskontakte um 10–25 % für die abgedeckten Anliegen-Typen rechnen – bei gleichzeitig spürbaren Verbesserungen in FCR und im Sicherheitsgefühl der Agenten beim Abschluss komplexer Interaktionen.

Die wichtigsten Kostentreiber sind: Nutzung der Claude-API, Integrationsaufwand und etwas Zeit aus dem Operations-Team zur Definition von Zuständigkeitsregeln. Dem gegenüber steht der ROI aus weniger Wiederholungskontakten, geringerem manuellen Aufwand im Wrap-up, schnelleren Lösungen durch sauberere Übergaben und höherer Kundenzufriedenheit (mit Effekten auf Bindung und Upsell).

Praktisch sehen viele Teams schon durch das geringere Anruf- und Chat-Volumen bei Follow-ups Einsparungen, die KI- und Engineering-Kosten teilweise oder vollständig kompensieren. Zusätzlich reduziert klarere Zuständigkeit interne Reibung und den Zeitaufwand für das Einholen von Updates zwischen Teams. Über einen Zeitraum von 6–12 Monaten betrachtet, liefert eine gut implementierte Lösung in der Regel einen starken ROI – insbesondere in mittel- bis hochvolumigen Support-Umgebungen.

Reruption verbindet strategische Klarheit mit tiefem KI-Engineering, um aus einer Folie eine funktionierende Lösung zu machen. Meist starten wir mit unserem AI-PoC-Angebot (9.900€), in dem wir den Use Case definieren, einen repräsentativen Ausschnitt Ihrer CRM- oder Ticketdaten anbinden und einen funktionierenden Prototyp für Claude-gestützten Wrap-up erstellen. Sie erhalten echte Performance-Metriken, nicht nur Theorie.

Darauf aufbauend setzen wir unseren Co-Preneur-Ansatz fort: Wir arbeiten Seite an Seite mit Ihrem Team, iterieren an Prompts und Zuständigkeitsregeln, klären Security- und Compliance-Fragen und integrieren die Lösung in Ihre produktiven Workflows. Wir agieren innerhalb Ihrer P&L und fokussieren auf messbare Ergebnisse wie höhere Erstlösungsquoten und weniger Wiederholungskontakte – statt nur Dokumente zu liefern.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media