Die Herausforderung: Fehlender Kundenkontext

Die meisten Kundenservice-Mitarbeitenden starten Anrufe und Chats halb blind. Sie sehen einen Namen, vielleicht eine Kundennummer, aber nicht die ganze Geschichte: frühere Beschwerden, offene Tickets, laufende Verträge oder die tatsächliche Produktkonfiguration, die der Kunde verwendet. Das Ergebnis ist ein unproduktiver Tanz aus wiederholten Fragen, generischer Fehlersuche und frustrierten Kunden, die das Gefühl haben, ihre Historie immer wieder neu erklären zu müssen.

Traditionelle Ansätze lösen dieses Problem nicht mehr. CRM- und Ticket-Systeme speichern zwar technisch alle Informationen, aber Agents müssen sich durch mehrere Tabs klicken, lange E-Mail-Verläufe lesen und halbfertige Notizen entschlüsseln, während der Kunde wartet. Wissensdatenbank-Artikel sind oft generisch und vom aktuellen Fall abgekoppelt. Selbst mit Skripten und Trainings kann niemand in den wenigen Sekunden zu Beginn einer Interaktion manuell ein vollständiges Bild des Kunden zusammensetzen.

Die geschäftlichen Auswirkungen sind erheblich. Die First-Contact-Resolution sinkt, weil Agents entscheidende Details wie frühere Zusagen, individuelle Preisabsprachen oder kürzliche Störungen übersehen. Die Bearbeitungszeiten steigen, weil während des laufenden Gesprächs nach Informationen gesucht werden muss. Eskalationen nehmen zu, treiben die Kosten pro Ticket in die Höhe und überlasten den Second-Level-Support. Noch schlimmer: Kunden lernen, dass „einmal anrufen nicht reicht“, sie melden sich erneut, kündigen schneller und teilen ihre Erfahrung mit anderen. In wettbewerbsintensiven Märkten wird dieser Mangel an Kontext zu einem direkten Nachteil gegenüber Anbietern, die vorbereiteter und persönlicher wirken.

Die gute Nachricht: Dieses Problem ist mit dem richtigen Einsatz von KI sehr gut lösbar. Moderne Sprachmodelle wie Claude können lange Historien von E-Mails, Chats, Verträgen und Notizen verarbeiten und in Echtzeit in prägnanten, relevanten Kontext verwandeln. Bei Reruption haben wir aus erster Hand erlebt, wie KI unstrukturierte Servicedaten in praktische Entscheidungsunterstützung für Agents transformiert. Im weiteren Verlauf dieses Guides sehen Sie konkrete Wege, wie Sie fehlenden Kundenkontext in eine Stärke verwandeln und Ihren Kundenservice näher an eine konsistente First-Contact-Resolution heranführen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s Erfahrung mit dem Aufbau von KI-Lösungen im Kundenservice liegt die größte Chance nicht in einem neuen Dashboard, sondern in einem Assistenten, der die Kundenhistorie tatsächlich für den Agenten liest und versteht. Claude ist darin besonders stark: Das Modell kann lange Interaktionsprotokolle, Verträge und Notizen verarbeiten und kurze, umsetzbare Briefings direkt in Ihrem Service-Desk erzeugen. Entscheidend ist, Workflow, Prompts und Schutzmechanismen so zu gestalten, dass Claude zu einem verlässlichen Teammitglied für Agents wird – und nicht zu einem weiteren Tool, das sie managen müssen.

Positionieren Sie Claude als augmentierten Agenten, nicht als Ersatz

Strategisch erreichen Sie eine höhere Akzeptanz und bessere Ergebnisse, wenn Sie Claude im Kundenservice als Co-Pilot positionieren, der die schwere Lese- und Zusammenfassungsarbeit übernimmt, während Menschen das Gespräch und die Entscheidungen verantworten. Agents sollten spüren, dass Claude da ist, um ihnen Zeit zu sparen und sie besser vorbereitet wirken zu lassen – nicht, um sie zu überwachen oder zu ersetzen.

Machen Sie das in Ihrer internen Kommunikation und in Trainings explizit. Zeigen Sie Vorher-Nachher-Beispiele: Was ein Agent heute sieht versus das, was er mit von Claude generiertem Kundenkontext sieht. Wenn Agents verstehen, dass die KI sie schneller und präziser macht, ohne ihnen die Kontrolle zu entziehen, sind sie deutlich eher bereit zu experimentieren und Feedback zu geben, das das System verbessert.

Starten Sie mit Interaktionstypen mit hohem Wert und geringem Risiko

Nicht jeder Ticket-Typ eignet sich als Einstieg. Wenn Sie die First-Contact-Resolution erhöhen wollen, konzentrieren Sie sich zunächst auf Interaktionstypen, bei denen Kontext sehr wichtig ist, aber Compliance- und Risikothemen überschaubar sind: wiederkehrende technische Probleme, Fragen zu Abonnements, Bestellprobleme oder wiederholte Beschwerden. Diese Fälle haben genügend Historie, um von kontextuellen Zusammenfassungen zu profitieren, und genug Volumen, um einen klaren ROI zu zeigen.

Vermeiden Sie es, mit sensiblen Bereichen wie Rechtsstreitigkeiten oder medizinisch regulierten Inhalten zu beginnen. Belegen Sie den Nutzen von Claude-basierten Kontext-Briefings zunächst bei einfacheren Fällen, messen Sie den Einfluss auf Bearbeitungszeit und Wiederkontaktquote, und weiten Sie den Einsatz danach auf komplexere und sensiblere Workflows aus, sobald Governance und Vertrauen etabliert sind.

Auf den Workflow im Service-Desk zuschneiden

Strategisch lautet die Frage nicht „Kann Claude zusammenfassen?“, sondern „An welcher Stelle im Agent-Workflow taucht Claude auf?“. Wenn der Agent Daten in ein separates Tool kopieren muss, wird die Nutzung gering bleiben. Planen Sie von Anfang an, Claude per API in Ihr bestehendes CRM- oder Ticket-System zu integrieren, sodass Kontext-Briefings genau dort erscheinen, wo Agents ohnehin arbeiten.

Arbeiten Sie mit Operations-Verantwortlichen und einigen erfahrenen Agents zusammen, um den aktuellen Call- oder Chat-Verlauf zu kartieren: Was sie in den ersten 30–60 Sekunden ansehen, wo sie nach Informationen suchen, welche Felder sie aktualisieren. Entwerfen Sie dann Claude-Outputs (z. B. „Customer Story“, „Wahrscheinliche Absicht“, „Risiken & Zusagen“), die sich genau an diesen Stellen einfügen. Dieses Workflow-Denken ist oft wichtiger als jeder einzelne Prompt.

Daten, Governance und Leitplanken im Vorfeld klären

Damit KI im Kundenservice im großen Maßstab funktioniert, brauchen Sie Klarheit darüber, auf welche Daten Claude zugreifen darf, wie lange Sie diese speichern und wie Sie mit sensiblen Segmenten umgehen (VIPs, regulierte Daten, Minderjährige etc.). Viele Organisationen unterschätzen den Aufwand, Kundenhistorien aus mehreren Systemen in eine saubere Sicht zu konsolidieren, die die KI konsumieren kann.

Definieren Sie vor dem Rollout klare Regeln für Datenzugriff, Anonymisierung und Logging. Entscheiden Sie, welche Teile der Claude-Ausgaben nur Vorschläge sind und welche Felder automatisch vorausgefüllt werden dürfen. Etablieren Sie einen einfachen Feedbackmechanismus, mit dem Agents falschen oder veralteten Kontext markieren können. Das reduziert Risiken und verbessert den praktischen Nutzen der KI kontinuierlich.

In Change Management investieren, nicht nur in Technologie

Die Einführung von Claude für Kundenkontext ist ein Veränderungsprogramm, nicht nur eine API-Integration. Agents können skeptisch sein, Teamleitungen machen sich Sorgen um Kennzahlen und die IT stellt Sicherheitsfragen. Gehen Sie jede Gruppe mit einer spezifischen Botschaft an: Für Agents steht die Entlastung der kognitiven Last im Vordergrund; für Führungskräfte messbare KPIs wie First-Contact-Resolution und weniger Eskalationen; für IT und Compliance Architektur, Logging und Steuerungsmöglichkeiten.

Bei Reruption arbeiten wir häufig mit Teams im Co-Preneur-Modell direkt zusammen, um frühe Piloten gemeinsam umzusetzen. Dieses enge Kollaborationsmodell – mit Agents zusammensitzen, Prompts iterieren, UI anpassen – ermöglicht schnelles Vorankommen und baut gleichzeitig intern Vertrauen auf. Behandeln Sie die ersten Wochen als Lernzyklus, nicht als finalen Launch.

Claude zur Behebung von fehlendem Kundenkontext einzusetzen, ist letztlich ein strategischer Wechsel: weg davon, dass Agents Informationen mühsam zusammensuchen, hin dazu, dass die KI die Geschichte vorbereitet, bevor das Gespräch beginnt. Wenn Sie den Workflow sorgfältig gestalten, klare Leitplanken setzen und Ihre Teams mitnehmen, können Sie die First-Contact-Resolution und das Kundenerlebnis spürbar verbessern. Reruption verbindet tiefe KI-Engineering-Expertise mit Hands-on-Arbeit in Ihrer Serviceorganisation, um dies Realität werden zu lassen – von den ersten PoCs bis zur Integration in Ihren Service-Desk. Wenn Sie einen Sparringspartner suchen, um auszuloten, wie das in Ihrer Umgebung aussehen könnte, sind wir bereit, es gemeinsam mit Ihnen aufzubauen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Gesundheitswesen: Erfahren Sie, wie Unternehmen Claude erfolgreich einsetzen.

Pfizer

Gesundheitswesen

Die COVID-19-Pandemie erforderte beispiellose Geschwindigkeit in der Wirkstoffentwicklung, da traditionelle Zeiträume für antivirale Mittel von der Entdeckung bis zur Zulassung typischerweise 5–10 Jahre betrugen. Pfizer stand unter enormem Druck, potente, orale Inhibitoren gegen die SARS-CoV-2-Hauptprotease (Mpro) zu identifizieren, die für die virale Replikation entscheidend ist. Konventionelles strukturbasiertes Design beruhte auf arbeitsintensiver Kristallographie, Molekulardynamik-Simulationen und iterativer chemischer Synthese und war oft durch langsame Trefferidentifikation und Optimierungszyklen ausgebremst. Zu den zentralen Herausforderungen gehörten die Erzeugung hochwertiger Protein-Ligand-Strukturen, die genaue Vorhersage von Bindungsaffinitäten und das Design neuartiger Moleküle, die Resistenzmechanismen entgehen — und das alles unter extremen Zeitdruck. Mit weltweit stark ansteigenden Fallzahlen konnten Verzögerungen Millionen von Leben kosten, weshalb beschleunigte Rechenpipelines ohne Abstriche bei Sicherheit oder Wirksamkeit dringend nötig waren.

Lösung

Pfizer setzte Machine-Learning-(ML)-Modelle ein, die in strukturbasierte Wirkstoffdesign-Workflows integriert wurden, um diese Hürden zu überwinden. ML-Algorithmen analysierten Kryo-EM- und Röntgen-Proteinstrukturen von Mpro und ermöglichten schnelle virtuelle Screenings von Millionen von Verbindungen sowie die generative Gestaltung optimierter Inhibitoren. Ergänzt wurde dies durch KI-gestützte Molekulardynamik und Free-Energy-Perturbation-Berechnungen, die die Simulationszeiten drastisch verkürzten. Der Ansatz umfasste hybride ML-Physik-Modelle zur Vorhersage von Bindungsposen und Affinitätsbewertung, trainiert an umfangreichen Datensätzen aus Pfizers Bibliotheken. Iterative Design-Make-Test-Analyze-(DMTA)-Zyklen wurden beschleunigt, wobei KI die Priorisierung von Synthesen übernahm und experimentelle Iterationen reduzierte, indem sie sich auf Kandidaten mit hohem Potenzial konzentrierte.

Ergebnisse

  • Entwicklungszeitraum: 4 Monate von Trefferfindung bis präklinischer Kandidat
  • Beschleunigung der computergestützten Chemie: 80–90% Reduktion der Prozesszeit
  • Trefferidentifikation: Über 100 Mio. Verbindungen virtuell in Tagen gescreent
  • Erfolg in klinischen Studien: Gesamtquote 12% gesteigert durch KI-Priorisierung
  • Paxlovid-Wirksamkeit: 89% Reduktion des Risikos für Hospitalisierung/Tod
Fallstudie lesen →

DBS Bank

Bankwesen

DBS Bank, die führende Finanzinstitution in Südostasien, kämpfte damit, KI von Experimenten in die Produktion zu skalieren, während Betrugsbedrohungen zunahmen, die Nachfrage nach hyperpersonalisierten Kundenerlebnissen stieg und operative Ineffizienzen im Service-Support bestanden. Traditionelle Systeme zur Betrugserkennung hatten Schwierigkeiten, bis zu 15.000 Datenpunkte pro Kunde in Echtzeit zu verarbeiten, was zu übersehenen Bedrohungen und suboptimalen Risikobewertungen führte. Personalisierungsbemühungen wurden durch isolierte Datensilos und fehlende skalierbare Algorithmen für Millionen von Nutzern in unterschiedlichen Märkten behindert. Zusätzlich sahen sich Kundendienstteams mit überwältigenden Anfragevolumina konfrontiert, wobei manuelle Prozesse die Reaktionszeiten verlangsamten und die Kosten erhöhten. Regulatorischer Druck im Bankwesen erforderte verantwortungsvolle KI-Governance, während Fachkräftemangel und Integrationsherausforderungen eine unternehmensweite Einführung erschwerten. DBS benötigte einen robusten Rahmen, um Datenqualitätsprobleme, Modell-Drift und ethische Bedenken bei der Einführung generativer KI zu überwinden und gleichzeitig Vertrauen und Compliance in einem wettbewerbsintensiven südostasiatischen Umfeld sicherzustellen.

Lösung

DBS startete ein konzernweites KI-Programm mit über 20 Anwendungsfällen, nutzte maschinelles Lernen für fortschrittliche Betrugsrisikomodelle und Personalisierung und ergänzte dies durch generative KI für einen internen Support-Assistenten. Die Betrugsmodelle integrierten umfangreiche Datensätze für die Erkennung von Anomalien in Echtzeit, während Personalisierungsalgorithmen hyperzielgerichtete Hinweise und Anlageideen über die digibank-App lieferten. Ein Mensch-KI-Synergie-Ansatz befähigte Serviceteams mit einem GenAI-Assistenten, der Routineanfragen aus internen Wissensdatenbanken bearbeitet. DBS legte Wert auf verantwortungsvolle KI durch Governance-Rahmenwerke, Qualifizierungsmaßnahmen für über 40.000 Mitarbeitende und eine gestaffelte Einführung, beginnend mit Pilotprojekten 2021 und Skalierung in die Produktion bis 2024. Partnerschaften mit Technologieführern und eine von Harvard unterstützte Strategie sicherten ein ethisches Skalieren in den Bereichen Betrug, Personalisierung und Betrieb.

Ergebnisse

  • 17 % Steigerung der Einsparungen durch verhinderte Betrugsversuche
  • Über 100 maßgeschneiderte Algorithmen für Kundenanalysen
  • 250.000 monatliche Anfragen effizient vom GenAI-Assistenten bearbeitet
  • Mehr als 20 konzernweite KI-Anwendungsfälle eingeführt
  • Analysiert bis zu 15.000 Datenpunkte pro Kunde zur Betrugserkennung
  • Produktivitätssteigerung um 20 % durch KI-Einführung (CEO-Aussage)
Fallstudie lesen →

bunq

Bankwesen

Als bunq ein rasantes Wachstum als zweitgrößte Neobank in Europa verzeichnete, wurde die Skalierung des Kundenservice zu einer kritischen Herausforderung. Bei Millionen von Nutzern, die personalisierte Banking-Informationen zu Konten, Ausgabeverhalten und Finanzberatung auf Abruf verlangen, stand das Unternehmen unter Druck, sofortige Antworten zu liefern, ohne die Zahl der menschlichen Supportteams proportional zu erhöhen — was Kosten treiben und Abläufe verlangsamen würde. Traditionelle Suchfunktionen in der App reichten für komplexe, kontextabhängige Anfragen nicht aus und führten zu Ineffizienzen und Nutzerfrustration. Zudem stellten die Gewährleistung von Datenschutz und Genauigkeit in einem stark regulierten Fintech-Umfeld erhebliche Risiken dar. bunq benötigte eine Lösung, die nuancierte Unterhaltungen führen und gleichzeitig EU-Bankvorschriften einhalten konnte, Halluzinationen vermeiden würde, wie sie in frühen GenAI-Modellen vorkommen, und sich nahtlos integrieren ließe, ohne die App-Performance zu beeinträchtigen. Ziel war es, Routineanfragen zu automatisieren, sodass menschliche Agenten sich auf wertschöpfende Fälle konzentrieren konnten.

Lösung

bunq begegnete diesen Herausforderungen durch die Entwicklung von Finn, einer proprietären GenAI-Plattform, die direkt in die mobile App integriert wurde und die herkömmliche Suchfunktion durch einen konversationellen KI-Chatbot ersetzte. Nach der Einstellung von mehr als einem Dutzend Datenexperten im Vorjahr baute das Team Finn so, dass er sicher auf nutzerspezifische Finanzdaten zugreift, Fragen zu Kontoständen, Transaktionen und Budgets beantwortet und sogar allgemeine Ratschläge gibt, wobei der Gesprächskontext über Sitzungen hinweg erhalten bleibt. Nach einer Beta wurde Finn im Dezember 2023 als Europas erster KI-gestützter Bankassistent eingeführt und entwickelte sich schnell weiter. Bis Mai 2024 wurde er vollständig konversationell, was natürliche Mehrfachrunden-Interaktionen ermöglichte. Dieser retrieval-augmented generation (RAG)-Ansatz stützte Antworten auf Echtzeit-Nutzerdaten, minimierte Fehler und erhöhte die Personalisierung.

Ergebnisse

  • 100.000+ Fragen innerhalb von Monaten nach der Beta beantwortet (Ende 2023)
  • 40 % der Nutzeranfragen bis Mitte 2024 autonom vollständig gelöst
  • 35 % der Anfragen unterstützt, insgesamt 75 % sofortige Support-Abdeckung
  • Vor dem Start 12+ Datenexperten für die Dateninfrastruktur eingestellt
  • Zweitgrößte Neobank Europas nach Nutzerbasis (1M+ Nutzer)
Fallstudie lesen →

Duolingo

EdTech

Duolingo, ein Vorreiter im gamifizierten Sprachlernen, sah sich mit wesentlichen Einschränkungen bei der Bereitstellung von praktischer Konversationspraxis und tiefgehendem Feedback konfrontiert. Während die kurzen Lektionen Wortschatz und Grundlagen effektiv vermittelten, sehnten sich Nutzer nach immersiven Dialogen, die Alltagssituationen simulieren – etwas, das statische Übungen nicht leisten konnten . Diese Lücke behinderte den Fortschritt in Richtung Sprachflüssigkeit, da Lernende kaum Gelegenheiten für freies Sprechen und nuancierte Grammatik-Erklärungen ohne teure menschliche Tutoren hatten. Zudem war die Inhaltserstellung ein Engpass. Fachexperten erstellten Lektionen manuell, was die Einführung neuer Kurse und Sprachen bei schnellem Nutzerwachstum verlangsamte. Die Skalierung personalisierter Erfahrungen über 40+ Sprachen erforderte Innovation, um das Engagement ohne proportionale Ressourcensteigerung aufrechtzuerhalten . Diese Herausforderungen drohten erhöhte Abwanderung und begrenzte Monetarisierung in einem wettbewerbsintensiven EdTech-Markt.

Lösung

Duolingo startete Duolingo Max im März 2023 – ein Premium-Abo, das von GPT-4 angetrieben wird und Roleplay für dynamische Dialoge sowie Explain My Answer für kontextuelle Rückmeldungen einführte . Roleplay simuliert reale Interaktionen wie Kaffeebestellungen oder Urlaubsplanung mit KI-Charakteren und passt sich in Echtzeit an Nutzereingaben an. Explain My Answer liefert detaillierte Aufschlüsselungen richtiger/falscher Antworten und verbessert so das Verständnis. Ergänzend automatisiert Duolingo's Birdbrain-LLM (feinabgestimmt auf proprietären Daten) die Lektionserstellung, sodass Experten Inhalte 10× schneller produzieren können . Dieser hybride Mensch‑KI-Ansatz sicherte Qualität bei gleichzeitiger schneller Skalierung und wurde nahtlos in die App für alle Schwierigkeitsstufen integriert .

Ergebnisse

  • DAU-Wachstum: +59 % YoY auf 34,1 Mio. (Q2 2024)
  • DAU-Wachstum: +54 % YoY auf 31,4 Mio. (Q1 2024)
  • Umsatzwachstum: +41 % YoY auf 178,3 Mio. $ (Q2 2024)
  • Bereinigte EBITDA-Marge: 27,0 % (Q2 2024)
  • Lektionserstellung: 10× schneller mit KI
  • Selbstwirksamkeit der Nutzer: deutliche Steigerung nach KI-Nutzung (Studie 2025)
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Ein einseitiges Kundenbriefing generieren, bevor der Agent „Hallo“ sagt

Konfigurieren Sie einen Backend-Service, der bei Start eines Anrufs oder Chats die relevante Historie des Kunden zusammensammelt: aktuelle Tickets, E-Mail-Verläufe, Kaufhistorie, SLA-Details und wichtige Account-Notizen. Übergeben Sie diese Daten an Claude und lassen Sie sich ein kompaktes, strukturiertes Briefing erzeugen, das innerhalb von ein bis zwei Sekunden in der Oberfläche des Agents erscheint.

Ein typischer Prompt für Claude könnte so aussehen:

Sie sind ein Assistent für Mitarbeitende im Kundenservice.

Sie erhalten:
- Ein Protokoll vergangener Tickets und Chats
- Aktuelle E-Mails
- Bestell- und Abonnementinformationen
- Interne Account-Notizen

Aufgabe:
1. Fassen Sie die jüngste Historie des Kunden in 5 Stichpunkten zusammen.
2. Leiten Sie die wahrscheinlichste Absicht des aktuellen Kontakts ab.
3. Heben Sie bestehende Zusagen, Eskalationen oder Risiken hervor.
4. Schlagen Sie 2–3 nächste beste Schritte für den Agenten vor.

Geben Sie die Ausgabe im JSON-Format mit diesen Schlüsseln zurück:
"history_summary", "likely_intent", "risks_and_commitments", "suggested_actions".

Verwenden Sie ausschließlich Informationen aus den bereitgestellten Daten. Wenn Sie unsicher sind, schreiben Sie "unklar".

So werden verstreute Daten in eine einzige, handlungsorientierte Ansicht verwandelt. Agents starten jede Interaktion mit einem klaren Bild darüber, was bisher passiert ist, was vermutlich nicht stimmt und was sie zuerst prüfen sollten.

Vorgeschlagene Antworten anzeigen, die zur Situation des Kunden passen

Über den Kontext hinaus kann Claude erste Antwortentwürfe erzeugen, die auf das Produkt, die Historie und das aktuelle Anliegen des Kunden zugeschnitten sind. Das ist besonders effektiv in Chat- und E-Mail-Kanälen, in denen Agents KI-generierte Vorschläge schnell anpassen und versenden können, statt bei null zu beginnen.

Erweitern Sie Ihre Integration so, dass bei Eingang einer neuen Nachricht sowohl diese Nachricht als auch das aktuelle Kontext-Briefing an Claude gesendet werden. Nutzen Sie zum Beispiel folgenden Prompt:

Sie unterstützen Mitarbeitende im Kundenservice beim Formulieren von Antworten.

Eingabe:
- Die aktuelle Nachricht des Kunden
- Strukturierter Kontext (history_summary, likely_intent usw.)
- Relevante Wissensdatenbank-Artikel

Aufgabe:
1. Formulieren Sie eine klare, empathische Antwort, die:
   - Die Historie des Kunden berücksichtigt (falls relevant)
   - Die wahrscheinliche Absicht direkt adressiert
   - Vermeidet, Informationen zu wiederholen, die der Kunde bereits gegeben hat
2. Schlagen Sie 1 Rückfrage vor, falls Informationen fehlen.
3. Halten Sie den Ton professionell und freundlich.

Kennzeichnen Sie Annahmen klar.

Agents prüfen, passen an und senden. Das reduziert Bearbeitungszeit und sorgt dafür, dass Antworten besser zur tatsächlichen Situation des Kunden passen, statt generische Vorlagen zu sein.

Claude zur Erkennung versteckter Risiken und Eskalationssignale nutzen

Fehlender Kontext führt oft zu übersehenen Signalen: mehrere frühere Beschwerden, Hinweise auf rechtliche Schritte oder wichtige Zusagen von Account Managern. Bringen Sie Claude bei, diese Elemente in der Historie gezielt zu scannen und für den Agenten hervorzuheben, damit dieser seine Gesprächsführung entsprechend anpassen kann.

Fügen Sie zum Beispiel einen zweiten Durchlauf über dieselben Daten mit einem Prompt wie diesem hinzu:

Sie sind ein Scanner für Risiken und Eskalationen im Kundenservice.

Prüfen Sie die bereitgestellte Kundenhistorie und die Notizen.

Identifizieren und listen Sie auf:
- Frühere Eskalationen oder Einbindung von Vorgesetzten
- Erwähnungen von Kündigung, rechtlichen Schritten oder starker Unzufriedenheit
- Offene Zusagen, Rückerstattungen oder Rabatte, die noch nicht erfüllt wurden

Ausgabe:
- "risk_level" (low/medium/high)
- "risk_reasons" (3 Stichpunkte)
- "recommended_tone" (kurze Empfehlung für den Ton des Agenten)

Wenn es keine Anzeichen für ein Risiko gibt, setzen Sie risk_level auf "low".

Zeigen Sie diese Informationen neben dem Haupt-Briefing an. So können Agents risikoreiche Interaktionen sorgfältiger führen, gegebenenfalls frühzeitig Vorgesetzte einbinden und Wiederanrufe oder Abwanderung vermeiden.

Claude mit Ihrer Wissensdatenbank verbinden für Schritt-für-Schritt-Anleitungen

Um die First-Contact-Resolution wirklich spürbar zu verbessern, kombinieren Sie Kontext mit prozessualer Anleitung. Indizieren Sie Ihre Wissensdatenbank, FAQs und Troubleshooting-Guides so, dass sie anhand der wahrscheinlichen Absicht des Kunden auffindbar sind (z. B. über Vektorsuche). Senden Sie dann die Top-Trefferdokumente zusammen mit dem Kontext an Claude und lassen Sie sich einen konkreten Schritt-für-Schritt-Plan erstellen.

Ein Beispiel-Prompt:

Sie helfen Mitarbeitenden im Kundenservice, Probleme bereits beim ersten Kontakt zu lösen.

Eingabe:
- Kundenkontext (Historie, Produkte, Umgebung)
- Wahrscheinliche Absicht
- Die 3 relevantesten Wissensdatenbank-Artikel

Aufgabe:
1. Erstellen Sie einen Schritt-für-Schritt-Lösungsplan, der auf diesen Kunden zugeschnitten ist.
2. Heben Sie hervor, welche Schritte der Agent durchführen kann und welche die Mithilfe des Kunden erfordern.
3. Weisen Sie auf Bedingungen hin, unter denen der Fall eskaliert werden sollte.

Verwenden Sie kurze, nummerierte Schritte, die sich für Agents eignen, um sie live im Gespräch zu befolgen.

So wird generische Dokumentation zu personalisierter Anleitung, die Agents in Echtzeit befolgen können – und die Chancen steigen deutlich, das Problem ohne Folgeticket zu lösen.

KI-Ausgaben im Ticket protokollieren für zukünftige Kontakte

Machen Sie die Arbeit von Claude wiederverwendbar, indem Sie zentrale Elemente der Ausgabe zurück in strukturierte Ticketfelder schreiben, z. B. „root_cause_hypothesis“, „confirmed_issue“, „resolution_summary“. Künftige Interaktionen können diese Felder dann als zusätzliche Eingabe für die Kontextgenerierung nutzen.

Lösen Sie zum Beispiel nach dem Gespräch ein Update aus, bei dem Claude das Transkript und die Agenten-Notizen in eine saubere Zusammenfassung überführt:

Sie erstellen eine prägnante Fallzusammenfassung für zukünftige Agents.

Eingabe:
- Gesprächstranskript
- Notizen des Agenten

Aufgabe:
1. Fassen Sie Problem, Ursachenhypothese und Lösung in 4–6 Sätzen zusammen.
2. Notieren Sie verbleibende offene Fragen oder Folgeaufgaben.
3. Verwenden Sie neutrale, interne Sprache (keine Entschuldigungen, keine Anreden oder Grüße).

Geben Sie einen einzigen Absatz aus.

Die Speicherung dieser Zusammenfassung macht den nächsten Kontakt noch schneller: Claude liest dann eine klare, standardisierte Zusammenfassung statt unübersichtlicher Rohnotizen.

Auswirkungen mit klaren, KI-spezifischen KPIs messen

Um den Mehrwert zu belegen und Ihr Setup zu optimieren, definieren Sie ein KPI-Set, das direkt mit Claude-basiertem Kundenkontext verknüpft ist. Mindestens sollten Sie messen: First-Contact-Resolution-Rate für Interaktionen mit KI-Kontext versus Kontrollgruppe, durchschnittliche Bearbeitungszeit, Anzahl der Folgekontakte innerhalb von 7–14 Tagen sowie Zufriedenheit der Agents mit der Informationsqualität.

Instrumentieren Sie Ihren Service-Desk so, dass jede Interaktion protokolliert, ob KI-Kontext angezeigt wurde und ob empfohlene Aktionen oder Antworten genutzt wurden. Analysieren Sie eine Stichprobe von Fällen, in denen die KI ignoriert wurde, um zu verstehen, warum (zu spät, nicht relevant, zu lang) und passen Sie Prompts und UI entsprechend an. Realistisch erzielen Organisationen häufig Verbesserungen wie 10–20 % höhere First-Contact-Resolution bei gezielten Problemtypen und spürbare Reduktionen der Bearbeitungszeiten, sobald Agents mit dem Tool vertraut sind.

So eingesetzt wird Claude zu einem praktischen Motor, der rohe Kundenhistorien in bessere Entscheidungen an der Frontline übersetzt. Sie können mit greifbaren Ergebnissen rechnen: weniger Wiederkontakte, kürzere Anrufe, konsistentere Lösungen und Agents, die sich für jede Interaktion besser vorbereitet fühlen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Claude kann große Mengen unstrukturierter Daten – vergangene Tickets, E-Mails, Chat-Protokolle, Verträge und interne Notizen – lesen und in ein kurzes, handlungsorientiertes Briefing für den Agenten verdichten. Anstatt sich durch fünf Systeme zu klicken, sieht der Agent zu Beginn eines Anrufs oder Chats eine einseitige Zusammenfassung mit jüngster Historie, wahrscheinlicher Absicht, Risiken und empfohlenen nächsten Schritten.

Da Claude ein großes Sprachmodell ist, listet es nicht nur Fakten auf, sondern verbindet sie miteinander. So kann es beispielsweise aus drei früheren Beschwerden und einer kürzlichen Preiserhöhung ableiten, dass der Kunde möglicherweise kurz vor einer Kündigung steht – und den Agenten darauf hinweisen, das Gespräch entsprechend sensibel zu führen.

Sie benötigen mindestens: (1) Zugriff auf Ihre Service- und CRM-Daten per APIs oder Exports, (2) eine Möglichkeit, die Claude-API sicher aus Ihrer Umgebung aufzurufen, und (3) die Fähigkeit, Ihren Agent-Desktop so anzupassen, dass der KI-generierte Kontext dort erscheint, wo Agents arbeiten. Auf der Kompetenzseite brauchen Sie Engineering für die Integration, jemanden mit tiefem Verständnis Ihrer Serviceprozesse sowie eine Produkt-/Operations-Verantwortung, die die Anforderungen definiert.

Reruption arbeitet in der Regel mit bestehenden IT- und Operations-Teams zusammen und bringt die Fähigkeiten für KI-Engineering und Prompt-Design mit. So braucht Ihr internes Team an Tag eins noch keine tiefgehende LLM-Expertise – wir helfen Ihnen, Architektur, Prompts und Leitplanken zu entwerfen und hinterlassen eine lösungsorientierte, gut wartbare Implementierung.

Wenn Sie sich auf einen klar abgegrenzten Ausschnitt von Interaktionstypen konzentrieren, ist es realistisch, innerhalb weniger Wochen einen Proof of Concept aufzusetzen und innerhalb von ein bis zwei Monaten erste Effekte zu sehen. Ein PoC könnte z. B. eine einzelne Hotline, eine Sprache und ein oder zwei häufige Problemkategorien abdecken, bei denen Claude Kontext-Briefings und Antwortvorschläge generiert.

Messbare KPI-Verschiebungen – etwa verbesserte First-Contact-Resolution und reduzierte Bearbeitungszeiten – werden meist sichtbar, sobald Agents geschult sind und die Prompts einige Iterationen durchlaufen haben, typischerweise innerhalb von 8–12 Wochen für einen fokussierten Piloten. Die Skalierung auf alle Teams und Themenbereiche dauert länger, aber frühe Erfolge helfen, Business Case und interne Unterstützung aufzubauen.

Die Kosten setzen sich grob aus drei Komponenten zusammen: technische Integration, Claude-Nutzung (API-Aufrufe) und laufende Optimierung. Für viele Organisationen bleiben die API-Nutzungskosten moderat, weil Claude nur in Schlüsselmomenten aufgerufen wird (z. B. zu Beginn einer Interaktion, bei komplexer Antworterstellung) und nicht für jede Aktion.

Der ROI ergibt sich aus konkreten operativen Verbesserungen: weniger Wiederkontakte, weniger Eskalationen, kürzere Bearbeitungszeiten und höhere Produktivität der Agents. Wenn Sie beispielsweise bei einem hochvolumigen Problemtyp Wiederanrufe um nur 10–15 % reduzieren, übersteigen die eingesparte Agentenzeit und der Zugewinn an Kundenzufriedenheit die KI-Kosten in der Regel schnell. Wir empfehlen, den ROI pro Use Case zu modellieren, statt als generisches KI-Projekt.

Reruption ist darauf spezialisiert, konkrete KI-Ideen in funktionierende Lösungen innerhalb von Organisationen zu überführen. Bei fehlendem Kundenkontext starten wir typischerweise mit unserem KI-PoC-Angebot (9.900€): Gemeinsam definieren wir den Use Case, binden einen Teil Ihrer Servicedaten an, entwerfen die Prompts und bauen einen funktionierenden Prototypen, der zeigt, wie Claude in Ihrer Umgebung Kontext-Briefings generiert.

Durch unseren Co-Preneur-Ansatz übergeben wir nicht nur Folien – wir arbeiten eingebettet mit Ihrem Team, sitzen mit Agents zusammen, iterieren am Workflow und an den Prompts und stellen sicher, dass die Lösung wirklich zu Ihrer Servicerealität passt. Nach dem PoC unterstützen wir Sie bei Skalierung, Security- und Compliance-Themen sowie weiteren Automatisierungsschritten, damit Claude zu einem stabilen Bestandteil Ihres Customer-Service-Stacks wird.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media