Die Herausforderung: Nicht triagierte Tickets mit geringem Wert

Die meisten Kundenservice-Teams werden mit Tickets mit geringem Wert überschwemmt, für die es von Anfang an keinen Menschen gebraucht hätte: Passwort-Zurücksetzungen, Fragen zum Bestellstatus, einfache How-to-Anleitungen. Weil diese Anfragen per E-Mail, Chat und Webformular ohne intelligentes Triage eintreffen, landen sie in denselben Warteschlangen wie komplexe Probleme. Mitarbeitende verschwenden Zeit damit, Tickets zu öffnen, zu lesen und zu schließen, die in Sekunden automatisch hätten gelöst werden können.

Traditionelle Ansätze wie statische FAQs, starre IVR-Menüs oder einfache regelbasierte Chatbots reichen nicht mehr aus. Kundinnen und Kunden erwarten eine natürliche, dialogorientierte Unterstützung, die Kontext versteht und Variationen in der Problembeschreibung verarbeiten kann. Hart codierte Flows brechen zusammen, sobald sich Produkte ändern, Richtlinien aktualisiert werden oder Kundinnen und Kunden ihr Anliegen anders formulieren. Das Ergebnis ist entweder manuelles Triage durch Menschen oder ein derart schlechtes Erlebnis, dass Self-Service komplett umgangen und direkt ein Agent kontaktiert wird.

Die geschäftlichen Auswirkungen sind erheblich. Wenn nicht triagierte Tickets mit geringem Wert Ihre Warteschlangen verstopfen, steigen die Erstreaktionszeiten, SLAs geraten ins Wanken und die Kundenzufriedenheit sinkt. Kundinnen und Kunden mit hohem Wert warten länger hinter einem Rückstau aus einfachen Anfragen. Ihre am besten qualifizierten Mitarbeitenden verbringen ihre Zeit mit Copy-Paste-Antworten statt mit komplexer Fehleranalyse, Upselling-Möglichkeiten oder für die Kundenbindung kritischen Fällen. Die Kosten pro Ticket steigen, während der strategische Wert Ihrer Kundenservice-Organisation sinkt.

Diese Herausforderung ist sehr real, aber auch sehr gut lösbar. Mit modernen Large Language Models wie ChatGPT können Sie Routineanfragen automatisch verstehen, klassifizieren und lösen, bevor sie einen Agenten erreichen. Bei Reruption haben wir gesehen, wie KI-first-Workflows statische FAQs und manuelles Triage durch dynamischen, dialogorientierten Self-Service ersetzen können. Im weiteren Verlauf dieses Leitfadens finden Sie praktische Hinweise, wie Sie ChatGPT-basiertes Triage so konzipieren, ausrollen und skalieren, dass Tickets mit geringem Wert gar nicht erst in Ihre Warteschlangen gelangen – ohne Abstriche beim Kundenerlebnis.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s praktischer Arbeit beim Aufbau KI-gestützter Kundenservice-Lösungen ist unsere Sicht klar: Der größte Hebel zur Reduktion des Support-Volumens ist nicht eine weitere FAQ-Seite, sondern intelligentes ChatGPT-basiertes Triage und Self-Service. Richtig implementiert kann ChatGPT eingehende Nachrichten lesen, Intentionen verstehen und das Anliegen entweder sofort lösen oder an die richtige Stelle weiterleiten – und so ein chaotisches Postfach voller Tickets mit geringem Wert in einen kontrollierten, automatisierten Flow verwandeln.

In Flows denken, nicht nur an ein Chatbot-Widget

Der häufige Fehler ist, ChatGPT wie einen etwas besseren Chatbot auf Ihrer Website zu behandeln. Für nicht triagierte Tickets mit geringem Wert ist es deutlich effektiver, in End-to-End-Flows zu denken: vom Moment, in dem eine Kundin oder ein Kunde eine Frage hat, über Kanäle wie E-Mail, Chat oder Formulare bis hin zur vollständigen Self-Service-Lösung oder intelligenten Weiterleitung. ChatGPT wird zum „Gehirn“, das versteht, was der Kunde möchte – nicht nur zu einem Frontend-Widget.

Strategisch bedeutet das, jeden häufigen Anfragetyp mit geringem Wert – Passwort-Resets, Bestellstatus, Kontoaktualisierungen – einem klaren, automatisierten Bearbeitungspfad zuzuordnen. Manche Flows führen zu einer Self-Service-Aktion, andere zu einer Wissensdatenbank-Antwort und nur der Rest zu einer Übergabe an einen Agenten. Wenn Ihr Führungsteam in Flows denkt, können Sie die volumenstärksten Pfade zuerst priorisieren und echte Volumenreduktion messen statt abstraktes Chatbot-Engagement.

Mit einem schmalen, messbaren Use-Case-Portfolio starten

Der Versuch, „alles zu automatisieren“ ist von Tag eins an ein Rezept für Enttäuschung. Ein besserer Ansatz ist, den Einsatz von ChatGPT im Kundenservice bewusst auf die 5–10 häufigsten Intentionen mit geringem Wert zu begrenzen und diese außergewöhnlich gut funktionieren zu lassen. Das reduziert organisatorisches Risiko, vereinfacht Governance und verschafft Ihrem Team schnelle Erfolge.

Aus strategischer Sicht sollten Sie klare Eintritts- und Austrittskriterien definieren: Welche Intentionen übernimmt ChatGPT vollständig, für welche erstellt es Antwortentwürfe für Mitarbeitende, und welche müssen immer an eine Person gehen? Stimmen Sie dieses Portfolio mit Ihren Kostentreibern und SLA-Schmerzpunkten ab. Das Management kann dann konkrete Deflection-KPIs verfolgen und auf Basis von Evidenz – nicht Hype – entscheiden, wann der Scope erweitert wird.

Human Handover als First-Class-Bestandteil designen

Für echte Akzeptanz müssen sowohl Kundinnen und Kunden als auch Mitarbeitende dem System vertrauen. Das erfordert ein robustes Human-in-the-Loop-Design. Strategisch sollten Sie davon ausgehen, dass ein gewisser Prozentsatz der Tickets eine:n Agent:in benötigt, und die Rolle von ChatGPT als intelligente Eingangstür und Assistent definieren – nicht als vollständigen Ersatz.

Das bedeutet, klare Eskalationsregeln festzulegen: Welche Risikoniveaus, Kundensegmente oder Schlüsselwörter sollen eine Übergabe an einen Menschen auslösen? Wie soll ChatGPT das Gespräch zusammenfassen, damit Agents schnell reagieren können? Ein gut gestalteter Handover reduziert Frustration und sorgt dafür, dass Mitarbeitende ChatGPT als hilfreichen Kollegen sehen, der das repetitive Lesen und Formulieren übernimmt – nicht als Black Box, die ihre Arbeit untergräbt.

Ihre Organisation auf KI-first-Kundenservice vorbereiten

Die Einführung von KI-Triage mit ChatGPT ist ebenso sehr eine organisatorische Veränderung wie eine technische. Kundenservice-Verantwortliche sollten ihre Teams auf neue Rollen vorbereiten: weniger manuelles Triage, mehr Ausnahmebearbeitung, Qualitätssicherung und kontinuierliche Verbesserung von Prompts und Workflows. Ihre KPIs können sich ebenfalls verschieben – weg von reiner Bearbeitungszeit hin zu einer Mischung aus Deflection-Rate, CSAT für automatisierte Antworten und Time-to-Resolution für komplexe Fälle.

Auf der Readiness-Seite brauchen Sie klare Verantwortlichkeiten zwischen IT, Operations und Legal/Compliance. Entscheiden Sie, wer Intentionen definiert, wer Inhalte und Wissensdatenbanken pflegt und wer über Datennutzung und Datenschutz entscheidet. Behandeln Sie ChatGPT als strategische, gemeinsame Fähigkeit – nicht als Nebenprojekt, das einer engagierten Teamleitung „gehört“.

Risiken mit Guardrails steuern, nicht mit Totalverboten

Bedenken hinsichtlich Halluzinationen, Tonalität und Compliance sind legitim – aber KI im Kundenservice komplett zu blockieren, ist langfristig meist riskanter. Wettbewerberinnen und Wettbewerber ziehen vorbei, und Ihre Mitarbeitenden verbringen weiter Zeit mit vermeidbarer Arbeit. Klüger ist es, Guardrails zu definieren: Was ChatGPT autonom beantworten darf, wo es auf strukturierte Daten zurückgreifen muss und wann eine Eskalation zwingend ist.

Für Tickets mit geringem Wert können Sie autonome Antworten auf Themen beschränken, die durch freigegebene Wissensdatenbank-Inhalte oder durch faktische Daten aus Ihren Systemen (z. B. Bestellstatus) gedeckt sind. Alles andere wird zu einem Entwurf für die menschliche Prüfung. Dieser risikobasierte Ansatz ermöglicht es Ihnen, den Großteil der Effizienzgewinne zu realisieren und gleichzeitig die Kontrolle über sensible Interaktionen zu behalten.

Bewusst eingesetzt kann ChatGPT für nicht triagierte Tickets mit geringem Wert Ihren Support von reaktiver Postfachverwaltung hin zu proaktivem, KI-first-Service-Design transformieren. Indem Sie sich auf ein klares Use-Case-Portfolio, starke Handover-Muster und risikobewusste Guardrails fokussieren, können Sie einen substanziellen Teil des Volumens ablenken, ohne das Vertrauen der Kundinnen und Kunden zu gefährden. Reruption hat Organisationen geholfen, in Wochen statt Jahren von Folienkonzepten zu funktionierenden KI-Triage-Flows zu kommen – wenn Sie einen ähnlichen Schritt erwägen, sprechen wir gerne über konkrete Szenarien und entwickeln einen Weg, der zu Ihrem Team und Ihren Systemen passt.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Nachrichtenmedien: Erfahren Sie, wie Unternehmen ChatGPT erfolgreich einsetzen.

AstraZeneca

Gesundheitswesen

In der stark regulierten pharmazeutischen Industrie stand AstraZeneca unter erheblichem Druck, die Wirkstoffforschung und klinischen Studien zu beschleunigen, die traditionell 10–15 Jahre dauern und Milliarden kosten, bei geringen Erfolgsraten von unter 10 %. Datensilos, strenge Compliance-Anforderungen (z. B. FDA-Regularien) und manuelle Wissensarbeit behinderten die Effizienz in F&E und Geschäftsbereichen. Forschende hatten Schwierigkeiten, riesige Datensets aus 3D-Bildgebung, Literaturauswertungen und Protokollentwürfen zu analysieren, was zu Verzögerungen bei der Therapiefindung für Patienten führte. Die Skalierung von KI wurde durch Datenschutz-Bedenken, Integration in Altsysteme und die Sicherstellung verlässlicher KI-Ergebnisse in einem hochkritischen Umfeld erschwert. Ohne schnelle Adoption riskierte AstraZeneca, gegenüber Wettbewerbern zurückzufallen, die KI für schnellere Innovationen zur Erreichung der 2030-Ziele nutzten.

Lösung

AstraZeneca startete eine unternehmensweite Strategie für generative KI und setzte ChatGPT Enterprise ein, maßgeschneidert für Pharma-Workflows. Dazu gehörten KI-Assistenten für die Analyse 3D-molekularer Bildgebung, automatische Entwürfe von Protokollen für klinische Studien und die Synthese von Wissen aus wissenschaftlicher Literatur. Sie gingen Partnerschaften mit OpenAI für sichere, skalierbare LLMs ein und investierten in Schulungen: Rund 12.000 Mitarbeitende aus F&E und anderen Funktionen schlossen bis Mitte 2025 GenAI-Programme ab. Infrastruktur-Upgrades wie AMD Instinct MI300X GPUs optimierten das Modelltraining. Governance-Rahmen stellten Compliance sicher, mit menschlicher Validierung in kritischen Aufgaben. Der Rollout erfolgte phasenweise von Pilotprojekten in 2023–2024 bis zur vollständigen Skalierung 2025, mit Schwerpunkt auf der Beschleunigung der F&E durch GenAI für Moleküldesign und Real-World-Evidence-Analysen.

Ergebnisse

  • ~12.000 Mitarbeitende bis Mitte 2025 in generativer KI geschult
  • 85–93 % der Mitarbeitenden berichteten von Produktivitätssteigerungen
  • 80 % der Medical Writer fanden KI-Protokollentwürfe nützlich
  • Signifikante Reduktion der Trainingszeit für Life-Sciences-Modelle durch MI300X-GPUs
  • Hohe AI-Maturity-Bewertung laut IMD-Index (weltweit oben)
  • GenAI ermöglicht schnellere Studienplanung und Dosiswahl
Fallstudie lesen →

AT&T

Telekommunikation

Als führender Netzbetreiber verwaltet AT&T eines der weltweit größten und komplexesten Netzwerke, das Millionen von Funkzellen, Glasfasern und 5G-Infrastruktur umfasst. Die zentralen Herausforderungen umfassten ineffiziente Netzplanung und -optimierung, etwa die Festlegung optimaler Standorte für Funkzellen und die Frequenzakquisition vor dem Hintergrund explodierender Datenanforderungen durch den 5G-Rollout und das Wachstum des IoT. Traditionelle Methoden beruhten auf manueller Analyse, was zu suboptimaler Ressourcenzuteilung und höheren Kapitalaufwendungen führte. Zusätzlich verursachte die reaktive Netzwartung häufige Ausfälle, da die Anomalieerkennung nicht mit den Echtzeitanforderungen Schritt hielt. Probleme proaktiv zu erkennen und zu beheben war entscheidend, um Ausfallzeiten zu minimieren, doch die enormen Datenmengen aus Netzwerksensoren überforderten die Altsysteme. Dies führte zu erhöhten Betriebskosten, Kundenunzufriedenheit und verzögerter 5G-Bereitstellung. AT&T benötigte skalierbare KI, um Ausfälle vorherzusagen, Selbstheilung zu automatisieren und die Nachfrage präzise zu prognostizieren.

Lösung

AT&T integrierte Maschinelles Lernen und Vorhersageanalytik über seine AT&T Labs und entwickelte Modelle für das Netzwerkdesign, einschließlich Spektrum-Refarming und Optimierung von Funkzellenstandorten. KI-Algorithmen analysieren Geodaten, Verkehrsprofile und historische Leistungsdaten, um ideale Standorte für Sendemasten zu empfehlen und so Baukosten zu reduzieren. Für den Betrieb nutzen Systeme zur Anomalieerkennung und Selbstheilung prädiktive Modelle auf NFV (Network Function Virtualization), um Ausfälle vorherzusagen und automatisierte Behebungen durchzuführen, etwa durch Umleitung von Traffic. Kausale KI geht über Korrelationen hinaus und liefert Ursachenanalysen bei Abwanderung und Netzproblemen. Die Implementierung umfasste Edge-to-Edge-Intelligenz und die Bereitstellung von KI in den Arbeitsabläufen von über 100.000 Ingenieurinnen und Ingenieuren.

Ergebnisse

  • Milliarden von Dollar an Einsparungen bei Netzwerkkosten
  • 20–30% Verbesserung der Netzauslastung und Effizienz
  • Signifikante Reduktion von Vor-Ort-Einsätzen (Truck Rolls) und manuellen Eingriffen
  • Proaktive Erkennung von Anomalien, die größere Ausfälle verhindert
  • Optimierte Standortwahl für Funkzellen, die CapEx um Millionen reduziert
  • Bis zu 40% bessere Genauigkeit bei 5G-Nachfrageprognosen
Fallstudie lesen →

Airbus

Luft- und Raumfahrt

In der Flugzeugentwicklung sind Computational Fluid Dynamics (CFD)-Simulationen essenziell, um den Luftstrom um Tragflächen, Rümpfe und neuartige Konfigurationen vorherzusagen — entscheidend für Treibstoffeffizienz und Emissionsreduzierung. Herkömmliche hochgenaue RANS-Solver benötigen jedoch Stunden bis Tage pro Lauf auf Supercomputern, wodurch Ingenieure nur wenige Dutzend Iterationen pro Designzyklus durchführen können und die Innovationsfähigkeit für nächste Generationen wie das hydrogenbetriebene ZEROe eingeschränkt wird. Dieses Rechenengpassproblem war besonders akut im Kontext von Airbus' Vorstoß zur Dekarbonisierung der Luftfahrt bis 2035, bei dem komplexe Geometrien eine umfassende Exploration erfordern, um Auftriebs-Widerstands-Verhältnisse zu optimieren und gleichzeitig Gewicht zu minimieren. Kooperationen mit DLR und ONERA zeigten den Bedarf an schnelleren Werkzeugen auf, da manuelle Abstimmungen nicht skalieren, um die Tausenden Varianten zu testen, die für laminares Strömungsverhalten oder Blended-Wing-Body-Konzepte nötig sind.

Lösung

Maschinelle Lern-Surrogatmodelle, einschließlich physik-informierter neuronaler Netze (PINNs), wurden auf umfangreichen CFD-Datensätzen trainiert, um komplette Simulationen in Millisekunden zu emulieren. Airbus integrierte diese in eine generative Design-Pipeline, in der KI Druckfelder, Geschwindigkeiten und Kräfte vorhersagt und dabei die Navier-Stokes-Physik über hybride Verlustfunktionen zur Genauigkeit erzwingt. Die Entwicklung umfasste die Aufbereitung von Millionen von Simulations-Snapshots aus Legacy-Läufen, GPU-beschleunigtes Training und iterative Feinabstimmung mit experimentellen Windkanaldaten. Dadurch wurden schnelle Iterationen möglich: Die KI sichtet Designs, während hochauflösende CFD nur die besten Kandidaten verifiziert, wodurch der Gesamtaufwand um Größenordnungen reduziert wird und gleichzeitig ein <5% Fehler bei Schlüsselmetriken gehalten wird.

Ergebnisse

  • Simulationszeit: 1 Stunde → 30 ms (120.000x Beschleunigung)
  • Design-Iterationen: +10.000 pro Zyklus im gleichen Zeitraum
  • Vorhersagegenauigkeit: 95%+ für Auftriebs-/Widerstandskoeffizienten
  • 50% Verkürzung der Designphasenlaufzeit
  • 30–40% weniger hochauflösende CFD-Läufe erforderlich
  • Treibstoffverbrauchsoptimierung: bis zu 5% Verbesserung in Vorhersagen
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

American Eagle Outfitters

Bekleidungs-Einzelhandel

In der wettbewerbsintensiven Bekleidungs-Einzelhandel-Landschaft stand American Eagle Outfitters vor erheblichen Herausforderungen in den Ankleidekabinen, wo Kund:innen nach Styling-Beratung, präziser Größenempfehlung und ergänzenden Artikelvorschlägen verlangen, ohne auf überlastete Mitarbeitende warten zu müssen . Während Stoßzeiten führten Personalknappheiten häufig dazu, dass frustrierte Käufer:innen Waren zurückließen, die Anprobefrequenz sanken und Konversionschancen verpasst wurden, da traditionelle In-Store-Erfahrungen hinter der personalisierten E‑Commerce-Welt zurückblieben . Frühe Ansätze wie Beacon-Technologie im Jahr 2014 verdoppelten zwar die Wahrscheinlichkeit des Betretens der Umkleide, fehlte es ihnen jedoch an Tiefe für Echtzeit-Personalisierung . Hinzu kamen Daten-Silos zwischen Online und Offline, die einheitliche Kundenkenntnisse erschwerten und es schwierig machten, Artikel dynamisch an individuelle Stilpräferenzen, Körpertypen oder sogar Hauttöne anzupassen. American Eagle benötigte eine skalierbare Lösung, um Engagement und Kundentreue in Flagship-Stores zu steigern und gleichzeitig mit KI breiter zu experimentieren .

Lösung

American Eagle ging eine Partnerschaft mit Aila Technologies ein, um interaktive Ankleidekabinen-Kioske einzusetzen, die von Computervision und Maschinellem Lernen angetrieben werden; diese wurden 2019 in Flagship-Filialen in Boston, Las Vegas und San Francisco eingeführt . Kund:innen scannen Kleidungsstücke über iOS-Geräte, wodurch CV‑Algorithmen die Artikel identifizieren und ML‑Modelle — trainiert auf Kaufhistorie und Google Cloud‑Daten — optimale Größen, Farben und Outfit‑Ergänzungen vorschlagen, zugeschnitten auf inferierte Stilpräferenzen . Integriert mit den ML-Funktionen von Google Cloud ermöglicht das System Echtzeit-Empfehlungen, Benachrichtigungen an Mitarbeitende und nahtlose Bestandsabfragen und entwickelte sich von Beacon‑Gimmicks zu einem vollwertigen smarten Assistenten . Dieser experimentelle Ansatz, gefördert vom CMO Craig Brommers, fördert eine KI‑Kultur für Personalisierung im großen Maßstab .

Ergebnisse

  • Zweistellige Conversion-Steigerungen durch KI‑Personalisierung
  • 11% Wachstum der vergleichbaren Verkäufe für die Marke Aerie im Q3 2025
  • 4% Anstieg der gesamten vergleichbaren Verkäufe im Q3 2025
  • 29% EPS‑Wachstum auf $0,53 im Q3 2025
  • Verdoppelte Anprobewahrscheinlichkeit in Ankleidekabinen durch frühe Technik
  • Rekordumsatz im Q3 von $1,36 Mrd.
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Intent-Classifier für eingehende Tickets mit ChatGPT aufbauen

Beginnen Sie damit, ChatGPT als Intent-Classifier für alle eingehenden Tickets zu verwenden – kanalunabhängig. Ziel ist, dass jede E-Mail, jede Chat-Nachricht und jede Formularanfrage automatisch mit einer standardisierten Intention wie „Passwort zurücksetzen“, „Bestellstatus“, „Frage zur Rechnung“ oder „Hilfe bei Produktnutzung“ gekennzeichnet wird. Das ist die Grundlage für Routing und Automatisierung.

Eine einfache Implementierung erfolgt über eine Integration zwischen Ihrem Helpdesk (z. B. Zendesk, Freshdesk, ServiceNow) und der ChatGPT-API. Für jedes neue Ticket senden Sie Betreff, Inhalt und ausgewählte Metadaten an ChatGPT mit der strikten Anweisung, genau ein Intent-Label aus einer vordefinierten Liste zurückzugeben.

Beispiel für einen System-Prompt:
Sie sind ein Klassifizierer für Kundenservice-Tickets.
Sie erhalten den vollständigen Text einer Kundenanfrage.
Sie MÜSSEN genau eines der folgenden Intent-Labels zurückgeben:
- PASSWORD_RESET
- ORDER_STATUS
- CHANGE_DELIVERY
- INVOICE_REQUEST
- PRODUCT_HOWTO
- OTHER_COMPLEX

Beispiel für eine Nutzer-Nachricht:
Betreff: Ich kann mich nicht mehr in mein Konto einloggen
Text: Hallo, ich habe mein Passwort vergessen und kann mich nicht mehr einloggen. Können Sie mir helfen?

Erwartete Ausgabe:
PASSWORD_RESET

Wenn dies zuverlässig läuft, konfigurieren Sie in Ihrem Helpdesk automatische Routing-Regeln auf Basis des Intent-Labels: Einige Tickets gehen direkt in automatisierte Flows, andere in spezifische Warteschlangen und nur komplexe in Queues für Senior-Agents.

Geführte Self-Service-Flows für die wichtigsten Intents mit geringem Wert erstellen

Für die 3–5 volumenstärksten Intentionen mit geringem Wert sollten Sie ChatGPT-gestützte Self-Service-Flows gestalten, die das Problem ohne Mitarbeitende lösen. Typische Kandidaten sind Passwort-Resets, Bestellstatus-Abfragen, Rechnungsdownloads und einfache Konfigurationsanleitungen.

Technisch verbinden Sie ChatGPT hierfür über APIs mit Ihren internen Systemen. Beispiel für den Bestellstatus:

Beispiel für einen System-Prompt:
Sie sind ein Assistent für Bestellstatus. Wenn die Nutzerin oder der Nutzer eine Bestellnummer
oder E-Mail-Adresse angibt, rufen Sie das Tool `get_order_status` auf.
Beantworten Sie die Anfrage anschließend in klarer, freundlicher Sprache.
Wenn Sie keine Bestellung finden, fragen Sie nach weiteren Details und eskalieren Sie dann.

Tool-Definition (Pseudo):
get_order_status(order_id oder email) - gibt Status, ETA, tracking_link zurück

Konversationsausschnitt:
Nutzer: Wo ist meine Bestellung #458921?
Assistent (intern): Ruft get_order_status mit 458921 auf
Assistent: Ich habe Ihre Bestellung #458921 gefunden. Sie ist unterwegs und wird voraussichtlich am Donnerstag zugestellt.
Sie können sie hier verfolgen: <tracking_link>

Konfigurieren Sie Ihr Web-Widget oder Portal so, dass Nutzerinnen und Nutzer bei Auswahl von „Meine Bestellung verfolgen“ in diesen geführten Flow einsteigen. Messen Sie die Abschlussquote und den Prozentsatz der Sitzungen, die enden, ohne dass ein Ticket erstellt wird.

ChatGPT zum Verfassen von Antwortentwürfen für verbleibende Tickets mit geringem Wert nutzen

Nicht jedes Ticket mit geringem Wert lässt sich sofort vollständig automatisieren. Für jene, die weiterhin einen menschlichen Touch benötigen, nutzen Sie ChatGPT als Agent Copilot, der das Ticket liest, relevante Wissensdatenbank-Einträge heranzieht und einen Antwortvorschlag für die Mitarbeitenden formuliert.

Binden Sie in Ihre Ticket-Ansicht einen Button „Mit KI entwerfen“ ein. Das Backend ruft ChatGPT mit dem Ticketinhalt und Links zu relevanten internen Artikeln auf und liefert eine vorgeschlagene Antwort in der Tonalität Ihrer Marke zurück.

Beispiel für einen System-Prompt:
Sie sind ein Kundenservice-Copilot. Schreiben Sie kurze, freundliche E-Mail-Antworten
im Stil von <Unternehmen>. Verwenden Sie die bereitgestellten Wissensdatenbank-Auszüge.
Wenn Informationen fehlen, schlagen Sie Rückfragen vor, die die oder der Agent stellen kann.

Eingaben:
- Tickettext
- Relevante Wissensdatenbank-Auszüge

Ausgabe:
- E-Mail-Betreff
- E-Mail-Text

Schulen Sie Ihre Mitarbeitenden darin, diese Entwürfe schnell zu prüfen und freizugeben. Messen Sie, wie sich dadurch die Bearbeitungszeit für repetitive Fälle reduziert und wie neue Formulierungen und Randfälle zurück in Ihren Automatisierungs-Backlog fließen.

Ticket-Zusammenfassungen und Priorisierung automatisieren

Auch wenn ein Ticket an eine:n Agent:in gehen muss, können Sie die Bearbeitungszeit verkürzen, indem Sie eine von ChatGPT generierte Zusammenfassung und eine Prioritätsbewertung bereitstellen. Zusammenfassungen helfen Mitarbeitenden, sich in wenigen Sekunden zu orientieren, während Prioritätslabels sicherstellen, dass dringende oder wertvolle Anliegen zuerst bearbeitet werden.

Für jedes neue Ticket rufen Sie ChatGPT mit dem vollständigen Gesprächsverlauf auf und lassen sich eine kurze Zusammenfassung, die erkannte Stimmung und eine Prioritätskategorie gemäß Ihren Regeln ausgeben. Speichern Sie diese als benutzerdefinierte Felder in Ihrem Helpdesk.

Beispiel für einen System-Prompt:
Fassen Sie dieses Support-Ticket in 2 Sätzen zusammen.
Geben Sie anschließend Folgendes aus:
- sentiment: POSITIVE | NEUTRAL | NEGATIVE
- priority: LOW | MEDIUM | HIGH basierend auf:
  * HIGH: Ausfall, Zahlungsprobleme, VIP-Kunde, rechtliches Risiko
  * MEDIUM: Bestellprobleme, moderate Beschwerden
  * LOW: allgemeine Fragen, Feedback, geringfügige Themen

Geben Sie ausschließlich JSON zurück.

Nutzen Sie diese Felder, um Warteschlangen zu sortieren, Alerts für Tickets mit hoher Priorität auszulösen und Tickets mit niedriger Priorität und geringem Wert in KI-unterstützte Queues zu routen, in denen Mitarbeitende sie gebündelt bearbeiten können.

Prompts und Wissen kontinuierlich anhand realer Tickets verfeinern

Eine ChatGPT-Einführung ist kein „Set-and-Forget“-Projekt. Um Genauigkeit und Deflection-Raten zu halten, brauchen Sie einen Feedback-Loop zwischen realen Tickets, Ihrem Prompt-Design und Ihrer Wissensdatenbank. Benennen Sie eine:n interne:n Verantwortliche:n oder ein kleines Team, das regelmäßig fehlklassifizierte Intentionen, schlechte automatisierte Antworten und häufige Agenten-Korrekturen an KI-Entwürfen überprüft.

Operativ kann dies wie eine wöchentliche „KI-Sprechstunde“ aussehen:

  • Export einer Stichprobe von Tickets, bei denen Kundinnen oder Kunden den Support nach Nutzung des Self-Service erneut kontaktiert haben.
  • Analyse, welche Intentionen falsch erkannt oder welche Antworten unvollständig waren.
  • Aktualisierung der Wissensdatenbank und Prompts mit klareren Anweisungen und Beispielen.
  • Erneutes Testen mit denselben Tickets, um verbesserte Performance sicherzustellen.

Mit der Zeit verschiebt dieser kontinuierliche Verbesserungsprozess immer mehr Tickets mit geringem Wert aus der Kategorie „durch Mitarbeitende bearbeitet“ in die Kategorie „vollständig automatisiert“.

Deflection und Qualität mit klaren, KI-spezifischen KPIs messen

Um den Nutzen zu belegen und Investitionen zu steuern, sollten Sie eine kleine Anzahl an KPIs definieren, die speziell auf Ihr KI-gestütztes Ticket-Triage zugeschnitten sind. Mindestens sollten Sie messen: den Prozentsatz automatisch gelöster Tickets, den Prozentsatz ohne manuelles Triage gerouteter Tickets, die Bearbeitungszeitreduktion für Tickets mit geringem Wert und den CSAT für KI-bearbeitete Interaktionen.

Richten Sie Dashboards (in Ihrem Helpdesk oder BI-Tool) ein, die Zeiträume vor und nach Einführung von ChatGPT nach Intention segmentiert vergleichen. So könnten Sie zum Beispiel feststellen, dass Tickets zum „Bestellstatus“ innerhalb von drei Monaten 70–80 % vollständige Self-Service-Lösungsquote erreichen, während „Produkt-How-to“-Tickets sich bei 40–50 % Automatisierung einpendeln und durch KI-gestützte Entwürfe dennoch deutlich besser unterstützt werden.

Typische Zielgrößen für eine gut umgesetzte Implementierung liegen bei 20–40 % Deflection von Tickets mit geringem Wert innerhalb von 3–6 Monaten, 30–50 % kürzerer Bearbeitungszeit für verbleibende einfache Fälle und messbaren Verbesserungen der Erstreaktionszeit für komplexe Tickets, da die Warteschlangen entlastet werden.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

ChatGPT eignet sich besonders für strukturierte, repetitive Anfragen, bei denen die Antwort aus klaren Regeln, einer Wissensdatenbank oder bestehenden Systemen abgeleitet werden kann. Häufige Beispiele sind:

  • Passwort-Zurücksetzungen und Login-Hilfe (oft durch Begleitung in bestehenden Flows)
  • Fragen zu Bestellstatus und Lieferung über eine Integration mit Ihrem Bestellsystem
  • Rechnungskopien, Adressänderungen oder Abonnementinformationen
  • Einfache Produktanleitungen und How-to-Fragen

Für diese Kategorien kann ChatGPT die Anfrage entweder vollständig im Self-Service lösen oder eine hochwertige Antwort für eine:n Agent:in vorbereiten – und so die Zeit für Tickets mit geringem Wert drastisch reduzieren.

Die Zeitpläne hängen von Ihrer Systemlandschaft und Ihrem Anspruch ab, aber ein fokussierter erster Rollout dauert in der Regel Wochen, nicht Monate. Ein typischer Fahrplan sieht so aus:

  • Woche 1: Identifikation der wichtigsten Intentionen mit geringem Wert, Mapping der aktuellen Flows, Definition von Erfolgskennzahlen.
  • Wochen 2–3: Implementierung von ChatGPT-basierter Intent-Klassifikation und grundlegenden Routing-Regeln; Rollout eines internen Agent-Copilots für einen Ticket-Subset.
  • Wochen 3–6: Aufbau von 1–3 vollständig automatisierten Flows (z. B. Bestellstatus, Rechnungskopie), Integration mit Backend-Systemen und Start eines kontrollierten Rollouts.

Weitere, fortgeschrittene Automatisierung und die Abdeckung zusätzlicher Intentionen können anschließend schrittweise ergänzt werden. Das KI-PoC-Angebot von Reruption ist darauf ausgelegt, die Machbarkeit zu validieren und innerhalb dieses Zeitrahmens einen funktionierenden Prototyp zu liefern.

Sie brauchen kein großes KI-Lab, aber einige Kernkompetenzen sind wichtig. Auf der technischen Seite benötigen Sie Zugriff auf Entwickler:innen oder Integrationsspezialist:innen, die ChatGPT-APIs mit Ihrem Helpdesk, CRM und Ihren Kernsystemen verbinden können. Auf der Business-Seite brauchen Sie eine:n Product Owner im Kundenservice, die oder der Workflows, Schmerzpunkte und KPIs versteht.

Zusätzlich sollte jemand für Prompt-Engineering und die Qualität der Wissensdatenbank verantwortlich sein – diese Person verfeinert Prompts, kuratiert Beispiele und stellt sicher, dass automatisierte Antworten zu Ihren Richtlinien und Ihrer Tonalität passen. Mit dieser Kombination, ergänzt um externe Unterstützung bei Architektur und Best Practices, können die meisten Organisationen einen KI-gestützten Support-Stack effektiv betreiben und weiterentwickeln.

Realistische Ergebnisse hängen von Ihrem Ausgangspunkt und Ihrem Ticket-Mix ab, aber bei Organisationen mit einem hohen Anteil repetitiver Anfragen sieht man häufig:

  • 20–40 % Reduktion der Tickets mit geringem Wert, die Mitarbeitende erreichen, innerhalb von 3–6 Monaten.
  • 30–50 % kürzere Bearbeitungszeit für verbleibende einfache Tickets durch KI-gestützte Entwürfe und Zusammenfassungen.
  • Spürbare Verbesserungen der Erstreaktionszeit für komplexe Fälle, da die Warteschlangen weniger überlastet sind.

Auf der Kostenseite ergeben sich Einsparungen durch weniger Agentenstunden für repetitive Arbeit und die Möglichkeit, Volumenwachstum ohne proportionalen Personalaufbau aufzufangen. Zusätzliche Vorteile zeigen sich häufig in höheren CSAT- und NPS-Werten, da Kundinnen und Kunden einfache Anliegen sofort lösen können, statt hinter vermeidbaren Tickets warten zu müssen.

Reruption arbeitet als Co-Preneur und integriert sich in Ihr Team, um reale KI-Lösungen zu konzipieren und umzusetzen – nicht nur Foliensätze. Für nicht triagierte Tickets mit geringem Wert starten wir typischerweise mit unserem KI-PoC für 9.900 €: Wir definieren den konkreten Use Case (z. B. Intent-Klassifikation plus 1–2 automatisierte Flows), validieren die technische Machbarkeit in Ihren Systemen und liefern einen funktionierenden Prototyp inklusive Performance-Kennzahlen und Produktionsplan.

Darauf aufbauend unterstützen wir Sie mit praxisnaher KI-Entwicklung, Integration und Enablement – wir verbinden ChatGPT mit Ihrem Helpdesk und Ihren Backend-Systemen, designen Prompts und Guardrails und coachen Ihr Kundenservice-Team im Betrieb und in der Weiterentwicklung der neuen Workflows. Unser Fokus liegt darauf, KI-first-Fähigkeiten direkt in Ihrer Organisation aufzubauen, sodass Sie Automatisierung und Triage kontinuierlich ausweiten können.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media