Die Herausforderung: Kanalhoppende Kund:innen

Wenn Kund:innen in einem Supportkanal keine schnelle, klare Antwort bekommen, versuchen sie es einfach in einem anderen. Dieselbe Person schreibt möglicherweise den Support per E-Mail an, startet einen Website-Chat und ruft anschließend Ihre Hotline wegen genau desselben Problems an. Jeder Kontaktpunkt wird oft zu einem separaten Ticket, bearbeitet von unterschiedlichen Agent:innen in verschiedenen Tools. Das Ergebnis: Ihr Team bekämpft die Illusion von hohem Volumen statt echter Komplexität.

Traditionelle Ansätze – mehr Agent:innen einstellen, SLAs verschärfen oder statische FAQs veröffentlichen – lösen dieses Muster nicht mehr. Kund:innen erwarten sofortige, konsistente Antworten, egal wo und zu welcher Tageszeit sie auftauchen. Alte Wissensdatenbanken, nicht verbundene Chatbots und isolierte IVR-Skripte am Telefon erzählen alle leicht unterschiedliche Geschichten. Selbst wenn die Inhalte korrekt sind, sind sie selten auf den konkreten Kontext der Kund:innen zugeschnitten oder so formuliert, dass sie diese davon abhalten, „zur Sicherheit“ noch einen anderen Kanal zu nutzen.

Die Auswirkungen auf das Unternehmen sind erheblich. Kanal-Hopping bläht in vielen Organisationen das Ticketvolumen um 20–40 % auf, verzerrt KPIs und erschwert die Einsatzplanung. Agent:innen verschwenden Zeit damit, Fälle zu deduplizieren und abzugleichen, statt echte Probleme zu lösen. Kund:innen erhalten widersprüchliche oder wiederholte Antworten, was Vertrauen untergräbt und das Abwanderungsrisiko erhöht. In der Skalierung führt dies zu höheren Kosten pro Kontakt, längeren Lösungszeiten und einem Wettbewerbsnachteil gegenüber Unternehmen, die ein reibungsloses, einheitliches Supporterlebnis bieten.

Die gute Nachricht: Dieses Problem ist lösbar. Indem Sie Gemini als einheitliche Intelligenzschicht über Website, App und Telefonflüssen einsetzen, können Sie überall dieselbe hochwertige Antwort bereitstellen und die meisten einfachen Anliegen klären, bevor sie eine:n Agent:in erreichen. Bei Reruption haben wir Organisationen dabei unterstützt, KI-gestützte Assistenten aufzubauen, wiederkehrende Supportprozesse zu automatisieren und vermeidbare Kontakte zu reduzieren. Im weiteren Verlauf dieser Seite finden Sie praxisnahe Hinweise, wie Sie Gemini in Ihrem eigenen Kundenservice einsetzen und Kanal-Hopping endlich in den Griff bekommen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s Arbeit beim Aufbau von KI-gestützten Kundenservice-Lösungen und intelligenten Chatbots wissen wir: Kanal-Hopping ist selten ein Personalproblem – es ist ein Problem von Erlebnis und Konsistenz. Gemini eignet sich besonders gut als einheitliches „Gehirn“ hinter Ihren Self-Service-, Chat- und IVR-Touchpoints, weil es dieselbe Wissensbasis nutzen und kanaladäquat antworten kann. Im Folgenden zeigen wir, wie Führungskräfte aus unserer Sicht über den Einsatz von Gemini nachdenken sollten, um Kanal-Hopping zu reduzieren und Supportvolumen nachhaltig zu deflektieren.

In Journeys denken, nicht in Kanälen

Die meisten Organisationen gestalten Support noch entlang interner Strukturen: hier eine Ticket-Queue, dort ein Chat-Widget, oben drauf ein IVR-Baum. Um Gemini für kanalhoppende Kund:innen wirksam zu nutzen, müssen Sie die Perspektive wechseln und die vollständige Journey eines typischen Anliegens abbilden: Suche auf der Website, Versuch in der In-App-Hilfe, Webchat, dann Telefon. So wird sichtbar, wo Kund:innen aussteigen, sich wiederholen oder widersprüchliche Botschaften erhalten.

Wenn Sie diese Journeys verstanden haben, können Sie Gemini als einheitliche Antwortschicht positionieren, die Kund:innen über alle Touchpoints hinweg begleitet. Strategisch bedeutet das, dass sich Kundenservice-Führung, Produktteam und IT auf ein gemeinsames Ergebnis einigen (z. B. „Problemlösung im ersten Kontakt“) statt auf kanalbezogene KPIs (z. B. „Reduktion der durchschnittlichen Gesprächsdauer im Telefonkanal“). Es bedeutet auch, dass Sie jene Journeys priorisieren, die die meisten doppelten Tickets erzeugen, statt von Tag eins an jede mögliche Frage abdecken zu wollen.

Eine Single Source of Truth für alle KI-Antworten nutzen

Der größte Treiber für Kanal-Hopping ist Inkonsistenz: Die FAQ sagt das eine, der Chatbot etwas anderes und die Telefonagent:innen wieder etwas anderes. Um das zu durchbrechen, sollten Sie Gemini als Orchestrator behandeln, der auf einer einzigen, gesteuerten Wissensbasis aufsetzt. Diese kann aus Helpcenter, Richtliniendokumenten und Produktdaten bestehen – sie muss aber kuratiert, versioniert und klar verantwortet sein.

Weisen Sie strategisch eine bereichsübergreifende Content-Verantwortung zu (oft im Kundenservice), die für die Antwortqualität über alle Kanäle hinweg verantwortlich ist. Gemini greift dann genau auf diese Quelle für E-Mail-Entwürfe, Chat-Antworten und IVR-Erklärungen zu. Das reduziert rechtliche und Compliance-Risiken und sorgt dafür, dass Aktualisierungen (z. B. neue Preise, geänderte Richtlinien) überall sofort wirken – und damit einen zentralen Grund für „Doppelchecks“ über andere Kanäle beseitigen.

Für Deflektion designen, ohne Vertrauen zu opfern

Supportvolumen zu deflektieren ist nur dann wertvoll, wenn das Vertrauen der Kund:innen erhalten oder sogar gestärkt wird. Zu aggressive Bots, die den Zugang zu Menschen blockieren, treiben Kund:innen schlicht in andere Kanäle oder zur Abwanderung. Wenn Sie Gemini-gestützten Self-Service planen, definieren Sie klare Leitplanken: Welche Themen sollen vollständig automatisiert gelöst werden, welche brauchen angeleitete Selbsthilfe und welche sollten zügig an Menschen übergeben werden.

Auf strategischer Ebene sollten Sie Erwartungen transparent steuern. Machen Sie deutlich, dass es sich um einen KI-Assistenten handelt, zeigen Sie klar, wie bei Bedarf ein Mensch erreicht werden kann, und stellen Sie sicher, dass Gemini das Gespräch für die Agent:innen zusammenfasst, damit Kund:innen sich nie wiederholen müssen. So stärken Sie das Vertrauen in die KI und schützen gleichzeitig Ihr Markenerlebnis.

Kundenservice, IT und Compliance frühzeitig ausrichten

Die Einführung von Gemini in Kundenservice-Prozesse berührt mehrere Teams: Service Operations, IT, Datensicherheit und oft auch die Rechtsabteilung. Treffen diese Stakeholder erst zum Go-Live aufeinander, drohen Verzögerungen, unklare Verantwortlichkeiten und halb implementierte Fähigkeiten. Behandeln Sie die Einführung von Gemini stattdessen als bereichsübergreifende Initiative mit klarer Sponsor:in und definierten Entscheidungswegen.

Stimmen Sie von Anfang an ab, wie Daten genutzt werden (was Gemini sehen darf), welche Logging- und Monitoringanforderungen gelten und welche Eskalationsregeln greifen. So schaffen Sie die Grundlage für sicheres Experimentieren: Ihr Serviceteam kann Prompts und Workflows iterieren; die IT sichert Performance und Integrationsstabilität ab; Compliance gibt grünes Licht für die Verarbeitung von Kundendaten. Das Ergebnis sind schnellere Lernzyklen und weniger Reibung beim Übergang vom Pilot zur Skalierung.

Duplikate und Kanal-Hopping explizit messen

Viele Customer-Service-Dashboards konzentrieren sich auf hochaggregierte Kennzahlen wie Gesamtvolumen oder durchschnittliche Bearbeitungszeit. Um zu verstehen, ob Gemini Kanal-Hopping tatsächlich reduziert, brauchen Sie spezifische Metriken: Rate doppelter Tickets pro Anliegenart, Anzahl der genutzten Kanäle pro eindeutigem Kundenproblem und Zeit bis zur ersten wirksamen Antwort (nicht nur bis zur ersten Reaktion).

Definieren Sie diese Kennzahlen idealerweise vor der Einführung von Gemini, um eine belastbare Ausgangsbasis zu haben. Instrumentieren Sie Ihre Systeme so, dass Interaktionen über Identifikatoren wie Kund:innen-ID, E-Mail oder Session-Tokens verknüpft werden können. So sehen Sie, wie häufig eine Anfrage, die im Gemini-Chatbot startet, später noch als Telefonanruf endet. Indem Sie dies über die Zeit beobachten, können Sie Inhalte, Prompts und Workflows dort nachschärfen, wo die Deflektion noch nicht stark genug ist – und die Wirkung gegenüber der Organisation mit belastbaren Daten statt Anekdoten belegen.

Sorgfältig eingesetzt kann Gemini zum konsistenten „Gehirn“ hinter all Ihren Supportkanälen werden und jene Lücken und Widersprüche schließen, die Kund:innen zum Hopping zwischen E-Mail, Chat und Telefon treiben. Indem Sie Journeys, Wissen und Metriken ausrichten, verwandeln Sie KI von einem isolierten Chatbot in eine echte Engine zur Volumendeflektion. Reruption bringt die Kombination aus tiefgehender KI-Engineering-Expertise und praktischer Kundenservice-Erfahrung ein, um diese Gemini-gestützten Workflows End-to-End zu designen und zu implementieren; wenn Sie testen möchten, wie das in Ihrer Umgebung aussieht, ist unser KI-PoC ein schneller, risikoarmer Weg, um von der Idee zu einem funktionierenden Prototypen zu kommen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Bankwesen bis Finanzdienstleistungen: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

JPMorgan Chase

Bankwesen

In der hochdynamischen Welt des Asset Management und der Vermögensverwaltung bei JPMorgan Chase waren Berater mit erheblichen zeitlichen Belastungen durch manuelle Recherche, Dokumentenzusammenfassungen und Berichtsentwürfe konfrontiert. Die Erstellung von Investmentideen, Marktanalysen und personalisierten Kundenberichten dauerte oft Stunden oder Tage, wodurch die Zeit für Kundeninteraktion und strategische Beratung eingeschränkt wurde. Diese Ineffizienz verstärkte sich nach dem Aufkommen von ChatGPT, sodass die Bank den Bedarf an sicherer, interner KI erkannte, die mit umfangreichen proprietären Daten arbeiten kann, ohne Compliance- oder Sicherheitsrisiken einzugehen. Die Private-Bank-Berater hatten es besonders schwer, sich auf Kundentermine vorzubereiten, sich durch Research-Reports zu arbeiten und maßgeschneiderte Empfehlungen zu erstellen – und das unter regulatorischer Beobachtung und in einer Umgebung mit Datensilos, was die Produktivität und Reaktionsfähigkeit gegenüber Kunden in einem wettbewerbsintensiven Umfeld behinderte.

Lösung

JPMorgan begegnete diesen Herausforderungen durch die Entwicklung der LLM Suite, einer internen Suite aus sieben feinabgestimmten Large Language Models (LLMs), die von generativer KI angetrieben und in eine sichere Dateninfrastruktur integriert sind. Diese Plattform ermöglicht es Beratern, Berichte zu entwerfen, Investmentideen zu generieren und Dokumente schnell zusammenzufassen, wobei proprietäre Daten genutzt werden. Ein spezialisiertes Tool, Connect Coach, wurde für Private-Bank-Berater entwickelt, um bei der Vorbereitung auf Kundengespräche, der Ideenfindung und der Synthese von Research zu unterstützen. Die Implementierung legte starken Wert auf Governance, Risikomanagement und Mitarbeiterschulungen durch KI-Wettbewerbe und 'learning-by-doing'-Ansätze, um eine sichere Skalierung in der gesamten Firma zu gewährleisten. Die LLM Suite wurde schrittweise eingeführt, beginnend mit Proof-of-Concepts und einer anschließenden Ausweitung auf die gesamte Organisation.

Ergebnisse

  • Erreichte Nutzer: 140.000 Mitarbeitende
  • Entwickelte Use Cases: 450+ Proof-of-Concepts
  • Finanzieller Nutzen: Bis zu 2 Mrd. $ an KI-Wert
  • Bereitstellungsgeschwindigkeit: Vom Pilot bis zu 60.000 Nutzern in wenigen Monaten
  • Berater-Tools: Connect Coach für die Private Bank
  • Firmenweite PoCs: Strikte ROI-Messung über 450 Initiativen
Fallstudie lesen →

Cleveland Clinic

Gesundheitswesen

Bei Cleveland Clinic, einem der größten akademischen Medizinzentren, kämpften Ärztinnen und Ärzte mit einer hohen Dokumentationslast und verbrachten bis zu 2 Stunden pro Tag mit elektronischen Gesundheitsakten (EHR), was Zeit für die Patientenversorgung reduzierte. Zusätzlich erschwerte die rechtzeitige Erkennung von Sepsis die Versorgung – eine Erkrankung, die in den USA jährlich fast 350.000 Todesfälle verursacht, wobei frühe, subtile Symptome traditionelle Überwachungsmethoden häufig umgehen und so Verzögerungen bei Antibiotika sowie 20–30% Sterblichkeit in schweren Fällen nach sich ziehen. Die Sepsis‑Erkennung beruhte weitgehend auf manuellen Vitalzeichenkontrollen und klinischem Ermessen und verpasste oft Warnsignale 6–12 Stunden vor Ausbruch. Die Einbindung unstrukturierter Daten wie klinischer Notizen war manuell und inkonsistent, was das Risiko auf stark frequentierten Intensivstationen weiter erhöhte.

Lösung

Die Cleveland Clinic führte einen Pilotversuch mit der KI‑Plattform von Bayesian Health durch – ein prädiktives Analyse‑Tool, das strukturierte und unstrukturierte Daten (Vitalwerte, Laborwerte, Notizen) mittels Machine Learning verarbeitet, um das Sepsis‑Risiko bis zu 12 Stunden früher vorherzusagen und Echtzeit‑EHR‑Alarme für das Klinikpersonal zu erzeugen. Das System nutzt fortgeschrittenes NLP, um klinische Dokumentation nach subtilen Hinweisen zu durchsuchen. Ergänzend testete die Klinik Ambient‑KI‑Lösungen wie Sprache‑zu‑Text‑Systeme (ähnlich Nuance DAX oder Abridge), die passiv Arzt‑Patienten‑Gespräche mitschneiden, NLP für Transkription und Zusammenfassung anwenden und EHR‑Notizen automatisch vorbefüllen, wodurch die Dokumentationszeit um 50% oder mehr sinken kann. Diese Tools wurden in Arbeitsabläufe integriert, um sowohl Vorhersage‑ als auch Verwaltungsaufwände zu reduzieren.

Ergebnisse

  • 12 Stunden frühere Sepsis‑Vorhersage
  • 32% Steigerung der Früherkennungsrate
  • 87% Sensitivität und Spezifität in den KI‑Modellen
  • 50% Reduktion der Dokumentationszeit von Ärztinnen und Ärzten
  • 17% weniger falsch‑positive Ergebnisse im Vergleich zur alleinigen Beurteilung durch Ärzte
  • Nach Pilotphase auf vollständige Einführung ausgeweitet (Sep 2025)
Fallstudie lesen →

Klarna

Fintech

Klarna, ein führender Fintech-BNPL-Anbieter, stand unter enormem Druck durch Millionen von Kundenanfragen in mehreren Sprachen für seine 150 Millionen Nutzer weltweit. Die Anfragen reichten von komplexen Fintech-Themen wie Rückerstattungen, Retouren, Sendungsverfolgung bis hin zu Zahlungen und erforderten hohe Genauigkeit, regulatorische Konformität und 24/7-Verfügbarkeit. Traditionelle menschliche Agenten konnten nicht effizient skalieren, was zu langen Wartezeiten von durchschnittlich 11 Minuten pro Lösung und steigenden Kosten führte. Zusätzlich war es schwierig, personalisierte Einkaufsberatung in großem Maßstab bereitzustellen, da Kunden kontextbewusste, konversationelle Unterstützung über Einzelhandelspartner erwarteten. Mehrsprachiger Support war in Märkten wie den USA, Europa und darüber hinaus kritisch, aber die Einstellung mehrsprachiger Agenten war kostenintensiv und langsam. Dieser Engpass behinderte Wachstum und Kundenzufriedenheit in einem wettbewerbsintensiven BNPL-Sektor.

Lösung

Klarna arbeitete mit OpenAI zusammen, um einen generativen KI-Chatbot auf Basis von GPT-4 als mehrsprachigen Kundenservice-Assistenten einzusetzen. Der Bot bearbeitet Rückerstattungen, Retouren, Bestellprobleme und fungiert als konversationeller Einkaufsberater, nahtlos in Klarna's App und Website integriert. Wesentliche Innovationen umfassten die Feinabstimmung auf Klarnas Daten, retrieval-augmented generation (RAG) für den Echtzeitzugriff auf Richtlinien und Schutzmechanismen zur Einhaltung von Fintech-Vorgaben. Er unterstützt Dutzende von Sprachen, eskaliert komplexe Fälle an Menschen und lernt aus Interaktionen. Dieser KI-native Ansatz ermöglichte eine schnelle Skalierung ohne proportionale Zunahme des Personalbestands.

Ergebnisse

  • 2/3 aller Kundenservice-Chats werden von KI bearbeitet
  • 2,3 Millionen Konversationen im ersten Monat allein
  • Lösungszeit: 11 Minuten → 2 Minuten (82% Reduktion)
  • CSAT: 4,4/5 (KI) vs. 4,2/5 (Menschlich)
  • 40 Mio. US-Dollar jährliche Kosteneinsparungen
  • Entspricht 700 Vollzeit-Angestellten
  • Über 80% der Anfragen werden ohne menschliches Eingreifen gelöst
Fallstudie lesen →

NVIDIA

Fertigung

In Halbleiterfertigung ist das Chip-Floorplanning — die Aufgabe, Makros und Schaltungen auf einem Die anzuordnen — berüchtigt komplex und NP-schwer. Selbst erfahrene Ingenieur:innen verbringen Monate damit, Layouts iterativ zu verfeinern, um Leistung, Performance und Fläche (PPA) auszubalancieren, wobei sie Kompromisse wie Minimierung der Leiterlänge, Dichtebeschränkungen und Routbarkeit austarieren. Traditionelle Werkzeuge kämpfen mit dem explosiven kombinatorischen Suchraum, insbesondere bei modernen Chips mit Millionen von Zellen und Hunderten von Makros, was zu suboptimalen Entwürfen und verzögerter Markteinführung führt. NVIDIA erlebte dieses Problem besonders beim Entwurf leistungsstarker GPUs, bei denen ungünstige Floorplans den Stromverbrauch erhöhen und die Effizienz von KI-Beschleunigern beeinträchtigen. Manuelle Prozesse limitierten die Skalierbarkeit für 2,7 Millionen Zellen-Designs mit 320 Makros und drohten Engpässe in ihrer Roadmap für beschleunigtes Rechnen zu verursachen. Die Überwindung des menschintensiven Trial-and-Error war entscheidend, um die Führungsposition bei KI-Chips zu halten.

Lösung

NVIDIA setzte Deep Reinforcement Learning (DRL) ein, um Floorplanning als sequentiellen Entscheidungsprozess zu modellieren: Ein Agent platziert Makros nacheinander und lernt optimale Strategien durch Ausprobieren. Graph Neural Networks (GNNs) kodieren den Chip als Graph, erfassen räumliche Beziehungen und sagen Auswirkungen von Platzierungen voraus. Der Agent nutzt ein Policy-Netzwerk, das auf Benchmarks wie MCNC und GSRC trainiert wurde, mit Belohnungen, die Half-Perimeter Wirelength (HPWL), Stau und Überlappungen bestrafen. Proximal Policy Optimization (PPO) ermöglicht effiziente Explorationen, die auf verschiedene Designs übertragbar sind. Dieser KI-gesteuerte Ansatz automatisiert, was Menschen manuell tun, kann aber weit mehr Konfigurationen durchsuchen.

Ergebnisse

  • Designzeit: 3 Stunden für 2,7M Zellen vs. Monate manuell
  • Chip-Größe: 2,7 Millionen Zellen, 320 optimierte Makros
  • PPA-Verbesserung: Besser oder vergleichbar mit menschlichen Entwürfen
  • Trainingseffizienz: Unter 6 Stunden Gesamtaufwand für Produktionslayouts
  • Benchmark-Erfolg: Übertrifft auf MCNC/GSRC-Suiten
  • Beschleunigung: 10–30 % schnellere Schaltungen in verwandten RL-Designs
Fallstudie lesen →

Capital One

Bankwesen

Capital One sah sich mit einem hohen Volumen routinemäßiger Kundenanfragen konfrontiert, die ihre Callcenter überschwemmten – darunter Kontostände, Transaktionshistorien und grundlegende Supportanfragen. Das führte zu steigenden Betriebskosten, Überlastung der Agenten und frustrierenden Wartezeiten für Kunden, die sofortige Hilfe erwarteten. Traditionelle Callcenter arbeiteten nur eingeschränkt rund um die Uhr und konnten die Anforderungen an 24/7-Verfügbarkeit im wettbewerbsintensiven Bankenmarkt, in dem Tempo und Komfort zentral sind, nicht erfüllen. Zusätzlich erschwerten die branchenspezifische Finanzterminologie und regulatorische Vorgaben die Lage, wodurch Standard-AI-Lösungen unzureichend waren. Kunden erwarteten personalisierte, sichere Interaktionen, doch die Skalierung menschlicher Unterstützung war angesichts der wachsenden Nutzung digitaler Bankangebote nicht nachhaltig.

Lösung

Capital One begegnete diesen Problemen durch die Entwicklung von Eno, einem proprietären konversationellen KI-Assistenten, der auf firmeneigener NLP beruht und für Banking-Vokabular angepasst wurde. Ursprünglich 2017 als SMS-Chatbot eingeführt, wurde Eno auf mobile Apps, Weboberflächen und Sprachintegration mit Alexa ausgeweitet und ermöglicht Multichannel-Support per Text oder Sprache für Aufgaben wie Kontostandsabfragen, Ausgabenanalysen und proaktive Benachrichtigungen. Das Team meisterte die Terminologie-Herausforderungen durch die Entwicklung domänenspezifischer NLP-Modelle, die auf Capital One–Daten trainiert wurden und so natürliche, kontextbewusste Gespräche gewährleisteten. Eno eskaliert komplexe Anfragen nahtlos an Agenten und bietet gleichzeitig Betrugsschutz durch Echtzeitüberwachung – bei gleichbleibend hohen Sicherheitsstandards.

Ergebnisse

  • 50% Reduzierung des Callcenter-Kontaktvolumens bis 2024
  • Rund-um-die-Uhr-Verfügbarkeit, die jährlich Millionen von Interaktionen abwickelt
  • Über 100 Millionen verarbeitete Kundengespräche
  • Bedeutende Einsparungen bei den Betriebskosten im Kundenservice
  • Beinahe sofortige Antwortzeiten bei Routineanfragen
  • Verbesserte Kundenzufriedenheit durch personalisierten Support
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Wissensbasis vereinheitlichen, bevor Sie Gemini anbinden

Bevor Sie Gemini an jeden Customer-Touchpoint anschließen, sollten Sie die Quellen konsolidieren, aus denen es seine Antworten bezieht. Identifizieren Sie Ihr zentrales Helpcenter, interne FAQs, Richtliniendokumente und Produkt-Handbücher und führen Sie diese in einer strukturierten, aktuellen Support-Wissensbasis zusammen. Entfernen Sie Dubletten, markieren Sie veraltete Inhalte und ergänzen Sie fehlende Abdeckung für Ihre Top-20-Kontaktgründe.

Konfigurieren Sie anschließend Gemini so, dass nur diese vereinheitlichte Quelle indexiert oder abgefragt wird. Wenn Sie Retrieval-Augmented Generation (RAG) nutzen, definieren Sie Dokumentkollektionen (z. B. Billing, Bestellungen, technisches Setup) und fügen Sie Metadaten-Tags wie Sprache, Region, Produktlinie und Gültigkeitsdaten hinzu. So stellen Sie sicher, dass Gemini – egal ob im Webchat, als In-App-Assistent oder automatischer E-Mail-Responder – immer auf dieselbe kanonische Wahrheit zugreift.

Gemini im Webchat einbetten, um einfache Anfragen zu beantworten und zu halten

Webchat ist oft der erste Kontaktpunkt für digitale Kund:innen – und ein häufiger Ausgangspunkt für Kanal-Hopping. Betten Sie einen Gemini-gestützten virtuellen Agenten in Ihr Chat-Widget ein mit dem Ziel, häufige Fragen bereits im ersten Kontakt zu lösen oder deutlich voranzubringen. Starten Sie mit Ihren häufigsten, wenig komplexen Themen: Passwort-Resets, Sendungsverfolgung, Rechnungsduplikate, Terminverschiebungen oder grundlegende Fehlerbehebung.

Setzen Sie Leitplanken, indem Sie Intent-Erkennung und Übergabetrigger konfigurieren (z. B. wenn Kund:innen explizit nach einem Menschen fragen oder bestimmte Schlüsselwörter wie „Beschwerde“ oder „Kündigung“ verwenden). Wenn eine Eskalation nötig ist, sollte Gemini das gesamte Gespräch für die Agent:innen zusammenfassen und über Ihr CRM übergeben, damit sich Kund:innen nicht wiederholen müssen – ein entscheidender Schritt, um zu verhindern, dass sie aus Frust in einen anderen Kanal springen.

Beispiel für ein Gemini-Systemprompt im Chat:
Sie sind ein Kundenservice-Assistent für [Unternehmen].
- Antworten Sie ausschließlich auf Basis der bereitgestellten Ausschnitte aus der Wissensbasis.
- Wenn Informationen fehlen, stellen Sie eine klärende Rückfrage und bieten Sie dann an, an eine:n menschliche:n Agent:in zu übergeben.
- Bestätigen Sie in Ihrer ersten Antwort immer das Hauptziel der Kundin / des Kunden.
- Wenn Sie das Anliegen lösen, benennen Sie das Ergebnis klar und fassen Sie die nächsten Schritte zusammen.
- Wenn Sie eskalieren, erzeugen Sie eine kurze Zusammenfassung für die Agent:innen mit:
  - Ziel der Kundin / des Kunden
  - Wichtigen Details (Bestell-ID, Produkt, Daten)
  - Bereits im Chat unternommenen Schritten
  - Stimmung der Kundin / des Kunden (positiv/neutral/negativ)

Gemini nutzen, um konsistente E-Mail-Antworten aus demselben Wissen zu erstellen

E-Mail-Queues sind oft der Ort, an dem doppelte Tickets unbemerkt anwachsen. Integrieren Sie Gemini in Ihr Ticketsystem, damit es eingehende E-Mails lesen, relevante Ausschnitte aus derselben zentralen Wissensbasis ziehen und einen Antwortentwurf zur Prüfung durch die Agent:innen erstellen kann. So bleiben Tonalität, Struktur und Inhalt konsistent mit dem, was Ihr Chatbot oder Ihr IVR kommuniziert.

Definieren Sie Vorlagen für Ihre wichtigsten Kontaktgründe und lassen Sie Gemini Details (Bestellnummern, Produktnamen, Fristen) anhand der Ticket-Metadaten ausfüllen. Nutzen Sie ein kurzes Systemprompt, um Richtlinientreue zu erzwingen und zu verhindern, dass Gemini Zusagen macht, die außerhalb Ihrer Regeln liegen.

Beispiel für ein Gemini-Systemprompt zur E-Mail-Erstellung:
Sie verfassen E-Mail-Antworten für das Kundenservice-Team.
- Verwenden Sie dieselben Richtlinien und Informationen wie der Support-Chatbot.
- Schreiben Sie knapp, klar und freundlich. Vermeiden Sie Fachjargon.
- Erfinden Sie keine Richtlinien, Preise oder Fristen.
- Wenn das Anliegen nicht vollständig per E-Mail gelöst werden kann, schlagen Sie den nächsten konkreten Schritt vor.
Input:
- E-Mail der Kundin / des Kunden
- Relevante Ausschnitte aus der Wissensbasis
- Ticket-Metadaten (Name, Bestell-ID, Produkt)

IVR und Telefon-Support mit Gemini-Zusammenfassungen erweitern

Das Telefon bleibt ein kritischer Kanal, insbesondere für hochwertige oder dringende Anliegen, ist aber auch ein typischer letzter Ausweg, wenn Self-Service scheitert. Zwar kann Gemini Anrufe nicht direkt entgegennehmen, Sie können es aber in Ihre IVR-Flows und den Agent:innen-Desktop integrieren. Erfassen Sie beispielsweise kurze Problembeschreibungen per Speech-to-Text in der IVR und lassen Sie Gemini dann die Intention klassifizieren und wissensbasierte Antwortvorschläge generieren, die die IVR ausspielen kann.

Für Anrufe, die bei Agent:innen landen, können Sie Gemini in Echtzeit Zusammenfassungen und Antwortempfehlungen auf Basis des Gesprächstranskripts erstellen lassen. Das reduziert die Nachbearbeitungszeit und stellt sicher, dass Ihre Systeme bei späteren Folgekontakten per E-Mail oder Chat über eine konsistente, KI-generierte Zusammenfassung verfügen, an die andere Kanäle anknüpfen können – und minimiert so das Risiko widersprüchlicher Antworten erheblich.

Beispiel für ein Gemini-Prompt zur Gesprächszusammenfassung:
Sie fassen Kundenservice-Telefonate zusammen.
Erzeugen Sie:
- Eine 2–3-sätzige Zusammenfassung des Anliegens
- Wichtige Datenpunkte (IDs, Daten, Produkte) als Stichpunktliste
- Die Hauptursache in einem kurzen Satz
- Nächste Schritte und Verantwortlichkeit (Kund:in vs. Unternehmen)
Die Zusammenfassung sollte für jede:n Support-Mitarbeiter:in verständlich sein, die / der eine spätere Folgeanfrage per E-Mail oder Chat bearbeitet.

Interaktionen verknüpfen, um doppelte Tickets zu verhindern

Um Kanal-Hopping direkt anzugehen, konfigurieren Sie Ihre Systeme so, dass Gemini erkennen kann, wenn eine neue Interaktion wahrscheinlich ein Duplikat eines bestehenden Falls ist. Nutzen Sie gemeinsame Identifikatoren (E-Mail, Telefonnummer, Kund:innen-ID oder authentifizierte App-Session) und lassen Sie Gemini die neue Nachricht mit offenen Tickets vergleichen. Wenn die Ähnlichkeit hoch ist, schlagen Sie vor, sie mit dem bestehenden Ticket zu verknüpfen, statt ein neues zu eröffnen.

Auf Kund:innenseite können Sie Ihren Gemini-Chatbot so instruieren, dass er bestehende Fälle aktiv anspricht: „Ich sehe, dass wir bereits an Ihrem Anliegen zu [Zusammenfassung] arbeiten. Hier ist der aktuelle Status…“ Schon das allein verhindert viele „Ich wollte nur nachfragen“-Anfragen über andere Kanäle. Auf Agent:innenseite können Sie im Ticket-Interface einen Hinweis einblenden: „Mögliches Duplikat von Ticket #12345 – gleiche Kund:in, ähnliche Beschreibung“, inklusive einer von Gemini generierten Begründung.

KPIs und Feedbackschleifen für kontinuierliches Tuning etablieren

Wenn Gemini kanalübergreifend live ist, sollten Sie es als Produkt behandeln – nicht als einmaliges Projekt. Definieren Sie KPIs wie Deflektionsrate für die Top-10-Intents, Rate doppelter Tickets pro Anliegenart, durchschnittliche Anzahl der Kanäle pro gelöstem Anliegen und Kundenzufriedenheit für KI-bearbeitete Interaktionen. Dashboards sollten es Operations-Verantwortlichen leicht machen zu sehen, welche Journeys gut funktionieren und welche weiterhin Kanal-Hopping auslösen.

Implementieren Sie eine schlanke Feedbackschleife: Ermöglichen Sie Agent:innen, KI-Vorschläge als hilfreich oder nicht hilfreich zu markieren, und lassen Sie Kund:innen KI-Chat-Gespräche bewerten. Überprüfen Sie regelmäßig schwach performende Intents und aktualisieren Sie entsprechend Wissensbasis, Prompts oder Workflows. Im Zeitverlauf kann dieses Tuning realistisch 15–30 % weniger doppelte Tickets, kürzere Lösungszeiten für einfache Anliegen und eine spürbar bessere wahrgenommene Reaktionsfähigkeit liefern – ohne zusätzliches Personal.

Erwartetes Ergebnis: Durch die Vereinheitlichung des Wissens, die Einbettung von Gemini in Chat-, E-Mail- und Telefon-Workflows und das aktive Verknüpfen zusammenhängender Interaktionen sehen Organisationen typischerweise innerhalb von 4–8 Wochen fokussierter Umsetzung eine Reduktion von Duplikat-Tickets und Kanal-Hopping. Das entlastet Agent:innen für komplexe Fälle und verbessert die Kundenzufriedenheit insgesamt.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini reduziert Kanal-Hopping, indem es sicherstellt, dass Kund:innen überall dieselbe verlässliche Antwort erhalten – unabhängig davon, wo sie anfragen. Es nutzt eine gesteuerte Wissensbasis, um Chatbot, E-Mail-Entwürfe und IVR-Vorschläge zu speisen, sodass die Informationen in allen Kanälen aufeinander abgestimmt sind.

Wenn Kund:innen sich erneut melden, kann Gemini den Kontext zudem anhand von Identifikatoren (E-Mail, Kund:innen-ID, Telefonnummer) erkennen und frühere Interaktionen zusammenfassen. So kann der Chatbot sagen: „Hier ist der aktuelle Stand Ihres bestehenden Falls“, statt bei null zu beginnen, und Agent:innen können die Geschichte fortschreiben, statt ein neues Ticket zu eröffnen. Diese Kombination aus konsistenten Antworten und inhaltlicher Kontinuität hält Kund:innen davon ab, für dasselbe Anliegen mehrere Kanäle auszuprobieren.

Sie brauchen kein großes Data-Science-Team, aber drei Fähigkeiten sollten vorhanden sein: eine:n Verantwortliche:n im Kundenservice, die / der Ihre wichtigsten Kontaktgründe kennt, eine technische Ressource in Engineering oder IT, um Gemini mit Ihren Chat-, E-Mail- und IVR-Systemen zu integrieren, sowie eine Person, die für die Pflege der Wissensbasis zuständig ist.

Reruption arbeitet in der Regel mit bestehenden Serviceleiter:innen und einem kleinen internen IT-Team. Wir übernehmen die KI-Konfiguration, das Prompt-Design und die Integrationsarchitektur, während Ihr Team Domänenwissen, Richtlinien und den Zugang zu Systemen wie CRM oder Ticketsystem bereitstellt. Im Zeitverlauf unterstützen wir Ihr Team dabei, Prompts und Inhalte eigenständig anzupassen, sodass Sie die Lösung selbst betreiben und weiterentwickeln können.

Bei einem fokussierten Umfang (z. B. die Top 10–20 Kontaktgründe Ihrer Kund:innen) lassen sich messbare Effekte von Gemini-gestützter Support-Deflektion innerhalb von 4–8 Wochen erzielen. In den ersten Wochen stehen meist die Vereinheitlichung der Wissensbasis, die Anbindung von Gemini an ein bis zwei Kanäle und das Tuning der Prompts auf Ihren Tonfall und Ihre Richtlinien im Vordergrund.

Nach dem Go-Live sehen Sie erste Signale in der Containment-Rate im Chat, weniger neuen Tickets zu den jeweiligen Intents und weniger Fällen, in denen Kund:innen mehrere Kanäle für dasselbe Anliegen nutzen. Die vollständige Optimierung über E-Mail, Chat und Telefon hinweg kann mehrere Monate dauern – aber Sie müssen nicht so lange warten, um Vorteile zu sehen: Ein gut konzipierter Pilot in einem einzigen Kanal zeigt bereits klar, wie viel doppeltes Volumen Sie realistisch entfernen können.

Die Kosten einer Gemini-basierten Kundenservice-Lösung bestehen aus drei Komponenten: Nutzungskosten für das Gemini-Modell selbst, Integrations- und Engineering-Aufwand sowie laufende Governance von Wissen und Inhalten. Für die meisten Organisationen sind die Modellkosten im Vergleich zu den Personalkosten der Agent:innen relativ gering; der Hauptinvestitionsbedarf liegt darin, Workflows und Integrationen richtig aufzusetzen.

Beim ROI können Unternehmen mit ausgeprägtem Kanal-Hopping häufig bereits in der ersten Phase doppelte Tickets um 15–30 % reduzieren und Lösungszeiten für einfache Anliegen verkürzen. Das führt direkt zu weniger Kontakten pro Kundenproblem, niedrigeren Kosten pro gelöstem Fall und mehr Kapazität für Agent:innen, sich um komplexe oder wertschöpfende Anliegen zu kümmern. Bei guter Konzeption wird die Amortisationszeit üblicherweise in Monaten und nicht in Jahren gemessen.

Reruption ist auf den Aufbau von KI-Lösungen für den Kundenservice spezialisiert, die über Folien hinausgehen und als echte, produktive Lösungen live gehen. Mit unserem KI-PoC-Angebot (9.900 €) können wir in kurzer Zeit validieren, ob Gemini in Ihrer spezifischen Umgebung – mit Ihren Daten und Systemen – Supportvolumen wirksam deflektieren und Kanal-Hopping reduzieren kann.

Darauf aufbauend setzen wir unseren Co-Preneur-Ansatz um: Wir arbeiten eng mit Ihrem Team zusammen, ähnlich wie es ein Co-Founder tun würde, definieren die kritischen Journeys, entwerfen die Wissensarchitektur und implementieren Gemini über Chat-, E-Mail- und Telefon-Workflows hinweg. Wir kümmern uns um Engineering-Details sowie Sicherheits- und Compliance-Aspekte, während Ihr Team eng in Entscheidungen eingebunden bleibt. So stellen wir sicher, dass die finale Lösung zu Ihren Prozessen passt und nach dem Rollout intern verantwortet und weiterentwickelt werden kann.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media