Die Herausforderung: Kanalhoppende Kund:innen

Wenn Kund:innen in einem Supportkanal keine schnelle, klare Antwort bekommen, versuchen sie es einfach in einem anderen. Dieselbe Person schreibt möglicherweise den Support per E-Mail an, startet einen Website-Chat und ruft anschließend Ihre Hotline wegen genau desselben Problems an. Jeder Kontaktpunkt wird oft zu einem separaten Ticket, bearbeitet von unterschiedlichen Agent:innen in verschiedenen Tools. Das Ergebnis: Ihr Team bekämpft die Illusion von hohem Volumen statt echter Komplexität.

Traditionelle Ansätze – mehr Agent:innen einstellen, SLAs verschärfen oder statische FAQs veröffentlichen – lösen dieses Muster nicht mehr. Kund:innen erwarten sofortige, konsistente Antworten, egal wo und zu welcher Tageszeit sie auftauchen. Alte Wissensdatenbanken, nicht verbundene Chatbots und isolierte IVR-Skripte am Telefon erzählen alle leicht unterschiedliche Geschichten. Selbst wenn die Inhalte korrekt sind, sind sie selten auf den konkreten Kontext der Kund:innen zugeschnitten oder so formuliert, dass sie diese davon abhalten, „zur Sicherheit“ noch einen anderen Kanal zu nutzen.

Die Auswirkungen auf das Unternehmen sind erheblich. Kanal-Hopping bläht in vielen Organisationen das Ticketvolumen um 20–40 % auf, verzerrt KPIs und erschwert die Einsatzplanung. Agent:innen verschwenden Zeit damit, Fälle zu deduplizieren und abzugleichen, statt echte Probleme zu lösen. Kund:innen erhalten widersprüchliche oder wiederholte Antworten, was Vertrauen untergräbt und das Abwanderungsrisiko erhöht. In der Skalierung führt dies zu höheren Kosten pro Kontakt, längeren Lösungszeiten und einem Wettbewerbsnachteil gegenüber Unternehmen, die ein reibungsloses, einheitliches Supporterlebnis bieten.

Die gute Nachricht: Dieses Problem ist lösbar. Indem Sie Gemini als einheitliche Intelligenzschicht über Website, App und Telefonflüssen einsetzen, können Sie überall dieselbe hochwertige Antwort bereitstellen und die meisten einfachen Anliegen klären, bevor sie eine:n Agent:in erreichen. Bei Reruption haben wir Organisationen dabei unterstützt, KI-gestützte Assistenten aufzubauen, wiederkehrende Supportprozesse zu automatisieren und vermeidbare Kontakte zu reduzieren. Im weiteren Verlauf dieser Seite finden Sie praxisnahe Hinweise, wie Sie Gemini in Ihrem eigenen Kundenservice einsetzen und Kanal-Hopping endlich in den Griff bekommen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s Arbeit beim Aufbau von KI-gestützten Kundenservice-Lösungen und intelligenten Chatbots wissen wir: Kanal-Hopping ist selten ein Personalproblem – es ist ein Problem von Erlebnis und Konsistenz. Gemini eignet sich besonders gut als einheitliches „Gehirn“ hinter Ihren Self-Service-, Chat- und IVR-Touchpoints, weil es dieselbe Wissensbasis nutzen und kanaladäquat antworten kann. Im Folgenden zeigen wir, wie Führungskräfte aus unserer Sicht über den Einsatz von Gemini nachdenken sollten, um Kanal-Hopping zu reduzieren und Supportvolumen nachhaltig zu deflektieren.

In Journeys denken, nicht in Kanälen

Die meisten Organisationen gestalten Support noch entlang interner Strukturen: hier eine Ticket-Queue, dort ein Chat-Widget, oben drauf ein IVR-Baum. Um Gemini für kanalhoppende Kund:innen wirksam zu nutzen, müssen Sie die Perspektive wechseln und die vollständige Journey eines typischen Anliegens abbilden: Suche auf der Website, Versuch in der In-App-Hilfe, Webchat, dann Telefon. So wird sichtbar, wo Kund:innen aussteigen, sich wiederholen oder widersprüchliche Botschaften erhalten.

Wenn Sie diese Journeys verstanden haben, können Sie Gemini als einheitliche Antwortschicht positionieren, die Kund:innen über alle Touchpoints hinweg begleitet. Strategisch bedeutet das, dass sich Kundenservice-Führung, Produktteam und IT auf ein gemeinsames Ergebnis einigen (z. B. „Problemlösung im ersten Kontakt“) statt auf kanalbezogene KPIs (z. B. „Reduktion der durchschnittlichen Gesprächsdauer im Telefonkanal“). Es bedeutet auch, dass Sie jene Journeys priorisieren, die die meisten doppelten Tickets erzeugen, statt von Tag eins an jede mögliche Frage abdecken zu wollen.

Eine Single Source of Truth für alle KI-Antworten nutzen

Der größte Treiber für Kanal-Hopping ist Inkonsistenz: Die FAQ sagt das eine, der Chatbot etwas anderes und die Telefonagent:innen wieder etwas anderes. Um das zu durchbrechen, sollten Sie Gemini als Orchestrator behandeln, der auf einer einzigen, gesteuerten Wissensbasis aufsetzt. Diese kann aus Helpcenter, Richtliniendokumenten und Produktdaten bestehen – sie muss aber kuratiert, versioniert und klar verantwortet sein.

Weisen Sie strategisch eine bereichsübergreifende Content-Verantwortung zu (oft im Kundenservice), die für die Antwortqualität über alle Kanäle hinweg verantwortlich ist. Gemini greift dann genau auf diese Quelle für E-Mail-Entwürfe, Chat-Antworten und IVR-Erklärungen zu. Das reduziert rechtliche und Compliance-Risiken und sorgt dafür, dass Aktualisierungen (z. B. neue Preise, geänderte Richtlinien) überall sofort wirken – und damit einen zentralen Grund für „Doppelchecks“ über andere Kanäle beseitigen.

Für Deflektion designen, ohne Vertrauen zu opfern

Supportvolumen zu deflektieren ist nur dann wertvoll, wenn das Vertrauen der Kund:innen erhalten oder sogar gestärkt wird. Zu aggressive Bots, die den Zugang zu Menschen blockieren, treiben Kund:innen schlicht in andere Kanäle oder zur Abwanderung. Wenn Sie Gemini-gestützten Self-Service planen, definieren Sie klare Leitplanken: Welche Themen sollen vollständig automatisiert gelöst werden, welche brauchen angeleitete Selbsthilfe und welche sollten zügig an Menschen übergeben werden.

Auf strategischer Ebene sollten Sie Erwartungen transparent steuern. Machen Sie deutlich, dass es sich um einen KI-Assistenten handelt, zeigen Sie klar, wie bei Bedarf ein Mensch erreicht werden kann, und stellen Sie sicher, dass Gemini das Gespräch für die Agent:innen zusammenfasst, damit Kund:innen sich nie wiederholen müssen. So stärken Sie das Vertrauen in die KI und schützen gleichzeitig Ihr Markenerlebnis.

Kundenservice, IT und Compliance frühzeitig ausrichten

Die Einführung von Gemini in Kundenservice-Prozesse berührt mehrere Teams: Service Operations, IT, Datensicherheit und oft auch die Rechtsabteilung. Treffen diese Stakeholder erst zum Go-Live aufeinander, drohen Verzögerungen, unklare Verantwortlichkeiten und halb implementierte Fähigkeiten. Behandeln Sie die Einführung von Gemini stattdessen als bereichsübergreifende Initiative mit klarer Sponsor:in und definierten Entscheidungswegen.

Stimmen Sie von Anfang an ab, wie Daten genutzt werden (was Gemini sehen darf), welche Logging- und Monitoringanforderungen gelten und welche Eskalationsregeln greifen. So schaffen Sie die Grundlage für sicheres Experimentieren: Ihr Serviceteam kann Prompts und Workflows iterieren; die IT sichert Performance und Integrationsstabilität ab; Compliance gibt grünes Licht für die Verarbeitung von Kundendaten. Das Ergebnis sind schnellere Lernzyklen und weniger Reibung beim Übergang vom Pilot zur Skalierung.

Duplikate und Kanal-Hopping explizit messen

Viele Customer-Service-Dashboards konzentrieren sich auf hochaggregierte Kennzahlen wie Gesamtvolumen oder durchschnittliche Bearbeitungszeit. Um zu verstehen, ob Gemini Kanal-Hopping tatsächlich reduziert, brauchen Sie spezifische Metriken: Rate doppelter Tickets pro Anliegenart, Anzahl der genutzten Kanäle pro eindeutigem Kundenproblem und Zeit bis zur ersten wirksamen Antwort (nicht nur bis zur ersten Reaktion).

Definieren Sie diese Kennzahlen idealerweise vor der Einführung von Gemini, um eine belastbare Ausgangsbasis zu haben. Instrumentieren Sie Ihre Systeme so, dass Interaktionen über Identifikatoren wie Kund:innen-ID, E-Mail oder Session-Tokens verknüpft werden können. So sehen Sie, wie häufig eine Anfrage, die im Gemini-Chatbot startet, später noch als Telefonanruf endet. Indem Sie dies über die Zeit beobachten, können Sie Inhalte, Prompts und Workflows dort nachschärfen, wo die Deflektion noch nicht stark genug ist – und die Wirkung gegenüber der Organisation mit belastbaren Daten statt Anekdoten belegen.

Sorgfältig eingesetzt kann Gemini zum konsistenten „Gehirn“ hinter all Ihren Supportkanälen werden und jene Lücken und Widersprüche schließen, die Kund:innen zum Hopping zwischen E-Mail, Chat und Telefon treiben. Indem Sie Journeys, Wissen und Metriken ausrichten, verwandeln Sie KI von einem isolierten Chatbot in eine echte Engine zur Volumendeflektion. Reruption bringt die Kombination aus tiefgehender KI-Engineering-Expertise und praktischer Kundenservice-Erfahrung ein, um diese Gemini-gestützten Workflows End-to-End zu designen und zu implementieren; wenn Sie testen möchten, wie das in Ihrer Umgebung aussieht, ist unser KI-PoC ein schneller, risikoarmer Weg, um von der Idee zu einem funktionierenden Prototypen zu kommen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Fertigung bis Luft- und Raumfahrt: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

NVIDIA

Fertigung

In Halbleiterfertigung ist das Chip-Floorplanning — die Aufgabe, Makros und Schaltungen auf einem Die anzuordnen — berüchtigt komplex und NP-schwer. Selbst erfahrene Ingenieur:innen verbringen Monate damit, Layouts iterativ zu verfeinern, um Leistung, Performance und Fläche (PPA) auszubalancieren, wobei sie Kompromisse wie Minimierung der Leiterlänge, Dichtebeschränkungen und Routbarkeit austarieren. Traditionelle Werkzeuge kämpfen mit dem explosiven kombinatorischen Suchraum, insbesondere bei modernen Chips mit Millionen von Zellen und Hunderten von Makros, was zu suboptimalen Entwürfen und verzögerter Markteinführung führt. NVIDIA erlebte dieses Problem besonders beim Entwurf leistungsstarker GPUs, bei denen ungünstige Floorplans den Stromverbrauch erhöhen und die Effizienz von KI-Beschleunigern beeinträchtigen. Manuelle Prozesse limitierten die Skalierbarkeit für 2,7 Millionen Zellen-Designs mit 320 Makros und drohten Engpässe in ihrer Roadmap für beschleunigtes Rechnen zu verursachen. Die Überwindung des menschintensiven Trial-and-Error war entscheidend, um die Führungsposition bei KI-Chips zu halten.

Lösung

NVIDIA setzte Deep Reinforcement Learning (DRL) ein, um Floorplanning als sequentiellen Entscheidungsprozess zu modellieren: Ein Agent platziert Makros nacheinander und lernt optimale Strategien durch Ausprobieren. Graph Neural Networks (GNNs) kodieren den Chip als Graph, erfassen räumliche Beziehungen und sagen Auswirkungen von Platzierungen voraus. Der Agent nutzt ein Policy-Netzwerk, das auf Benchmarks wie MCNC und GSRC trainiert wurde, mit Belohnungen, die Half-Perimeter Wirelength (HPWL), Stau und Überlappungen bestrafen. Proximal Policy Optimization (PPO) ermöglicht effiziente Explorationen, die auf verschiedene Designs übertragbar sind. Dieser KI-gesteuerte Ansatz automatisiert, was Menschen manuell tun, kann aber weit mehr Konfigurationen durchsuchen.

Ergebnisse

  • Designzeit: 3 Stunden für 2,7M Zellen vs. Monate manuell
  • Chip-Größe: 2,7 Millionen Zellen, 320 optimierte Makros
  • PPA-Verbesserung: Besser oder vergleichbar mit menschlichen Entwürfen
  • Trainingseffizienz: Unter 6 Stunden Gesamtaufwand für Produktionslayouts
  • Benchmark-Erfolg: Übertrifft auf MCNC/GSRC-Suiten
  • Beschleunigung: 10–30 % schnellere Schaltungen in verwandten RL-Designs
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

NatWest

Bankwesen

NatWest Group, eine führende britische Bank, die über 19 Millionen Kunden bedient, sah sich zunehmenden Anforderungen an den digitalen Kundenservice gegenüber. Traditionelle Systeme wie der ursprüngliche Cora-Chatbot bewältigten Routineanfragen zwar zuverlässig, hatten jedoch Schwierigkeiten mit komplexen, nuancierten Interaktionen und eskalierten häufig 80–90 % der Fälle an menschliche Mitarbeitende. Das führte zu Verzögerungen, höheren Betriebskosten und Risiken für die Kundenzufriedenheit, während die Erwartungen an sofortige, personalisierte Unterstützung stiegen . Gleichzeitig stellte der Anstieg von Finanzbetrug eine kritische Bedrohung dar, die nahtloses Betrugsreporting und Erkennung innerhalb von Chat-Oberflächen erforderte, ohne Sicherheit oder Vertrauen der Nutzer zu gefährden. Regulatorische Vorgaben, Datenschutz nach UK GDPR und ethische KI-Einsätze erhöhten die Komplexität, da die Bank Support skalieren wollte und gleichzeitig Fehler in risikoreichen Bankprozessen minimieren musste . Die Balance zwischen Innovation und Zuverlässigkeit war entscheidend; mangelhafte KI-Leistungen könnten in einem Sektor, in dem die Kundenzufriedenheit direkt Kundenbindung und Umsatz beeinflusst, Vertrauen untergraben .

Lösung

Mit der Einführung von Cora+ im Juni 2024 führte NatWest sein erstes umfassendes Upgrade mit generativer KI ein, um proaktive, intuitive Antworten auf komplexe Anfragen zu ermöglichen, Eskalationen zu reduzieren und die Selbstbedienung zu verbessern . Dies baute auf der etablierten Cora-Plattform auf, die bereits Millionen von Interaktionen pro Monat verwaltete. In einem wegweisenden Schritt ging NatWest im März 2025 eine Partnerschaft mit OpenAI ein und wurde damit die erste in Großbritannien ansässige Bank, die dies tat. LLMs wurden sowohl in das kundenorientierte Cora als auch in das interne Tool Ask Archie integriert. Dadurch wurden natürliche Sprachverarbeitung für Betrugsmeldungen, personalisierte Beratung und Prozessvereinfachung möglich, während zugleich Schutzmaßnahmen für Compliance und Bias-Minderung implementiert wurden . Der Ansatz legte starken Wert auf ethische KI, mit rigorosen Tests, menschlicher Aufsicht und kontinuierlichem Monitoring, um sichere und präzise Interaktionen bei Betrugserkennung und Serviceleistungen zu gewährleisten .

Ergebnisse

  • 150 % Anstieg der Cora-Kundenzufriedenheitswerte (2024)
  • Proaktive Auflösung komplexer Anfragen ohne menschliches Eingreifen
  • Erste OpenAI-Partnerschaft einer UK-Bank, beschleunigt KI-Einführung
  • Verbesserte Betrugserkennung durch Echtzeit-Chat-Analyse
  • Millionen monatlicher Interaktionen, die autonom verarbeitet werden
  • Deutliche Reduktion der Eskalationsraten an Agenten
Fallstudie lesen →

Commonwealth Bank of Australia (CBA)

Bankwesen

Als Australiens größte Bank sah sich CBA zunehmenden Betrugs- und Scam-Bedrohungen gegenüber, wobei Kunden erhebliche finanzielle Verluste erlitten. Betrüger nutzten schnelle digitale Zahlungen wie PayID aus, bei denen nicht übereinstimmende Empfängernamen zu unumkehrbaren Überweisungen führten. Traditionelle Erkennungssysteme hinkten hinter komplexen Angriffen her, was zu hohem Kundenschaden und regulatorischem Druck führte. Parallel dazu waren die Contact Center überlastet und bearbeiteten Millionen von Anfragen zu Betrugswarnungen und Transaktionen. Das führte zu langen Wartezeiten, steigenden Betriebskosten und angespannten Ressourcen. CBA benötigte proaktive, skalierbare KI, um in Echtzeit einzugreifen und gleichzeitig die Abhängigkeit von menschlichen Agenten zu reduzieren.

Lösung

CBA setzte einen hybriden KI-Stack ein, der Maschinelles Lernen zur Anomalieerkennung und generative KI für personalisierte Warnungen kombiniert. NameCheck überprüft Empfängernamen gegen PayID in Echtzeit und warnt Nutzer bei Abweichungen. CallerCheck authentifiziert eingehende Anrufe und blockiert Nachahmungs-Betrugsversuche. In Partnerschaft mit H2O.ai implementierte CBA von GenAI angetriebene prädiktive Modelle zur Scam-Intelligence. Ein KI-virtueller Assistent in der CommBank-App bearbeitet Routineanfragen, generiert natürliche Antworten und eskaliert komplexe Fälle. Die Integration mit Apate.ai liefert nahezu in Echtzeit Scam-Intelligence und verbessert das proaktive Blockieren über alle Kanäle hinweg.

Ergebnisse

  • 70 % Reduktion der Betrugsverluste
  • 50 % Verringerung der Kundenschäden durch Betrug bis 2024
  • 30 % Rückgang der Betrugsfälle durch proaktive Warnungen
  • 40 % Reduktion der Wartezeiten im Contact Center
  • 95 %+ Genauigkeit bei NameCheck-Empfängerabgleichen
Fallstudie lesen →

Walmart (Marketplace)

Einzelhandel

Im umkämpften Umfeld des Walmart Marketplace konkurrieren Drittanbieter‑Verkäufer hart um die Buy Box, die den Großteil der Verkaufsabschlüsse ausmacht . Diese Verkäufer verwalten umfangreiche Bestände, haben aber mit manuellen Preisänderungen zu kämpfen, die zu langsam sind, um mit sich schnell ändernden Wettbewerberpreisen, Nachfrageschwankungen und Markttrends Schritt zu halten. Das führt häufig zum Verlust der Buy Box, verpassten Verkaufschancen und geschwächten Gewinnmargen auf einer Plattform, auf der Preis das wichtigste Schlachtfeld ist . Zusätzlich sehen sich Verkäufer einer Datenflut gegenüber, wenn sie Tausende von SKUs überwachen, optimale Preisniveaus prognostizieren und Wettbewerbsfähigkeit gegen Profitabilität abwägen müssen. Traditionelle statische Preisstrategien versagen in diesem dynamischen E‑Commerce‑Umfeld, was zu suboptimaler Leistung und übermäßigem manuellen Aufwand führt – oft Stunden pro Tag und Verkäufer . Walmart erkannte den Bedarf an einer automatisierten Lösung, um Verkäufer zu stärken und das Plattformwachstum voranzutreiben.

Lösung

Walmart führte den Repricer ein, ein kostenloses KI‑gesteuertes automatisiertes Preiswerkzeug, das in Seller Center integriert ist und generative KI zur Entscheidungsunterstützung neben Machine‑Learning‑Modellen wie sequentieller Entscheidungsintelligenz nutzt, um Preise in Echtzeit dynamisch anzupassen . Das Tool analysiert Wettbewerberpreise, historische Verkaufsdaten, Nachfrageindikatoren und Marktbedingungen, um optimale Preise zu empfehlen und umzusetzen, die die Buy‑Box‑Berechtigung und die Verkaufsgeschwindigkeit maximieren . Ergänzend dazu liefert das Pricing Insights‑Dashboard Kontoebenen‑Metriken und KI‑generierte Empfehlungen, einschließlich vorgeschlagener Preise für Aktionen, sodass Verkäufer Chancen ohne manuelle Analyse erkennen können . Für fortgeschrittene Nutzer erweitern Drittanbietertools wie Biviar's AI repricer – im Auftrag von Walmart entwickelt – dies durch Reinforcement Learning zur profitmaximierenden täglichen Preisfindung . Dieses Ökosystem verschiebt Verkäufer von reaktiven zu proaktiven Preisstrategien.

Ergebnisse

  • 25% Steigerung der Conversion‑Raten durch dynamische KI‑Preisgestaltung
  • Höhere Buy‑Box‑Gewinnraten durch Echtzeit‑Wettbewerbsanalyse
  • Maximierte Verkaufsgeschwindigkeit für Drittanbieter im Marketplace
  • 850 Millionen Katalognachdatenverbesserungen durch GenAI (breitere Wirkung)
  • Potenzial für über 40% Conversion‑Steigerung durch KI‑gesteuerte Angebote
  • Reduzierung der manuellen Preisfindung um täglich mehrere Stunden pro Verkäufer
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Wissensbasis vereinheitlichen, bevor Sie Gemini anbinden

Bevor Sie Gemini an jeden Customer-Touchpoint anschließen, sollten Sie die Quellen konsolidieren, aus denen es seine Antworten bezieht. Identifizieren Sie Ihr zentrales Helpcenter, interne FAQs, Richtliniendokumente und Produkt-Handbücher und führen Sie diese in einer strukturierten, aktuellen Support-Wissensbasis zusammen. Entfernen Sie Dubletten, markieren Sie veraltete Inhalte und ergänzen Sie fehlende Abdeckung für Ihre Top-20-Kontaktgründe.

Konfigurieren Sie anschließend Gemini so, dass nur diese vereinheitlichte Quelle indexiert oder abgefragt wird. Wenn Sie Retrieval-Augmented Generation (RAG) nutzen, definieren Sie Dokumentkollektionen (z. B. Billing, Bestellungen, technisches Setup) und fügen Sie Metadaten-Tags wie Sprache, Region, Produktlinie und Gültigkeitsdaten hinzu. So stellen Sie sicher, dass Gemini – egal ob im Webchat, als In-App-Assistent oder automatischer E-Mail-Responder – immer auf dieselbe kanonische Wahrheit zugreift.

Gemini im Webchat einbetten, um einfache Anfragen zu beantworten und zu halten

Webchat ist oft der erste Kontaktpunkt für digitale Kund:innen – und ein häufiger Ausgangspunkt für Kanal-Hopping. Betten Sie einen Gemini-gestützten virtuellen Agenten in Ihr Chat-Widget ein mit dem Ziel, häufige Fragen bereits im ersten Kontakt zu lösen oder deutlich voranzubringen. Starten Sie mit Ihren häufigsten, wenig komplexen Themen: Passwort-Resets, Sendungsverfolgung, Rechnungsduplikate, Terminverschiebungen oder grundlegende Fehlerbehebung.

Setzen Sie Leitplanken, indem Sie Intent-Erkennung und Übergabetrigger konfigurieren (z. B. wenn Kund:innen explizit nach einem Menschen fragen oder bestimmte Schlüsselwörter wie „Beschwerde“ oder „Kündigung“ verwenden). Wenn eine Eskalation nötig ist, sollte Gemini das gesamte Gespräch für die Agent:innen zusammenfassen und über Ihr CRM übergeben, damit sich Kund:innen nicht wiederholen müssen – ein entscheidender Schritt, um zu verhindern, dass sie aus Frust in einen anderen Kanal springen.

Beispiel für ein Gemini-Systemprompt im Chat:
Sie sind ein Kundenservice-Assistent für [Unternehmen].
- Antworten Sie ausschließlich auf Basis der bereitgestellten Ausschnitte aus der Wissensbasis.
- Wenn Informationen fehlen, stellen Sie eine klärende Rückfrage und bieten Sie dann an, an eine:n menschliche:n Agent:in zu übergeben.
- Bestätigen Sie in Ihrer ersten Antwort immer das Hauptziel der Kundin / des Kunden.
- Wenn Sie das Anliegen lösen, benennen Sie das Ergebnis klar und fassen Sie die nächsten Schritte zusammen.
- Wenn Sie eskalieren, erzeugen Sie eine kurze Zusammenfassung für die Agent:innen mit:
  - Ziel der Kundin / des Kunden
  - Wichtigen Details (Bestell-ID, Produkt, Daten)
  - Bereits im Chat unternommenen Schritten
  - Stimmung der Kundin / des Kunden (positiv/neutral/negativ)

Gemini nutzen, um konsistente E-Mail-Antworten aus demselben Wissen zu erstellen

E-Mail-Queues sind oft der Ort, an dem doppelte Tickets unbemerkt anwachsen. Integrieren Sie Gemini in Ihr Ticketsystem, damit es eingehende E-Mails lesen, relevante Ausschnitte aus derselben zentralen Wissensbasis ziehen und einen Antwortentwurf zur Prüfung durch die Agent:innen erstellen kann. So bleiben Tonalität, Struktur und Inhalt konsistent mit dem, was Ihr Chatbot oder Ihr IVR kommuniziert.

Definieren Sie Vorlagen für Ihre wichtigsten Kontaktgründe und lassen Sie Gemini Details (Bestellnummern, Produktnamen, Fristen) anhand der Ticket-Metadaten ausfüllen. Nutzen Sie ein kurzes Systemprompt, um Richtlinientreue zu erzwingen und zu verhindern, dass Gemini Zusagen macht, die außerhalb Ihrer Regeln liegen.

Beispiel für ein Gemini-Systemprompt zur E-Mail-Erstellung:
Sie verfassen E-Mail-Antworten für das Kundenservice-Team.
- Verwenden Sie dieselben Richtlinien und Informationen wie der Support-Chatbot.
- Schreiben Sie knapp, klar und freundlich. Vermeiden Sie Fachjargon.
- Erfinden Sie keine Richtlinien, Preise oder Fristen.
- Wenn das Anliegen nicht vollständig per E-Mail gelöst werden kann, schlagen Sie den nächsten konkreten Schritt vor.
Input:
- E-Mail der Kundin / des Kunden
- Relevante Ausschnitte aus der Wissensbasis
- Ticket-Metadaten (Name, Bestell-ID, Produkt)

IVR und Telefon-Support mit Gemini-Zusammenfassungen erweitern

Das Telefon bleibt ein kritischer Kanal, insbesondere für hochwertige oder dringende Anliegen, ist aber auch ein typischer letzter Ausweg, wenn Self-Service scheitert. Zwar kann Gemini Anrufe nicht direkt entgegennehmen, Sie können es aber in Ihre IVR-Flows und den Agent:innen-Desktop integrieren. Erfassen Sie beispielsweise kurze Problembeschreibungen per Speech-to-Text in der IVR und lassen Sie Gemini dann die Intention klassifizieren und wissensbasierte Antwortvorschläge generieren, die die IVR ausspielen kann.

Für Anrufe, die bei Agent:innen landen, können Sie Gemini in Echtzeit Zusammenfassungen und Antwortempfehlungen auf Basis des Gesprächstranskripts erstellen lassen. Das reduziert die Nachbearbeitungszeit und stellt sicher, dass Ihre Systeme bei späteren Folgekontakten per E-Mail oder Chat über eine konsistente, KI-generierte Zusammenfassung verfügen, an die andere Kanäle anknüpfen können – und minimiert so das Risiko widersprüchlicher Antworten erheblich.

Beispiel für ein Gemini-Prompt zur Gesprächszusammenfassung:
Sie fassen Kundenservice-Telefonate zusammen.
Erzeugen Sie:
- Eine 2–3-sätzige Zusammenfassung des Anliegens
- Wichtige Datenpunkte (IDs, Daten, Produkte) als Stichpunktliste
- Die Hauptursache in einem kurzen Satz
- Nächste Schritte und Verantwortlichkeit (Kund:in vs. Unternehmen)
Die Zusammenfassung sollte für jede:n Support-Mitarbeiter:in verständlich sein, die / der eine spätere Folgeanfrage per E-Mail oder Chat bearbeitet.

Interaktionen verknüpfen, um doppelte Tickets zu verhindern

Um Kanal-Hopping direkt anzugehen, konfigurieren Sie Ihre Systeme so, dass Gemini erkennen kann, wenn eine neue Interaktion wahrscheinlich ein Duplikat eines bestehenden Falls ist. Nutzen Sie gemeinsame Identifikatoren (E-Mail, Telefonnummer, Kund:innen-ID oder authentifizierte App-Session) und lassen Sie Gemini die neue Nachricht mit offenen Tickets vergleichen. Wenn die Ähnlichkeit hoch ist, schlagen Sie vor, sie mit dem bestehenden Ticket zu verknüpfen, statt ein neues zu eröffnen.

Auf Kund:innenseite können Sie Ihren Gemini-Chatbot so instruieren, dass er bestehende Fälle aktiv anspricht: „Ich sehe, dass wir bereits an Ihrem Anliegen zu [Zusammenfassung] arbeiten. Hier ist der aktuelle Status…“ Schon das allein verhindert viele „Ich wollte nur nachfragen“-Anfragen über andere Kanäle. Auf Agent:innenseite können Sie im Ticket-Interface einen Hinweis einblenden: „Mögliches Duplikat von Ticket #12345 – gleiche Kund:in, ähnliche Beschreibung“, inklusive einer von Gemini generierten Begründung.

KPIs und Feedbackschleifen für kontinuierliches Tuning etablieren

Wenn Gemini kanalübergreifend live ist, sollten Sie es als Produkt behandeln – nicht als einmaliges Projekt. Definieren Sie KPIs wie Deflektionsrate für die Top-10-Intents, Rate doppelter Tickets pro Anliegenart, durchschnittliche Anzahl der Kanäle pro gelöstem Anliegen und Kundenzufriedenheit für KI-bearbeitete Interaktionen. Dashboards sollten es Operations-Verantwortlichen leicht machen zu sehen, welche Journeys gut funktionieren und welche weiterhin Kanal-Hopping auslösen.

Implementieren Sie eine schlanke Feedbackschleife: Ermöglichen Sie Agent:innen, KI-Vorschläge als hilfreich oder nicht hilfreich zu markieren, und lassen Sie Kund:innen KI-Chat-Gespräche bewerten. Überprüfen Sie regelmäßig schwach performende Intents und aktualisieren Sie entsprechend Wissensbasis, Prompts oder Workflows. Im Zeitverlauf kann dieses Tuning realistisch 15–30 % weniger doppelte Tickets, kürzere Lösungszeiten für einfache Anliegen und eine spürbar bessere wahrgenommene Reaktionsfähigkeit liefern – ohne zusätzliches Personal.

Erwartetes Ergebnis: Durch die Vereinheitlichung des Wissens, die Einbettung von Gemini in Chat-, E-Mail- und Telefon-Workflows und das aktive Verknüpfen zusammenhängender Interaktionen sehen Organisationen typischerweise innerhalb von 4–8 Wochen fokussierter Umsetzung eine Reduktion von Duplikat-Tickets und Kanal-Hopping. Das entlastet Agent:innen für komplexe Fälle und verbessert die Kundenzufriedenheit insgesamt.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini reduziert Kanal-Hopping, indem es sicherstellt, dass Kund:innen überall dieselbe verlässliche Antwort erhalten – unabhängig davon, wo sie anfragen. Es nutzt eine gesteuerte Wissensbasis, um Chatbot, E-Mail-Entwürfe und IVR-Vorschläge zu speisen, sodass die Informationen in allen Kanälen aufeinander abgestimmt sind.

Wenn Kund:innen sich erneut melden, kann Gemini den Kontext zudem anhand von Identifikatoren (E-Mail, Kund:innen-ID, Telefonnummer) erkennen und frühere Interaktionen zusammenfassen. So kann der Chatbot sagen: „Hier ist der aktuelle Stand Ihres bestehenden Falls“, statt bei null zu beginnen, und Agent:innen können die Geschichte fortschreiben, statt ein neues Ticket zu eröffnen. Diese Kombination aus konsistenten Antworten und inhaltlicher Kontinuität hält Kund:innen davon ab, für dasselbe Anliegen mehrere Kanäle auszuprobieren.

Sie brauchen kein großes Data-Science-Team, aber drei Fähigkeiten sollten vorhanden sein: eine:n Verantwortliche:n im Kundenservice, die / der Ihre wichtigsten Kontaktgründe kennt, eine technische Ressource in Engineering oder IT, um Gemini mit Ihren Chat-, E-Mail- und IVR-Systemen zu integrieren, sowie eine Person, die für die Pflege der Wissensbasis zuständig ist.

Reruption arbeitet in der Regel mit bestehenden Serviceleiter:innen und einem kleinen internen IT-Team. Wir übernehmen die KI-Konfiguration, das Prompt-Design und die Integrationsarchitektur, während Ihr Team Domänenwissen, Richtlinien und den Zugang zu Systemen wie CRM oder Ticketsystem bereitstellt. Im Zeitverlauf unterstützen wir Ihr Team dabei, Prompts und Inhalte eigenständig anzupassen, sodass Sie die Lösung selbst betreiben und weiterentwickeln können.

Bei einem fokussierten Umfang (z. B. die Top 10–20 Kontaktgründe Ihrer Kund:innen) lassen sich messbare Effekte von Gemini-gestützter Support-Deflektion innerhalb von 4–8 Wochen erzielen. In den ersten Wochen stehen meist die Vereinheitlichung der Wissensbasis, die Anbindung von Gemini an ein bis zwei Kanäle und das Tuning der Prompts auf Ihren Tonfall und Ihre Richtlinien im Vordergrund.

Nach dem Go-Live sehen Sie erste Signale in der Containment-Rate im Chat, weniger neuen Tickets zu den jeweiligen Intents und weniger Fällen, in denen Kund:innen mehrere Kanäle für dasselbe Anliegen nutzen. Die vollständige Optimierung über E-Mail, Chat und Telefon hinweg kann mehrere Monate dauern – aber Sie müssen nicht so lange warten, um Vorteile zu sehen: Ein gut konzipierter Pilot in einem einzigen Kanal zeigt bereits klar, wie viel doppeltes Volumen Sie realistisch entfernen können.

Die Kosten einer Gemini-basierten Kundenservice-Lösung bestehen aus drei Komponenten: Nutzungskosten für das Gemini-Modell selbst, Integrations- und Engineering-Aufwand sowie laufende Governance von Wissen und Inhalten. Für die meisten Organisationen sind die Modellkosten im Vergleich zu den Personalkosten der Agent:innen relativ gering; der Hauptinvestitionsbedarf liegt darin, Workflows und Integrationen richtig aufzusetzen.

Beim ROI können Unternehmen mit ausgeprägtem Kanal-Hopping häufig bereits in der ersten Phase doppelte Tickets um 15–30 % reduzieren und Lösungszeiten für einfache Anliegen verkürzen. Das führt direkt zu weniger Kontakten pro Kundenproblem, niedrigeren Kosten pro gelöstem Fall und mehr Kapazität für Agent:innen, sich um komplexe oder wertschöpfende Anliegen zu kümmern. Bei guter Konzeption wird die Amortisationszeit üblicherweise in Monaten und nicht in Jahren gemessen.

Reruption ist auf den Aufbau von KI-Lösungen für den Kundenservice spezialisiert, die über Folien hinausgehen und als echte, produktive Lösungen live gehen. Mit unserem KI-PoC-Angebot (9.900 €) können wir in kurzer Zeit validieren, ob Gemini in Ihrer spezifischen Umgebung – mit Ihren Daten und Systemen – Supportvolumen wirksam deflektieren und Kanal-Hopping reduzieren kann.

Darauf aufbauend setzen wir unseren Co-Preneur-Ansatz um: Wir arbeiten eng mit Ihrem Team zusammen, ähnlich wie es ein Co-Founder tun würde, definieren die kritischen Journeys, entwerfen die Wissensarchitektur und implementieren Gemini über Chat-, E-Mail- und Telefon-Workflows hinweg. Wir kümmern uns um Engineering-Details sowie Sicherheits- und Compliance-Aspekte, während Ihr Team eng in Entscheidungen eingebunden bleibt. So stellen wir sicher, dass die finale Lösung zu Ihren Prozessen passt und nach dem Rollout intern verantwortet und weiterentwickelt werden kann.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media