Die Herausforderung: Kanalhoppende Kund:innen

Wenn Kund:innen in einem Supportkanal keine schnelle, klare Antwort bekommen, versuchen sie es einfach in einem anderen. Dieselbe Person schreibt möglicherweise den Support per E-Mail an, startet einen Website-Chat und ruft anschließend Ihre Hotline wegen genau desselben Problems an. Jeder Kontaktpunkt wird oft zu einem separaten Ticket, bearbeitet von unterschiedlichen Agent:innen in verschiedenen Tools. Das Ergebnis: Ihr Team bekämpft die Illusion von hohem Volumen statt echter Komplexität.

Traditionelle Ansätze – mehr Agent:innen einstellen, SLAs verschärfen oder statische FAQs veröffentlichen – lösen dieses Muster nicht mehr. Kund:innen erwarten sofortige, konsistente Antworten, egal wo und zu welcher Tageszeit sie auftauchen. Alte Wissensdatenbanken, nicht verbundene Chatbots und isolierte IVR-Skripte am Telefon erzählen alle leicht unterschiedliche Geschichten. Selbst wenn die Inhalte korrekt sind, sind sie selten auf den konkreten Kontext der Kund:innen zugeschnitten oder so formuliert, dass sie diese davon abhalten, „zur Sicherheit“ noch einen anderen Kanal zu nutzen.

Die Auswirkungen auf das Unternehmen sind erheblich. Kanal-Hopping bläht in vielen Organisationen das Ticketvolumen um 20–40 % auf, verzerrt KPIs und erschwert die Einsatzplanung. Agent:innen verschwenden Zeit damit, Fälle zu deduplizieren und abzugleichen, statt echte Probleme zu lösen. Kund:innen erhalten widersprüchliche oder wiederholte Antworten, was Vertrauen untergräbt und das Abwanderungsrisiko erhöht. In der Skalierung führt dies zu höheren Kosten pro Kontakt, längeren Lösungszeiten und einem Wettbewerbsnachteil gegenüber Unternehmen, die ein reibungsloses, einheitliches Supporterlebnis bieten.

Die gute Nachricht: Dieses Problem ist lösbar. Indem Sie Gemini als einheitliche Intelligenzschicht über Website, App und Telefonflüssen einsetzen, können Sie überall dieselbe hochwertige Antwort bereitstellen und die meisten einfachen Anliegen klären, bevor sie eine:n Agent:in erreichen. Bei Reruption haben wir Organisationen dabei unterstützt, KI-gestützte Assistenten aufzubauen, wiederkehrende Supportprozesse zu automatisieren und vermeidbare Kontakte zu reduzieren. Im weiteren Verlauf dieser Seite finden Sie praxisnahe Hinweise, wie Sie Gemini in Ihrem eigenen Kundenservice einsetzen und Kanal-Hopping endlich in den Griff bekommen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s Arbeit beim Aufbau von KI-gestützten Kundenservice-Lösungen und intelligenten Chatbots wissen wir: Kanal-Hopping ist selten ein Personalproblem – es ist ein Problem von Erlebnis und Konsistenz. Gemini eignet sich besonders gut als einheitliches „Gehirn“ hinter Ihren Self-Service-, Chat- und IVR-Touchpoints, weil es dieselbe Wissensbasis nutzen und kanaladäquat antworten kann. Im Folgenden zeigen wir, wie Führungskräfte aus unserer Sicht über den Einsatz von Gemini nachdenken sollten, um Kanal-Hopping zu reduzieren und Supportvolumen nachhaltig zu deflektieren.

In Journeys denken, nicht in Kanälen

Die meisten Organisationen gestalten Support noch entlang interner Strukturen: hier eine Ticket-Queue, dort ein Chat-Widget, oben drauf ein IVR-Baum. Um Gemini für kanalhoppende Kund:innen wirksam zu nutzen, müssen Sie die Perspektive wechseln und die vollständige Journey eines typischen Anliegens abbilden: Suche auf der Website, Versuch in der In-App-Hilfe, Webchat, dann Telefon. So wird sichtbar, wo Kund:innen aussteigen, sich wiederholen oder widersprüchliche Botschaften erhalten.

Wenn Sie diese Journeys verstanden haben, können Sie Gemini als einheitliche Antwortschicht positionieren, die Kund:innen über alle Touchpoints hinweg begleitet. Strategisch bedeutet das, dass sich Kundenservice-Führung, Produktteam und IT auf ein gemeinsames Ergebnis einigen (z. B. „Problemlösung im ersten Kontakt“) statt auf kanalbezogene KPIs (z. B. „Reduktion der durchschnittlichen Gesprächsdauer im Telefonkanal“). Es bedeutet auch, dass Sie jene Journeys priorisieren, die die meisten doppelten Tickets erzeugen, statt von Tag eins an jede mögliche Frage abdecken zu wollen.

Eine Single Source of Truth für alle KI-Antworten nutzen

Der größte Treiber für Kanal-Hopping ist Inkonsistenz: Die FAQ sagt das eine, der Chatbot etwas anderes und die Telefonagent:innen wieder etwas anderes. Um das zu durchbrechen, sollten Sie Gemini als Orchestrator behandeln, der auf einer einzigen, gesteuerten Wissensbasis aufsetzt. Diese kann aus Helpcenter, Richtliniendokumenten und Produktdaten bestehen – sie muss aber kuratiert, versioniert und klar verantwortet sein.

Weisen Sie strategisch eine bereichsübergreifende Content-Verantwortung zu (oft im Kundenservice), die für die Antwortqualität über alle Kanäle hinweg verantwortlich ist. Gemini greift dann genau auf diese Quelle für E-Mail-Entwürfe, Chat-Antworten und IVR-Erklärungen zu. Das reduziert rechtliche und Compliance-Risiken und sorgt dafür, dass Aktualisierungen (z. B. neue Preise, geänderte Richtlinien) überall sofort wirken – und damit einen zentralen Grund für „Doppelchecks“ über andere Kanäle beseitigen.

Für Deflektion designen, ohne Vertrauen zu opfern

Supportvolumen zu deflektieren ist nur dann wertvoll, wenn das Vertrauen der Kund:innen erhalten oder sogar gestärkt wird. Zu aggressive Bots, die den Zugang zu Menschen blockieren, treiben Kund:innen schlicht in andere Kanäle oder zur Abwanderung. Wenn Sie Gemini-gestützten Self-Service planen, definieren Sie klare Leitplanken: Welche Themen sollen vollständig automatisiert gelöst werden, welche brauchen angeleitete Selbsthilfe und welche sollten zügig an Menschen übergeben werden.

Auf strategischer Ebene sollten Sie Erwartungen transparent steuern. Machen Sie deutlich, dass es sich um einen KI-Assistenten handelt, zeigen Sie klar, wie bei Bedarf ein Mensch erreicht werden kann, und stellen Sie sicher, dass Gemini das Gespräch für die Agent:innen zusammenfasst, damit Kund:innen sich nie wiederholen müssen. So stärken Sie das Vertrauen in die KI und schützen gleichzeitig Ihr Markenerlebnis.

Kundenservice, IT und Compliance frühzeitig ausrichten

Die Einführung von Gemini in Kundenservice-Prozesse berührt mehrere Teams: Service Operations, IT, Datensicherheit und oft auch die Rechtsabteilung. Treffen diese Stakeholder erst zum Go-Live aufeinander, drohen Verzögerungen, unklare Verantwortlichkeiten und halb implementierte Fähigkeiten. Behandeln Sie die Einführung von Gemini stattdessen als bereichsübergreifende Initiative mit klarer Sponsor:in und definierten Entscheidungswegen.

Stimmen Sie von Anfang an ab, wie Daten genutzt werden (was Gemini sehen darf), welche Logging- und Monitoringanforderungen gelten und welche Eskalationsregeln greifen. So schaffen Sie die Grundlage für sicheres Experimentieren: Ihr Serviceteam kann Prompts und Workflows iterieren; die IT sichert Performance und Integrationsstabilität ab; Compliance gibt grünes Licht für die Verarbeitung von Kundendaten. Das Ergebnis sind schnellere Lernzyklen und weniger Reibung beim Übergang vom Pilot zur Skalierung.

Duplikate und Kanal-Hopping explizit messen

Viele Customer-Service-Dashboards konzentrieren sich auf hochaggregierte Kennzahlen wie Gesamtvolumen oder durchschnittliche Bearbeitungszeit. Um zu verstehen, ob Gemini Kanal-Hopping tatsächlich reduziert, brauchen Sie spezifische Metriken: Rate doppelter Tickets pro Anliegenart, Anzahl der genutzten Kanäle pro eindeutigem Kundenproblem und Zeit bis zur ersten wirksamen Antwort (nicht nur bis zur ersten Reaktion).

Definieren Sie diese Kennzahlen idealerweise vor der Einführung von Gemini, um eine belastbare Ausgangsbasis zu haben. Instrumentieren Sie Ihre Systeme so, dass Interaktionen über Identifikatoren wie Kund:innen-ID, E-Mail oder Session-Tokens verknüpft werden können. So sehen Sie, wie häufig eine Anfrage, die im Gemini-Chatbot startet, später noch als Telefonanruf endet. Indem Sie dies über die Zeit beobachten, können Sie Inhalte, Prompts und Workflows dort nachschärfen, wo die Deflektion noch nicht stark genug ist – und die Wirkung gegenüber der Organisation mit belastbaren Daten statt Anekdoten belegen.

Sorgfältig eingesetzt kann Gemini zum konsistenten „Gehirn“ hinter all Ihren Supportkanälen werden und jene Lücken und Widersprüche schließen, die Kund:innen zum Hopping zwischen E-Mail, Chat und Telefon treiben. Indem Sie Journeys, Wissen und Metriken ausrichten, verwandeln Sie KI von einem isolierten Chatbot in eine echte Engine zur Volumendeflektion. Reruption bringt die Kombination aus tiefgehender KI-Engineering-Expertise und praktischer Kundenservice-Erfahrung ein, um diese Gemini-gestützten Workflows End-to-End zu designen und zu implementieren; wenn Sie testen möchten, wie das in Ihrer Umgebung aussieht, ist unser KI-PoC ein schneller, risikoarmer Weg, um von der Idee zu einem funktionierenden Prototypen zu kommen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Zahlungsverkehr bis Lebensmittelproduktion: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Visa

Zahlungsverkehr

Die Zahlungsbranche sah sich einem Anstieg an Online-Betrug gegenüber, insbesondere Enumeration-Angriffen, bei denen Angreifer automatisierte Skripte und Botnetze einsetzen, um gestohlene Kartendaten in großem Umfang zu testen. Diese Angriffe nutzen Schwachstellen bei Transaktionen ohne Kartenpräsenz (card-not-present) aus und verursachen weltweit jährliche Betrugsverluste in Höhe von 1,1 Mrd. $ sowie erhebliche Betriebskosten für Emittenten. Visa benötigte Echtzeiterkennung, um dem entgegenzuwirken, ohne hohe False-Positive-Raten zu erzeugen, die legitime Kundinnen und Kunden blockieren — insbesondere vor dem Hintergrund steigender E‑Commerce‑Volumina wie bei Cyber Monday-Spitzen. Traditionelle Betrugssysteme kämpften mit der Geschwindigkeit und Raffinesse dieser Angriffe, verstärkt durch KI-gesteuerte Bots. Die Herausforderung für Visa bestand darin, riesige Transaktionsdaten in Millisekunden zu analysieren, anomalische Muster zu erkennen und gleichzeitig nahtlose Nutzererfahrungen beizubehalten. Dafür waren fortgeschrittene KI- und Machine‑Learning‑Lösungen nötig, um Risiken präzise vorherzusagen und zu bewerten.

Lösung

Visa entwickelte den Visa Account Attack Intelligence (VAAI) Score, ein generative KI‑gestütztes Tool, das in Echtzeit die Wahrscheinlichkeit von Enumeration-Angriffen bei Transaktionen ohne Kartenpräsenz bewertet. Durch die Kombination von generativen KI‑Komponenten mit Machine‑Learning‑Modellen erkennt VAAI ausgeklügelte Muster von Botnetzen und Skripten, die legacy, regelbasierte Systeme umgehen. In Visa's breiterem KI-getriebenen Betrugs-Ökosystem, einschließlich Identity Behavior Analysis, verbessert die Lösung das Risikoscoring durch verhaltensbasierte Erkenntnisse. Zunächst 2024 für US‑Emittenten eingeführt, reduziert sie sowohl Betrug als auch falsche Ablehnungen und optimiert die Betriebsabläufe. Dieser Ansatz ermöglicht Emittenten, Bedrohungen in bislang ungekanntem Umfang proaktiv zu mindern.

Ergebnisse

  • 40 Mrd. $ an Betrug verhindert (Okt 2022–Sep 2023)
  • Fast 2x Steigerung YoY bei der Betrugsprävention
  • 1,1 Mrd. $ jährlich an globalen Verlusten durch Enumeration-Angriffe adressiert
  • 85 % mehr betrügerische Transaktionen an Cyber Monday 2024 YoY blockiert
  • 200 % Anstieg an Betrugsversuchen ohne Serviceunterbrechung abgewickelt
  • Verbesserte Genauigkeit des Risikoscorings durch ML und Identity Behavior Analysis
Fallstudie lesen →

DBS Bank

Bankwesen

DBS Bank, die führende Finanzinstitution in Südostasien, kämpfte damit, KI von Experimenten in die Produktion zu skalieren, während Betrugsbedrohungen zunahmen, die Nachfrage nach hyperpersonalisierten Kundenerlebnissen stieg und operative Ineffizienzen im Service-Support bestanden. Traditionelle Systeme zur Betrugserkennung hatten Schwierigkeiten, bis zu 15.000 Datenpunkte pro Kunde in Echtzeit zu verarbeiten, was zu übersehenen Bedrohungen und suboptimalen Risikobewertungen führte. Personalisierungsbemühungen wurden durch isolierte Datensilos und fehlende skalierbare Algorithmen für Millionen von Nutzern in unterschiedlichen Märkten behindert. Zusätzlich sahen sich Kundendienstteams mit überwältigenden Anfragevolumina konfrontiert, wobei manuelle Prozesse die Reaktionszeiten verlangsamten und die Kosten erhöhten. Regulatorischer Druck im Bankwesen erforderte verantwortungsvolle KI-Governance, während Fachkräftemangel und Integrationsherausforderungen eine unternehmensweite Einführung erschwerten. DBS benötigte einen robusten Rahmen, um Datenqualitätsprobleme, Modell-Drift und ethische Bedenken bei der Einführung generativer KI zu überwinden und gleichzeitig Vertrauen und Compliance in einem wettbewerbsintensiven südostasiatischen Umfeld sicherzustellen.

Lösung

DBS startete ein konzernweites KI-Programm mit über 20 Anwendungsfällen, nutzte maschinelles Lernen für fortschrittliche Betrugsrisikomodelle und Personalisierung und ergänzte dies durch generative KI für einen internen Support-Assistenten. Die Betrugsmodelle integrierten umfangreiche Datensätze für die Erkennung von Anomalien in Echtzeit, während Personalisierungsalgorithmen hyperzielgerichtete Hinweise und Anlageideen über die digibank-App lieferten. Ein Mensch-KI-Synergie-Ansatz befähigte Serviceteams mit einem GenAI-Assistenten, der Routineanfragen aus internen Wissensdatenbanken bearbeitet. DBS legte Wert auf verantwortungsvolle KI durch Governance-Rahmenwerke, Qualifizierungsmaßnahmen für über 40.000 Mitarbeitende und eine gestaffelte Einführung, beginnend mit Pilotprojekten 2021 und Skalierung in die Produktion bis 2024. Partnerschaften mit Technologieführern und eine von Harvard unterstützte Strategie sicherten ein ethisches Skalieren in den Bereichen Betrug, Personalisierung und Betrieb.

Ergebnisse

  • 17 % Steigerung der Einsparungen durch verhinderte Betrugsversuche
  • Über 100 maßgeschneiderte Algorithmen für Kundenanalysen
  • 250.000 monatliche Anfragen effizient vom GenAI-Assistenten bearbeitet
  • Mehr als 20 konzernweite KI-Anwendungsfälle eingeführt
  • Analysiert bis zu 15.000 Datenpunkte pro Kunde zur Betrugserkennung
  • Produktivitätssteigerung um 20 % durch KI-Einführung (CEO-Aussage)
Fallstudie lesen →

John Deere

Landwirtschaft

In der konventionellen Landwirtschaft setzen Landwirte oft auf flächendeckendes Spritzen von Herbiziden über ganze Felder, was zu erheblichem Verschnitt führt. Dieser Ansatz bringt Chemikalien pauschal auf Kulturen und Unkräutern gleichermaßen aus, was zu hohen Kosten für Betriebsmittel führt—Herbizide können 10–20 % der variablen Betriebskosten ausmachen—und zu Umweltschäden durch Bodenbelastung, Abfluss ins Wasser und beschleunigte Herbizidresistenz . Weltweit verursachen Unkräuter bis zu 34 % Ertragsverluste, doch Übernutzung von Herbiziden verschärft Resistenzen bei über 500 Arten und bedroht die Ernährungssicherheit . Bei Reihenfrüchten wie Baumwolle, Mais und Sojabohnen ist die Unterscheidung zwischen Unkraut und Kulturpflanzen besonders schwierig wegen visueller Ähnlichkeiten, variierender Feldbedingungen (Licht, Staub, Geschwindigkeit) und der Notwendigkeit von Sofortentscheidungen bei Spritzgeschwindigkeiten von 15 mph. Arbeitskräftemangel und steigende Chemikalienpreise im Jahr 2025 setzten Landwirte zusätzlich unter Druck, wobei die Herbizidkosten in den USA mehr als 6 Mrd. $ jährlich überstiegen . Traditionelle Methoden konnten Wirksamkeit, Kosten und Nachhaltigkeit nicht in Einklang bringen.

Lösung

See & Spray revolutioniert die Unkrautbekämpfung durch die Integration von hochauflösenden Kameras, KI-gestützter Computervision und präzisen Düsen an Spritzgeräten. Das System erfasst alle paar Zoll Bilder, nutzt Objekterkennungsmodelle, um Unkräuter (über 77 Arten) von Nutzpflanzen in Millisekunden zu unterscheiden, und aktiviert die Sprühdüsen nur an den Zielstellen—wodurch flächendeckendes Aufspritzen reduziert wird . John Deere übernahm Blue River Technology im Jahr 2017, um die Entwicklung zu beschleunigen; die Modelle wurden auf Millionen annotierter Bilder trainiert, um robuste Performance über unterschiedliche Bedingungen zu gewährleisten. Verfügbar in den Versionen Premium (hohe Dichte) und Select (preiswerter Retrofit), lässt es sich in bestehende John Deere-Geräte integrieren und nutzt Edge-Computing für Echtzeit-Inferenz ohne Cloud-Abhängigkeit . Diese robotische Präzision minimiert Abdrift und Überlappung und stimmt mit Nachhaltigkeitszielen überein.

Ergebnisse

  • 5 Millionen Acres 2025 behandelt
  • 31 Millionen Gallonen Herbizid-Mischung eingespart
  • Fast 50 % Reduktion beim Einsatz nicht-residualer Herbizide
  • Über 77 Unkrautarten zuverlässig erkannt
  • Bis zu 90 % weniger Chemikalien in sauberen Kulturflächen
  • Amortisation innerhalb von 1–2 Saisons für Anwender
Fallstudie lesen →

bunq

Bankwesen

Als bunq ein rasantes Wachstum als zweitgrößte Neobank in Europa verzeichnete, wurde die Skalierung des Kundenservice zu einer kritischen Herausforderung. Bei Millionen von Nutzern, die personalisierte Banking-Informationen zu Konten, Ausgabeverhalten und Finanzberatung auf Abruf verlangen, stand das Unternehmen unter Druck, sofortige Antworten zu liefern, ohne die Zahl der menschlichen Supportteams proportional zu erhöhen — was Kosten treiben und Abläufe verlangsamen würde. Traditionelle Suchfunktionen in der App reichten für komplexe, kontextabhängige Anfragen nicht aus und führten zu Ineffizienzen und Nutzerfrustration. Zudem stellten die Gewährleistung von Datenschutz und Genauigkeit in einem stark regulierten Fintech-Umfeld erhebliche Risiken dar. bunq benötigte eine Lösung, die nuancierte Unterhaltungen führen und gleichzeitig EU-Bankvorschriften einhalten konnte, Halluzinationen vermeiden würde, wie sie in frühen GenAI-Modellen vorkommen, und sich nahtlos integrieren ließe, ohne die App-Performance zu beeinträchtigen. Ziel war es, Routineanfragen zu automatisieren, sodass menschliche Agenten sich auf wertschöpfende Fälle konzentrieren konnten.

Lösung

bunq begegnete diesen Herausforderungen durch die Entwicklung von Finn, einer proprietären GenAI-Plattform, die direkt in die mobile App integriert wurde und die herkömmliche Suchfunktion durch einen konversationellen KI-Chatbot ersetzte. Nach der Einstellung von mehr als einem Dutzend Datenexperten im Vorjahr baute das Team Finn so, dass er sicher auf nutzerspezifische Finanzdaten zugreift, Fragen zu Kontoständen, Transaktionen und Budgets beantwortet und sogar allgemeine Ratschläge gibt, wobei der Gesprächskontext über Sitzungen hinweg erhalten bleibt. Nach einer Beta wurde Finn im Dezember 2023 als Europas erster KI-gestützter Bankassistent eingeführt und entwickelte sich schnell weiter. Bis Mai 2024 wurde er vollständig konversationell, was natürliche Mehrfachrunden-Interaktionen ermöglichte. Dieser retrieval-augmented generation (RAG)-Ansatz stützte Antworten auf Echtzeit-Nutzerdaten, minimierte Fehler und erhöhte die Personalisierung.

Ergebnisse

  • 100.000+ Fragen innerhalb von Monaten nach der Beta beantwortet (Ende 2023)
  • 40 % der Nutzeranfragen bis Mitte 2024 autonom vollständig gelöst
  • 35 % der Anfragen unterstützt, insgesamt 75 % sofortige Support-Abdeckung
  • Vor dem Start 12+ Datenexperten für die Dateninfrastruktur eingestellt
  • Zweitgrößte Neobank Europas nach Nutzerbasis (1M+ Nutzer)
Fallstudie lesen →

Duolingo

EdTech

Duolingo, ein Vorreiter im gamifizierten Sprachlernen, sah sich mit wesentlichen Einschränkungen bei der Bereitstellung von praktischer Konversationspraxis und tiefgehendem Feedback konfrontiert. Während die kurzen Lektionen Wortschatz und Grundlagen effektiv vermittelten, sehnten sich Nutzer nach immersiven Dialogen, die Alltagssituationen simulieren – etwas, das statische Übungen nicht leisten konnten . Diese Lücke behinderte den Fortschritt in Richtung Sprachflüssigkeit, da Lernende kaum Gelegenheiten für freies Sprechen und nuancierte Grammatik-Erklärungen ohne teure menschliche Tutoren hatten. Zudem war die Inhaltserstellung ein Engpass. Fachexperten erstellten Lektionen manuell, was die Einführung neuer Kurse und Sprachen bei schnellem Nutzerwachstum verlangsamte. Die Skalierung personalisierter Erfahrungen über 40+ Sprachen erforderte Innovation, um das Engagement ohne proportionale Ressourcensteigerung aufrechtzuerhalten . Diese Herausforderungen drohten erhöhte Abwanderung und begrenzte Monetarisierung in einem wettbewerbsintensiven EdTech-Markt.

Lösung

Duolingo startete Duolingo Max im März 2023 – ein Premium-Abo, das von GPT-4 angetrieben wird und Roleplay für dynamische Dialoge sowie Explain My Answer für kontextuelle Rückmeldungen einführte . Roleplay simuliert reale Interaktionen wie Kaffeebestellungen oder Urlaubsplanung mit KI-Charakteren und passt sich in Echtzeit an Nutzereingaben an. Explain My Answer liefert detaillierte Aufschlüsselungen richtiger/falscher Antworten und verbessert so das Verständnis. Ergänzend automatisiert Duolingo's Birdbrain-LLM (feinabgestimmt auf proprietären Daten) die Lektionserstellung, sodass Experten Inhalte 10× schneller produzieren können . Dieser hybride Mensch‑KI-Ansatz sicherte Qualität bei gleichzeitiger schneller Skalierung und wurde nahtlos in die App für alle Schwierigkeitsstufen integriert .

Ergebnisse

  • DAU-Wachstum: +59 % YoY auf 34,1 Mio. (Q2 2024)
  • DAU-Wachstum: +54 % YoY auf 31,4 Mio. (Q1 2024)
  • Umsatzwachstum: +41 % YoY auf 178,3 Mio. $ (Q2 2024)
  • Bereinigte EBITDA-Marge: 27,0 % (Q2 2024)
  • Lektionserstellung: 10× schneller mit KI
  • Selbstwirksamkeit der Nutzer: deutliche Steigerung nach KI-Nutzung (Studie 2025)
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Wissensbasis vereinheitlichen, bevor Sie Gemini anbinden

Bevor Sie Gemini an jeden Customer-Touchpoint anschließen, sollten Sie die Quellen konsolidieren, aus denen es seine Antworten bezieht. Identifizieren Sie Ihr zentrales Helpcenter, interne FAQs, Richtliniendokumente und Produkt-Handbücher und führen Sie diese in einer strukturierten, aktuellen Support-Wissensbasis zusammen. Entfernen Sie Dubletten, markieren Sie veraltete Inhalte und ergänzen Sie fehlende Abdeckung für Ihre Top-20-Kontaktgründe.

Konfigurieren Sie anschließend Gemini so, dass nur diese vereinheitlichte Quelle indexiert oder abgefragt wird. Wenn Sie Retrieval-Augmented Generation (RAG) nutzen, definieren Sie Dokumentkollektionen (z. B. Billing, Bestellungen, technisches Setup) und fügen Sie Metadaten-Tags wie Sprache, Region, Produktlinie und Gültigkeitsdaten hinzu. So stellen Sie sicher, dass Gemini – egal ob im Webchat, als In-App-Assistent oder automatischer E-Mail-Responder – immer auf dieselbe kanonische Wahrheit zugreift.

Gemini im Webchat einbetten, um einfache Anfragen zu beantworten und zu halten

Webchat ist oft der erste Kontaktpunkt für digitale Kund:innen – und ein häufiger Ausgangspunkt für Kanal-Hopping. Betten Sie einen Gemini-gestützten virtuellen Agenten in Ihr Chat-Widget ein mit dem Ziel, häufige Fragen bereits im ersten Kontakt zu lösen oder deutlich voranzubringen. Starten Sie mit Ihren häufigsten, wenig komplexen Themen: Passwort-Resets, Sendungsverfolgung, Rechnungsduplikate, Terminverschiebungen oder grundlegende Fehlerbehebung.

Setzen Sie Leitplanken, indem Sie Intent-Erkennung und Übergabetrigger konfigurieren (z. B. wenn Kund:innen explizit nach einem Menschen fragen oder bestimmte Schlüsselwörter wie „Beschwerde“ oder „Kündigung“ verwenden). Wenn eine Eskalation nötig ist, sollte Gemini das gesamte Gespräch für die Agent:innen zusammenfassen und über Ihr CRM übergeben, damit sich Kund:innen nicht wiederholen müssen – ein entscheidender Schritt, um zu verhindern, dass sie aus Frust in einen anderen Kanal springen.

Beispiel für ein Gemini-Systemprompt im Chat:
Sie sind ein Kundenservice-Assistent für [Unternehmen].
- Antworten Sie ausschließlich auf Basis der bereitgestellten Ausschnitte aus der Wissensbasis.
- Wenn Informationen fehlen, stellen Sie eine klärende Rückfrage und bieten Sie dann an, an eine:n menschliche:n Agent:in zu übergeben.
- Bestätigen Sie in Ihrer ersten Antwort immer das Hauptziel der Kundin / des Kunden.
- Wenn Sie das Anliegen lösen, benennen Sie das Ergebnis klar und fassen Sie die nächsten Schritte zusammen.
- Wenn Sie eskalieren, erzeugen Sie eine kurze Zusammenfassung für die Agent:innen mit:
  - Ziel der Kundin / des Kunden
  - Wichtigen Details (Bestell-ID, Produkt, Daten)
  - Bereits im Chat unternommenen Schritten
  - Stimmung der Kundin / des Kunden (positiv/neutral/negativ)

Gemini nutzen, um konsistente E-Mail-Antworten aus demselben Wissen zu erstellen

E-Mail-Queues sind oft der Ort, an dem doppelte Tickets unbemerkt anwachsen. Integrieren Sie Gemini in Ihr Ticketsystem, damit es eingehende E-Mails lesen, relevante Ausschnitte aus derselben zentralen Wissensbasis ziehen und einen Antwortentwurf zur Prüfung durch die Agent:innen erstellen kann. So bleiben Tonalität, Struktur und Inhalt konsistent mit dem, was Ihr Chatbot oder Ihr IVR kommuniziert.

Definieren Sie Vorlagen für Ihre wichtigsten Kontaktgründe und lassen Sie Gemini Details (Bestellnummern, Produktnamen, Fristen) anhand der Ticket-Metadaten ausfüllen. Nutzen Sie ein kurzes Systemprompt, um Richtlinientreue zu erzwingen und zu verhindern, dass Gemini Zusagen macht, die außerhalb Ihrer Regeln liegen.

Beispiel für ein Gemini-Systemprompt zur E-Mail-Erstellung:
Sie verfassen E-Mail-Antworten für das Kundenservice-Team.
- Verwenden Sie dieselben Richtlinien und Informationen wie der Support-Chatbot.
- Schreiben Sie knapp, klar und freundlich. Vermeiden Sie Fachjargon.
- Erfinden Sie keine Richtlinien, Preise oder Fristen.
- Wenn das Anliegen nicht vollständig per E-Mail gelöst werden kann, schlagen Sie den nächsten konkreten Schritt vor.
Input:
- E-Mail der Kundin / des Kunden
- Relevante Ausschnitte aus der Wissensbasis
- Ticket-Metadaten (Name, Bestell-ID, Produkt)

IVR und Telefon-Support mit Gemini-Zusammenfassungen erweitern

Das Telefon bleibt ein kritischer Kanal, insbesondere für hochwertige oder dringende Anliegen, ist aber auch ein typischer letzter Ausweg, wenn Self-Service scheitert. Zwar kann Gemini Anrufe nicht direkt entgegennehmen, Sie können es aber in Ihre IVR-Flows und den Agent:innen-Desktop integrieren. Erfassen Sie beispielsweise kurze Problembeschreibungen per Speech-to-Text in der IVR und lassen Sie Gemini dann die Intention klassifizieren und wissensbasierte Antwortvorschläge generieren, die die IVR ausspielen kann.

Für Anrufe, die bei Agent:innen landen, können Sie Gemini in Echtzeit Zusammenfassungen und Antwortempfehlungen auf Basis des Gesprächstranskripts erstellen lassen. Das reduziert die Nachbearbeitungszeit und stellt sicher, dass Ihre Systeme bei späteren Folgekontakten per E-Mail oder Chat über eine konsistente, KI-generierte Zusammenfassung verfügen, an die andere Kanäle anknüpfen können – und minimiert so das Risiko widersprüchlicher Antworten erheblich.

Beispiel für ein Gemini-Prompt zur Gesprächszusammenfassung:
Sie fassen Kundenservice-Telefonate zusammen.
Erzeugen Sie:
- Eine 2–3-sätzige Zusammenfassung des Anliegens
- Wichtige Datenpunkte (IDs, Daten, Produkte) als Stichpunktliste
- Die Hauptursache in einem kurzen Satz
- Nächste Schritte und Verantwortlichkeit (Kund:in vs. Unternehmen)
Die Zusammenfassung sollte für jede:n Support-Mitarbeiter:in verständlich sein, die / der eine spätere Folgeanfrage per E-Mail oder Chat bearbeitet.

Interaktionen verknüpfen, um doppelte Tickets zu verhindern

Um Kanal-Hopping direkt anzugehen, konfigurieren Sie Ihre Systeme so, dass Gemini erkennen kann, wenn eine neue Interaktion wahrscheinlich ein Duplikat eines bestehenden Falls ist. Nutzen Sie gemeinsame Identifikatoren (E-Mail, Telefonnummer, Kund:innen-ID oder authentifizierte App-Session) und lassen Sie Gemini die neue Nachricht mit offenen Tickets vergleichen. Wenn die Ähnlichkeit hoch ist, schlagen Sie vor, sie mit dem bestehenden Ticket zu verknüpfen, statt ein neues zu eröffnen.

Auf Kund:innenseite können Sie Ihren Gemini-Chatbot so instruieren, dass er bestehende Fälle aktiv anspricht: „Ich sehe, dass wir bereits an Ihrem Anliegen zu [Zusammenfassung] arbeiten. Hier ist der aktuelle Status…“ Schon das allein verhindert viele „Ich wollte nur nachfragen“-Anfragen über andere Kanäle. Auf Agent:innenseite können Sie im Ticket-Interface einen Hinweis einblenden: „Mögliches Duplikat von Ticket #12345 – gleiche Kund:in, ähnliche Beschreibung“, inklusive einer von Gemini generierten Begründung.

KPIs und Feedbackschleifen für kontinuierliches Tuning etablieren

Wenn Gemini kanalübergreifend live ist, sollten Sie es als Produkt behandeln – nicht als einmaliges Projekt. Definieren Sie KPIs wie Deflektionsrate für die Top-10-Intents, Rate doppelter Tickets pro Anliegenart, durchschnittliche Anzahl der Kanäle pro gelöstem Anliegen und Kundenzufriedenheit für KI-bearbeitete Interaktionen. Dashboards sollten es Operations-Verantwortlichen leicht machen zu sehen, welche Journeys gut funktionieren und welche weiterhin Kanal-Hopping auslösen.

Implementieren Sie eine schlanke Feedbackschleife: Ermöglichen Sie Agent:innen, KI-Vorschläge als hilfreich oder nicht hilfreich zu markieren, und lassen Sie Kund:innen KI-Chat-Gespräche bewerten. Überprüfen Sie regelmäßig schwach performende Intents und aktualisieren Sie entsprechend Wissensbasis, Prompts oder Workflows. Im Zeitverlauf kann dieses Tuning realistisch 15–30 % weniger doppelte Tickets, kürzere Lösungszeiten für einfache Anliegen und eine spürbar bessere wahrgenommene Reaktionsfähigkeit liefern – ohne zusätzliches Personal.

Erwartetes Ergebnis: Durch die Vereinheitlichung des Wissens, die Einbettung von Gemini in Chat-, E-Mail- und Telefon-Workflows und das aktive Verknüpfen zusammenhängender Interaktionen sehen Organisationen typischerweise innerhalb von 4–8 Wochen fokussierter Umsetzung eine Reduktion von Duplikat-Tickets und Kanal-Hopping. Das entlastet Agent:innen für komplexe Fälle und verbessert die Kundenzufriedenheit insgesamt.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini reduziert Kanal-Hopping, indem es sicherstellt, dass Kund:innen überall dieselbe verlässliche Antwort erhalten – unabhängig davon, wo sie anfragen. Es nutzt eine gesteuerte Wissensbasis, um Chatbot, E-Mail-Entwürfe und IVR-Vorschläge zu speisen, sodass die Informationen in allen Kanälen aufeinander abgestimmt sind.

Wenn Kund:innen sich erneut melden, kann Gemini den Kontext zudem anhand von Identifikatoren (E-Mail, Kund:innen-ID, Telefonnummer) erkennen und frühere Interaktionen zusammenfassen. So kann der Chatbot sagen: „Hier ist der aktuelle Stand Ihres bestehenden Falls“, statt bei null zu beginnen, und Agent:innen können die Geschichte fortschreiben, statt ein neues Ticket zu eröffnen. Diese Kombination aus konsistenten Antworten und inhaltlicher Kontinuität hält Kund:innen davon ab, für dasselbe Anliegen mehrere Kanäle auszuprobieren.

Sie brauchen kein großes Data-Science-Team, aber drei Fähigkeiten sollten vorhanden sein: eine:n Verantwortliche:n im Kundenservice, die / der Ihre wichtigsten Kontaktgründe kennt, eine technische Ressource in Engineering oder IT, um Gemini mit Ihren Chat-, E-Mail- und IVR-Systemen zu integrieren, sowie eine Person, die für die Pflege der Wissensbasis zuständig ist.

Reruption arbeitet in der Regel mit bestehenden Serviceleiter:innen und einem kleinen internen IT-Team. Wir übernehmen die KI-Konfiguration, das Prompt-Design und die Integrationsarchitektur, während Ihr Team Domänenwissen, Richtlinien und den Zugang zu Systemen wie CRM oder Ticketsystem bereitstellt. Im Zeitverlauf unterstützen wir Ihr Team dabei, Prompts und Inhalte eigenständig anzupassen, sodass Sie die Lösung selbst betreiben und weiterentwickeln können.

Bei einem fokussierten Umfang (z. B. die Top 10–20 Kontaktgründe Ihrer Kund:innen) lassen sich messbare Effekte von Gemini-gestützter Support-Deflektion innerhalb von 4–8 Wochen erzielen. In den ersten Wochen stehen meist die Vereinheitlichung der Wissensbasis, die Anbindung von Gemini an ein bis zwei Kanäle und das Tuning der Prompts auf Ihren Tonfall und Ihre Richtlinien im Vordergrund.

Nach dem Go-Live sehen Sie erste Signale in der Containment-Rate im Chat, weniger neuen Tickets zu den jeweiligen Intents und weniger Fällen, in denen Kund:innen mehrere Kanäle für dasselbe Anliegen nutzen. Die vollständige Optimierung über E-Mail, Chat und Telefon hinweg kann mehrere Monate dauern – aber Sie müssen nicht so lange warten, um Vorteile zu sehen: Ein gut konzipierter Pilot in einem einzigen Kanal zeigt bereits klar, wie viel doppeltes Volumen Sie realistisch entfernen können.

Die Kosten einer Gemini-basierten Kundenservice-Lösung bestehen aus drei Komponenten: Nutzungskosten für das Gemini-Modell selbst, Integrations- und Engineering-Aufwand sowie laufende Governance von Wissen und Inhalten. Für die meisten Organisationen sind die Modellkosten im Vergleich zu den Personalkosten der Agent:innen relativ gering; der Hauptinvestitionsbedarf liegt darin, Workflows und Integrationen richtig aufzusetzen.

Beim ROI können Unternehmen mit ausgeprägtem Kanal-Hopping häufig bereits in der ersten Phase doppelte Tickets um 15–30 % reduzieren und Lösungszeiten für einfache Anliegen verkürzen. Das führt direkt zu weniger Kontakten pro Kundenproblem, niedrigeren Kosten pro gelöstem Fall und mehr Kapazität für Agent:innen, sich um komplexe oder wertschöpfende Anliegen zu kümmern. Bei guter Konzeption wird die Amortisationszeit üblicherweise in Monaten und nicht in Jahren gemessen.

Reruption ist auf den Aufbau von KI-Lösungen für den Kundenservice spezialisiert, die über Folien hinausgehen und als echte, produktive Lösungen live gehen. Mit unserem KI-PoC-Angebot (9.900 €) können wir in kurzer Zeit validieren, ob Gemini in Ihrer spezifischen Umgebung – mit Ihren Daten und Systemen – Supportvolumen wirksam deflektieren und Kanal-Hopping reduzieren kann.

Darauf aufbauend setzen wir unseren Co-Preneur-Ansatz um: Wir arbeiten eng mit Ihrem Team zusammen, ähnlich wie es ein Co-Founder tun würde, definieren die kritischen Journeys, entwerfen die Wissensarchitektur und implementieren Gemini über Chat-, E-Mail- und Telefon-Workflows hinweg. Wir kümmern uns um Engineering-Details sowie Sicherheits- und Compliance-Aspekte, während Ihr Team eng in Entscheidungen eingebunden bleibt. So stellen wir sicher, dass die finale Lösung zu Ihren Prozessen passt und nach dem Rollout intern verantwortet und weiterentwickelt werden kann.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media