Die Herausforderung: Versteckte Self-Service-Inhalte

Die meisten Customer-Service-Teams leiden nicht unter einem Mangel an Inhalten – sie leiden unter versteckten Inhalten. Ihre FAQ, Ihr Help Center und Ihre Wissensdatenbank enthalten bereits Antworten auf einen großen Teil der eingehenden Tickets. Dennoch melden sich Kund:innen, weil sie den richtigen Artikel nicht finden, die Formulierungen nicht zu ihrer Absicht passen oder die Navigation sie dazu bringt, aufzugeben und ein Ticket zu eröffnen.

Traditionelle Self-Service-Ansätze – statische FAQs, keywordbasierte Suche und manuell kuratierte Themenbäume – kommen nicht mehr damit mit, wie Kund:innen ihre Probleme beschreiben. Sie tippen natürliche Sprache, teilweise Fehlermeldungen oder schicken sogar Screenshots. Altsysteme gleichen exakte Wörter ab, aber nicht die tatsächliche Absicht, sodass relevante Artikel verborgen bleiben. Content-Teams reagieren, indem sie mehr Artikel oder neue Bereiche anlegen – was das Auffindbarkeitsproblem häufig eher verschärft als löst.

Die geschäftlichen Auswirkungen sind erheblich. Vermeidbare Kontakte blähen das Ticketvolumen auf, erhöhen die Supportkosten und verlangsamen die Bearbeitungszeiten für komplexe Fälle. Agents verbringen Zeit mit „bereits gelösten“ Anfragen, statt sich auf wertschöpfende Interaktionen zu konzentrieren. Schlechte Self-Service-Erfahrungen schaden zudem der wahrgenommenen Reaktionsfähigkeit und der Kundenzufriedenheit – Kund:innen fühlen sich ignoriert, wenn sie später feststellen, dass die Antwort längst existierte. Langfristig untergräbt das das Vertrauen in Ihre digitalen Supportkanäle.

Die gute Nachricht: Dieses Problem ist sehr real, aber mit den richtigen KI-Fähigkeiten auch sehr gut lösbar. Indem Sie Tools wie Gemini nutzen, um Nutzerintentionen zu verstehen, Wissenslücken zu analysieren und Inhalte umzuschreiben, können Unternehmen die Nutzung von Self-Service deutlich steigern, ohne ihren gesamten Support-Stack neu aufzubauen. Bei Reruption haben wir Organisationen dabei geholfen, wenig genutzte Dokumentation in effektiven, KI-gestützten Support zu verwandeln – und im weiteren Verlauf dieser Seite zeigen wir Ihnen konkrete, praxisnahe Schritte, mit denen Sie das Gleiche erreichen können.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Bei Reruption sehen wir immer wieder das gleiche Muster: Customer-Service-Teams investieren massiv in FAQs und Help Center, aber die Self-Service-Deflection stagniert, weil Kund:innen Inhalte nicht finden oder nicht verstehen. Unsere Erfahrung mit dem Aufbau von KI-gestützten Assistants und Lösungen zur Dokumentenanalyse zeigt, dass Gemini besonders stark darin ist, unstrukturierte, reale Nutzerintentionen mit der richtigen Dokumentation zu verknüpfen und sichtbar zu machen, wo Ihre Self-Service-Inhalte untergenutzt oder komplett fehlend sind.

Versteckte Inhalte als Datenproblem behandeln, nicht als Contentproblem

Viele Organisationen reagieren auf geringe Self-Service-Nutzung, indem sie mehr Artikel schreiben oder das Help Center neu gestalten. In der Praxis ist der größere Hebel jedoch das Verständnis, wie bestehende Inhalte gegenüber realen Nutzerintentionen performen. Strategisch sollten Sie versteckte Self-Service-Inhalte als Daten- und Discovery-Problem behandeln: Welche Intentionen tauchen in Tickets auf, welche Intentionen sind in Ihrer Wissensdatenbank bereits abgedeckt und wo gibt es eine Diskrepanz.

Gemini kann Ticket-Logs, Suchanfragen und Artikelinhalte verarbeiten, um Intentionen zu clustern und diese auf Dokumentation abzubilden. Dadurch verschiebt sich die Denkweise Ihres Teams von „wir brauchen mehr Content“ zu „wir müssen den richtigen Content auffindbar und nutzbar machen“. Zudem können Sie Änderungen nach Volumen und Business Impact priorisieren, statt zu raten.

KI-Self-Service mit Ihrer übergreifenden Supportstrategie ausrichten

Einen KI-Chatbot ohne Strategie einfach auf Ihr Help Center zu setzen, liefert selten nachhaltige Ticketreduktion. Bevor Sie starten, definieren Sie, welche Kontaktarten Sie ablenken (deflect), welche Sie triagieren und welche immer an Menschen gehen sollen. Diese strategische Segmentierung stellt sicher, dass Gemini-gestützte Suche und Chat für die richtigen Use Cases optimiert sind und Kund:innen nicht von einem überambitionierten Bot frustriert werden.

Wir empfehlen, Customer Journeys zu kartieren und festzulegen, wo KI lösen, leiten oder übergeben soll. Beispiel: Einfache „Wie mache ich …?“-Fragen können voll automatisiert werden, während Rechnungsstreitigkeiten immer eskaliert werden – inklusive einer von Gemini generierten Zusammenfassung für den Agent. Diese Klarheit beeinflusst, wie Sie Prompts, Workflows und Erfolgskennzahlen gestalten.

Ihre Wissensdatenbank für die Nutzung durch KI vorbereiten

Gemini kann mit unstrukturierten Daten arbeiten, aber der strategische Wert steigt erheblich, wenn Ihre Support-Wissensdatenbank einer grundlegenden Struktur folgt. Das bedeutet kein riesiges Taxonomieprojekt, sondern: eindeutige IDs für Artikel, klare Titel, Tags für Produkte oder Features sowie einen konsistenten Platz für Voraussetzungen, Schritte und Sonderfälle. Diese Konventionen erleichtern es Gemini, Inhalte zu finden, zu bewerten und umzuschreiben.

Denken Sie an Gemini als eine sehr intelligente Schicht auf Ihrer Dokumentation – nicht als magischen Ersatz. Je besser die zugrunde liegende Struktur, desto zuverlässiger können Sie KI Antworten geben lassen, Artikel empfehlen oder neue How-tos entwerfen lassen. Diese Basisarbeit ist eine strategische Investition, die sich mit jedem weiteren automatisierten Teil Ihres Customer Service mehrfach auszahlt.

Customer Service, Content und Engineering in einem Team vereinen

Erfolgreiche KI-Self-Service-Initiativen gehören selten nur einer einzelnen Funktion. Customer Service kennt die echten Schmerzpunkte, Content-Teams betreuen die Wissensdatenbank und Engineering verantwortet die Systeme. Um Gemini im Customer Service voll auszuschöpfen, brauchen Sie ein funktionsübergreifendes Team, das Prompts, Flows und Contentänderungen schnell iterieren kann.

Aus unserer Co-Preneur-Arbeit wissen wir, dass sich Feedbackschleifen dramatisch verkürzen, wenn KI-Engineers direkt mit Support- und Inhalteexpert:innen zusammenarbeiten. Agents können markieren, wo die KI eine Intention falsch verstanden hat, Content Owner können Artikel oder Tags anpassen und Engineers können Retrieval und Ranking verfeinern. Dieser „One Team“-Ansatz ist deutlich effektiver als ein entferntes IT-Projekt, das am Ende einen fertigen Chatbot übergibt.

Risiken rund um Genauigkeit, Tonalität und Governance managen

Gemini ist mächtig, dennoch brauchen Sie einen bewussten Umgang mit Risiken. Entscheiden Sie strategisch, wo die KI „aus dem Modell antworten“ darf und wo sie ausschließlich aus freigegebenen Wissensdatenbankinhalten antworten soll. Für viele Supportorganisationen ist Retrieval-Augmented Generation der richtige Startpunkt: Gemini darf nur mithilfe Ihrer Dokumentation antworten und verweist dabei auf die Quellartikel.

Auch Governance ist entscheidend. Definieren Sie Review-Prozesse für KI-generierte Antworten und Artikel-Überarbeitungen, legen Sie Mindestwerte für Konfidenzscores fest, bevor Antworten angezeigt werden, und überwachen Sie Tonalität, Compliance und Markenpassung. Ein klares Governance-Modell gibt Stakeholdern Sicherheit, dass die KI nicht „vom Skript abweicht“, und ermöglicht Ihnen, die Nutzung zu skalieren, sobald sich die Leitplanken bewährt haben.

Gemini zu nutzen, um versteckte Self-Service-Inhalte sichtbar zu machen, bedeutet weniger, einen weiteren Chatbot zu installieren, und mehr, grundlegend neu zu denken, wie Ihre Organisation Kundenintention mit vorhandenem Wissen verknüpft. Mit der richtigen Strategie, Governance und einem funktionsübergreifenden Team kann Gemini ein wenig genutztes Help Center in einen zentralen Treiber für Ticketreduktion und bessere Kundenerlebnisse verwandeln. Reruptions hands-on Engineering und Co-Preneur-Ansatz sind genau auf diese Art von Problem ausgelegt – wenn Sie also ein fokussiertes Proof of Concept oder einen breiteren Rollout prüfen möchten, unterstützen wir Sie gern dabei, aus Ideen eine funktionierende KI-Supportschicht zu machen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Bankwesen bis Bildung: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

NatWest

Bankwesen

NatWest Group, eine führende britische Bank, die über 19 Millionen Kunden bedient, sah sich zunehmenden Anforderungen an den digitalen Kundenservice gegenüber. Traditionelle Systeme wie der ursprüngliche Cora-Chatbot bewältigten Routineanfragen zwar zuverlässig, hatten jedoch Schwierigkeiten mit komplexen, nuancierten Interaktionen und eskalierten häufig 80–90 % der Fälle an menschliche Mitarbeitende. Das führte zu Verzögerungen, höheren Betriebskosten und Risiken für die Kundenzufriedenheit, während die Erwartungen an sofortige, personalisierte Unterstützung stiegen . Gleichzeitig stellte der Anstieg von Finanzbetrug eine kritische Bedrohung dar, die nahtloses Betrugsreporting und Erkennung innerhalb von Chat-Oberflächen erforderte, ohne Sicherheit oder Vertrauen der Nutzer zu gefährden. Regulatorische Vorgaben, Datenschutz nach UK GDPR und ethische KI-Einsätze erhöhten die Komplexität, da die Bank Support skalieren wollte und gleichzeitig Fehler in risikoreichen Bankprozessen minimieren musste . Die Balance zwischen Innovation und Zuverlässigkeit war entscheidend; mangelhafte KI-Leistungen könnten in einem Sektor, in dem die Kundenzufriedenheit direkt Kundenbindung und Umsatz beeinflusst, Vertrauen untergraben .

Lösung

Mit der Einführung von Cora+ im Juni 2024 führte NatWest sein erstes umfassendes Upgrade mit generativer KI ein, um proaktive, intuitive Antworten auf komplexe Anfragen zu ermöglichen, Eskalationen zu reduzieren und die Selbstbedienung zu verbessern . Dies baute auf der etablierten Cora-Plattform auf, die bereits Millionen von Interaktionen pro Monat verwaltete. In einem wegweisenden Schritt ging NatWest im März 2025 eine Partnerschaft mit OpenAI ein und wurde damit die erste in Großbritannien ansässige Bank, die dies tat. LLMs wurden sowohl in das kundenorientierte Cora als auch in das interne Tool Ask Archie integriert. Dadurch wurden natürliche Sprachverarbeitung für Betrugsmeldungen, personalisierte Beratung und Prozessvereinfachung möglich, während zugleich Schutzmaßnahmen für Compliance und Bias-Minderung implementiert wurden . Der Ansatz legte starken Wert auf ethische KI, mit rigorosen Tests, menschlicher Aufsicht und kontinuierlichem Monitoring, um sichere und präzise Interaktionen bei Betrugserkennung und Serviceleistungen zu gewährleisten .

Ergebnisse

  • 150 % Anstieg der Cora-Kundenzufriedenheitswerte (2024)
  • Proaktive Auflösung komplexer Anfragen ohne menschliches Eingreifen
  • Erste OpenAI-Partnerschaft einer UK-Bank, beschleunigt KI-Einführung
  • Verbesserte Betrugserkennung durch Echtzeit-Chat-Analyse
  • Millionen monatlicher Interaktionen, die autonom verarbeitet werden
  • Deutliche Reduktion der Eskalationsraten an Agenten
Fallstudie lesen →

bunq

Bankwesen

Als bunq ein rasantes Wachstum als zweitgrößte Neobank in Europa verzeichnete, wurde die Skalierung des Kundenservice zu einer kritischen Herausforderung. Bei Millionen von Nutzern, die personalisierte Banking-Informationen zu Konten, Ausgabeverhalten und Finanzberatung auf Abruf verlangen, stand das Unternehmen unter Druck, sofortige Antworten zu liefern, ohne die Zahl der menschlichen Supportteams proportional zu erhöhen — was Kosten treiben und Abläufe verlangsamen würde. Traditionelle Suchfunktionen in der App reichten für komplexe, kontextabhängige Anfragen nicht aus und führten zu Ineffizienzen und Nutzerfrustration. Zudem stellten die Gewährleistung von Datenschutz und Genauigkeit in einem stark regulierten Fintech-Umfeld erhebliche Risiken dar. bunq benötigte eine Lösung, die nuancierte Unterhaltungen führen und gleichzeitig EU-Bankvorschriften einhalten konnte, Halluzinationen vermeiden würde, wie sie in frühen GenAI-Modellen vorkommen, und sich nahtlos integrieren ließe, ohne die App-Performance zu beeinträchtigen. Ziel war es, Routineanfragen zu automatisieren, sodass menschliche Agenten sich auf wertschöpfende Fälle konzentrieren konnten.

Lösung

bunq begegnete diesen Herausforderungen durch die Entwicklung von Finn, einer proprietären GenAI-Plattform, die direkt in die mobile App integriert wurde und die herkömmliche Suchfunktion durch einen konversationellen KI-Chatbot ersetzte. Nach der Einstellung von mehr als einem Dutzend Datenexperten im Vorjahr baute das Team Finn so, dass er sicher auf nutzerspezifische Finanzdaten zugreift, Fragen zu Kontoständen, Transaktionen und Budgets beantwortet und sogar allgemeine Ratschläge gibt, wobei der Gesprächskontext über Sitzungen hinweg erhalten bleibt. Nach einer Beta wurde Finn im Dezember 2023 als Europas erster KI-gestützter Bankassistent eingeführt und entwickelte sich schnell weiter. Bis Mai 2024 wurde er vollständig konversationell, was natürliche Mehrfachrunden-Interaktionen ermöglichte. Dieser retrieval-augmented generation (RAG)-Ansatz stützte Antworten auf Echtzeit-Nutzerdaten, minimierte Fehler und erhöhte die Personalisierung.

Ergebnisse

  • 100.000+ Fragen innerhalb von Monaten nach der Beta beantwortet (Ende 2023)
  • 40 % der Nutzeranfragen bis Mitte 2024 autonom vollständig gelöst
  • 35 % der Anfragen unterstützt, insgesamt 75 % sofortige Support-Abdeckung
  • Vor dem Start 12+ Datenexperten für die Dateninfrastruktur eingestellt
  • Zweitgrößte Neobank Europas nach Nutzerbasis (1M+ Nutzer)
Fallstudie lesen →

JPMorgan Chase

Bankwesen

In der hochdynamischen Welt des Asset Management und der Vermögensverwaltung bei JPMorgan Chase waren Berater mit erheblichen zeitlichen Belastungen durch manuelle Recherche, Dokumentenzusammenfassungen und Berichtsentwürfe konfrontiert. Die Erstellung von Investmentideen, Marktanalysen und personalisierten Kundenberichten dauerte oft Stunden oder Tage, wodurch die Zeit für Kundeninteraktion und strategische Beratung eingeschränkt wurde. Diese Ineffizienz verstärkte sich nach dem Aufkommen von ChatGPT, sodass die Bank den Bedarf an sicherer, interner KI erkannte, die mit umfangreichen proprietären Daten arbeiten kann, ohne Compliance- oder Sicherheitsrisiken einzugehen. Die Private-Bank-Berater hatten es besonders schwer, sich auf Kundentermine vorzubereiten, sich durch Research-Reports zu arbeiten und maßgeschneiderte Empfehlungen zu erstellen – und das unter regulatorischer Beobachtung und in einer Umgebung mit Datensilos, was die Produktivität und Reaktionsfähigkeit gegenüber Kunden in einem wettbewerbsintensiven Umfeld behinderte.

Lösung

JPMorgan begegnete diesen Herausforderungen durch die Entwicklung der LLM Suite, einer internen Suite aus sieben feinabgestimmten Large Language Models (LLMs), die von generativer KI angetrieben und in eine sichere Dateninfrastruktur integriert sind. Diese Plattform ermöglicht es Beratern, Berichte zu entwerfen, Investmentideen zu generieren und Dokumente schnell zusammenzufassen, wobei proprietäre Daten genutzt werden. Ein spezialisiertes Tool, Connect Coach, wurde für Private-Bank-Berater entwickelt, um bei der Vorbereitung auf Kundengespräche, der Ideenfindung und der Synthese von Research zu unterstützen. Die Implementierung legte starken Wert auf Governance, Risikomanagement und Mitarbeiterschulungen durch KI-Wettbewerbe und 'learning-by-doing'-Ansätze, um eine sichere Skalierung in der gesamten Firma zu gewährleisten. Die LLM Suite wurde schrittweise eingeführt, beginnend mit Proof-of-Concepts und einer anschließenden Ausweitung auf die gesamte Organisation.

Ergebnisse

  • Erreichte Nutzer: 140.000 Mitarbeitende
  • Entwickelte Use Cases: 450+ Proof-of-Concepts
  • Finanzieller Nutzen: Bis zu 2 Mrd. $ an KI-Wert
  • Bereitstellungsgeschwindigkeit: Vom Pilot bis zu 60.000 Nutzern in wenigen Monaten
  • Berater-Tools: Connect Coach für die Private Bank
  • Firmenweite PoCs: Strikte ROI-Messung über 450 Initiativen
Fallstudie lesen →

Maersk

Seelogistik

In der anspruchsvollen Welt der Seelogistik sah sich Maersk, das weltweit größte Containerreederei-Unternehmen, mit erheblichen Problemen durch unerwartete Motorausfälle konfrontiert. Diese Ausfälle, häufig verursacht durch Verschleiß an kritischen Komponenten wie Zweitakt‑Dieselmotoren unter konstant hoher Belastung, führten zu kostspieligen Verzögerungen, Notreparaturen und mehrmillionenschweren Verlusten durch Ausfallzeiten. Bei einer Flotte von über 700 Schiffen, die weltweite Routen befahren, kann bereits ein einzelner Ausfall Lieferketten stören, die Kraftstoffeffizienz verringern und die Emissionen erhöhen . Suboptimale Schiffsoperationen verschärften das Problem. Traditionelle Festgeschwindigkeitsrouten ignorierten Echtzeitfaktoren wie Wetter, Strömungen und Motorkondition, was zu übermäßigem Kraftstoffverbrauch führte — der bis zu 50% der Betriebskosten ausmachen kann — und zu höheren CO2‑Emissionen. Verzögerungen durch Ausfälle dauerten im Schnitt Tage pro Vorfall und verstärkten logistische Engpässe in einer Branche, in der Zuverlässigkeit oberste Priorität hat .

Lösung

Maersk ging diese Probleme mit Maschinellem Lernen (ML) für vorausschauende Wartung und Optimierung an. Durch die Analyse großer Datensätze aus Motorsensoren, AIS (Automatic Identification System) und meteorologischen Daten sagen ML‑Modelle Ausfälle Tage bis Wochen im Voraus voraus und ermöglichen proaktive Eingriffe. Dies wird mit Algorithmen zur Routen‑ und Geschwindigkeitsoptimierung verknüpft, die Fahrten dynamisch für Kraftstoffeffizienz anpassen . Die Implementierung erfolgte in Partnerschaft mit Technologieführern wie Wärtsilä für Flottenlösungen und der internen digitalen Transformation, wobei MLOps für skalierbare Bereitstellung über die gesamte Flotte genutzt wurde. KI‑Dashboards liefern Echtzeit‑Einblicke für Besatzungen und Landteams und verlagern den Betrieb vom Reaktiven zum Vorausschauenden .

Ergebnisse

  • Kraftstoffverbrauch um 5–10% reduziert durch KI‑basierte Routenoptimierung
  • Ungeplante Motor‑Ausfallzeiten um 20–30% verringert
  • Wartungskosten um 15–25% gesenkt
  • Betriebliche Effizienz um 10–15% verbessert
  • CO2‑Emissionen um bis zu 8% reduziert
  • Vorhersagegenauigkeit für Ausfälle: 85–95%
Fallstudie lesen →

Mastercard

Zahlungsverkehr

In der hochbrisanten Welt der digitalen Zahlungen stellten sich Card-Testing-Angriffe als kritische Bedrohung für das Mastercard-Ökosystem heraus. Betrüger setzen automatisierte Bots ein, um gestohlene Kartendaten mittels Mikrotransaktionen bei Tausenden von Händlern zu testen und damit Zugang für größere Betrugsschemata zu validieren. Traditionelle regelbasierte und klassische Machine-Learning-Systeme erkannten diese Angriffe häufig erst, nachdem erste Tests Erfolg hatten, was zu jährlichen Verlusten in Milliardenhöhe führte und legitimen Handel störte. Die Subtilität dieser Angriffe – geringwertige, hochfrequente Tests, die normales Verhalten imitieren – überforderte Legacy-Modelle, verstärkt durch den Einsatz von KI durch Betrüger, um Erkennungsmuster zu umgehen. Als die Transaktionsvolumina nach der Pandemie explodierten, stand Mastercard unter steigendem Druck, von reaktiver zu proaktiver Betrugsprävention überzugehen. Fehlalarme durch überharte Warnungen führten zu abgelehnten legitimen Transaktionen und damit zu Vertrauensverlust bei Kunden, während ausgeklügelte Methoden wie Card-Testing in Echtzeit der Erkennung entgingen. Das Unternehmen benötigte eine Lösung, die kompromittierte Karten präventiv identifizieren kann und dabei riesige Netze miteinander verbundener Transaktionen analysiert, ohne Geschwindigkeit oder Genauigkeit zu opfern.

Lösung

Mastercards Decision Intelligence (DI)-Plattform integrierte generative KI mit graphbasiertem Machine Learning, um die Betrugserkennung zu revolutionieren. Generative KI simuliert Betrugsszenarien und erzeugt synthetische Transaktionsdaten, was das Modelltraining und die Anomalieerkennung beschleunigt, indem seltene Angriffsvarianten nachgebildet werden, die in echten Daten fehlen. Die Graph-Technologie bildet Entitäten wie Karten, Händler, IP-Adressen und Geräte als miteinander verbundene Knoten ab und macht verborgene Betrugsringe sowie Ausbreitungspfade in Transaktionsgraphen sichtbar. Dieser hybride Ansatz verarbeitet Signale in bislang ungekanntem Umfang, nutzt die generative KI zur Priorisierung risikoreicher Muster und Graphen, um Beziehungen zu kontextualisieren. Über Mastercards AI Garage implementiert, ermöglicht er die Echtzeit-Bewertung des Kompromittierungsrisikos von Karten und alarmiert ausgebende Institute, bevor Betrug eskaliert. Das System bekämpft Card-Testing, indem es anomale Testcluster frühzeitig markiert. Die Einführung erfolgte mit iterativen Tests bei Finanzinstituten, wobei Mastercards globales Netzwerk für robuste Validierung genutzt wurde, gleichzeitig wurde auf Erklärbarkeit geachtet, um das Vertrauen der Emittenten zu stärken.

Ergebnisse

  • 2x schnellere Erkennung potenziell kompromittierter Karten
  • Bis zu 300% Steigerung der Effektivität der Betrugserkennung
  • Verdopplung der Rate proaktiver Benachrichtigungen über kompromittierte Karten
  • Deutliche Reduktion betrügerischer Transaktionen nach Erkennung
  • Minimierung falsch abgelehnter legitimer Transaktionen
  • Echtzeit-Verarbeitung von Milliarden von Transaktionen
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Gemini mit Ihrer Wissensdatenbank via „Retrieval-first“-Ansatz verbinden

Der zuverlässigste Weg, versteckte Inhalte zu reduzieren, besteht darin, Gemini aus bestehenden Artikeln zitieren zu lassen, statt frei formulierte Antworten zu „erfinden“. Technisch bedeutet das, eine Retrieval-Augmented-Generation-(RAG)-Schicht zu bauen: Ihre Wissensdatenbank wird indexiert (über Embeddings oder Suche), Gemini erhält die am besten passenden Textpassagen plus die Nutzerfrage und formuliert dann eine Antwort ausschließlich auf Basis dieses Kontexts.

Stellen Sie bei der Konfiguration sicher, dass jeder Wissensdatenbankartikel stabile Kennungen, einen prägnanten Titel und kurze Abschnitte hat, die als Kontextschnipsel dienen können. Erzwingen Sie in Ihrem Anwendungscode oder No-Code-Tool klare Prompt-Regeln, die Gemini anweisen, Quellen zu nennen und Spekulation zu vermeiden.

Beispiel für einen System-Prompt für retrievalbasierte Antworten:
Sie sind ein Kundenservice-Assistent.
Antworten Sie ausschließlich mit Hilfe des bereitgestellten <Kontexts>.
Wenn die Antwort nicht eindeutig im Kontext enthalten ist, sagen Sie,
dass Sie es nicht wissen, und schlagen Sie vor, den Support zu kontaktieren.
Listen Sie am Ende immer den verwendeten Artikeltitel und die Artikel-ID auf.

<Kontext>
{{top_k_passages_from_kb}}
</Kontext>

Erwartetes Ergebnis: höhere Genauigkeit, einfachere Prüfung und schnellere Akzeptanz durch Ihr Supportteam, weil klar erkennbar ist, welcher Artikel welche Antwort unterstützt hat.

Gemini nutzen, um Ticket-Logs und Suchanfragen auf Contentlücken zu analysieren

Um versteckte oder fehlende Inhalte systematisch sichtbar zu machen, spielen Sie historische Ticketdaten und Suchlogs Ihrer Website stapelweise in Gemini ein. Ziel ist es, ähnliche Anfragen zu clustern und mit Ihrem aktuellen Artikelbestand zu vergleichen. Sie können dies automatisieren, indem Sie Tickets (Betreff, Inhalt, Tags) exportieren und durch eine Gemini-gestützte Analyse-Pipeline laufen lassen.

Praktisch gesehen starten Sie mit einer kleineren Stichprobe (z. B. 5.000–20.000 Tickets) und lassen Gemini Intentionen normalisieren und labeln. Prüfen Sie anschließend für jede volumenstarke Intention, ob es einen Help-Artikel gibt und ob Kund:innen diesen tatsächlich erreichen, bevor sie ein Ticket einreichen.

Beispiel-Prompt für die Batch-Analyse:
Sie analysieren Support-Tickets.
Geben Sie für jedes Ticket aus:
- Kanonisches Intent-Label (max. 7 Wörter)
- Komplexität: einfach / mittel / komplex
- Ob dies per Self-Service lösbar sein sollte (ja/nein)
- Zentrale Begriffe, die Kund:innen verwenden (3–5 Phrasen)

Tickettext:
{{ticket_body}}

Erwartetes Ergebnis: eine priorisierte Liste von Intentionen, die bereits durch Inhalte abgedeckt sind, aber nicht gefunden werden (versteckte Inhalte), sowie Intentionen, für die neue, zielgerichtete Artikel oder Workflows benötigt werden.

Technische Dokumentation in klare Schritt-für-Schritt-Anleitungen umschreiben

Versteckte Inhalte sind oft nicht nur schwer zu finden – sie sind schwer zu verstehen. Gemini kann interne technische Dokumentation, Changelogs oder API-Dokumente in kundenorientierte Anleitungen mit klaren Schritten, Platzhaltern für Screenshots und Hinweisen umwandeln. So steigt die Nutzbarkeit Ihrer Wissensdatenbank deutlich, ohne dass alles manuell neu geschrieben werden muss.

Richten Sie einen wiederholbaren Workflow ein, in dem Content-Verantwortliche Rohdokumentation in ein Gemini-gestütztes Tool einfügen oder synchronisieren und einen ersten Entwurf eines kundenfreundlichen Artikels erhalten. Verlangen Sie immer eine menschliche Prüfung, lassen Sie aber Gemini die Hauptarbeit bei Struktur, Formulierungen und Beispielen erledigen.

Beispiel-Prompt zum Umschreiben für kundenorientierte Anleitungen:
Sie sind Redakteur:in für Kundensupport-Dokumentation.
Schreiben Sie die folgende interne technische Notiz zu einem klaren,
schrittweisen Help-Center-Artikel für nicht-technische Nutzer:innen um.

Anforderungen:
- Beginnen Sie mit einer kurzen Zusammenfassung in einfacher Sprache
- Fügen Sie einen Abschnitt "Bevor Sie starten" mit Voraussetzungen hinzu
- Verwenden Sie nummerierte Schritte mit klaren Handlungsanweisungen
- Fügen Sie einen Abschnitt "Wenn das nicht funktioniert hat" mit häufigen Fehlern hinzu
- Vermeiden Sie internen Jargon und Abkürzungen

Interne Notiz:
{{technical_doc_text}}

Erwartetes Ergebnis: höhere Abschluss- und Lösungsquoten bei Artikeln, mit weniger Zeitaufwand der Agents, technische Sprache in kundenfreundliche Antworten zu übersetzen.

Gemini-Antworten direkt in Ticketformulare und Chat-Einstiegspunkte integrieren

Einer der effektivsten Wege zur Ticketreduktion ist es, potenzielle Antworten zu präsentieren, bevor Nutzer:innen eine Anfrage absenden. Implementieren Sie ein Gemini-gestütztes „Sofortantwort“-Panel in Ihrem Kontaktformular und an Chat-Einstiegspunkten. Während Kund:innen den Betreff oder ihre erste Nachricht tippen, senden Sie diese an Gemini, zusammen mit gefundenen Artikeln, und zeigen Sie vorgeschlagene Antworten inline an.

Gestalten Sie Ihr UI so, dass Nutzer:innen den vorgeschlagenen Artikel schnell öffnen, bestätigen können, ob ihr Problem gelöst ist, oder das Ticket trotzdem absenden. Nutzen Sie Analytics, um zu messen, wie oft diese Sofortantworten die Einreichung verhindern, und verfeinern Sie Prompts kontinuierlich anhand des Feedbacks.

Beispiel-Prompt für Sofortvorschläge:
Sie helfen Nutzer:innen, bevor sie ein Support-Ticket absenden.
Nutzen Sie ausschließlich die <Kontext>-Artikel und generieren Sie:
- Eine kurze vorgeschlagene Antwort (max. 80 Wörter)
- 3 Artikeltitel mit IDs, die das Problem lösen könnten

Wenn der Kontext nicht ausreicht, sagen Sie:
"Wir benötigen vermutlich mehr Details – bitte fahren Sie mit Ihrer Anfrage fort."

Vom Nutzer verfasstes Ticket (Entwurf):
{{user_text}}

<Kontext>
{{retrieved_articles}}
</Kontext>

Erwartetes Ergebnis: messbare Ticketreduktion bereits beim Erstellen der Anfrage – mit sofortiger Wirkung auf das Kontaktvolumen.

Agents Gemini-gestützte Artikel- und Antwortvorschläge direkt im Posteingang geben

Nicht jede Interaktion kann oder sollte abgefangen werden. Für Kontakte, die bei Ihren Agents landen, nutzen Sie Gemini im Agent-Workspace, um relevante Artikel anzuzeigen und Antwortentwürfe basierend auf der Konversation und Ihrer Wissensdatenbank zu generieren. So verkürzen Sie Bearbeitungszeiten und erkennen, welche Artikel für Self-Service verbessert oder hervorgehoben werden sollten.

Integrieren Sie Gemini per API in Ihr CRM oder Ticketingsystem, sodass es den Ticketverlauf erhält und Antwortvorschläge plus Referenzen zu Wissensdatenbankartikeln zurückgibt. Agents können Vorschläge annehmen, bearbeiten oder ablehnen und liefern damit wertvolle Trainingsdaten.

Beispiel-Prompt für Agent Assist:
Sie unterstützen Mitarbeiter:innen im Kundenservice.
Lesen Sie die Konversation und die <Kontext>-Artikel.
Formulieren Sie eine höfliche, prägnante Antwort, die die Frage der Nutzer:in beantwortet.
Nennen Sie am Ende die relevanteste Artikel-ID.

Konversation:
{{ticket_conversation}}

<Kontext>
{{kb_snippets}}
</Kontext>

Erwartetes Ergebnis: schnellere Lösung für nicht abgefangene Tickets, konsistentere Antworten und klare Signale dazu, welche Artikel den größten Wert liefern.

Deflection, Lösung und Contentnutzung mit klaren KPIs messen

Damit Ihr Gemini-Setup sich kontinuierlich verbessert, brauchen Sie konkrete Metriken für jeden Workflow. Mindestens sollten Sie messen: Anteil der Tickets, die per Self-Service gelöst werden, Verhältnis Formularansicht zu Ticketabsendung, Klickrate von Suche zu Artikel, artikelgestützte Lösungsquote und Bearbeitungszeit pro Ticket. Für KI-spezifische Flows sollten Sie erfassen, wie oft Gemini-Vorschläge genutzt oder überschrieben werden.

Setzen Sie einfache Dashboards auf, die Ihr Ticketingsystem, Wissensdatenbank-Analytics und KI-Logs verbinden. Nutzen Sie diese, um A/B-Tests für Prompts, Artikelüberarbeitungen und UI-Änderungen durchzuführen. Sie können beispielsweise Deflection-Raten vor und nach Gemini-gestützten Sofortantworten oder Contentüberarbeitungen vergleichen, um den Impact zu quantifizieren.

Erwartete Ergebnisse: Innerhalb von 8–16 Wochen sehen viele Organisationen 10–30 % weniger wiederkehrende Tickets in den fokussierten Kategorien, 15–25 % schnellere Bearbeitungszeiten bei verbleibenden Tickets und deutlich höhere Nutzung von Help-Center-Inhalten, die zuvor kaum verwendet wurden.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini hilft auf drei Hauptwegen:

  • Es analysiert Ticket-Logs und Suchanfragen, um Intentionen zu identifizieren, die bereits in FAQ oder Help Center abgedeckt sind, aber nicht genutzt werden.
  • Es ermöglicht semantische Suche und Chat, sodass Kund:innen Fragen in ihren eigenen Worten formulieren können und trotzdem den passenden Artikel erhalten.
  • Es schreibt dichte oder technische Dokumentation in klare, schrittweise Anleitungen um, denen Kund:innen tatsächlich folgen können – und reduziert so wiederkehrende Kontakte.

Zusammen verwandeln diese Fähigkeiten eine wenig genutzte Wissensdatenbank in einen primären Kanal zur Lösung einfacher Anliegen, bevor daraus Tickets werden.

Typischerweise benötigen Sie drei Kompetenzen: eine Person, die den Supportprozess und die KPIs verantwortet, eine Person, die die Wissensdatenbank/den Content verantwortet, und eine Engineering-Ressource, um Gemini in Ihr Ticketingsystem oder Help Center zu integrieren. In vielen Fällen reicht dafür ein kleines, funktionsübergreifendes Squad statt eines großen Projektteams.

Technisch brauchen Sie API-Zugriff auf Gemini, Zugriff auf Ihre Wissensdatenbank (per Export oder API) sowie Daten aus Ihrem Ticketing- oder Chatsystem. Reruption kann die KI-Engineering- und Architektur-Ebene liefern, falls Sie keine eigene Erfahrung mit LLMs im Haus haben.

Für einen fokussierten Use Case (z. B. 3–5 volumenstarke Themen) können Sie typischerweise in 4–6 Wochen ein Gemini-gestütztes Self-Service-Pilotprojekt starten – vorausgesetzt, Ihre Wissensdatenbank ist zugänglich. Erste Deflection-Effekte sind oft schon im ersten Monat nach dem Launch sichtbar, insbesondere wenn Sie Sofortantworten im Kontaktformular integrieren.

Strukturellere Verbesserungen (Überarbeitung wichtiger Artikel, Optimierung der Suche, Ausbau der Abdeckung) erfolgen üblicherweise über weitere 2–3 Monate. Realistisch ist für viele Organisationen eine Reduktion repetitiver Tickets in den fokussierten Bereichen um 10–20 % innerhalb eines Quartals, mit weiteren Verbesserungen, wenn Sie Prompts und Inhalte verfeinern.

Die direkten Nutzungskosten von Gemini (API-Calls) sind in der Regel gering im Vergleich zu Personalkosten im Support. Die Hauptinvestitionen liegen in der Integration sowie in etwas laufendem Prompt- und Content-Tuning. Der ROI entsteht durch geringeres Ticketvolumen, kürzere Bearbeitungszeiten pro Ticket und höhere Kundenzufriedenheit.

Wir empfehlen ein einfaches Modell: Schätzen Sie Ihre aktuellen Kosten pro Ticket und den Anteil der Tickets, die einfache, wiederkehrende Anliegen sind. Selbst moderate Deflection (z. B. 10–15 % dieser Tickets) amortisiert die anfängliche Implementierung oft innerhalb weniger Monate. Da Gemini zudem Agents über Vorschläge und Zusammenfassungen beschleunigt, ist der kombinierte Produktivitätsgewinn meist höher als die reine Ticketreduktion.

Reruption verbindet tiefes Engineering-Know-how mit einem Co-Preneur-Mindset: Wir arbeiten eingebettet in Ihrem Team und bauen echte KI-Workflows, nicht nur Folien. Für dieses spezifische Problem starten wir typischerweise mit unserem KI-PoC für 9.900 €, bei dem wir:

  • einen konkreten Use Case für Ticketreduktion definieren und zuschneiden (z. B. 2–3 volumenstarke Kontaktgründe),
  • Gemini mit einem Teil Ihrer Ticketdaten und Wissensdatenbank verbinden,
  • einen funktionierenden Prototypen für KI-gestützte Suche, Sofortantworten oder Artikel-Überarbeitungen bauen und
  • Qualität, Geschwindigkeit und erwartete Kosten pro Interaktion messen.

Darauf aufbauend unterstützen wir Sie dabei, den Prototypen produktionsreif zu machen, in Ihre bestehenden Tools zu integrieren und Ihre Customer-Service- und Content-Teams zu befähigen, die Lösung selbst zu betreiben und weiterzuentwickeln.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media