Die Herausforderung: Versteckte Self-Service-Inhalte

Die meisten Customer-Service-Teams leiden nicht unter einem Mangel an Inhalten – sie leiden unter versteckten Inhalten. Ihre FAQ, Ihr Help Center und Ihre Wissensdatenbank enthalten bereits Antworten auf einen großen Teil der eingehenden Tickets. Dennoch melden sich Kund:innen, weil sie den richtigen Artikel nicht finden, die Formulierungen nicht zu ihrer Absicht passen oder die Navigation sie dazu bringt, aufzugeben und ein Ticket zu eröffnen.

Traditionelle Self-Service-Ansätze – statische FAQs, keywordbasierte Suche und manuell kuratierte Themenbäume – kommen nicht mehr damit mit, wie Kund:innen ihre Probleme beschreiben. Sie tippen natürliche Sprache, teilweise Fehlermeldungen oder schicken sogar Screenshots. Altsysteme gleichen exakte Wörter ab, aber nicht die tatsächliche Absicht, sodass relevante Artikel verborgen bleiben. Content-Teams reagieren, indem sie mehr Artikel oder neue Bereiche anlegen – was das Auffindbarkeitsproblem häufig eher verschärft als löst.

Die geschäftlichen Auswirkungen sind erheblich. Vermeidbare Kontakte blähen das Ticketvolumen auf, erhöhen die Supportkosten und verlangsamen die Bearbeitungszeiten für komplexe Fälle. Agents verbringen Zeit mit „bereits gelösten“ Anfragen, statt sich auf wertschöpfende Interaktionen zu konzentrieren. Schlechte Self-Service-Erfahrungen schaden zudem der wahrgenommenen Reaktionsfähigkeit und der Kundenzufriedenheit – Kund:innen fühlen sich ignoriert, wenn sie später feststellen, dass die Antwort längst existierte. Langfristig untergräbt das das Vertrauen in Ihre digitalen Supportkanäle.

Die gute Nachricht: Dieses Problem ist sehr real, aber mit den richtigen KI-Fähigkeiten auch sehr gut lösbar. Indem Sie Tools wie Gemini nutzen, um Nutzerintentionen zu verstehen, Wissenslücken zu analysieren und Inhalte umzuschreiben, können Unternehmen die Nutzung von Self-Service deutlich steigern, ohne ihren gesamten Support-Stack neu aufzubauen. Bei Reruption haben wir Organisationen dabei geholfen, wenig genutzte Dokumentation in effektiven, KI-gestützten Support zu verwandeln – und im weiteren Verlauf dieser Seite zeigen wir Ihnen konkrete, praxisnahe Schritte, mit denen Sie das Gleiche erreichen können.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Bei Reruption sehen wir immer wieder das gleiche Muster: Customer-Service-Teams investieren massiv in FAQs und Help Center, aber die Self-Service-Deflection stagniert, weil Kund:innen Inhalte nicht finden oder nicht verstehen. Unsere Erfahrung mit dem Aufbau von KI-gestützten Assistants und Lösungen zur Dokumentenanalyse zeigt, dass Gemini besonders stark darin ist, unstrukturierte, reale Nutzerintentionen mit der richtigen Dokumentation zu verknüpfen und sichtbar zu machen, wo Ihre Self-Service-Inhalte untergenutzt oder komplett fehlend sind.

Versteckte Inhalte als Datenproblem behandeln, nicht als Contentproblem

Viele Organisationen reagieren auf geringe Self-Service-Nutzung, indem sie mehr Artikel schreiben oder das Help Center neu gestalten. In der Praxis ist der größere Hebel jedoch das Verständnis, wie bestehende Inhalte gegenüber realen Nutzerintentionen performen. Strategisch sollten Sie versteckte Self-Service-Inhalte als Daten- und Discovery-Problem behandeln: Welche Intentionen tauchen in Tickets auf, welche Intentionen sind in Ihrer Wissensdatenbank bereits abgedeckt und wo gibt es eine Diskrepanz.

Gemini kann Ticket-Logs, Suchanfragen und Artikelinhalte verarbeiten, um Intentionen zu clustern und diese auf Dokumentation abzubilden. Dadurch verschiebt sich die Denkweise Ihres Teams von „wir brauchen mehr Content“ zu „wir müssen den richtigen Content auffindbar und nutzbar machen“. Zudem können Sie Änderungen nach Volumen und Business Impact priorisieren, statt zu raten.

KI-Self-Service mit Ihrer übergreifenden Supportstrategie ausrichten

Einen KI-Chatbot ohne Strategie einfach auf Ihr Help Center zu setzen, liefert selten nachhaltige Ticketreduktion. Bevor Sie starten, definieren Sie, welche Kontaktarten Sie ablenken (deflect), welche Sie triagieren und welche immer an Menschen gehen sollen. Diese strategische Segmentierung stellt sicher, dass Gemini-gestützte Suche und Chat für die richtigen Use Cases optimiert sind und Kund:innen nicht von einem überambitionierten Bot frustriert werden.

Wir empfehlen, Customer Journeys zu kartieren und festzulegen, wo KI lösen, leiten oder übergeben soll. Beispiel: Einfache „Wie mache ich …?“-Fragen können voll automatisiert werden, während Rechnungsstreitigkeiten immer eskaliert werden – inklusive einer von Gemini generierten Zusammenfassung für den Agent. Diese Klarheit beeinflusst, wie Sie Prompts, Workflows und Erfolgskennzahlen gestalten.

Ihre Wissensdatenbank für die Nutzung durch KI vorbereiten

Gemini kann mit unstrukturierten Daten arbeiten, aber der strategische Wert steigt erheblich, wenn Ihre Support-Wissensdatenbank einer grundlegenden Struktur folgt. Das bedeutet kein riesiges Taxonomieprojekt, sondern: eindeutige IDs für Artikel, klare Titel, Tags für Produkte oder Features sowie einen konsistenten Platz für Voraussetzungen, Schritte und Sonderfälle. Diese Konventionen erleichtern es Gemini, Inhalte zu finden, zu bewerten und umzuschreiben.

Denken Sie an Gemini als eine sehr intelligente Schicht auf Ihrer Dokumentation – nicht als magischen Ersatz. Je besser die zugrunde liegende Struktur, desto zuverlässiger können Sie KI Antworten geben lassen, Artikel empfehlen oder neue How-tos entwerfen lassen. Diese Basisarbeit ist eine strategische Investition, die sich mit jedem weiteren automatisierten Teil Ihres Customer Service mehrfach auszahlt.

Customer Service, Content und Engineering in einem Team vereinen

Erfolgreiche KI-Self-Service-Initiativen gehören selten nur einer einzelnen Funktion. Customer Service kennt die echten Schmerzpunkte, Content-Teams betreuen die Wissensdatenbank und Engineering verantwortet die Systeme. Um Gemini im Customer Service voll auszuschöpfen, brauchen Sie ein funktionsübergreifendes Team, das Prompts, Flows und Contentänderungen schnell iterieren kann.

Aus unserer Co-Preneur-Arbeit wissen wir, dass sich Feedbackschleifen dramatisch verkürzen, wenn KI-Engineers direkt mit Support- und Inhalteexpert:innen zusammenarbeiten. Agents können markieren, wo die KI eine Intention falsch verstanden hat, Content Owner können Artikel oder Tags anpassen und Engineers können Retrieval und Ranking verfeinern. Dieser „One Team“-Ansatz ist deutlich effektiver als ein entferntes IT-Projekt, das am Ende einen fertigen Chatbot übergibt.

Risiken rund um Genauigkeit, Tonalität und Governance managen

Gemini ist mächtig, dennoch brauchen Sie einen bewussten Umgang mit Risiken. Entscheiden Sie strategisch, wo die KI „aus dem Modell antworten“ darf und wo sie ausschließlich aus freigegebenen Wissensdatenbankinhalten antworten soll. Für viele Supportorganisationen ist Retrieval-Augmented Generation der richtige Startpunkt: Gemini darf nur mithilfe Ihrer Dokumentation antworten und verweist dabei auf die Quellartikel.

Auch Governance ist entscheidend. Definieren Sie Review-Prozesse für KI-generierte Antworten und Artikel-Überarbeitungen, legen Sie Mindestwerte für Konfidenzscores fest, bevor Antworten angezeigt werden, und überwachen Sie Tonalität, Compliance und Markenpassung. Ein klares Governance-Modell gibt Stakeholdern Sicherheit, dass die KI nicht „vom Skript abweicht“, und ermöglicht Ihnen, die Nutzung zu skalieren, sobald sich die Leitplanken bewährt haben.

Gemini zu nutzen, um versteckte Self-Service-Inhalte sichtbar zu machen, bedeutet weniger, einen weiteren Chatbot zu installieren, und mehr, grundlegend neu zu denken, wie Ihre Organisation Kundenintention mit vorhandenem Wissen verknüpft. Mit der richtigen Strategie, Governance und einem funktionsübergreifenden Team kann Gemini ein wenig genutztes Help Center in einen zentralen Treiber für Ticketreduktion und bessere Kundenerlebnisse verwandeln. Reruptions hands-on Engineering und Co-Preneur-Ansatz sind genau auf diese Art von Problem ausgelegt – wenn Sie also ein fokussiertes Proof of Concept oder einen breiteren Rollout prüfen möchten, unterstützen wir Sie gern dabei, aus Ideen eine funktionierende KI-Supportschicht zu machen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Luft- und Raumfahrt bis Zahlungsverkehr: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Rolls-Royce Holdings

Luft- und Raumfahrt

Triebwerke sind hochkomplex und arbeiten unter extremen Bedingungen, mit Millionen von Bauteilen, die Verschleiß ausgesetzt sind. Fluggesellschaften sahen sich unerwarteten Ausfällen gegenüber, die zu kostspieligen Bodenbleiben führten, wobei ungeplante Wartungen täglich Millionenverluste pro Flugzeug verursachten. Traditionelle geplante Wartungsintervalle waren ineffizient und führten oft zu Überwartung oder übersehenen Problemen, was die Ausfallzeiten und den Treibstoffverbrauch verschlimmerte. Rolls-Royce musste Ausfälle proaktiv vorhersagen angesichts der enormen Datenmengen von Tausenden von Triebwerken im Einsatz. Zu den Herausforderungen gehörten die Integration von Echtzeit-IoT-Sensordaten (Hunderte pro Triebwerk), die Verarbeitung von Terabytes an Telemetrie und die Sicherstellung der Genauigkeit der Vorhersagen, um Fehlalarme zu vermeiden, die den Betrieb stören könnten. Die strengen Sicherheitsvorschriften der Luft- und Raumfahrtbranche erhöhten den Druck, verlässliche KI-Lösungen ohne Leistungseinbußen zu liefern.

Lösung

Rolls-Royce entwickelte die Plattform IntelligentEngine, die digitale Zwillinge—virtuelle Abbildungen physischer Triebwerke—mit maschinellen Lernmodellen kombiniert. Sensoren streamen Live-Daten in cloudbasierte Systeme, wo ML-Algorithmen Muster analysieren, um Verschleiß, Anomalien und optimale Wartungsfenster vorherzusagen. Digitale Zwillinge ermöglichen die Simulation des Triebwerksverhaltens vor und nach Flügen und optimieren Design sowie Wartungspläne. Partnerschaften mit Microsoft Azure IoT und Siemens verbesserten die Datenverarbeitung und VR-Modelle und skalierten die KI über Trent‑Serien-Triebwerke wie Trent 7000 und 1000. Ethische KI‑Rahmen gewährleisten Datensicherheit und vorurteilsfreie Vorhersagen.

Ergebnisse

  • 48% Steigerung der Einsatzdauer vor der ersten Demontage
  • Verdopplung der Einsatzdauer des Trent 7000
  • Reduzierung ungeplanter Ausfallzeiten um bis zu 30%
  • Verbesserte Treibstoffeffizienz um 1–2% durch optimierte Betriebsabläufe
  • Reduzierte Wartungskosten für Betreiber um 20–25%
  • Verarbeitete Terabytes an Echtzeitdaten von Tausenden von Triebwerken
Fallstudie lesen →

Shell

Energie

Ungeplante Ausfälle von Anlagen in Raffinerien und auf offshore-Bohrinseln belasteten Shell stark und führten zu erheblichen Ausfallzeiten, Sicherheitsvorfällen und teuren Reparaturen, die die Rentabilität in einer kapitalintensiven Branche beeinträchtigten. Laut einem Deloitte-Report 2024 sind 35 % der Ausfallzeiten in Raffinerien ungeplant, wobei 70 % durch fortschrittliche Analytik vermeidbar wären – ein Hinweis auf die Grenzen traditioneller geplanter Wartungsansätze, die subtile Ausfallvorzeichen an Komponenten wie Pumpen, Ventilen und Kompressoren übersahen. Shells umfangreiche globale Aktivitäten verschärften diese Probleme und erzeugten Terabytes an Sensordaten von Tausenden Anlagen, die aufgrund von Datensilos, Altsystemen und manuellen Analysebeschränkungen unzureichend genutzt wurden. Ausfälle konnten Millionen pro Stunde kosten, Umweltschäden und Personensicherheit riskieren sowie die Margen in volatilen Energiemärkten unter Druck setzen.

Lösung

Shell ging eine Partnerschaft mit C3 AI ein, um eine KI-gestützte Plattform für vorausschauende Wartung zu implementieren, die Maschinenlernmodelle nutzt, welche auf Echtzeit-IoT-Sensordaten, Wartungshistorien und Betriebskennzahlen trainiert sind, um Ausfälle vorherzusagen und Eingriffe zu optimieren. Integriert mit Microsoft Azure Machine Learning erkennt die Lösung Anomalien, sagt die restliche Nutzungsdauer (RUL) voraus und priorisiert risikoreiche Anlagen in Upstream-Bohrinseln und Downstream-Raffinerien. Die skalierbare C3 AI-Plattform ermöglichte schnelle Rollouts, beginnend mit Pilotprojekten an kritischer Ausrüstung und späterer globaler Ausweitung. Sie automatisiert predictive analytics, verwandelt reaktive in proaktive Wartung und liefert aussagekräftige Erkenntnisse über intuitive Dashboards für Ingenieure.

Ergebnisse

  • 20 % Reduktion ungeplanter Ausfallzeiten
  • 15 % Senkung der Wartungskosten
  • £1M+ jährliche Einsparungen pro Standort
  • 10.000 überwachte Anlagen weltweit
  • 35 % branchenweiter Anteil ungeplanter Ausfallzeiten angesprochen (Deloitte-Benchmark)
  • 70 % vermeidbare Ausfälle gemindert
Fallstudie lesen →

Mayo Clinic

Gesundheitswesen

Als führendes akademisches medizinisches Zentrum verwaltet die Mayo Clinic jährlich Millionen von Patientenakten, doch die früherkennung von Herzinsuffizienz bleibt schwierig. Traditionelle Echokardiographie erkennt niedrige linksventrikuläre Ejektionsfraktionen (LVEF <50%) meist erst bei Symptomen und übersieht asymptomatische Fälle, die bis zu 50 % des Herzinsuffizienzrisikos ausmachen können. Kliniker kämpfen mit umfangreichen unstrukturierten Daten, was die Gewinnung patientenspezifischer Erkenntnisse verlangsamt und Entscheidungen in der kardiologischen Spitzenmedizin verzögert. Zudem verschärfen Personalengpässe und steigende Kosten die Lage; kardiovaskuläre Erkrankungen verursachen weltweit 17,9 Mio. Todesfälle pro Jahr. Manuelle EKG-Interpretation übersieht subtile Muster, die auf niedrige LVEF hinweisen, und das Durchsuchen elektronischer Gesundheitsakten (EHRs) dauert Stunden, was die personalisierte Medizin behindert. Mayo benötigte skalierbare KI, um reaktive Versorgung in proaktive Vorhersage zu verwandeln.

Lösung

Die Mayo Clinic setzte einen Deep-Learning-EKG-Algorithmus ein, der auf über 1 Million EKGs trainiert wurde und niedrige LVEF aus routinemäßigen 10-Sekunden-Ableitungen mit hoher Genauigkeit identifiziert. Dieses ML-Modell extrahiert Merkmale, die für Menschen nicht sichtbar sind, und wurde intern sowie extern validiert. Parallel dazu beschleunigt ein generatives KI-Suchtool in Partnerschaft mit Google Cloud EHR-Abfragen. Eingeführt 2023, nutzt es Large Language Models (LLMs) für natürliche Sprachsuche und liefert klinische Erkenntnisse sofort. Integriert in die Mayo Clinic Platform, unterstützt es über 200 KI-Initiativen. Diese Lösungen überwinden Datensilos durch föderiertes Lernen und eine sichere Cloud-Infrastruktur.

Ergebnisse

  • EKG-KI AUC: 0,93 (intern), 0,92 (externe Validierung)
  • Sensitivität bei Niedriger EF: 82 % bei 90 % Spezifität
  • Erkannte asymptomatische niedrige EF: 1,5 % Prävalenz in der gescreenten Population
  • GenAI-Suche Geschwindigkeit: 40 % Reduktion der Abfragezeit für Kliniker
  • Modell trainiert auf: 1,1 Mio. EKGs von 44.000 Patienten
  • Einsatzreichweite: Seit 2021 in kardiologischen Workflows der Mayo integriert
Fallstudie lesen →

Nubank (Pix Payments)

Fintech

Nubank, Lateinamerikas größte digitale Bank mit über 114 Millionen Kunden in Brasilien, Mexiko und Kolumbien, stand vor der Herausforderung, sein Pix-Sofortzahlungssystem angesichts explosionsartiger Nachfrage zu skalieren. Traditionelle Pix-Transaktionen erforderten, dass Nutzer sich manuell durch die App navigieren, was Reibung erzeugte — insbesondere bei schnellen Zahlungen unterwegs. Dieser Navigationsengpass erhöhte die Verarbeitungszeit und schränkte die Zugänglichkeit für Nutzer ein, die bevorzugt konversationelle Schnittstellen wie WhatsApp nutzen, über die 80% der Brasilianer täglich kommunizieren. Hinzu kam, dass die sichere und genaue Interpretation diverser Eingaben — Sprachbefehle, natürliche Texte und Bilder (z. B. handschriftliche Notizen oder Belege) — erhebliche Hürden darstellte. Nubank musste Probleme in der multimodalen Verständigung lösen, die Einhaltung der Vorgaben der Zentralbank Brasiliens sicherstellen und Vertrauen in einem finanziell sensiblen Umfeld bewahren, während täglich Millionen Transaktionen abgewickelt werden.

Lösung

Nubank setzte eine multimodale generative KI-Lösung ein, angetrieben durch OpenAI-Modelle, die es Kunden ermöglicht, Pix-Zahlungen per Sprachnachricht, Textanweisung oder Bild-Upload direkt in der App oder über WhatsApp zu initiieren. Die KI verarbeitet Speech-to-Text, Natural Language Processing zur Intent-Extraktion und optische Zeichenerkennung (OCR) für Bilder und wandelt diese in ausführbare Pix-Überweisungen um. Nahtlos in Nubanks Backend integriert, verifiziert das System die Nutzeridentität, extrahiert Schlüsseldaten wie Betrag und Empfänger und führt Transaktionen in Sekunden aus — ohne die traditionellen App-Bildschirme. Dieser KI-first-Ansatz erhöht Bequemlichkeit, Geschwindigkeit und Sicherheit und skaliert den Betrieb, ohne proportionalen menschlichen Aufwand zu benötigen.

Ergebnisse

  • 60% Reduktion der Transaktionsverarbeitungszeit
  • Bis Ende 2024 mit 2 Millionen Nutzern getestet
  • Bedient 114 Millionen Kunden in 3 Ländern
  • Tests begonnen im August 2024
  • Verarbeitet Sprach-, Text- und Bildeingaben für Pix
  • Ermöglicht Sofortzahlungen über WhatsApp-Integration
Fallstudie lesen →

Walmart (Marketplace)

Einzelhandel

Im umkämpften Umfeld des Walmart Marketplace konkurrieren Drittanbieter‑Verkäufer hart um die Buy Box, die den Großteil der Verkaufsabschlüsse ausmacht . Diese Verkäufer verwalten umfangreiche Bestände, haben aber mit manuellen Preisänderungen zu kämpfen, die zu langsam sind, um mit sich schnell ändernden Wettbewerberpreisen, Nachfrageschwankungen und Markttrends Schritt zu halten. Das führt häufig zum Verlust der Buy Box, verpassten Verkaufschancen und geschwächten Gewinnmargen auf einer Plattform, auf der Preis das wichtigste Schlachtfeld ist . Zusätzlich sehen sich Verkäufer einer Datenflut gegenüber, wenn sie Tausende von SKUs überwachen, optimale Preisniveaus prognostizieren und Wettbewerbsfähigkeit gegen Profitabilität abwägen müssen. Traditionelle statische Preisstrategien versagen in diesem dynamischen E‑Commerce‑Umfeld, was zu suboptimaler Leistung und übermäßigem manuellen Aufwand führt – oft Stunden pro Tag und Verkäufer . Walmart erkannte den Bedarf an einer automatisierten Lösung, um Verkäufer zu stärken und das Plattformwachstum voranzutreiben.

Lösung

Walmart führte den Repricer ein, ein kostenloses KI‑gesteuertes automatisiertes Preiswerkzeug, das in Seller Center integriert ist und generative KI zur Entscheidungsunterstützung neben Machine‑Learning‑Modellen wie sequentieller Entscheidungsintelligenz nutzt, um Preise in Echtzeit dynamisch anzupassen . Das Tool analysiert Wettbewerberpreise, historische Verkaufsdaten, Nachfrageindikatoren und Marktbedingungen, um optimale Preise zu empfehlen und umzusetzen, die die Buy‑Box‑Berechtigung und die Verkaufsgeschwindigkeit maximieren . Ergänzend dazu liefert das Pricing Insights‑Dashboard Kontoebenen‑Metriken und KI‑generierte Empfehlungen, einschließlich vorgeschlagener Preise für Aktionen, sodass Verkäufer Chancen ohne manuelle Analyse erkennen können . Für fortgeschrittene Nutzer erweitern Drittanbietertools wie Biviar's AI repricer – im Auftrag von Walmart entwickelt – dies durch Reinforcement Learning zur profitmaximierenden täglichen Preisfindung . Dieses Ökosystem verschiebt Verkäufer von reaktiven zu proaktiven Preisstrategien.

Ergebnisse

  • 25% Steigerung der Conversion‑Raten durch dynamische KI‑Preisgestaltung
  • Höhere Buy‑Box‑Gewinnraten durch Echtzeit‑Wettbewerbsanalyse
  • Maximierte Verkaufsgeschwindigkeit für Drittanbieter im Marketplace
  • 850 Millionen Katalognachdatenverbesserungen durch GenAI (breitere Wirkung)
  • Potenzial für über 40% Conversion‑Steigerung durch KI‑gesteuerte Angebote
  • Reduzierung der manuellen Preisfindung um täglich mehrere Stunden pro Verkäufer
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Gemini mit Ihrer Wissensdatenbank via „Retrieval-first“-Ansatz verbinden

Der zuverlässigste Weg, versteckte Inhalte zu reduzieren, besteht darin, Gemini aus bestehenden Artikeln zitieren zu lassen, statt frei formulierte Antworten zu „erfinden“. Technisch bedeutet das, eine Retrieval-Augmented-Generation-(RAG)-Schicht zu bauen: Ihre Wissensdatenbank wird indexiert (über Embeddings oder Suche), Gemini erhält die am besten passenden Textpassagen plus die Nutzerfrage und formuliert dann eine Antwort ausschließlich auf Basis dieses Kontexts.

Stellen Sie bei der Konfiguration sicher, dass jeder Wissensdatenbankartikel stabile Kennungen, einen prägnanten Titel und kurze Abschnitte hat, die als Kontextschnipsel dienen können. Erzwingen Sie in Ihrem Anwendungscode oder No-Code-Tool klare Prompt-Regeln, die Gemini anweisen, Quellen zu nennen und Spekulation zu vermeiden.

Beispiel für einen System-Prompt für retrievalbasierte Antworten:
Sie sind ein Kundenservice-Assistent.
Antworten Sie ausschließlich mit Hilfe des bereitgestellten <Kontexts>.
Wenn die Antwort nicht eindeutig im Kontext enthalten ist, sagen Sie,
dass Sie es nicht wissen, und schlagen Sie vor, den Support zu kontaktieren.
Listen Sie am Ende immer den verwendeten Artikeltitel und die Artikel-ID auf.

<Kontext>
{{top_k_passages_from_kb}}
</Kontext>

Erwartetes Ergebnis: höhere Genauigkeit, einfachere Prüfung und schnellere Akzeptanz durch Ihr Supportteam, weil klar erkennbar ist, welcher Artikel welche Antwort unterstützt hat.

Gemini nutzen, um Ticket-Logs und Suchanfragen auf Contentlücken zu analysieren

Um versteckte oder fehlende Inhalte systematisch sichtbar zu machen, spielen Sie historische Ticketdaten und Suchlogs Ihrer Website stapelweise in Gemini ein. Ziel ist es, ähnliche Anfragen zu clustern und mit Ihrem aktuellen Artikelbestand zu vergleichen. Sie können dies automatisieren, indem Sie Tickets (Betreff, Inhalt, Tags) exportieren und durch eine Gemini-gestützte Analyse-Pipeline laufen lassen.

Praktisch gesehen starten Sie mit einer kleineren Stichprobe (z. B. 5.000–20.000 Tickets) und lassen Gemini Intentionen normalisieren und labeln. Prüfen Sie anschließend für jede volumenstarke Intention, ob es einen Help-Artikel gibt und ob Kund:innen diesen tatsächlich erreichen, bevor sie ein Ticket einreichen.

Beispiel-Prompt für die Batch-Analyse:
Sie analysieren Support-Tickets.
Geben Sie für jedes Ticket aus:
- Kanonisches Intent-Label (max. 7 Wörter)
- Komplexität: einfach / mittel / komplex
- Ob dies per Self-Service lösbar sein sollte (ja/nein)
- Zentrale Begriffe, die Kund:innen verwenden (3–5 Phrasen)

Tickettext:
{{ticket_body}}

Erwartetes Ergebnis: eine priorisierte Liste von Intentionen, die bereits durch Inhalte abgedeckt sind, aber nicht gefunden werden (versteckte Inhalte), sowie Intentionen, für die neue, zielgerichtete Artikel oder Workflows benötigt werden.

Technische Dokumentation in klare Schritt-für-Schritt-Anleitungen umschreiben

Versteckte Inhalte sind oft nicht nur schwer zu finden – sie sind schwer zu verstehen. Gemini kann interne technische Dokumentation, Changelogs oder API-Dokumente in kundenorientierte Anleitungen mit klaren Schritten, Platzhaltern für Screenshots und Hinweisen umwandeln. So steigt die Nutzbarkeit Ihrer Wissensdatenbank deutlich, ohne dass alles manuell neu geschrieben werden muss.

Richten Sie einen wiederholbaren Workflow ein, in dem Content-Verantwortliche Rohdokumentation in ein Gemini-gestütztes Tool einfügen oder synchronisieren und einen ersten Entwurf eines kundenfreundlichen Artikels erhalten. Verlangen Sie immer eine menschliche Prüfung, lassen Sie aber Gemini die Hauptarbeit bei Struktur, Formulierungen und Beispielen erledigen.

Beispiel-Prompt zum Umschreiben für kundenorientierte Anleitungen:
Sie sind Redakteur:in für Kundensupport-Dokumentation.
Schreiben Sie die folgende interne technische Notiz zu einem klaren,
schrittweisen Help-Center-Artikel für nicht-technische Nutzer:innen um.

Anforderungen:
- Beginnen Sie mit einer kurzen Zusammenfassung in einfacher Sprache
- Fügen Sie einen Abschnitt "Bevor Sie starten" mit Voraussetzungen hinzu
- Verwenden Sie nummerierte Schritte mit klaren Handlungsanweisungen
- Fügen Sie einen Abschnitt "Wenn das nicht funktioniert hat" mit häufigen Fehlern hinzu
- Vermeiden Sie internen Jargon und Abkürzungen

Interne Notiz:
{{technical_doc_text}}

Erwartetes Ergebnis: höhere Abschluss- und Lösungsquoten bei Artikeln, mit weniger Zeitaufwand der Agents, technische Sprache in kundenfreundliche Antworten zu übersetzen.

Gemini-Antworten direkt in Ticketformulare und Chat-Einstiegspunkte integrieren

Einer der effektivsten Wege zur Ticketreduktion ist es, potenzielle Antworten zu präsentieren, bevor Nutzer:innen eine Anfrage absenden. Implementieren Sie ein Gemini-gestütztes „Sofortantwort“-Panel in Ihrem Kontaktformular und an Chat-Einstiegspunkten. Während Kund:innen den Betreff oder ihre erste Nachricht tippen, senden Sie diese an Gemini, zusammen mit gefundenen Artikeln, und zeigen Sie vorgeschlagene Antworten inline an.

Gestalten Sie Ihr UI so, dass Nutzer:innen den vorgeschlagenen Artikel schnell öffnen, bestätigen können, ob ihr Problem gelöst ist, oder das Ticket trotzdem absenden. Nutzen Sie Analytics, um zu messen, wie oft diese Sofortantworten die Einreichung verhindern, und verfeinern Sie Prompts kontinuierlich anhand des Feedbacks.

Beispiel-Prompt für Sofortvorschläge:
Sie helfen Nutzer:innen, bevor sie ein Support-Ticket absenden.
Nutzen Sie ausschließlich die <Kontext>-Artikel und generieren Sie:
- Eine kurze vorgeschlagene Antwort (max. 80 Wörter)
- 3 Artikeltitel mit IDs, die das Problem lösen könnten

Wenn der Kontext nicht ausreicht, sagen Sie:
"Wir benötigen vermutlich mehr Details – bitte fahren Sie mit Ihrer Anfrage fort."

Vom Nutzer verfasstes Ticket (Entwurf):
{{user_text}}

<Kontext>
{{retrieved_articles}}
</Kontext>

Erwartetes Ergebnis: messbare Ticketreduktion bereits beim Erstellen der Anfrage – mit sofortiger Wirkung auf das Kontaktvolumen.

Agents Gemini-gestützte Artikel- und Antwortvorschläge direkt im Posteingang geben

Nicht jede Interaktion kann oder sollte abgefangen werden. Für Kontakte, die bei Ihren Agents landen, nutzen Sie Gemini im Agent-Workspace, um relevante Artikel anzuzeigen und Antwortentwürfe basierend auf der Konversation und Ihrer Wissensdatenbank zu generieren. So verkürzen Sie Bearbeitungszeiten und erkennen, welche Artikel für Self-Service verbessert oder hervorgehoben werden sollten.

Integrieren Sie Gemini per API in Ihr CRM oder Ticketingsystem, sodass es den Ticketverlauf erhält und Antwortvorschläge plus Referenzen zu Wissensdatenbankartikeln zurückgibt. Agents können Vorschläge annehmen, bearbeiten oder ablehnen und liefern damit wertvolle Trainingsdaten.

Beispiel-Prompt für Agent Assist:
Sie unterstützen Mitarbeiter:innen im Kundenservice.
Lesen Sie die Konversation und die <Kontext>-Artikel.
Formulieren Sie eine höfliche, prägnante Antwort, die die Frage der Nutzer:in beantwortet.
Nennen Sie am Ende die relevanteste Artikel-ID.

Konversation:
{{ticket_conversation}}

<Kontext>
{{kb_snippets}}
</Kontext>

Erwartetes Ergebnis: schnellere Lösung für nicht abgefangene Tickets, konsistentere Antworten und klare Signale dazu, welche Artikel den größten Wert liefern.

Deflection, Lösung und Contentnutzung mit klaren KPIs messen

Damit Ihr Gemini-Setup sich kontinuierlich verbessert, brauchen Sie konkrete Metriken für jeden Workflow. Mindestens sollten Sie messen: Anteil der Tickets, die per Self-Service gelöst werden, Verhältnis Formularansicht zu Ticketabsendung, Klickrate von Suche zu Artikel, artikelgestützte Lösungsquote und Bearbeitungszeit pro Ticket. Für KI-spezifische Flows sollten Sie erfassen, wie oft Gemini-Vorschläge genutzt oder überschrieben werden.

Setzen Sie einfache Dashboards auf, die Ihr Ticketingsystem, Wissensdatenbank-Analytics und KI-Logs verbinden. Nutzen Sie diese, um A/B-Tests für Prompts, Artikelüberarbeitungen und UI-Änderungen durchzuführen. Sie können beispielsweise Deflection-Raten vor und nach Gemini-gestützten Sofortantworten oder Contentüberarbeitungen vergleichen, um den Impact zu quantifizieren.

Erwartete Ergebnisse: Innerhalb von 8–16 Wochen sehen viele Organisationen 10–30 % weniger wiederkehrende Tickets in den fokussierten Kategorien, 15–25 % schnellere Bearbeitungszeiten bei verbleibenden Tickets und deutlich höhere Nutzung von Help-Center-Inhalten, die zuvor kaum verwendet wurden.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini hilft auf drei Hauptwegen:

  • Es analysiert Ticket-Logs und Suchanfragen, um Intentionen zu identifizieren, die bereits in FAQ oder Help Center abgedeckt sind, aber nicht genutzt werden.
  • Es ermöglicht semantische Suche und Chat, sodass Kund:innen Fragen in ihren eigenen Worten formulieren können und trotzdem den passenden Artikel erhalten.
  • Es schreibt dichte oder technische Dokumentation in klare, schrittweise Anleitungen um, denen Kund:innen tatsächlich folgen können – und reduziert so wiederkehrende Kontakte.

Zusammen verwandeln diese Fähigkeiten eine wenig genutzte Wissensdatenbank in einen primären Kanal zur Lösung einfacher Anliegen, bevor daraus Tickets werden.

Typischerweise benötigen Sie drei Kompetenzen: eine Person, die den Supportprozess und die KPIs verantwortet, eine Person, die die Wissensdatenbank/den Content verantwortet, und eine Engineering-Ressource, um Gemini in Ihr Ticketingsystem oder Help Center zu integrieren. In vielen Fällen reicht dafür ein kleines, funktionsübergreifendes Squad statt eines großen Projektteams.

Technisch brauchen Sie API-Zugriff auf Gemini, Zugriff auf Ihre Wissensdatenbank (per Export oder API) sowie Daten aus Ihrem Ticketing- oder Chatsystem. Reruption kann die KI-Engineering- und Architektur-Ebene liefern, falls Sie keine eigene Erfahrung mit LLMs im Haus haben.

Für einen fokussierten Use Case (z. B. 3–5 volumenstarke Themen) können Sie typischerweise in 4–6 Wochen ein Gemini-gestütztes Self-Service-Pilotprojekt starten – vorausgesetzt, Ihre Wissensdatenbank ist zugänglich. Erste Deflection-Effekte sind oft schon im ersten Monat nach dem Launch sichtbar, insbesondere wenn Sie Sofortantworten im Kontaktformular integrieren.

Strukturellere Verbesserungen (Überarbeitung wichtiger Artikel, Optimierung der Suche, Ausbau der Abdeckung) erfolgen üblicherweise über weitere 2–3 Monate. Realistisch ist für viele Organisationen eine Reduktion repetitiver Tickets in den fokussierten Bereichen um 10–20 % innerhalb eines Quartals, mit weiteren Verbesserungen, wenn Sie Prompts und Inhalte verfeinern.

Die direkten Nutzungskosten von Gemini (API-Calls) sind in der Regel gering im Vergleich zu Personalkosten im Support. Die Hauptinvestitionen liegen in der Integration sowie in etwas laufendem Prompt- und Content-Tuning. Der ROI entsteht durch geringeres Ticketvolumen, kürzere Bearbeitungszeiten pro Ticket und höhere Kundenzufriedenheit.

Wir empfehlen ein einfaches Modell: Schätzen Sie Ihre aktuellen Kosten pro Ticket und den Anteil der Tickets, die einfache, wiederkehrende Anliegen sind. Selbst moderate Deflection (z. B. 10–15 % dieser Tickets) amortisiert die anfängliche Implementierung oft innerhalb weniger Monate. Da Gemini zudem Agents über Vorschläge und Zusammenfassungen beschleunigt, ist der kombinierte Produktivitätsgewinn meist höher als die reine Ticketreduktion.

Reruption verbindet tiefes Engineering-Know-how mit einem Co-Preneur-Mindset: Wir arbeiten eingebettet in Ihrem Team und bauen echte KI-Workflows, nicht nur Folien. Für dieses spezifische Problem starten wir typischerweise mit unserem KI-PoC für 9.900 €, bei dem wir:

  • einen konkreten Use Case für Ticketreduktion definieren und zuschneiden (z. B. 2–3 volumenstarke Kontaktgründe),
  • Gemini mit einem Teil Ihrer Ticketdaten und Wissensdatenbank verbinden,
  • einen funktionierenden Prototypen für KI-gestützte Suche, Sofortantworten oder Artikel-Überarbeitungen bauen und
  • Qualität, Geschwindigkeit und erwartete Kosten pro Interaktion messen.

Darauf aufbauend unterstützen wir Sie dabei, den Prototypen produktionsreif zu machen, in Ihre bestehenden Tools zu integrieren und Ihre Customer-Service- und Content-Teams zu befähigen, die Lösung selbst zu betreiben und weiterzuentwickeln.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media