Die Herausforderung: Versteckte Self-Service-Inhalte

Die meisten Customer-Service-Teams leiden nicht unter einem Mangel an Inhalten – sie leiden unter versteckten Inhalten. Ihre FAQ, Ihr Help Center und Ihre Wissensdatenbank enthalten bereits Antworten auf einen großen Teil der eingehenden Tickets. Dennoch melden sich Kund:innen, weil sie den richtigen Artikel nicht finden, die Formulierungen nicht zu ihrer Absicht passen oder die Navigation sie dazu bringt, aufzugeben und ein Ticket zu eröffnen.

Traditionelle Self-Service-Ansätze – statische FAQs, keywordbasierte Suche und manuell kuratierte Themenbäume – kommen nicht mehr damit mit, wie Kund:innen ihre Probleme beschreiben. Sie tippen natürliche Sprache, teilweise Fehlermeldungen oder schicken sogar Screenshots. Altsysteme gleichen exakte Wörter ab, aber nicht die tatsächliche Absicht, sodass relevante Artikel verborgen bleiben. Content-Teams reagieren, indem sie mehr Artikel oder neue Bereiche anlegen – was das Auffindbarkeitsproblem häufig eher verschärft als löst.

Die geschäftlichen Auswirkungen sind erheblich. Vermeidbare Kontakte blähen das Ticketvolumen auf, erhöhen die Supportkosten und verlangsamen die Bearbeitungszeiten für komplexe Fälle. Agents verbringen Zeit mit „bereits gelösten“ Anfragen, statt sich auf wertschöpfende Interaktionen zu konzentrieren. Schlechte Self-Service-Erfahrungen schaden zudem der wahrgenommenen Reaktionsfähigkeit und der Kundenzufriedenheit – Kund:innen fühlen sich ignoriert, wenn sie später feststellen, dass die Antwort längst existierte. Langfristig untergräbt das das Vertrauen in Ihre digitalen Supportkanäle.

Die gute Nachricht: Dieses Problem ist sehr real, aber mit den richtigen KI-Fähigkeiten auch sehr gut lösbar. Indem Sie Tools wie Gemini nutzen, um Nutzerintentionen zu verstehen, Wissenslücken zu analysieren und Inhalte umzuschreiben, können Unternehmen die Nutzung von Self-Service deutlich steigern, ohne ihren gesamten Support-Stack neu aufzubauen. Bei Reruption haben wir Organisationen dabei geholfen, wenig genutzte Dokumentation in effektiven, KI-gestützten Support zu verwandeln – und im weiteren Verlauf dieser Seite zeigen wir Ihnen konkrete, praxisnahe Schritte, mit denen Sie das Gleiche erreichen können.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Bei Reruption sehen wir immer wieder das gleiche Muster: Customer-Service-Teams investieren massiv in FAQs und Help Center, aber die Self-Service-Deflection stagniert, weil Kund:innen Inhalte nicht finden oder nicht verstehen. Unsere Erfahrung mit dem Aufbau von KI-gestützten Assistants und Lösungen zur Dokumentenanalyse zeigt, dass Gemini besonders stark darin ist, unstrukturierte, reale Nutzerintentionen mit der richtigen Dokumentation zu verknüpfen und sichtbar zu machen, wo Ihre Self-Service-Inhalte untergenutzt oder komplett fehlend sind.

Versteckte Inhalte als Datenproblem behandeln, nicht als Contentproblem

Viele Organisationen reagieren auf geringe Self-Service-Nutzung, indem sie mehr Artikel schreiben oder das Help Center neu gestalten. In der Praxis ist der größere Hebel jedoch das Verständnis, wie bestehende Inhalte gegenüber realen Nutzerintentionen performen. Strategisch sollten Sie versteckte Self-Service-Inhalte als Daten- und Discovery-Problem behandeln: Welche Intentionen tauchen in Tickets auf, welche Intentionen sind in Ihrer Wissensdatenbank bereits abgedeckt und wo gibt es eine Diskrepanz.

Gemini kann Ticket-Logs, Suchanfragen und Artikelinhalte verarbeiten, um Intentionen zu clustern und diese auf Dokumentation abzubilden. Dadurch verschiebt sich die Denkweise Ihres Teams von „wir brauchen mehr Content“ zu „wir müssen den richtigen Content auffindbar und nutzbar machen“. Zudem können Sie Änderungen nach Volumen und Business Impact priorisieren, statt zu raten.

KI-Self-Service mit Ihrer übergreifenden Supportstrategie ausrichten

Einen KI-Chatbot ohne Strategie einfach auf Ihr Help Center zu setzen, liefert selten nachhaltige Ticketreduktion. Bevor Sie starten, definieren Sie, welche Kontaktarten Sie ablenken (deflect), welche Sie triagieren und welche immer an Menschen gehen sollen. Diese strategische Segmentierung stellt sicher, dass Gemini-gestützte Suche und Chat für die richtigen Use Cases optimiert sind und Kund:innen nicht von einem überambitionierten Bot frustriert werden.

Wir empfehlen, Customer Journeys zu kartieren und festzulegen, wo KI lösen, leiten oder übergeben soll. Beispiel: Einfache „Wie mache ich …?“-Fragen können voll automatisiert werden, während Rechnungsstreitigkeiten immer eskaliert werden – inklusive einer von Gemini generierten Zusammenfassung für den Agent. Diese Klarheit beeinflusst, wie Sie Prompts, Workflows und Erfolgskennzahlen gestalten.

Ihre Wissensdatenbank für die Nutzung durch KI vorbereiten

Gemini kann mit unstrukturierten Daten arbeiten, aber der strategische Wert steigt erheblich, wenn Ihre Support-Wissensdatenbank einer grundlegenden Struktur folgt. Das bedeutet kein riesiges Taxonomieprojekt, sondern: eindeutige IDs für Artikel, klare Titel, Tags für Produkte oder Features sowie einen konsistenten Platz für Voraussetzungen, Schritte und Sonderfälle. Diese Konventionen erleichtern es Gemini, Inhalte zu finden, zu bewerten und umzuschreiben.

Denken Sie an Gemini als eine sehr intelligente Schicht auf Ihrer Dokumentation – nicht als magischen Ersatz. Je besser die zugrunde liegende Struktur, desto zuverlässiger können Sie KI Antworten geben lassen, Artikel empfehlen oder neue How-tos entwerfen lassen. Diese Basisarbeit ist eine strategische Investition, die sich mit jedem weiteren automatisierten Teil Ihres Customer Service mehrfach auszahlt.

Customer Service, Content und Engineering in einem Team vereinen

Erfolgreiche KI-Self-Service-Initiativen gehören selten nur einer einzelnen Funktion. Customer Service kennt die echten Schmerzpunkte, Content-Teams betreuen die Wissensdatenbank und Engineering verantwortet die Systeme. Um Gemini im Customer Service voll auszuschöpfen, brauchen Sie ein funktionsübergreifendes Team, das Prompts, Flows und Contentänderungen schnell iterieren kann.

Aus unserer Co-Preneur-Arbeit wissen wir, dass sich Feedbackschleifen dramatisch verkürzen, wenn KI-Engineers direkt mit Support- und Inhalteexpert:innen zusammenarbeiten. Agents können markieren, wo die KI eine Intention falsch verstanden hat, Content Owner können Artikel oder Tags anpassen und Engineers können Retrieval und Ranking verfeinern. Dieser „One Team“-Ansatz ist deutlich effektiver als ein entferntes IT-Projekt, das am Ende einen fertigen Chatbot übergibt.

Risiken rund um Genauigkeit, Tonalität und Governance managen

Gemini ist mächtig, dennoch brauchen Sie einen bewussten Umgang mit Risiken. Entscheiden Sie strategisch, wo die KI „aus dem Modell antworten“ darf und wo sie ausschließlich aus freigegebenen Wissensdatenbankinhalten antworten soll. Für viele Supportorganisationen ist Retrieval-Augmented Generation der richtige Startpunkt: Gemini darf nur mithilfe Ihrer Dokumentation antworten und verweist dabei auf die Quellartikel.

Auch Governance ist entscheidend. Definieren Sie Review-Prozesse für KI-generierte Antworten und Artikel-Überarbeitungen, legen Sie Mindestwerte für Konfidenzscores fest, bevor Antworten angezeigt werden, und überwachen Sie Tonalität, Compliance und Markenpassung. Ein klares Governance-Modell gibt Stakeholdern Sicherheit, dass die KI nicht „vom Skript abweicht“, und ermöglicht Ihnen, die Nutzung zu skalieren, sobald sich die Leitplanken bewährt haben.

Gemini zu nutzen, um versteckte Self-Service-Inhalte sichtbar zu machen, bedeutet weniger, einen weiteren Chatbot zu installieren, und mehr, grundlegend neu zu denken, wie Ihre Organisation Kundenintention mit vorhandenem Wissen verknüpft. Mit der richtigen Strategie, Governance und einem funktionsübergreifenden Team kann Gemini ein wenig genutztes Help Center in einen zentralen Treiber für Ticketreduktion und bessere Kundenerlebnisse verwandeln. Reruptions hands-on Engineering und Co-Preneur-Ansatz sind genau auf diese Art von Problem ausgelegt – wenn Sie also ein fokussiertes Proof of Concept oder einen breiteren Rollout prüfen möchten, unterstützen wir Sie gern dabei, aus Ideen eine funktionierende KI-Supportschicht zu machen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Bankwesen bis Lebensmittelproduktion: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Capital One

Bankwesen

Capital One sah sich mit einem hohen Volumen routinemäßiger Kundenanfragen konfrontiert, die ihre Callcenter überschwemmten – darunter Kontostände, Transaktionshistorien und grundlegende Supportanfragen. Das führte zu steigenden Betriebskosten, Überlastung der Agenten und frustrierenden Wartezeiten für Kunden, die sofortige Hilfe erwarteten. Traditionelle Callcenter arbeiteten nur eingeschränkt rund um die Uhr und konnten die Anforderungen an 24/7-Verfügbarkeit im wettbewerbsintensiven Bankenmarkt, in dem Tempo und Komfort zentral sind, nicht erfüllen. Zusätzlich erschwerten die branchenspezifische Finanzterminologie und regulatorische Vorgaben die Lage, wodurch Standard-AI-Lösungen unzureichend waren. Kunden erwarteten personalisierte, sichere Interaktionen, doch die Skalierung menschlicher Unterstützung war angesichts der wachsenden Nutzung digitaler Bankangebote nicht nachhaltig.

Lösung

Capital One begegnete diesen Problemen durch die Entwicklung von Eno, einem proprietären konversationellen KI-Assistenten, der auf firmeneigener NLP beruht und für Banking-Vokabular angepasst wurde. Ursprünglich 2017 als SMS-Chatbot eingeführt, wurde Eno auf mobile Apps, Weboberflächen und Sprachintegration mit Alexa ausgeweitet und ermöglicht Multichannel-Support per Text oder Sprache für Aufgaben wie Kontostandsabfragen, Ausgabenanalysen und proaktive Benachrichtigungen. Das Team meisterte die Terminologie-Herausforderungen durch die Entwicklung domänenspezifischer NLP-Modelle, die auf Capital One–Daten trainiert wurden und so natürliche, kontextbewusste Gespräche gewährleisteten. Eno eskaliert komplexe Anfragen nahtlos an Agenten und bietet gleichzeitig Betrugsschutz durch Echtzeitüberwachung – bei gleichbleibend hohen Sicherheitsstandards.

Ergebnisse

  • 50% Reduzierung des Callcenter-Kontaktvolumens bis 2024
  • Rund-um-die-Uhr-Verfügbarkeit, die jährlich Millionen von Interaktionen abwickelt
  • Über 100 Millionen verarbeitete Kundengespräche
  • Bedeutende Einsparungen bei den Betriebskosten im Kundenservice
  • Beinahe sofortige Antwortzeiten bei Routineanfragen
  • Verbesserte Kundenzufriedenheit durch personalisierten Support
Fallstudie lesen →

NatWest

Bankwesen

NatWest Group, eine führende britische Bank, die über 19 Millionen Kunden bedient, sah sich zunehmenden Anforderungen an den digitalen Kundenservice gegenüber. Traditionelle Systeme wie der ursprüngliche Cora-Chatbot bewältigten Routineanfragen zwar zuverlässig, hatten jedoch Schwierigkeiten mit komplexen, nuancierten Interaktionen und eskalierten häufig 80–90 % der Fälle an menschliche Mitarbeitende. Das führte zu Verzögerungen, höheren Betriebskosten und Risiken für die Kundenzufriedenheit, während die Erwartungen an sofortige, personalisierte Unterstützung stiegen . Gleichzeitig stellte der Anstieg von Finanzbetrug eine kritische Bedrohung dar, die nahtloses Betrugsreporting und Erkennung innerhalb von Chat-Oberflächen erforderte, ohne Sicherheit oder Vertrauen der Nutzer zu gefährden. Regulatorische Vorgaben, Datenschutz nach UK GDPR und ethische KI-Einsätze erhöhten die Komplexität, da die Bank Support skalieren wollte und gleichzeitig Fehler in risikoreichen Bankprozessen minimieren musste . Die Balance zwischen Innovation und Zuverlässigkeit war entscheidend; mangelhafte KI-Leistungen könnten in einem Sektor, in dem die Kundenzufriedenheit direkt Kundenbindung und Umsatz beeinflusst, Vertrauen untergraben .

Lösung

Mit der Einführung von Cora+ im Juni 2024 führte NatWest sein erstes umfassendes Upgrade mit generativer KI ein, um proaktive, intuitive Antworten auf komplexe Anfragen zu ermöglichen, Eskalationen zu reduzieren und die Selbstbedienung zu verbessern . Dies baute auf der etablierten Cora-Plattform auf, die bereits Millionen von Interaktionen pro Monat verwaltete. In einem wegweisenden Schritt ging NatWest im März 2025 eine Partnerschaft mit OpenAI ein und wurde damit die erste in Großbritannien ansässige Bank, die dies tat. LLMs wurden sowohl in das kundenorientierte Cora als auch in das interne Tool Ask Archie integriert. Dadurch wurden natürliche Sprachverarbeitung für Betrugsmeldungen, personalisierte Beratung und Prozessvereinfachung möglich, während zugleich Schutzmaßnahmen für Compliance und Bias-Minderung implementiert wurden . Der Ansatz legte starken Wert auf ethische KI, mit rigorosen Tests, menschlicher Aufsicht und kontinuierlichem Monitoring, um sichere und präzise Interaktionen bei Betrugserkennung und Serviceleistungen zu gewährleisten .

Ergebnisse

  • 150 % Anstieg der Cora-Kundenzufriedenheitswerte (2024)
  • Proaktive Auflösung komplexer Anfragen ohne menschliches Eingreifen
  • Erste OpenAI-Partnerschaft einer UK-Bank, beschleunigt KI-Einführung
  • Verbesserte Betrugserkennung durch Echtzeit-Chat-Analyse
  • Millionen monatlicher Interaktionen, die autonom verarbeitet werden
  • Deutliche Reduktion der Eskalationsraten an Agenten
Fallstudie lesen →

Unilever

Personalwesen

Unilever, ein Riese im Konsumgüterbereich, der jährlich 1,8 Millionen Bewerbungen bearbeitet, kämpfte mit einem manuellen Rekrutierungsprozess, der extrem zeitaufwendig und ineffizient war . Traditionelle Methoden dauerten bis zu vier Monate, um Positionen zu besetzen, was Recruiter überlastete und die Talentgewinnung in den globalen Einheiten verzögerte . Der Prozess barg zudem das Risiko unbewusster Verzerrungen bei der Sichtung von Lebensläufen und Interviews, schränkte die Workforce-Diversität ein und ließ potenziell geeignete Kandidaten aus unterrepräsentierten Gruppen übersehen . Hohe Volumina machten eine gründliche Bewertung jeder Bewerbung unmöglich, führten zu jährlichen Kosten in geschätzter Millionenhöhe und zu inkonsistenter Einstellungsqualität . Unilever benötigte ein skalierbares, faires System, um das Screening in frühen Phasen zu straffen und gleichzeitig psychometrische Strenge zu wahren.

Lösung

Unilever implementierte einen KI-gestützten Rekrutierungstrichter in Partnerschaft mit Pymetrics für neuro-wissenschaftlich basierte gamifizierte Assessments, die kognitive, emotionale und verhaltensbezogene Merkmale mittels ML-Algorithmen messen, die auf vielfältigen globalen Daten trainiert sind . Darauf folgten KI-analysierte Video-Interviews unter Einsatz von Computer Vision und NLP, um Körpersprache, Gesichtsausdrücke, Stimmlage und Wortwahl objektiv zu bewerten . Bewerbungen wurden anonymisiert, um Verzerrungen zu minimieren; die KI kürzte die Liste auf die Top 10–20 % der Kandidaten für die menschliche Prüfung und integrierte psychometrische ML-Modelle zur Persönlichkeitsprofilierung . Das System wurde zuerst bei volumenstarken Einstiegsrollen pilotiert, bevor es global ausgerollt wurde .

Ergebnisse

  • Time-to-hire: 90 % Reduktion (4 Monate auf 4 Wochen)
  • Recruiter time saved: 50.000 Stunden
  • Annual cost savings: £1 Million
  • Diversity hires increase: 16 % (inkl. neuro-atypischer Kandidaten)
  • Candidates shortlisted for humans: 90 % Reduktion
  • Applications processed: 1,8 Millionen/Jahr
Fallstudie lesen →

Insilico Medicine

Biotechnologie

Der Wirkstoffentdeckungsprozess in der Biotechnologie ist berüchtigt dafür, lang und teuer zu sein, typischerweise 10–15 Jahre dauernd und 2–3 Milliarden USD pro zugelassenem Wirkstoff kostend, mit einer Fehlerrate von 90 % in klinischen Studien. Bei idiopathischer Lungenfibrose (IPF), einer fortschreitenden Lungenerkrankung mit begrenzten Behandlungsoptionen, sind die Herausforderungen noch größer: die Identifizierung neuartiger Targets inmitten komplexer Biologie, die Entwicklung wirksamer Moleküle sowie die Vorhersage von Eigenschaften wie Toxizität und Wirksamkeit erfordern enorme Datenmengen und aufwändiges Trial‑and‑Error‑Screening. Traditionelle Methoden stützen sich auf Hochdurchsatzscreening und medizinische Chemie, die jedoch bei seltenen Erkrankungen wie IPF ineffizient sind, da die Patientenzahl begrenzt ist und die Heterogenität der Krankheit den Fortschritt hemmt. Insilico stand vor der Herausforderung, die Zielidentifikation und Moleküldesign zu beschleunigen und gleichzeitig die präklinische Durchführbarkeit sicherzustellen — in einem Umfeld, das gegenüber der Zuverlässigkeit von KI in der realen Pharmawelt skeptisch war.

Lösung

Insilico setzte seine End‑to‑End‑Plattform Pharma.AI ein, die generative KI über Chemistry42 zur neuartigen Molekülgenerierung, PandaOmics zur Zielentdeckung (Deep Learning auf Multi‑Omics‑Daten) und InClinico für Trial‑Simulationen integriert. Deep‑Learning‑Modelle, trainiert auf riesigen Datensätzen, generierten 10.000+ neuartige Moleküle de novo und optimierten diese für IPF‑spezifische Targets wie TNIK. Diese KI‑getriebene Pipeline überwand manuelle Beschränkungen, indem sie ADMET‑Eigenschaften vorhersagte, Top‑Kandidaten per Robotik synthetisierte und in Tiermodellen validierte. Der Ansatz reduzierte Iterationen und ermöglichte den schnellen Fortschritt vom Target bis zur IND in 30 Monaten.

Ergebnisse

  • Zeit bis Phase I: 30 Monate (vs. 5+ Jahre traditionell)
  • Generierte Moleküle: 10.000+ neuartige Strukturen
  • Phase‑II‑Einschreibung: 70+ Patienten in mehreren Regionen
  • Kostensenkung: Geschätzt 70–80 % geringere Entdeckungskosten
  • Präklinischer Erfolg: Wirkstoff erfüllte alle Sicherheits‑/Wirksamkeitsmarker
  • Studiengeschwindigkeit: Phase II‑Start 2,5 Jahre nach Target‑Identifikation
Fallstudie lesen →

Three UK

Telekommunikation

Three UK, ein führender Mobilfunkanbieter im Vereinigten Königreich, stand unter erheblichem Druck durch den stark ansteigenden Datenverkehr, getrieben vom 5G‑Ausbau, Video‑Streaming, Online‑Gaming und Remote‑Arbeit. Mit über 10 Millionen Kund:innen führten Spitzenzeiten‑Überlastungen in städtischen Gebieten zu Verbindungsabbrüchen, Buffering bei Streams und hoher Latenz, die das Gaming‑Erlebnis beeinträchtigte. Traditionelle Monitoring‑Tools kamen mit dem Volumen an Big‑Data aus Netzprobes nicht zurecht, sodass Echtzeit‑Optimierung unmöglich war und Kundenabwanderung drohte. Hinzu kam, dass Legacy On‑Premises‑Systeme nicht für 5G‑Network‑Slicing und dynamische Ressourcenallokation skalierten, was zu ineffizienter Spektrumnutzung und steigenden OPEX führte. Three UK benötigte eine Lösung, die Netzengpässe proaktiv vorhersagen und verhindern kann, um niedriglatenzige Dienste für latenzsensible Anwendungen sicherzustellen und gleichzeitig die QoS über verschiedene Verkehrsarten hinweg aufrechtzuerhalten.

Lösung

Microsoft Azure Operator Insights etablierte sich als cloudbasierte KI‑Plattform speziell für Telekommunikationsanbieter und nutzt Big‑Data‑Maschinelles Lernen, um Petabytes an Netztelemetrie in Echtzeit zu verarbeiten. Die Plattform analysiert KPIs wie Durchsatz, Paketverlust und Handover‑Erfolgsraten, erkennt Anomalien und sagt Überlastungen voraus. Three UK integrierte sie in sein Core‑Netzwerk, um automatisierte Erkenntnisse und Handlungsempfehlungen zu erhalten. Die Lösung setzte ML‑Modelle für Root‑Cause‑Analysen, Verkehrsvorhersagen und Optimierungsmaßnahmen wie Beamforming‑Anpassungen und Load‑Balancing ein. Auf Azure's skalierbarer Cloud betrieben, erleichterte sie die Migration von Legacy‑Tools, verringerte die Abhängigkeit von manuellen Eingriffen und stattete Ingenieurteams mit umsetzbaren Dashboards aus.

Ergebnisse

  • 25% Reduktion von Netzüberlastungsereignissen
  • 20% Verbesserung der durchschnittlichen Download‑Geschwindigkeiten
  • 15% Verringerung der End‑to‑End‑Latenz
  • 30% schnellere Anomalieerkennung
  • 10% OPEX‑Einsparungen im Netzbetrieb
  • NPS um 12 Punkte verbessert
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Gemini mit Ihrer Wissensdatenbank via „Retrieval-first“-Ansatz verbinden

Der zuverlässigste Weg, versteckte Inhalte zu reduzieren, besteht darin, Gemini aus bestehenden Artikeln zitieren zu lassen, statt frei formulierte Antworten zu „erfinden“. Technisch bedeutet das, eine Retrieval-Augmented-Generation-(RAG)-Schicht zu bauen: Ihre Wissensdatenbank wird indexiert (über Embeddings oder Suche), Gemini erhält die am besten passenden Textpassagen plus die Nutzerfrage und formuliert dann eine Antwort ausschließlich auf Basis dieses Kontexts.

Stellen Sie bei der Konfiguration sicher, dass jeder Wissensdatenbankartikel stabile Kennungen, einen prägnanten Titel und kurze Abschnitte hat, die als Kontextschnipsel dienen können. Erzwingen Sie in Ihrem Anwendungscode oder No-Code-Tool klare Prompt-Regeln, die Gemini anweisen, Quellen zu nennen und Spekulation zu vermeiden.

Beispiel für einen System-Prompt für retrievalbasierte Antworten:
Sie sind ein Kundenservice-Assistent.
Antworten Sie ausschließlich mit Hilfe des bereitgestellten <Kontexts>.
Wenn die Antwort nicht eindeutig im Kontext enthalten ist, sagen Sie,
dass Sie es nicht wissen, und schlagen Sie vor, den Support zu kontaktieren.
Listen Sie am Ende immer den verwendeten Artikeltitel und die Artikel-ID auf.

<Kontext>
{{top_k_passages_from_kb}}
</Kontext>

Erwartetes Ergebnis: höhere Genauigkeit, einfachere Prüfung und schnellere Akzeptanz durch Ihr Supportteam, weil klar erkennbar ist, welcher Artikel welche Antwort unterstützt hat.

Gemini nutzen, um Ticket-Logs und Suchanfragen auf Contentlücken zu analysieren

Um versteckte oder fehlende Inhalte systematisch sichtbar zu machen, spielen Sie historische Ticketdaten und Suchlogs Ihrer Website stapelweise in Gemini ein. Ziel ist es, ähnliche Anfragen zu clustern und mit Ihrem aktuellen Artikelbestand zu vergleichen. Sie können dies automatisieren, indem Sie Tickets (Betreff, Inhalt, Tags) exportieren und durch eine Gemini-gestützte Analyse-Pipeline laufen lassen.

Praktisch gesehen starten Sie mit einer kleineren Stichprobe (z. B. 5.000–20.000 Tickets) und lassen Gemini Intentionen normalisieren und labeln. Prüfen Sie anschließend für jede volumenstarke Intention, ob es einen Help-Artikel gibt und ob Kund:innen diesen tatsächlich erreichen, bevor sie ein Ticket einreichen.

Beispiel-Prompt für die Batch-Analyse:
Sie analysieren Support-Tickets.
Geben Sie für jedes Ticket aus:
- Kanonisches Intent-Label (max. 7 Wörter)
- Komplexität: einfach / mittel / komplex
- Ob dies per Self-Service lösbar sein sollte (ja/nein)
- Zentrale Begriffe, die Kund:innen verwenden (3–5 Phrasen)

Tickettext:
{{ticket_body}}

Erwartetes Ergebnis: eine priorisierte Liste von Intentionen, die bereits durch Inhalte abgedeckt sind, aber nicht gefunden werden (versteckte Inhalte), sowie Intentionen, für die neue, zielgerichtete Artikel oder Workflows benötigt werden.

Technische Dokumentation in klare Schritt-für-Schritt-Anleitungen umschreiben

Versteckte Inhalte sind oft nicht nur schwer zu finden – sie sind schwer zu verstehen. Gemini kann interne technische Dokumentation, Changelogs oder API-Dokumente in kundenorientierte Anleitungen mit klaren Schritten, Platzhaltern für Screenshots und Hinweisen umwandeln. So steigt die Nutzbarkeit Ihrer Wissensdatenbank deutlich, ohne dass alles manuell neu geschrieben werden muss.

Richten Sie einen wiederholbaren Workflow ein, in dem Content-Verantwortliche Rohdokumentation in ein Gemini-gestütztes Tool einfügen oder synchronisieren und einen ersten Entwurf eines kundenfreundlichen Artikels erhalten. Verlangen Sie immer eine menschliche Prüfung, lassen Sie aber Gemini die Hauptarbeit bei Struktur, Formulierungen und Beispielen erledigen.

Beispiel-Prompt zum Umschreiben für kundenorientierte Anleitungen:
Sie sind Redakteur:in für Kundensupport-Dokumentation.
Schreiben Sie die folgende interne technische Notiz zu einem klaren,
schrittweisen Help-Center-Artikel für nicht-technische Nutzer:innen um.

Anforderungen:
- Beginnen Sie mit einer kurzen Zusammenfassung in einfacher Sprache
- Fügen Sie einen Abschnitt "Bevor Sie starten" mit Voraussetzungen hinzu
- Verwenden Sie nummerierte Schritte mit klaren Handlungsanweisungen
- Fügen Sie einen Abschnitt "Wenn das nicht funktioniert hat" mit häufigen Fehlern hinzu
- Vermeiden Sie internen Jargon und Abkürzungen

Interne Notiz:
{{technical_doc_text}}

Erwartetes Ergebnis: höhere Abschluss- und Lösungsquoten bei Artikeln, mit weniger Zeitaufwand der Agents, technische Sprache in kundenfreundliche Antworten zu übersetzen.

Gemini-Antworten direkt in Ticketformulare und Chat-Einstiegspunkte integrieren

Einer der effektivsten Wege zur Ticketreduktion ist es, potenzielle Antworten zu präsentieren, bevor Nutzer:innen eine Anfrage absenden. Implementieren Sie ein Gemini-gestütztes „Sofortantwort“-Panel in Ihrem Kontaktformular und an Chat-Einstiegspunkten. Während Kund:innen den Betreff oder ihre erste Nachricht tippen, senden Sie diese an Gemini, zusammen mit gefundenen Artikeln, und zeigen Sie vorgeschlagene Antworten inline an.

Gestalten Sie Ihr UI so, dass Nutzer:innen den vorgeschlagenen Artikel schnell öffnen, bestätigen können, ob ihr Problem gelöst ist, oder das Ticket trotzdem absenden. Nutzen Sie Analytics, um zu messen, wie oft diese Sofortantworten die Einreichung verhindern, und verfeinern Sie Prompts kontinuierlich anhand des Feedbacks.

Beispiel-Prompt für Sofortvorschläge:
Sie helfen Nutzer:innen, bevor sie ein Support-Ticket absenden.
Nutzen Sie ausschließlich die <Kontext>-Artikel und generieren Sie:
- Eine kurze vorgeschlagene Antwort (max. 80 Wörter)
- 3 Artikeltitel mit IDs, die das Problem lösen könnten

Wenn der Kontext nicht ausreicht, sagen Sie:
"Wir benötigen vermutlich mehr Details – bitte fahren Sie mit Ihrer Anfrage fort."

Vom Nutzer verfasstes Ticket (Entwurf):
{{user_text}}

<Kontext>
{{retrieved_articles}}
</Kontext>

Erwartetes Ergebnis: messbare Ticketreduktion bereits beim Erstellen der Anfrage – mit sofortiger Wirkung auf das Kontaktvolumen.

Agents Gemini-gestützte Artikel- und Antwortvorschläge direkt im Posteingang geben

Nicht jede Interaktion kann oder sollte abgefangen werden. Für Kontakte, die bei Ihren Agents landen, nutzen Sie Gemini im Agent-Workspace, um relevante Artikel anzuzeigen und Antwortentwürfe basierend auf der Konversation und Ihrer Wissensdatenbank zu generieren. So verkürzen Sie Bearbeitungszeiten und erkennen, welche Artikel für Self-Service verbessert oder hervorgehoben werden sollten.

Integrieren Sie Gemini per API in Ihr CRM oder Ticketingsystem, sodass es den Ticketverlauf erhält und Antwortvorschläge plus Referenzen zu Wissensdatenbankartikeln zurückgibt. Agents können Vorschläge annehmen, bearbeiten oder ablehnen und liefern damit wertvolle Trainingsdaten.

Beispiel-Prompt für Agent Assist:
Sie unterstützen Mitarbeiter:innen im Kundenservice.
Lesen Sie die Konversation und die <Kontext>-Artikel.
Formulieren Sie eine höfliche, prägnante Antwort, die die Frage der Nutzer:in beantwortet.
Nennen Sie am Ende die relevanteste Artikel-ID.

Konversation:
{{ticket_conversation}}

<Kontext>
{{kb_snippets}}
</Kontext>

Erwartetes Ergebnis: schnellere Lösung für nicht abgefangene Tickets, konsistentere Antworten und klare Signale dazu, welche Artikel den größten Wert liefern.

Deflection, Lösung und Contentnutzung mit klaren KPIs messen

Damit Ihr Gemini-Setup sich kontinuierlich verbessert, brauchen Sie konkrete Metriken für jeden Workflow. Mindestens sollten Sie messen: Anteil der Tickets, die per Self-Service gelöst werden, Verhältnis Formularansicht zu Ticketabsendung, Klickrate von Suche zu Artikel, artikelgestützte Lösungsquote und Bearbeitungszeit pro Ticket. Für KI-spezifische Flows sollten Sie erfassen, wie oft Gemini-Vorschläge genutzt oder überschrieben werden.

Setzen Sie einfache Dashboards auf, die Ihr Ticketingsystem, Wissensdatenbank-Analytics und KI-Logs verbinden. Nutzen Sie diese, um A/B-Tests für Prompts, Artikelüberarbeitungen und UI-Änderungen durchzuführen. Sie können beispielsweise Deflection-Raten vor und nach Gemini-gestützten Sofortantworten oder Contentüberarbeitungen vergleichen, um den Impact zu quantifizieren.

Erwartete Ergebnisse: Innerhalb von 8–16 Wochen sehen viele Organisationen 10–30 % weniger wiederkehrende Tickets in den fokussierten Kategorien, 15–25 % schnellere Bearbeitungszeiten bei verbleibenden Tickets und deutlich höhere Nutzung von Help-Center-Inhalten, die zuvor kaum verwendet wurden.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini hilft auf drei Hauptwegen:

  • Es analysiert Ticket-Logs und Suchanfragen, um Intentionen zu identifizieren, die bereits in FAQ oder Help Center abgedeckt sind, aber nicht genutzt werden.
  • Es ermöglicht semantische Suche und Chat, sodass Kund:innen Fragen in ihren eigenen Worten formulieren können und trotzdem den passenden Artikel erhalten.
  • Es schreibt dichte oder technische Dokumentation in klare, schrittweise Anleitungen um, denen Kund:innen tatsächlich folgen können – und reduziert so wiederkehrende Kontakte.

Zusammen verwandeln diese Fähigkeiten eine wenig genutzte Wissensdatenbank in einen primären Kanal zur Lösung einfacher Anliegen, bevor daraus Tickets werden.

Typischerweise benötigen Sie drei Kompetenzen: eine Person, die den Supportprozess und die KPIs verantwortet, eine Person, die die Wissensdatenbank/den Content verantwortet, und eine Engineering-Ressource, um Gemini in Ihr Ticketingsystem oder Help Center zu integrieren. In vielen Fällen reicht dafür ein kleines, funktionsübergreifendes Squad statt eines großen Projektteams.

Technisch brauchen Sie API-Zugriff auf Gemini, Zugriff auf Ihre Wissensdatenbank (per Export oder API) sowie Daten aus Ihrem Ticketing- oder Chatsystem. Reruption kann die KI-Engineering- und Architektur-Ebene liefern, falls Sie keine eigene Erfahrung mit LLMs im Haus haben.

Für einen fokussierten Use Case (z. B. 3–5 volumenstarke Themen) können Sie typischerweise in 4–6 Wochen ein Gemini-gestütztes Self-Service-Pilotprojekt starten – vorausgesetzt, Ihre Wissensdatenbank ist zugänglich. Erste Deflection-Effekte sind oft schon im ersten Monat nach dem Launch sichtbar, insbesondere wenn Sie Sofortantworten im Kontaktformular integrieren.

Strukturellere Verbesserungen (Überarbeitung wichtiger Artikel, Optimierung der Suche, Ausbau der Abdeckung) erfolgen üblicherweise über weitere 2–3 Monate. Realistisch ist für viele Organisationen eine Reduktion repetitiver Tickets in den fokussierten Bereichen um 10–20 % innerhalb eines Quartals, mit weiteren Verbesserungen, wenn Sie Prompts und Inhalte verfeinern.

Die direkten Nutzungskosten von Gemini (API-Calls) sind in der Regel gering im Vergleich zu Personalkosten im Support. Die Hauptinvestitionen liegen in der Integration sowie in etwas laufendem Prompt- und Content-Tuning. Der ROI entsteht durch geringeres Ticketvolumen, kürzere Bearbeitungszeiten pro Ticket und höhere Kundenzufriedenheit.

Wir empfehlen ein einfaches Modell: Schätzen Sie Ihre aktuellen Kosten pro Ticket und den Anteil der Tickets, die einfache, wiederkehrende Anliegen sind. Selbst moderate Deflection (z. B. 10–15 % dieser Tickets) amortisiert die anfängliche Implementierung oft innerhalb weniger Monate. Da Gemini zudem Agents über Vorschläge und Zusammenfassungen beschleunigt, ist der kombinierte Produktivitätsgewinn meist höher als die reine Ticketreduktion.

Reruption verbindet tiefes Engineering-Know-how mit einem Co-Preneur-Mindset: Wir arbeiten eingebettet in Ihrem Team und bauen echte KI-Workflows, nicht nur Folien. Für dieses spezifische Problem starten wir typischerweise mit unserem KI-PoC für 9.900 €, bei dem wir:

  • einen konkreten Use Case für Ticketreduktion definieren und zuschneiden (z. B. 2–3 volumenstarke Kontaktgründe),
  • Gemini mit einem Teil Ihrer Ticketdaten und Wissensdatenbank verbinden,
  • einen funktionierenden Prototypen für KI-gestützte Suche, Sofortantworten oder Artikel-Überarbeitungen bauen und
  • Qualität, Geschwindigkeit und erwartete Kosten pro Interaktion messen.

Darauf aufbauend unterstützen wir Sie dabei, den Prototypen produktionsreif zu machen, in Ihre bestehenden Tools zu integrieren und Ihre Customer-Service- und Content-Teams zu befähigen, die Lösung selbst zu betreiben und weiterzuentwickeln.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media