Die Herausforderung: Wiederkehrende einfache Anfragen

In den meisten Kundenservice-Organisationen handelt es sich bei einem Großteil der Tickets nicht um komplexe Sonderfälle, sondern immer wieder um denselben kleinen Satz grundlegender Fragen: Öffnungszeiten, Lieferstatus, Preisinformationen, Passwort-Reset, einfache How-tos. Service-Mitarbeitende verbringen täglich Stunden damit, nahezu identische Anfragen zu beantworten, obwohl die Informationen bereits in FAQs, Wissensdatenbanken oder internen Systemen vorhanden sind. Diese repetitive Arbeit frustriert sowohl Kundschaft als auch Mitarbeitende.

Traditionelle Ansätze wie statische FAQ-Seiten, einfache Keyword-Chatbots oder IVR-Menüs sollten dieses Problem lösen, passen aber selten dazu, wie Kundinnen und Kunden tatsächlich fragen. Nutzende formulieren in natürlicher Sprache, mischen mehrere Themen oder fügen Kontext wie „Ich reise morgen“ hinzu – etwas, das einfache Suche oder regelbasierte Bots nicht interpretieren können. Das Ergebnis: Kundinnen und Kunden geben den Self-Service auf oder umgehen ihn komplett und wenden sich direkt an einen Menschen – das Nadelöhr entsteht erneut.

Die geschäftlichen Auswirkungen sind erheblich: Hohe Kontaktvolumina treiben die Support-Kosten nach oben, die Wartezeiten steigen, und komplexe Anliegen warten länger in der Warteschlange. Mitarbeitende haben das Gefühl, dass ihre Fähigkeiten unterfordert sind, was sich auf die Bindung auswirkt. Die Unternehmensführung verpasst Chancen, Kapazitäten für proaktiven Kundendialog oder wertschöpfende Aktivitäten einzusetzen. Gleichzeitig wirken Wettbewerber mit schnellem, KI-gestütztem Self-Service reaktionsschneller und moderner und heben die Messlatte für Kundenerwartungen.

Die gute Nachricht: Genau diese Art von Problem ist wie geschaffen für moderne KI. Mit Tools wie Gemini lassen sich wiederkehrende einfache Anfragen automatisiert in natürlicher Sprache bearbeiten – kanalübergreifend und auf Basis Ihres bestehenden Wissens. Bei Reruption sehen wir, wie gut gestaltete KI-Assistenten Support-Workloads transformieren können. In den folgenden Abschnitten zeigen wir praktische Schritte, wie Sie Gemini einsetzen, um einfache Anfragen abzufangen, ohne die Servicequalität zu beeinträchtigen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Basierend auf Reruptions Erfahrung in der Entwicklung von KI-Kundenservice-Lösungen und intelligenten Chatbots sehen wir Gemini als sehr gut geeignet, um wiederkehrende einfache Anfragen in großem Umfang zu bearbeiten. Richtig implementiert, kann Gemini vor Ihren Kontaktkanälen sitzen, natürliche Sprache verstehen und Unternehmenswissen nutzen, um den Großteil der Basisfragen zu lösen, bevor sie überhaupt bei einem Menschen landen.

In Journeys denken, nicht nur in einer smarteren FAQ

Viele Organisationen betrachten die KI-basierte Abfederung einfacher Anfragen als eine Art smartere FAQ-Suche. In der Praxis zählt für Kundinnen und Kunden jedoch die End-to-End-Journey: von der Frage in den eigenen Worten bis zur fundierten, umsetzbaren Antwort in wenigen Sekunden. Wenn Sie Gemini evaluieren, kartieren Sie die 10–20 häufigsten Anfragearten (Öffnungszeiten, Bestellstatus, Passwort-Reset, Abo-Änderungen) als vollständige Mini-Journeys – inklusive Rückfragen und Randfällen.

Strategisch bedeutet das, die Gemini-Experience so zu gestalten, dass sie Kundinnen und Kunden führt – nicht nur eine einzelne Frage beantwortet. Beispiel: Nach Angabe der Öffnungszeiten könnte Gemini fragen: „Möchten Sie, dass ich Ihnen bei der Terminbuchung helfe?“ oder nach einer Erklärung zum Passwort-Reset anbieten: „Soll ich Ihnen den Reset-Link jetzt senden?“. Diese Journey-First-Perspektive macht aus KI mehr als nur eine passive Wissensschicht – sie wird zu einem aktiven Self-Service-Assistenten, der Kontaktvolumen tatsächlich reduziert.

Gemini auf verlässlichem, gepflegtem Wissen aufsetzen

Damit KI-Automatisierung im Kundenservice Vertrauen genießt, müssen die zugrunde liegenden Informationen korrekt und aktuell sein. Strategisch erfordert das Governance: Legen Sie fest, welche Systeme die „Single Source of Truth“ für Preise, Richtlinien, Öffnungszeiten und How-tos sind, und stellen Sie sicher, dass Gemini mit diesen Quellen verbunden ist – nicht mit zufälligen Dokumenten, die über Laufwerke verstreut sind.

Reruption empfiehlt in der Regel ein klares Ownership-Modell: Produkt-, Rechts- und Support-Teams wissen, für welche Inhalte sie verantwortlich sind und wie Aktualisierungen in die KI gelangen. Mit Gemini kann das bedeuten, Google Drive, Confluence oder Ihr CRM zu verbinden und genau zu definieren, welche Sammlungen als „maßgeblich“ gelten. Ohne diese Content-Strategie liefert selbst das beste Modell inkonsistente Antworten – und Mitarbeitende werden sich gegen KI-Vorschläge sträuben.

Mit Use Cases mit hohem Volumen und geringem Risiko starten

Um Vertrauen in der Organisation aufzubauen, priorisieren Sie für den ersten Gemini-Einsatz wiederkehrende Anfragen mit hohem Volumen und geringem Risiko. Das sind Fragen, bei denen eine falsche Antwort zwar ärgerlich, aber nicht geschäftskritisch ist: Öffnungszeiten nach Standort, Standard-Lieferzeiten, grundlegende Rückgaberichtlinien oder Schritt-für-Schritt-Nutzungstipps.

Dieser strategische Fokus hält Legal-, Compliance- und Risiko-Stakeholder entspannt und liefert gleichzeitig spürbare Entlastung für das Serviceteam. Während Sie Genauigkeit und Kundenzufriedenheit beobachten, können Sie den Scope von Gemini schrittweise auf nuanciertere Themen ausweiten (z. B. Preis-Ausnahmen, Sonderkonditionen) – zunächst mit Human-in-the-Loop-Review, bevor vollständig automatisiert wird.

Ihr Team auf KI-unterstützte Workflows vorbereiten

Das Abfangen einfacher Anfragen mit Gemini verändert das Arbeitsprofil Ihrer Kundenservice-Mitarbeitenden: weniger repetitive Tickets, mehr komplexe und emotional aufgeladene Fälle. Diese Verschiebung ist positiv, erfordert aber Vorbereitung. Kommunizieren Sie frühzeitig, dass KI dazu dient, Tätigkeiten mit geringem Mehrwert zu eliminieren – nicht Jobs – und binden Sie Mitarbeitende an der Front in die Gestaltung und das Testen der Gemini-Flows ein.

Aus Sicht von HR und Operations sollten neue Kennzahlen und Anreizsysteme bedacht werden: Fokus auf die Qualität der Bearbeitung komplexer Fälle, First-Contact-Resolution bei Eskalationen sowie die effektive Nutzung von KI-Vorschlägen statt reiner Ticketanzahl. Erleben Mitarbeitende Gemini als Kollegin, die monotone Arbeit abnimmt, steigen Akzeptanz und die Gesamtservicequalität deutlich.

Für Governance, Monitoring und kontinuierliche Verbesserung planen

Der Start eines Gemini-gestützten Assistenten ist kein einmaliges Projekt, sondern der Aufbau einer neuen Fähigkeit. Definieren Sie im Vorfeld, wie Sie Deflektionsrate, Antwortqualität und Kundenzufriedenheit überwachen. Legen Sie fest, wer Gesprächsprotokolle prüft, wer Prompts und Richtlinien anpassen darf und wie Feedback von Mitarbeitenden und Kundschaft in Verbesserungen einfließt.

Strategisch gesehen scheitern viele KI-Initiativen genau an dieser Governance-Ebene. Bei Reruption plädieren wir für ein leichtgewichtiges, aber klares Operating Model: monatliche Review der Kennzahlen, ein kleines, funktionsübergreifendes KI-Steuerungsteam (Support, Produkt, IT) und ein Verbesserungs-Backlog für Geminis Verhalten und Wissensbasis. So bleibt Ihr KI-Support-Assistent im Takt mit Ihrem Geschäft – statt zu einem weiteren verwaisten Tool zu werden.

Durchdacht eingesetzt kann Gemini im Kundenservice einen großen Anteil wiederkehrender einfacher Anfragen übernehmen und Ihre Mitarbeitenden von der Front für die komplexen, menschlichen Gespräche freisetzen, die wirklich zählen. Entscheidend ist, Gemini als neue Servicefähigkeit zu betrachten – verankert in solidem Wissen, klarer Governance und der Akzeptanz der Mitarbeitenden – und nicht als weiteres Chatbot-Widget. Reruption verbindet tiefe KI-Engineering-Kompetenz mit praktischer Erfahrung im Servicebetrieb, um Sie bei Konzeption, Prototyping und Skalierung einer solchen Gemini-basierten Deflektion zu unterstützen. Wenn Sie erkunden möchten, wie das in Ihrer Umgebung aussehen könnte, sind wir bereit, es gemeinsam mit Ihnen aufzubauen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Streaming‑Medien: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Mass General Brigham

Gesundheitswesen

Mass General Brigham, als eines der landesweit führenden integrierten akademischen Gesundheitssysteme, steht vor enormen Mengen an medizinischen Bilddaten aus Radiologie und Pathologie, die schnellere und genauere Analysen erfordern, um Kliniker zu unterstützen. Der Zustrom von KI-Technologien in der medizinischen Bildgebung hat Herausforderungen wie Governance, Einbindung medizinischer Expertise und die Gewährleistung einer verantwortungsvollen Einführung mit sich gebracht, während Kliniker wegen manueller Arbeitsabläufe und Entscheidungsüberlastung unter Burnout leiden. Zusätzlich erfordern die operativen Anforderungen in einem großen Krankenhausnetz prädiktive Modelle für Ressourcenallokation, Patientenfluss und Früherkennung. Altsysteme haben Schwierigkeiten mit dem Umfang und der Komplexität von Echtzeitdaten, was Effizienz und Patientenergebnisse beeinträchtigt.

Lösung

Mass General Brigham richtete ein dediziertes Künstliche-Intelligenz-Zentrum ein, das akademische Forschung, Produktentwicklung und klinische Translation verbindet und KI für Bildgebung mittels Computervision sowie für den Betrieb mittels prädiktiver Analytik verwaltet. Sie entwickelten Governance-Initiativen in der Radiologie und bezogen Klinikpersonal ein, um Einführungsbarrieren zu adressieren. Wesentliche Partnerschaften umfassen Microsoft für Foundation-Modelle in der medizinischen Bildgebung und eine frühere Zusammenarbeit mit GE Healthcare an KI-Workflows, die mit 36.000+ Hirnbildern für MRT-Konsistenz trainiert wurden. Dieses Ökosystem unterstützt Hunderte von Modellen, gestützt auf rigorose Forschung und einem 30-Millionen-Dollar-Innovationsfonds.

Ergebnisse

  • 36.000+ Hirnbilder wurden für das KI-Training in MRT-Workflows verwendet
  • 300+ neue KI-bezogene Studien und klinische Studien initiiert
  • Dediziertes KI-Zentrum mit kompletten Services für die Translation von Modellen in die Praxis
  • Partnerschaften ermöglichen KI-Copiloten zur Bildanalyse
  • Führendes Governance-Framework für den Zustrom von Hunderten KI-Tools in der Radiologie
Fallstudie lesen →

Morgan Stanley

Bankwesen

Finanzberater bei Morgan Stanley hatten Schwierigkeiten, schnell auf die umfangreiche proprietäre Forschungsdatenbank des Unternehmens zuzugreifen, die über 350.000 Dokumente und Jahrzehnte institutionellen Wissens umfasst. Manuelle Recherchen in diesem riesigen Archiv waren zeitraubend und dauerten oft 30 Minuten oder länger pro Anfrage, was die Fähigkeit der Berater einschränkte, während Kundengesprächen zeitnahe, personalisierte Beratung zu liefern . Dieser Engpass begrenzte die Skalierbarkeit in der Vermögensverwaltung, in der vermögende Kunden sofort datenbasierte Einblicke in volatilen Märkten erwarten. Zudem erschwerte das schiere Volumen unstrukturierter Daten — 40 Millionen Wörter an Forschungsberichten — die schnelle Synthese relevanter Informationen, was suboptimale Empfehlungen und geringere Kundenzufriedenheit zur Folge haben konnte. Die Berater benötigten eine Lösung, um den Zugang zu dieser Wissensquelle zu demokratisieren, ohne umfangreiche Schulungen oder technische Vorkenntnisse .

Lösung

Morgan Stanley arbeitete mit OpenAI zusammen, um AI @ Morgan Stanley Debrief zu entwickeln, einen auf GPT-4 basierenden generativen KI-Chatbot, der speziell für Vermögensverwaltungsberater zugeschnitten ist. Das Tool verwendet retrieval-augmented generation (RAG), um sicher und kontextbewusst Abfragen in der proprietären Forschungsdatenbank durchzuführen und sofortige, quellenbasierte Antworten zu liefern . Als konversationeller Assistent implementiert, ermöglicht Debrief Beratern, natürliche Fragen wie ‚Was sind die Risiken bei Investitionen in AI-Aktien?‘ zu stellen und synthetisierte Antworten mit Zitaten zu erhalten — ohne manuelle Suche. Strenge KI-Evaluationen und menschliche Aufsicht sorgen für Genauigkeit; das Modell wurde zudem feingetunt, um sich an Morgan Stanleys institutionelles Wissen anzupassen . Dieser Ansatz löste Datensilos auf und ermöglichte eine nahtlose Integration in die Arbeitsabläufe der Berater.

Ergebnisse

  • 98% Akzeptanzrate bei Vermögensverwaltungsberatern
  • Zugriff für nahezu 50% der gesamten Mitarbeitenden von Morgan Stanley
  • Anfragen werden in Sekunden statt in über 30 Minuten beantwortet
  • Mehr als 350.000 proprietäre Forschungsdokumente indexiert
  • 60% Mitarbeiterzugriff bei Wettbewerbern wie JPMorgan zum Vergleich
  • Signifikante Produktivitätssteigerungen laut Chief Administrative Officer
Fallstudie lesen →

Ford Motor Company

Fertigung

In Fords Automobilfertigungsstätten stellten Schleifen und Lackieren von Karosserien einen großen Engpass dar. Diese arbeitsintensiven Tätigkeiten erforderten manuelles Schleifen der Karosserien durch Mitarbeitende, ein Prozess, der zu Inkonsistenzen, Ermüdung und ergonomischen Verletzungen aufgrund repetitiver Bewegungen über Stunden führte . Traditionelle Robotersysteme hatten Probleme mit der Variabilität von Karosserieteilen, Krümmungen und Materialunterschieden, was eine vollständige Automatisierung in bestehenden 'Brownfield'-Anlagen erschwerte . Zudem war das Erreichen einer konstanten Oberflächenqualität für die Lackierung entscheidend, da Fehler zu Nacharbeit, Verzögerungen und höheren Kosten führen konnten. Mit steigender Nachfrage nach Elektrofahrzeugen (EVs) und zunehmender Produktionsskalierung musste Ford modernisieren, ohne massive Investitionsausgaben oder Störungen des laufenden Betriebs zu verursachen, und dabei die Sicherheit der Belegschaft und deren Qualifizierung priorisieren . Die Herausforderung bestand darin, eine skalierbare Automatisierung zu integrieren, die nahtlos mit Menschen zusammenarbeitet.

Lösung

Ford begegnete dieser Herausforderung durch den Einsatz von KI-geführten kollaborativen Robotern (Cobots), ausgestattet mit Maschinenvision und Automatisierungsalgorithmen. In der Karosseriewerkstatt scannen sechs Cobots mit Kameras und KI die Karosserien in Echtzeit, erkennen Flächen, Defekte und Konturen mit hoher Präzision . Diese Systeme nutzen Computer-Vision-Modelle für 3D-Mapping und Bahnplanung, wodurch sich die Cobots dynamisch anpassen können, ohne neu programmiert werden zu müssen . Die Lösung setzte auf eine workforce-first Brownfield-Strategie, beginnend mit Pilotprojekten in Werken in Michigan. Cobots übernehmen das Schleifen autonom, während Menschen die Qualitätsüberwachung durchführen, wodurch Verletzungsrisiken reduziert werden. Partnerschaften mit Robotikfirmen und interne KI-Entwicklung ermöglichten Low-Code-Inspektionstools für eine einfache Skalierung .

Ergebnisse

  • Schleifzeit: 35 Sekunden pro vollständiger Karosserie (statt Stunden manuell)
  • Produktivitätssteigerung: 4x schneller in Montageprozessen
  • Verletzungsreduktion: 70 % weniger ergonomische Belastungen in Cobots-Bereichen
  • Konsistenzverbesserung: 95 % fehlerfreie Oberflächen nach dem Schleifen
  • Einsatzumfang: 6 Cobots im Betrieb, Ausbau auf über 50 Einheiten geplant
  • ROI-Zeitraum: Amortisation in 12–18 Monaten pro Werk
Fallstudie lesen →

Khan Academy

Bildung

Khan Academy stand vor der gewaltigen Aufgabe, personalisierte Nachhilfe in großem Maßstab für ihre 100M+ jährlichen Nutzenden bereitzustellen, viele davon in unterversorgten Regionen. Traditionelle Online-Kurse, so wirksam sie auch sind, fehlte die interaktive Eins-zu-eins-Begleitung durch menschliche Tutoren, was zu hohen Abbruchraten und ungleichmäßigen Lernfortschritten führte. Lehrkräfte waren mit Planung, Bewertung und Differenzierung für heterogene Klassen überlastet. Im Jahr 2023, als KI große Fortschritte machte, kämpften Pädagogen mit Halluzinationen und Risiken einer Überabhängigkeit bei Tools wie ChatGPT, die häufig direkte Antworten statt Lernförderung lieferten. Khan Academy benötigte eine KI, die schrittweises Denken fördert, ohne zu schummeln, und gleichzeitig gleichberechtigten Zugang als Nonprofit sicherstellt. Sichere Skalierung über Fächer und Sprachen hinweg stellte technische und ethische Hürden dar.

Lösung

Khan Academy entwickelte Khanmigo, einen KI-gestützten Tutor und Lehrassistenten, der auf GPT-4 basiert, im März 2023 für Lehrkräfte pilotiert und später für Schüler ausgeweitet. Anders als generische Chatbots nutzt Khanmigo maßgeschneiderte System‑Prompts, um Lernende sokratisch zu führen — mit gezielten Fragen, Hinweisen und Feedback, ohne direkte Lösungen zu liefern — in Mathematik, Naturwissenschaften, Geisteswissenschaften und mehr. Der gemeinnützige Ansatz legte Wert auf Sicherheitsmaßnahmen, Integration in Khans Content-Bibliothek und iterative Verbesserungen durch Lehrkräfte-Feedback. Partnerschaften wie mit Microsoft ermöglichten Lehrkräften bis 2024 kostenlosen globalen Zugang, inzwischen in 34+ Sprachen. Laufende Updates, etwa 2025 zur Mathematik‑Berechnung, adressieren Genauigkeitsprobleme.

Ergebnisse

  • Nutzerwachstum: 68.000 (Pilot 2023-24) auf 700.000+ (Schuljahr 2024-25)
  • Lehrerakzeptanz: Kostenlos für Lehrkräfte in den meisten Ländern, Millionen nutzen Khan Academy-Tools
  • Unterstützte Sprachen: 34+ für Khanmigo
  • Engagement: Verbesserte Schüler-Persistenz und Lernfortschritte in Pilotprojekten
  • Zeitersparnis: Lehrkräfte sparen Stunden bei Unterrichtsplanung und -vorbereitung
  • Skalierung: Integriert in 429+ kostenlose Kurse in 43 Sprachen
Fallstudie lesen →

Insilico Medicine

Biotechnologie

Der Wirkstoffentdeckungsprozess in der Biotechnologie ist berüchtigt dafür, lang und teuer zu sein, typischerweise 10–15 Jahre dauernd und 2–3 Milliarden USD pro zugelassenem Wirkstoff kostend, mit einer Fehlerrate von 90 % in klinischen Studien. Bei idiopathischer Lungenfibrose (IPF), einer fortschreitenden Lungenerkrankung mit begrenzten Behandlungsoptionen, sind die Herausforderungen noch größer: die Identifizierung neuartiger Targets inmitten komplexer Biologie, die Entwicklung wirksamer Moleküle sowie die Vorhersage von Eigenschaften wie Toxizität und Wirksamkeit erfordern enorme Datenmengen und aufwändiges Trial‑and‑Error‑Screening. Traditionelle Methoden stützen sich auf Hochdurchsatzscreening und medizinische Chemie, die jedoch bei seltenen Erkrankungen wie IPF ineffizient sind, da die Patientenzahl begrenzt ist und die Heterogenität der Krankheit den Fortschritt hemmt. Insilico stand vor der Herausforderung, die Zielidentifikation und Moleküldesign zu beschleunigen und gleichzeitig die präklinische Durchführbarkeit sicherzustellen — in einem Umfeld, das gegenüber der Zuverlässigkeit von KI in der realen Pharmawelt skeptisch war.

Lösung

Insilico setzte seine End‑to‑End‑Plattform Pharma.AI ein, die generative KI über Chemistry42 zur neuartigen Molekülgenerierung, PandaOmics zur Zielentdeckung (Deep Learning auf Multi‑Omics‑Daten) und InClinico für Trial‑Simulationen integriert. Deep‑Learning‑Modelle, trainiert auf riesigen Datensätzen, generierten 10.000+ neuartige Moleküle de novo und optimierten diese für IPF‑spezifische Targets wie TNIK. Diese KI‑getriebene Pipeline überwand manuelle Beschränkungen, indem sie ADMET‑Eigenschaften vorhersagte, Top‑Kandidaten per Robotik synthetisierte und in Tiermodellen validierte. Der Ansatz reduzierte Iterationen und ermöglichte den schnellen Fortschritt vom Target bis zur IND in 30 Monaten.

Ergebnisse

  • Zeit bis Phase I: 30 Monate (vs. 5+ Jahre traditionell)
  • Generierte Moleküle: 10.000+ neuartige Strukturen
  • Phase‑II‑Einschreibung: 70+ Patienten in mehreren Regionen
  • Kostensenkung: Geschätzt 70–80 % geringere Entdeckungskosten
  • Präklinischer Erfolg: Wirkstoff erfüllte alle Sicherheits‑/Wirksamkeitsmarker
  • Studiengeschwindigkeit: Phase II‑Start 2,5 Jahre nach Target‑Identifikation
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Kartieren und priorisieren Sie Ihre Top 20 wiederkehrenden Anfragen

Bevor Sie Gemini konfigurieren, quantifizieren Sie das Problem. Exportieren Sie die Tickets der letzten 3–6 Monate aus Ihrem Helpdesk (z. B. Zendesk, Freshdesk, ServiceNow) und clustern Sie sie nach Themen. Identifizieren Sie die 20 häufigsten wiederkehrenden einfachen Anfragen wie „Öffnungszeiten“, „Sendungsverfolgung“, „Passwort-Reset“, „Rechnungskopie“ oder „Adressänderung“.

Dokumentieren Sie für jedes Thema: typische Formulierungen der Kundschaft, benötigte Datenquellen (z. B. CRM für Bestellstatus), Risikoniveau und ob eine automatisierte End-to-End-Lösung möglich ist. Das liefert Ihnen ein konkretes Backlog an Use Cases, die Sie mit Gemini umsetzen können, sowie eine Basis, um Deflektionsgewinne zu messen.

Robuste Gemini-Prompts für kundenorientierte Chatbots entwerfen

Das Verhalten von Gemini in einem Chatbot oder Formular-Assistenten wird stark durch den System-Prompt beeinflusst. Formulieren Sie eine klare, begrenzte Rolle, die zu Tonalität und Support-Richtlinien Ihrer Marke passt. Weisen Sie Gemini ausdrücklich an, was es tun darf und was nicht, wann nachgefragt werden soll und wann an einen Menschen eskaliert wird.

Beispiel für einen Gemini-System-Prompt für wiederkehrende Anfragen:
Sie sind ein Kundenservice-Assistent für <Unternehmen>.
Ihre Ziele:
- Beantworten Sie einfache, wiederkehrende Fragen (Öffnungszeiten, grundlegende
  Preise, Bestellstatus, Passwort-Resets, einfache How-tos) mithilfe des
  bereitgestellten Wissens und der verfügbaren Tools.
- Wenn Informationen fehlen oder sensibel sind, stellen Sie kurze
  Rückfragen zur Klärung.
- Wenn die Frage komplex ist oder Beschwerden, rechtliche Themen oder
  Sonderkonditionen umfasst, leiten Sie die Kundin oder den Kunden höflich an
  eine Mitarbeiterin bzw. einen Mitarbeiter weiter.

Richtlinien:
- Seien Sie prägnant, freundlich und klar.
- Nutzen Sie für Schritt-für-Schritt-Anleitungen bevorzugt Aufzählungen.
- Erfinden Sie niemals Richtliniendetails. Wenn Sie unsicher sind, sagen Sie,
  dass Sie es nicht genau wissen, und schlagen Sie vor, die Kundin bzw. den
  Kunden mit einem Menschen zu verbinden.

Testen Sie diesen Prompt mit echten historischen Fragen und verfeinern Sie ihn anhand von Fehlerszenarien (z. B. wenn Gemini zu selbstsicher etwas beantwortet, das hätte eskaliert werden sollen). Ein gut gestalteter Prompt ist einer der wirkungsvollsten Hebel für sicheren und nützlichen KI-gestützten Self-Service.

Gemini mit Wissensdatenbank und Schlüsselsystemen verbinden

Um über generische Antworten hinauszugehen, integrieren Sie Gemini mit Ihren tatsächlichen Datenquellen. In einer Google-zentrierten Umgebung starten Sie, indem Sie relevante Google-Drive-Ordner, Docs, Sheets und Sites anbinden, die aktuelle FAQs, Produktinformationen und Prozessbeschreibungen enthalten. Definieren Sie eine kuratierte „Support-Wissens“-Kollektion, statt pauschal auf alles zuzugreifen.

Für dynamische Daten wie Bestellstatus oder Abodetails entwerfen Sie eine einfache API-Schicht, die Gemini über Ihre Chatbot-Plattform aufrufen kann. Fragt zum Beispiel eine Kundin: „Wo ist meine Bestellung?“, extrahiert Gemini die Bestellnummer, ruft Ihre Bestell-API auf und erklärt den Status anschließend in natürlicher Sprache, anstatt die Person in ein separates Portal zu schicken.

Typischer Workflow:
1) Kundin fragt: "Wo ist meine Bestellung 12345?"
2) Gemini extrahiert die Bestellnummer und ruft /api/orders/12345 auf
3) API antwortet: { status: "Versendet", eta: "2025-01-15" }
4) Gemini antwortet: "Ihre Bestellung 12345 wurde am 10.01.2025 versendet und
   wird voraussichtlich am 15.01.2025 zugestellt. Sie können sie hier verfolgen:
   <Link>"

Diese Kombination aus statischem Wissen und Live-Systemzugriff macht aus Gemini einen praktischen virtuellen Support-Agenten statt nur eine smarte FAQ-Suche.

Gemini als First-Line-Filter in Kontaktkanälen einsetzen

Um die Support-Volumen-Deflektion zu maximieren, positionieren Sie Gemini am Einstiegspunkt Ihrer meistgenutzten Kanäle: Website-Chat, In-App-Support-Widgets und Kontaktformulare. Konfigurieren Sie den Flow so, dass Gemini zuerst versucht, das Anliegen zu lösen – mit einem klaren, einfachen Weg zu einer Ansprechperson, wenn nötig.

Für ein Kontaktformular können Sie Gemini als „Pre-Submit-Assistenten“ implementieren: Sobald die Kundin oder der Kunde beginnt, das Anliegen zu tippen, schlägt Gemini in Echtzeit Antworten und Self-Service-Links vor. Bestätigt die Person, dass ihr Anliegen gelöst ist, wird kein Ticket erstellt. Wenn sie trotzdem fortfährt, hängen Sie die von Gemini erzeugte Zusammenfassung und den Kontext an das Ticket an, damit die Bearbeitung schneller erfolgen kann.

Beispielverhalten eines Gemini-Assistenten in einem Kontaktformular:
- Lesen Sie Betreff- und Beschreibungsfeld, während die Nutzenden tippen.
- Schlagen Sie 1–3 Antworten oder passende FAQ-Artikel in einer Seitenleiste vor.
- Zeigen Sie Buttons: "Ja, das löst mein Anliegen" / "Ich brauche weiterhin Hilfe".
- Wenn gelöst: kein Ticket erstellen, Kontakt als deflektiert protokollieren.
- Wenn nicht gelöst: Ticket mit einer von Gemini generierten Zusammenfassung
  und einem Antwortvorschlag für die Mitarbeitenden erstellen.

Dieses Muster fängt einfache Anliegen ab und beschleunigt zugleich die Bearbeitung der verbleibenden, komplexeren Fälle.

Gemini intern zur Antwortunterstützung für Mitarbeitende nutzen

Selbst mit kundenorientierter KI werden einige wiederkehrende Anfragen bei Mitarbeitenden landen. Hier kann Gemini im Hintergrund wirken, Antworten beschleunigen und für Konsistenz sorgen. Integrieren Sie Gemini in Ihr Helpdesk-System, sodass für jedes neue Ticket ein Antwortvorschlag generiert wird – basierend auf der Kundenanfrage und Ihrer Wissensdatenbank.

Beispiel-Prompt für Gemini zur Assistenz von Servicemitarbeitenden:
Sie unterstützen Mitarbeitende im Kundenservice.
Verfassen Sie auf Basis der Kundenanfrage und der internen
Wissensartikel einen Antwortvorschlag, den die Mitarbeitenden nach
Prüfung versenden können.
- Halten Sie die Antwort kurz und klar.
- Fügen Sie relevante Links oder Anhänge aus dem Wissen hinzu.
- Heben Sie Annahmen oder Punkte hervor, die die Mitarbeitenden
  noch einmal überprüfen sollten.

Kundenanfrage:
{{ticket_text}}

Relevantes Wissen:
{{kb_snippets}}

Die Mitarbeitenden bleiben in der Kontrolle, können aber einfache, wiederkehrende Tickets mit wenigen Klicks lösen, statt dieselbe Antwort Dutzende Male pro Tag neu zu formulieren. Messen Sie Kennzahlen wie den „Prozentsatz der Antworten, die mit minimalen Anpassungen versendet wurden“, um die Zeitersparnis zu quantifizieren.

Deflektion und Qualität instrumentieren, messen und iterieren

Damit Gemini-gestützter Support nachhaltig wirkt, sollten Sie Messbarkeit von Anfang an in Ihre Implementierung einbauen. Protokollieren Sie jede Interaktion mit Kennzeichnungen wie „durch KI gelöst“, „an Mitarbeitende eskaliert“ und „Kundin/Kunde abgebrochen“. Ergänzen Sie einfache Zufriedenheitssignale (Daumen hoch/runter oder eine Ein-Frage-Umfrage) zu KI-Antworten.

Überprüfen Sie monatlich:

  • Deflektionsrate für Top-Anfragearten (z. B. 40–60 % der „Öffnungszeiten“-Fragen durch Gemini gelöst).
  • Durchschnittliche Bearbeitungszeit für Tickets mit Gemini-Entwurf im Vergleich zu Tickets ohne.
  • Kundenzufriedenheit (CSAT) bei durch KI gelösten vs. durch Mitarbeitende gelösten einfachen Tickets.

Nutzten Sie diese Erkenntnisse, um Prompts anzupassen, fehlende Wissensartikel hinzuzufügen oder Eskalationsregeln zu ändern. Ein realistisches Ziel nach einem ersten Iterationszyklus von 8–12 Wochen ist, 25–40 % der geeigneten einfachen Anfragen abzufangen und die Bearbeitungszeit für die verbleibenden um 20–30 % zu senken – ohne Einbußen bei der Kundenzufriedenheit.

Mit dieser Konsequenz umgesetzt, kann eine Gemini-basierte Lösung für wiederkehrende einfache Anfragen das Ticketvolumen spürbar reduzieren, die wahrgenommene Reaktionsfähigkeit steigern und Ihr Kundenservice-Team für komplexe, wertschöpfende Interaktionen freisetzen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini eignet sich besonders für hochvolumige, wenig komplexe Fragen, die klaren Regeln folgen und auf stabilem Wissen basieren. Typische Beispiele sind:

  • Öffnungszeiten, Standortdetails und Kontaktinformationen
  • Bestellstatus, Lieferzeiten und grundlegende Tracking-Fragen
  • Passwort-Resets, Kontozugriff und Login-Fehlerbehebung
  • Standard-Preisinformationen und grundlegende Produktfunktionen
  • Einfache How-tos („Wie aktualisiere ich meine Adresse?“, „Wie lade ich meine Rechnung herunter?“)

Solange Ihre Richtlinien klar sind und die notwendigen Daten über eine Wissensdatenbank oder API verfügbar sind, kann Gemini diese Anfragen zuverlässig und in natürlicher Sprache beantworten – und so das Volumen, das bei Mitarbeitenden landet, deutlich reduzieren.

Die Dauer der Erstimplementierung hängt von Ihrer bestehenden Infrastruktur und der Klarheit Ihrer Use Cases ab, aber viele Organisationen können innerhalb von 4–8 Wochen einen fokussierten Pilot starten. Ein typischer Ablauf sieht so aus:

  • Woche 1–2: Analyse historischer Tickets, Definition der wichtigsten wiederkehrenden Anfragen, Identifikation der Datenquellen.
  • Woche 2–4: Konfiguration der Gemini-Prompts, Anbindung der Wissensquellen und Aufbau eines grundlegenden Chatbots oder einer Kontaktformular-Integration.
  • Woche 4–6: Interne Tests mit dem Support-Team, Verfeinerung von Prompts und Eskalationsregeln.
  • Woche 6–8: Limitierter öffentlicher Rollout, Messung von Deflektion und Zufriedenheit, erster Optimierungszyklus.

Reruptions KI-PoC-Angebot ist darauf ausgelegt, die frühen Phasen zu beschleunigen: In der Regel liefern wir innerhalb weniger Wochen einen funktionsfähigen Prototyp für einen gezielten Satz von Anfragen, sodass Sie die Performance in der Praxis validieren können, bevor Sie in einen vollständigen Rollout investieren.

Sie brauchen kein vollständiges Data-Science-Team, aber einige zentrale Rollen sollten abgedeckt sein:

  • Kundenservice-Verantwortliche oder -Verantwortlicher, die/der die häufigsten Anfragen und Schmerzpunkte kennt.
  • Content-Verantwortliche oder -Verantwortlicher für die Pflege korrekter FAQs, How-tos und Richtliniendokumente.
  • Technische Unterstützung (interne IT oder externer Partner) zur Integration von Gemini mit Website, Helpdesk und Datenquellen.
  • Operations- oder Product Owner, der/die Performance-Kennzahlen überwacht und Verbesserungen koordiniert.

Reruption schließt in der Regel die Lücke in Architektur und Engineering für KI, während Ihr Team Domänenwissen und Systemzugänge bereitstellt. Mit der Zeit helfen wir Ihnen, interne Fähigkeiten aufzubauen, sodass Sie Ihren KI-gestützten Self-Service ohne große externe Abhängigkeit selbst weiterentwickeln können.

Der ROI variiert je nach Branche und Ausgangssituation, aber es gibt typische Muster, wenn Gemini auf wiederkehrende einfache Anfragen angewendet wird:

  • Kontaktdeflektion: 20–40 % Reduktion der geeigneten einfachen Anfragen, die bei Mitarbeitenden ankommen – sobald Prompts und Wissensbasis eingespielt sind.
  • Produktivität der Mitarbeitenden: 20–30 % schnellere Bearbeitung der verbleibenden einfachen Tickets, wenn Gemini-Entwürfe genutzt werden.
  • Kundenerlebnis: Schnellere Antworten rund um die Uhr auf Basisfragen, ohne Wartezeit in der Hotline.

Finanziell übersetzt sich das in der Regel entweder in einen geringeren Bedarf an Spitzenkapazitäten oder die Fähigkeit, Wachstum im Kontaktvolumen ohne zusätzliches Personal aufzufangen. Ein strukturiertes Pilotprojekt mit klaren Baselines (Ticketvolumen, AHT, CSAT) ermöglicht es Ihnen, den ROI innerhalb weniger Monate nach der Einführung zu quantifizieren.

Reruption arbeitet als Co-Preneur an der Seite Ihres Teams, um aus der Idee der KI-Deflektion eine funktionierende Lösung zu machen. Typischerweise starten wir mit unserem KI-PoC-Angebot (9.900 €), in dem wir:

  • Ihre wirkungsvollsten Use Cases für wiederkehrende Anfragen definieren und eingrenzen.
  • Die technische Machbarkeit mit Gemini, Ihren Wissensquellen und bestehenden Tools validieren.
  • Einen funktionsfähigen Prototypen eines Chatbots oder Formular-Assistenten aufbauen, der echte Kundenfragen löst.
  • Performance messen (Deflektionsrate, Qualität, Geschwindigkeit, Kosten pro Interaktion) und eine produktionsreife Architektur skizzieren.

Nach dem PoC können wir Sie bei der Skalierung in den Vollbetrieb unterstützen: Integration von Gemini in Ihre Kanäle, Aufbau von Governance und Monitoring sowie Training Ihres Teams, um die Lösung zu betreiben und weiterzuentwickeln. Da wir in Ihrer GuV und nicht in Foliensätzen arbeiten, liegt unser Fokus darauf, eine Gemini-basierte Kundenservice-Fähigkeit zu liefern, die das Volumen wiederkehrender Tickets messbar reduziert und Ihre Support-Organisation widerstandsfähiger macht.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media