Die Herausforderung: Langsame Wissenssuche

In vielen Kundenservice-Teams verlieren Mitarbeitende wertvolle Minuten, indem sie sich durch Wissensdatenbanken, Richtliniendokumente, CRM-Notizen und alte Tickets klicken – nur um eine einzelne Frage zu beantworten. Während der Kunde wartet, jonglieren sie mit mehreren Tabs, probieren verschiedene Suchbegriffe aus und versuchen, im Kopf die passende Lösung zusammenzusetzen. Das Ergebnis sind langsame, stressige Anrufe und Chats, in denen mehr Zeit für die Suche als für die eigentliche Problemlösung draufgeht.

Traditionelle Ansätze im Wissensmanagement – statische FAQs, starre Entscheidungsbäume, reine Stichwortsuche – wurden für eine einfachere Welt gebaut. Sie setzen voraus, dass Inhalte sauber strukturiert sind und dass Mitarbeitende genau wissen, welchen Begriff sie eintippen müssen, um den richtigen Artikel zu finden. In der Realität ist Wissen jedoch über Tools, Formate und Abteilungen verteilt, und jede Kundin bzw. jeder Kunde beschreibt ihr bzw. sein Problem anders. Selbst mit einer gut gepflegten Wissensdatenbank liefert eine herkömmliche Suche oft entweder zu viele irrelevante Informationen oder verpasst genau das eine Detail, das zur Lösung des Falls nötig ist.

Die geschäftlichen Auswirkungen sind erheblich. Langsame Wissenssuche erhöht die durchschnittliche Bearbeitungszeit, verringert die Erstlösungsquote und steigert Eskalationen in den Second-Level-Support. Kund:innen müssen sich erneut melden, weil die erste Antwort unvollständig oder falsch war. Mitarbeitende brennen unter ständigem Zeitdruck und permanentem Kontextwechsel aus. Führungskräfte spüren die Folgen in Form höherer Betriebskosten, niedrigerem NPS und einer Supportorganisation, die nur mit zusätzlichem Personal wachsen kann.

Diese Herausforderung ist real, aber sie ist lösbar. Moderne KI für den Kundenservice kann direkt im Agenten-Desktop sitzen, den Kontext der Interaktion verstehen und genau den relevanten Ausschnitt aus Richtlinien, Handbüchern oder vergangenen Tickets anzeigen. Bei Reruption haben wir Organisationen dabei unterstützt, manuelle Suche durch produktiv einsetzbare, KI-gestützte Assistenz zu ersetzen. Im weiteren Verlauf dieser Seite finden Sie praktische Hinweise, wie Sie Gemini nutzen, um langsame Wissenssuche in schnelle, souveräne Erstlösungen zu verwandeln.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions praktischer Arbeit beim Aufbau von KI-Copiloten für Kundenservice-Teams sehen wir immer wieder dasselbe Muster: Der Engpass ist nicht das Wissen selbst, sondern wie schnell Mitarbeitende es im Kontext finden und anwenden können. Gemini passt sehr gut zu diesem Problem, weil es sich mit Ihrem CRM und Ihren Wissensbasen verbinden, die laufende Konversation verstehen und kontextbezogene Wissensvorschläge direkt im Workflow der Mitarbeitenden ausspielen kann, statt sie zur Suche in verschiedenen Tools zu zwingen.

Gestalten Sie Gemini rund um Erstlösungsquote – nicht nur als schnellere Suche

Wenn Sie Gemini im Kundenservice einführen, ist es verlockend, es als intelligentere Suchleiste zu positionieren. Das unterschätzt das Potenzial. Strategisch sollten Sie Gemini als Assistenten für Erstlösungen konzipieren, der die gesamte Interaktion versteht: was der Kunde fragt, welche Daten es über ihn gibt und welches Ergebnis eine erfolgreiche Lösung definiert.

Das bedeutet, Rolle, Prompts und Integrationspunkte von Gemini an Zielen für die Erstlösungsquote auszurichten: den richtigen Troubleshooting-Flow anzeigen, frühere ähnliche Fälle prüfen und nächste sinnvolle Schritte vorschlagen. Definieren Sie klare Erfolgskennzahlen wie weniger Weiterleitungen, weniger Folgetickets und mehr richtige Antworten beim ersten Mal – und stellen Sie sicher, dass Ihre Implementierung an diesen Ergebnissen gemessen wird, nicht nur an der Geschwindigkeit der Suche.

Bereiten Sie Wissen und Prozesse vor, bevor Sie dem Modell die Schuld geben

Selbst der beste KI-Wissensassistent kann schlechte oder veraltete Inhalte nicht reparieren. Strategisch benötigen Sie vor einem breiten Roll-out von Gemini für Hunderte von Mitarbeitenden eine realistische Sicht auf Ihre bestehende Wissenslandschaft. Identifizieren Sie, welche Wissensbasen, Richtlinien-Repositories und Ticket-Historien maßgeblich sind, welche Legacy-Status haben und wo Widersprüche existieren.

Wir empfehlen ein fokussiertes Content-Audit entlang der wichtigsten Kontaktanlässe: Wählen Sie die 20–30 Vorgangsarten, die den Großteil des Volumens ausmachen, und stellen Sie sicher, dass die zugrundeliegenden Artikel und Prozessbeschreibungen korrekt sind. Dafür müssen Sie nicht alles neu schreiben; nötig sind klare Verantwortung, grundlegende Hygiene und Versionierung, damit Gemini keine schlechten Informationen verstärkt. Mit dieser Grundlage wird KI-gestützte Recherche zum Beschleuniger statt zum Risiko.

Gemini im Agenten-Desktop einbetten, nicht als weiteres Tool hinzufügen

Aus Change-Management-Perspektive ist der schnellste Weg zum Scheitern mit KI für langsame Wissenssuche, die Mitarbeitenden zu einem weiteren Bildschirm zu zwingen. Strategisch sollten Sie darauf abzielen, Gemini in die Tools zu bringen, in denen die Teams ohnehin arbeiten – Ihr CRM, Ticketsystem oder Ihre Contact-Center-Plattform –, damit Wissensvorschläge direkt neben dem aktiven Vorgang erscheinen und nicht in einem separaten Fenster.

Dafür braucht es frühzeitige Zusammenarbeit zwischen Kundenservice-Operations, IT und Ihrem KI-Team. Entscheiden Sie, an welcher Stelle im Workflow Gemini Vorschläge geben soll (nach Erfassung des Anrufgrundes, bei jeder neuen Chat-Nachricht, beim Öffnen eines Falls usw.) und welches Format am nützlichsten ist (kurze Antwort + unterstützende Quellen, Schritt-für-Schritt-Anleitung, zusammengefasste Richtlinie). Wenn sich KI wie ein natürlicher Teil des Desktops und nicht wie eine zusätzliche App anfühlt, steigen Akzeptanz und Wirkung deutlich.

Risikokontrollen an Ihr regulatorisches und Marken-Umfeld anpassen

Der Einsatz von Gemini für Kundeninteraktionen bringt neue Risiken mit sich: halluzinierte Antworten, falsche Auslegung von Richtlinien oder ein Ton, der nicht zu Ihrer Marke passt. Strategisch brauchen Sie Leitplanken, die auf Ihr regulatorisches Umfeld und Ihre Risikobereitschaft zugeschnitten sind. Für einige Teams müssen KI-generierte Vorschläge immer von Menschen geprüft werden; bei anderen können risikofreie Themen automatisiert gelöst werden.

Arbeiten Sie mit Legal, Compliance und Informationssicherheit zusammen, um zu definieren, auf welche Daten Gemini zugreifen darf, was generiert werden darf und wo explizite Freigaben erforderlich sind. Implementieren Sie Muster wie Antworten nur mit Quellenangabe, eingeschränkte Domänen (z. B. keine Rechtsberatung) und Konfidenzschwellen für Vorschläge. So reduzieren Sie das Risiko unangenehmer Überraschungen und erschließen gleichzeitig schnelleren Wissenszugriff und höhere Antwortqualität.

Von Tag eins an in Befähigung der Mitarbeitenden und Feedbackschleifen investieren

Die Einführung von Gemini ist nicht nur ein technisches Projekt; sie ist ein Fähigkeitswandel für Ihre Serviceorganisation. Strategisch brauchen Sie einen Plan für Enablement der Mitarbeitenden: Schulungen, die erklären, was Gemini kann und was nicht, wie Vorschläge zu interpretieren sind und wie strukturiertes Feedback gegeben werden kann, wenn etwas nicht passt.

Schaffen Sie einfache Feedbackmechanismen direkt in der Oberfläche für Mitarbeitende (z. B. „nützlich / nicht nützlich“ bei jedem Vorschlag mit kurzen Gründen) und führen Sie diese Daten zurück in Ihr Prompt-Engineering und Ihre Content-Optimierung. Identifizieren Sie „KI-Champions“ im Team, die Best Practices teilen, aufkommende Probleme erkennen und bei der Verfeinerung der Konfiguration helfen. So wird Erfahrung an der Frontlinie zum Motor kontinuierlicher Verbesserung statt zu vereinzelten Beschwerden.

Gemini zur Behebung langsamer Wissenssuche einzusetzen, ist letztlich ein strategischer Schritt: Sie verwandeln fragmentierte Dokumentation und Ticket-Historie in einen lebendigen Assistenten, der jede Interaktion auf eine Erstlösung hinführt. Mit den richtigen Leitplanken, Integrationen und Enablement-Maßnahmen verschiebt Gemini Ihren Servicebetrieb von „suchen und hoffen“ zu „geführter, souveräner Lösung“.

Bei Reruption sind wir darauf spezialisiert, diese Ideen in funktionierende Systeme zu übersetzen, die in Ihre bestehenden Tools eingebettet sind – von Scoping und PoC bis zum Roll-out in die Produktion und anschließender Iteration. Wenn Sie prüfen möchten, wie Gemini direkt im Desktop Ihrer Mitarbeitenden sitzen und schnellere, präzisere Antworten ermöglichen kann, arbeiten wir gerne mit Ihrem Team zusammen, um eine Lösung zu entwickeln und umzusetzen, die zu Ihrer Realität passt.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Bankwesen bis Energie: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

JPMorgan Chase

Bankwesen

In der hochdynamischen Welt des Asset Management und der Vermögensverwaltung bei JPMorgan Chase waren Berater mit erheblichen zeitlichen Belastungen durch manuelle Recherche, Dokumentenzusammenfassungen und Berichtsentwürfe konfrontiert. Die Erstellung von Investmentideen, Marktanalysen und personalisierten Kundenberichten dauerte oft Stunden oder Tage, wodurch die Zeit für Kundeninteraktion und strategische Beratung eingeschränkt wurde. Diese Ineffizienz verstärkte sich nach dem Aufkommen von ChatGPT, sodass die Bank den Bedarf an sicherer, interner KI erkannte, die mit umfangreichen proprietären Daten arbeiten kann, ohne Compliance- oder Sicherheitsrisiken einzugehen. Die Private-Bank-Berater hatten es besonders schwer, sich auf Kundentermine vorzubereiten, sich durch Research-Reports zu arbeiten und maßgeschneiderte Empfehlungen zu erstellen – und das unter regulatorischer Beobachtung und in einer Umgebung mit Datensilos, was die Produktivität und Reaktionsfähigkeit gegenüber Kunden in einem wettbewerbsintensiven Umfeld behinderte.

Lösung

JPMorgan begegnete diesen Herausforderungen durch die Entwicklung der LLM Suite, einer internen Suite aus sieben feinabgestimmten Large Language Models (LLMs), die von generativer KI angetrieben und in eine sichere Dateninfrastruktur integriert sind. Diese Plattform ermöglicht es Beratern, Berichte zu entwerfen, Investmentideen zu generieren und Dokumente schnell zusammenzufassen, wobei proprietäre Daten genutzt werden. Ein spezialisiertes Tool, Connect Coach, wurde für Private-Bank-Berater entwickelt, um bei der Vorbereitung auf Kundengespräche, der Ideenfindung und der Synthese von Research zu unterstützen. Die Implementierung legte starken Wert auf Governance, Risikomanagement und Mitarbeiterschulungen durch KI-Wettbewerbe und 'learning-by-doing'-Ansätze, um eine sichere Skalierung in der gesamten Firma zu gewährleisten. Die LLM Suite wurde schrittweise eingeführt, beginnend mit Proof-of-Concepts und einer anschließenden Ausweitung auf die gesamte Organisation.

Ergebnisse

  • Erreichte Nutzer: 140.000 Mitarbeitende
  • Entwickelte Use Cases: 450+ Proof-of-Concepts
  • Finanzieller Nutzen: Bis zu 2 Mrd. $ an KI-Wert
  • Bereitstellungsgeschwindigkeit: Vom Pilot bis zu 60.000 Nutzern in wenigen Monaten
  • Berater-Tools: Connect Coach für die Private Bank
  • Firmenweite PoCs: Strikte ROI-Messung über 450 Initiativen
Fallstudie lesen →

HSBC

Bankwesen

Als eine der weltweit größten Banken nach Vermögenswerten verarbeitet HSBCMilliarden von Transaktionen, wodurch die Betrugserkennung und die Geldwäschebekämpfung (AML) zu einer enormen Herausforderung werden. Traditionelle regelbasierte Systeme litten unter hohen Falsch-Positiv-Raten, was zu übermäßigen manuellen Prüfungen führte, Compliance-Teams belastete, Kosten erhöhte und Kunden-Transaktionen verlangsamte . Die Gewährleistung der regulatorischen Compliance in 62 Ländern bei gleichzeitiger Minimierung finanzieller Kriminalität war kritisch, doch Legacy-Systeme fehlte die Raffinesse für Echtzeit- und nuancierte Bedrohungserkennung. Die Skalierung des Kundenservice stellte eine weitere Hürde dar, da die Nachfrage nach 24/7 personalisiertem Support menschliche Agenten überwältigte. NLP-Chatbots waren erforderlich, um komplexe Anfragen effizient zu bearbeiten, ohne Datenschutz oder Genauigkeit zu gefährden. Gleichzeitig brachte die Erforschung von generativer KI (GenAI) Herausforderungen bei ethischer Implementierung, Bias-Minderung und Integration mit strengen Bankvorschriften wie GDPR und Basel III mit sich, da schnelle technologische Fortschritte das Risiko von Non-Compliance erhöhten . Die Umsetzungsherausforderungen umfassten länderübergreifend isolierte Daten, Fachkräftemangel im KI-Bereich und die Balance zwischen Innovationsgeschwindigkeit und robuster Governance .

Lösung

HSBC begegnete Betrug mit Google Cloud KI-gestützten ML-Modellen für AML, die fortschrittliche Algorithmen nutzen, um Transaktionsmuster, Kundenverhalten und externe Daten für präzise Anomalieerkennung zu analysieren und so Falsch-Positiv-Raten drastisch zu senken . Dies war Teil einer breiteren Strategie, die global Hunderte von KI-Anwendungsfällen implementierte, von Risikomodellen bis zu Überwachungssystemen . Für das Kundenengagement wurden NLP-getriebene Chatbots eingeführt, die natürliche Sprachverarbeitung nutzen, um Anfragen zu interpretieren, maßgeschneiderte Beratung zu liefern und komplexe Fälle nahtlos weiterzuleiten, während Compliance-Standards eingehalten werden . Im GenAI-F&E-Bereich nahm HSBC an einem GenAI-Sandbox-Programm teil und schloss Ende 2025 eine mehrjährige Partnerschaft mit Mistral AI, um generative Werkzeuge bankweit zu integrieren. Ziel ist die Automatisierung interner Aufgaben, personalisierte Kundeninsights, Verstärkung der Betrugserkennung und Produktivitätssteigerungen, untermauert von einem starken ethischen KI-Rahmen, der die menschliche Aufsicht betont .

Ergebnisse

  • Hunderte von global eingesetzten KI-Anwendungsfällen in den Betriebsbereichen
  • Mehrjährige Partnerschaft mit Mistral AI beschleunigt GenAI-Einführung bankweit
  • Verbesserte AML-Erkennung mit reduzierten Falsch-Positiven durch Google Cloud ML
  • Echtzeit-Betrugskennzeichnung für Milliarden täglicher Transaktionen
  • GenAI-Tools zielen auf 20–40% Produktivitätssteigerungen bei Bankaufgaben
  • Transformierter Kundenservice mit 24/7 skalierbaren NLP-Chatbots
Fallstudie lesen →

Cruise (GM)

Automobilindustrie

Die Entwicklung eines selbstfahrenden Taxi‑Dienstes in dicht besiedelten urbanen Umgebungen stellte Cruise vor immense Herausforderungen. Komplexe Situationen wie unberechenbare Fußgänger, erratische Radfahrer, Baustellen und widrige Wetterbedingungen erforderten nahezu perfekte Wahrnehmung und Entscheidungsfindung in Echtzeit. Sicherheit hatte oberste Priorität, da jeder Fehler zu Unfällen, behördlicher Prüfung oder öffentlicher Empörung führen konnte. Frühe Tests zeigten Lücken bei der Handhabung von Randfällen, etwa Einsatzfahrzeuge oder verdeckte Objekte, und verlangten eine robuste KI, die die Leistung menschlicher Fahrer übertreffen sollte. Ein entscheidender Sicherheitsvorfall im Oktober 2023 verschärfte diese Probleme: Ein Cruise‑Fahrzeug erfasste eine Fußgängerin, die von einem Unfallfahrer in seinen Weg gedrängt worden war, und schleifte sie, als das Fahrzeug den Unfallort verließ, was zur Aussetzung der Betriebsführungen landesweit führte. Dies legte Schwachstellen im Nach‑Kollisions‑Verhalten, in der Sensorfusion unter chaotischen Bedingungen und in der regulatorischen Compliance offen. Die Skalierung zu kommerziellen Robotaxi‑Flotten bei gleichzeitiger Erreichung von Null schuldhaften Vorfällen erwies sich angesichts von $10 Mrd.+ Investitionen seitens GM als schwer realisierbar.

Lösung

Cruise begegnete diesen Herausforderungen mit einem integrierten KI‑Stack, der Computervision für die Wahrnehmung und verstärkendes Lernen für die Planung nutzte. Lidar, Radar und mehr als 30 Kameras speisten CNNs und Transformers für Objekterkennung, semantische Segmentierung und Szenenvorhersage, wodurch 360°‑Ansichten mit hoher Detailtreue selbst bei schwachem Licht oder Regen verarbeitet wurden. Verstärkendes Lernen optimierte Trajektorienplanung und Verhaltensentscheidungen, trainiert auf Millionen simulierten Meilen, um seltene Ereignisse zu bewältigen. End‑to‑end‑Neuronale Netze verfeinerten die Bewegungsprognose, während Simulationsframeworks die Iteration ohne reales Risiko beschleunigten. Nach dem Vorfall verstärkte Cruise die Sicherheitsprotokolle und nahm 2024 mit verbesserten Disengagement‑Raten wieder beaufsichtigte Tests auf. GMs Strategiewechsel integrierte diese Technologie in die Weiterentwicklung von Super Cruise für Privatfahrzeuge.

Ergebnisse

  • 1.000.000+ Meilen vollständig autonom gefahren bis 2023
  • 5 Millionen fahrerlose Meilen für das KI‑Modelltraining verwendet
  • $10 Mrd.+ kumulative Investition von GM in Cruise (2016–2024)
  • 30.000+ Meilen pro Eingriff in frühen unbeaufsichtigten Tests
  • Betrieb ausgesetzt Okt 2023; im Mai 2024 mit beaufsichtigten Tests wieder aufgenommen
  • Keine kommerziellen Robotaxi‑Einnahmen; Strategiewechsel Dez 2024
Fallstudie lesen →

BMW (Spartanburg Plant)

Automobilproduktion

Die BMW Spartanburg Plant, das weltweit größte Werk des Unternehmens zur Produktion der X‑Serie‑SUVs, stand unter großem Druck, die Montageprozesse angesichts steigender Nachfrage nach SUVs und gestörter Lieferketten zu optimieren. Die traditionelle Fertigung setzte stark auf menschliche Arbeitskräfte für repetitive Tätigkeiten wie Teiletransport und Einbau, was zu Arbeiterermüdung, Fehlerquoten von bis zu 5–10% bei Präzisionsaufgaben und ineffizienter Ressourcenzuteilung führte. Bei über 11.500 Mitarbeitern, die die Hochvolumenproduktion bewältigen, verursachte manuelle Schichtplanung und Zuordnung von Mitarbeitern zu Aufgaben Verzögerungen und eine Zykluszeitvarianz von 15–20%, die die Skalierbarkeit der Produktion behinderte. Hinzu kamen Herausforderungen bei der Anpassung an Industrie 4.0‑Standards, bei denen starre Industrieroboter Schwierigkeiten mit flexiblen Aufgaben in dynamischen Umgebungen hatten. Personalmangel nach der Pandemie verschärfte die Lage, mit steigenden Fluktuationsraten und der Notwendigkeit, qualifizierte Mitarbeiter in wertschöpfende Rollen umzuschichten und gleichzeitig Stillstandszeiten zu minimieren. Die begrenzte Leistungsfähigkeit älterer Machine‑Vision‑Systeme erkannte subtile Defekte nicht zuverlässig, was zu Qualitätsausreißern und Nacharbeitskosten in Millionenhöhe pro Jahr führte.

Lösung

BMW ging eine Partnerschaft mit Figure AI ein, um Figure 02 Humanoide Roboter einzusetzen, die mit Maschinellem Sehen zur Echtzeit‑Objekterkennung und ML‑Scheduling‑Algorithmen für dynamische Aufgabenverteilung integriert sind. Diese Roboter nutzen fortschrittliche KI, um Umgebungen über Kameras und Sensoren wahrzunehmen und dadurch autonome Navigation und Manipulation in Mensch‑Roboter‑Kooperationen zu ermöglichen. ML‑Modelle sagen Produktionsengpässe voraus, optimieren die Robot‑Mitarbeiter‑Planung und überwachen die Leistung selbstständig, wodurch die menschliche Aufsicht reduziert wird. Die Implementierung umfasste Pilotversuche im Jahr 2024, bei denen die Roboter repetitive Aufgaben wie Teilekommissionierung und Einbau übernahmen und zentral über eine KI‑Orchestrierungsplattform koordiniert wurden. So konnte eine nahtlose Integration in bestehende Linien erfolgen, wobei Digitale Zwillinge Szenarien für eine sichere Einführung simulierten. Herausforderungen wie anfängliche Kollisionsrisiken wurden durch Feinabstimmung mittels bestärkenden Lernens (Reinforcement Learning) überwunden, was menschähnliche Geschicklichkeit ermöglichte.

Ergebnisse

  • 400% Steigerung der Roboter­geschwindigkeit nach den Tests
  • 7x höhere Erfolgsrate bei Aufgaben
  • Reduzierte Zykluszeiten um 20–30%
  • 10–15% der Mitarbeiter auf qualifizierte Aufgaben umgeschichtet
  • Über $1 Mio. jährliche Kostenersparnis durch Effizienzgewinne
  • Fehlerquoten sanken unter 1%
Fallstudie lesen →

Insilico Medicine

Biotechnologie

Der Wirkstoffentdeckungsprozess in der Biotechnologie ist berüchtigt dafür, lang und teuer zu sein, typischerweise 10–15 Jahre dauernd und 2–3 Milliarden USD pro zugelassenem Wirkstoff kostend, mit einer Fehlerrate von 90 % in klinischen Studien. Bei idiopathischer Lungenfibrose (IPF), einer fortschreitenden Lungenerkrankung mit begrenzten Behandlungsoptionen, sind die Herausforderungen noch größer: die Identifizierung neuartiger Targets inmitten komplexer Biologie, die Entwicklung wirksamer Moleküle sowie die Vorhersage von Eigenschaften wie Toxizität und Wirksamkeit erfordern enorme Datenmengen und aufwändiges Trial‑and‑Error‑Screening. Traditionelle Methoden stützen sich auf Hochdurchsatzscreening und medizinische Chemie, die jedoch bei seltenen Erkrankungen wie IPF ineffizient sind, da die Patientenzahl begrenzt ist und die Heterogenität der Krankheit den Fortschritt hemmt. Insilico stand vor der Herausforderung, die Zielidentifikation und Moleküldesign zu beschleunigen und gleichzeitig die präklinische Durchführbarkeit sicherzustellen — in einem Umfeld, das gegenüber der Zuverlässigkeit von KI in der realen Pharmawelt skeptisch war.

Lösung

Insilico setzte seine End‑to‑End‑Plattform Pharma.AI ein, die generative KI über Chemistry42 zur neuartigen Molekülgenerierung, PandaOmics zur Zielentdeckung (Deep Learning auf Multi‑Omics‑Daten) und InClinico für Trial‑Simulationen integriert. Deep‑Learning‑Modelle, trainiert auf riesigen Datensätzen, generierten 10.000+ neuartige Moleküle de novo und optimierten diese für IPF‑spezifische Targets wie TNIK. Diese KI‑getriebene Pipeline überwand manuelle Beschränkungen, indem sie ADMET‑Eigenschaften vorhersagte, Top‑Kandidaten per Robotik synthetisierte und in Tiermodellen validierte. Der Ansatz reduzierte Iterationen und ermöglichte den schnellen Fortschritt vom Target bis zur IND in 30 Monaten.

Ergebnisse

  • Zeit bis Phase I: 30 Monate (vs. 5+ Jahre traditionell)
  • Generierte Moleküle: 10.000+ neuartige Strukturen
  • Phase‑II‑Einschreibung: 70+ Patienten in mehreren Regionen
  • Kostensenkung: Geschätzt 70–80 % geringere Entdeckungskosten
  • Präklinischer Erfolg: Wirkstoff erfüllte alle Sicherheits‑/Wirksamkeitsmarker
  • Studiengeschwindigkeit: Phase II‑Start 2,5 Jahre nach Target‑Identifikation
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Gemini mit Ihrem CRM und Wissensquellen verbinden für kontextbezogene Antworten

Die Grundlage zur Lösung von langsamer Wissenssuche ist, Gemini Zugang zu den richtigen Quellen und Kontextinformationen zu geben. Praktisch bedeutet das, Gemini mit Ihrem CRM- oder Ticketsystem (für Kundenhistorie, Produkte, frühere Tickets) und mit Ihren Wissens-Repositories (Wikis, Handbücher, Richtliniendokumente, FAQ-Datenbanken) zu integrieren.

Konfigurieren Sie Ihre Integration so, dass Gemini für jeden aktiven Vorgang Folgendes erhält:
- Das aktuelle Gesprächsprotokoll oder die Anrufnotizen
- Zentrale CRM-Felder (Kundentyp, Produkt, Vertrag, Region)
- Relevante Metadaten (Priorität, Kanal, Sprache)

Weisen Sie Gemini anschließend an, nur freigegebene Quellen zur Formulierung von Vorschlägen zu nutzen. Ein typischer System-Prompt für Ihren internen Assistenzbot könnte so aussehen:

Sie sind ein interner Kundenservice-Assistent für unsere Support-Mitarbeitenden.
Sie haben Zugriff auf:
- Wissensdatenbank-Artikel (KB)
- Produkt-Handbücher
- Richtliniendokumente
- Vergangene gelöste Tickets

Regeln:
- Antworten Sie NUR auf Basis dieser Quellen.
- Wenn Sie unsicher sind, sagen Sie, dass Sie nicht sicher sind, und schlagen Sie vor, welche KB-Tags gesucht werden sollten.
- Geben Sie immer eine kurze Antwort für die Mitarbeitenden UND die Liste der verwendeten Quellen.
- Heben Sie Richtlinienvorgaben oder risikorelevante Informationen besonders hervor.

Formatieren Sie Ihre Antwort wie folgt:
- "Antwortentwurf für Mitarbeitende": kurze, klare, kundenfreundliche Antwort.
- "Schritte": nummerierte Troubleshooting- oder Lösungsschritte.
- "Quellen": verwendete KB-IDs oder URLs.

Dieses Setup stellt sicher, dass Vorschläge sowohl relevant als auch nachvollziehbar sind – ein entscheidender Faktor für Qualitätssicherung und Compliance.

Echtzeit-Vorschläge während Live-Chats und Anrufen auslösen

Um Bearbeitungszeiten wirklich zu senken, sollte Gemini Wissen proaktiv während der Interaktion bereitstellen und nicht nur, wenn Mitarbeitende aktiv suchen. Technisch können Sie Ihr Contact-Center- oder Chat-System so konfigurieren, dass neue Kunden-Nachrichten (oder Echtzeit-Transkript-Ausschnitte von Anrufen) an Gemini gesendet werden und Vorschläge in einem Seitenpanel erscheinen.

Für Live-Chat könnten Sie beispielsweise die letzten 10–15 Nachrichten plus CRM-Kontext an Gemini senden – mit einer Anweisung wie:

Analysieren Sie die folgende Konversation und den Kontext und identifizieren Sie das Hauptanliegen des Kunden.
Schlagen Sie die 3 relevantesten Wissensartikel oder vergangenen Tickets vor.

Geben Sie zurück:
- Eine einzeilige Zusammenfassung des Anliegens
- 3 empfohlene Artikel oder Tickets mit Titeln, IDs und einer kurzen Begründung der Relevanz
- Eine empfohlene nächste beste Aktion für die Mitarbeitenden

Mitarbeitende sehen fortlaufend aktualisierte Vorschläge, während der Kunde sein Problem präzisiert, und können ohne manuelle Suche direkt in den relevantesten Artikel einsteigen. Analysieren Sie im Zeitverlauf, welche Vorschläge regelmäßig genutzt werden, um Ihre Trigger und die Ranking-Logik zu verfeinern.

Gemini nutzen, um lange Richtlinien und Handbücher in Agent-Playbooks zu verdichten

Viele Verzögerungen bei der Wissenssuche entstehen durch dichte, seitenlange Dokumente, die nicht für Live-Support-Situationen geschrieben wurden. Ein taktischer Quick Win ist, Gemini offline zu nutzen, um lange Inhalte in kurze, handhabbare Agent-Playbooks zu transformieren, die dann in Echtzeit bereitgestellt werden können.

Für jedes volumenstarke Thema können Sie einen Batch-Prozess oder manuellen Workflow aufsetzen, bei dem Gemini einen Richtlinien- oder Handbuchabschnitt einliest und ein standardisiertes Playbook erzeugt. Zum Beispiel:

Lesen Sie den angehängten Richtlinien-/Handbuchabschnitt.
Erstellen Sie ein internes Agent-Playbook mit:
- Situationen, in denen dieser Abschnitt gilt (Szenarien)
- Do/Don't-Regeln
- Schritt-für-Schritt-Abläufen zur Lösung
- Ausnahmen und Sonderfällen
- Formulierungen, die gegenüber Kund:innen zu vermeiden sind

Verwenden Sie prägnante Sprache. Ziel-Lesezeit: < 2 Minuten.

Überprüfen und genehmigen Sie diese Playbooks gemeinsam mit den Prozesseigentümer:innen und speichern Sie sie in einer eigenen Sammlung, die Gemini bei Live-Vorschlägen priorisieren kann. So erhalten Mitarbeitende verdichtete, praxisnahe Anleitungen statt juristischer oder technischer Originaltexte, die sie spontan interpretieren müssten.

Kundenantworten automatisch entwerfen und die zugrundeliegende Logik sichtbar machen

Sobald Gemini das richtige Wissen findet, besteht der nächste Schritt darin, Mitarbeitende beim Antworten schneller und konsistenter zu machen. Konfigurieren Sie Gemini so, dass Antwortentwürfe generiert werden, die auf dem ausgewählten Wissensartikel basieren und auf die konkrete Situation des Kunden zugeschnitten sind – bei gleichzeitig einfacher Überprüfbarkeit.

Ein praktikables Prompt-Muster für Antwortentwürfe ist:

Sie verfassen eine Antwort an einen Kunden auf Basis von:
- Der bisherigen Konversation
- Dem ausgewählten Wissensdatenbank-Artikel (unten zitiert)
- Dem Kundenprofil aus dem CRM

Aufgaben:
1) Schreiben Sie eine klare, höfliche Antwort in [SPRACHE], die:
   - Auf die konkrete Situation des Kunden eingeht
   - Schritte in einfachen Worten erklärt
   - Unsere Markenstimme widerspiegelt (freundlich, professionell, prägnant)
2) Fügen Sie eine kurze interne Notiz für die Mitarbeitenden hinzu,
   die zusammenfasst, warum diese Schritte empfohlen werden.

Erfinden Sie KEINE Richtlinien oder Zusagen, die nicht im Artikel stehen.

Binden Sie dies als „Antwort generieren“-Button in Ihrem Ticketsystem ein. Verfolgen Sie die Änderungsquote (wie häufig Entwürfe stark überarbeitet werden) als Qualitäts-KPI und nutzen Sie stark geänderte Beispiele, um Prompts und Wissensinhalte weiter zu verbessern.

Gelöste Tickets in durchsuchbares, KI-fähiges Wissen überführen

In Ihren vergangenen Tickets steckt ein großer Schatz an praktischen Problem-Lösungs-Paaren, der selten den Weg in die formale Wissensdatenbank findet. Nutzen Sie Gemini, um aus gelösten Tickets automatisch strukturiertes Wissen zu extrahieren und für zukünftige Fälle auffindbar zu machen – ein direkter Hebel für Erstlösungen.

Nachdem ein Ticket geschlossen wurde, können Sie einen Hintergrundjob ausführen, in dem Gemini die gesamte Interaktion und die Lösungsnotizen liest und anschließend eine prägnante, getaggte Zusammenfassung erzeugt:

Fassen Sie dieses gelöste Ticket für die interne Wiederverwendung zusammen.
Geben Sie JSON zurück mit:
- "issue_summary": 1–2 Sätzen
- "root_cause": 1–2 Sätzen
- "resolution_steps": nummerierter Liste
- "products": Liste von Produktnamen/-IDs
- "tags": 5–10 Tags (Fehlertyp, Funktion, Fehlercodes etc.)

Verwenden Sie nur Informationen, die im Ticket enthalten sind.

Speichern Sie diese Ausgabe in einem durchsuchbaren Index, den Gemini als zusätzliche Quelle nutzen kann. Im Zeitverlauf entsteht so eine organisch kuratierte, hoch praxisnahe Wissensschicht, die echte Kundensprache und Randfälle abbildet – genau das, was in klassischer Dokumentation oft fehlt.

Wirkung mit operativen KPIs und Feedback der Mitarbeitenden messen

Damit Ihre Gemini-Einführung im Kundenservice echten Mehrwert liefert, brauchen Sie von Anfang an klare Kennzahlen und Monitoring. Mindestens sollten Sie verfolgen:

  • Durchschnittliche Bearbeitungszeit (AHT) vor und nach Gemini für die Ziel-Queues
  • Erstlösungsquote (FCR) für Anliegen, bei denen Gemini-Vorschläge genutzt werden
  • Nutzungsrate von Vorschlägen (wie oft Vorschläge akzeptiert oder verwendet werden)
  • Zufriedenheit der Mitarbeitenden mit der KI-Unterstützung (einfache, wiederkehrende Pulsbefragungen)

Kombinieren Sie quantitative Daten mit qualitativen Kommentaren der Mitarbeitenden, um zu verstehen, wo Gemini glänzt und wo es Reibung erzeugt. Nutzen Sie dieses Feedback, um Prompts zu verfeinern, die Auswahl der indexierten Quellen anzupassen oder zu verändern, wann Vorschläge im Workflow erscheinen.

Mit diesen Praktiken erreichen Organisationen typischerweise 10–25 % geringere Bearbeitungszeiten bei gezielten Kontaktarten, spürbar bessere Erstlösungsquoten und ein besseres Erlebnis für Mitarbeitende, die sich auf den Kunden statt auf die Suchleiste konzentrieren können.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini beschleunigt die Wissenssuche, indem es direkt im Workflow der Mitarbeitenden arbeitet und nicht als separates Suchtool. Es erhält die laufende Konversation, wichtige CRM-Felder und Fall-Metadaten und ruft daraus die relevantesten Ausschnitte aus Ihrer Wissensdatenbank, Ihren Handbüchern und vergangenen Tickets ab.

Statt dass Mitarbeitende Suchbegriffe raten und lange Artikel durchlesen müssen, liefert Gemini in Echtzeit eine kurze Antwort, Schritt-für-Schritt-Anleitungen und Links zu den zugrundeliegenden Quellen. Das verringert Tab-Wechsel und Leseaufwand, hilft, doppelte oder veraltete Inhalte zu vermeiden, und macht es deutlich einfacher, Anliegen bereits beim ersten Kontakt zu lösen.

Um Gemini für Wissensunterstützung effektiv zu nutzen, benötigen Sie drei Hauptbausteine:

  • Zugängliche Datenquellen: Ihr CRM- oder Ticketsystem und mindestens ein zentrales Wissens-Repository (Wiki, KB, Dokumentenspeicher) mit API- oder Exportzugang.
  • Grundlegende Content-Hygiene: Für Ihre wichtigsten Kontaktanlässe sollten Wissensartikel halbwegs aktuell sein und sich nicht widersprechen.
  • Technischen Integrationspfad: Entweder interne IT-Ressourcen oder einen Partner wie Reruption, der Gemini mit Ihren Systemen verbindet und die UX im Desktop der Mitarbeitenden implementiert.

Sie brauchen keine perfekte Wissensdatenbank, um zu starten. Oft ist es besser, mit einem klar abgegrenzten Themenbereich zu beginnen und die Inhalte iterativ zu verbessern – basierend darauf, was Gemini tatsächlich hervorholt.

Die Zeiträume hängen von Ihrer Systemlandschaft ab, aber die meisten Organisationen sehen erste Ergebnisse innerhalb weniger Wochen, wenn sie sich auf einen engen Scope fokussieren. Ein typischer Fahrplan sieht so aus:

  • Woche 1–2: Use-Case-Scoping, Analyse der Quellsysteme und erste Gemini-Konfiguration.
  • Woche 3–4: Aufbau und Integration eines Pilot-Assistenten für eine bestimmte Queue oder Anliegenart, Befähigung einer kleinen Gruppe von Mitarbeitenden und Start der Feedbacksammlung.
  • Woche 5–8: Verfeinerung von Prompts und Inhalten, Ausweitung auf weitere Themen und Beginn der Messung von Auswirkungen auf AHT und FCR.

Signifikante Verbesserungen bei Bearbeitungszeit und Erstlösungsquote in den adressierten Kontaktarten sind häufig innerhalb der ersten 1–2 Monate eines fokussierten Roll-outs sichtbar.

Die Kosten für den Einsatz von Gemini im Kundenservice bestehen aus nutzungsbasierten API- oder Plattformgebühren sowie dem initialen Integrations- und Konfigurationsaufwand. Die laufenden Kosten hängen typischerweise von der Anzahl der verarbeiteten Interaktionen und der Komplexität/Länge der Inhalte ab, die Gemini lesen muss.

Auf der Nutzenseite können Sie den ROI über reduzierte Bearbeitungszeiten, höhere Erstlösungsquote (weniger Wiederholkontakte), geringere Eskalationsraten und gesteigerte Produktivität der Mitarbeitenden quantifizieren. Schon moderate Verbesserungen – etwa 10 % weniger AHT in volumenstarken Queues – können zu erheblichen Kosteneinsparungen oder vermiedenen Personalerweiterungen führen.

Wir empfehlen, den ROI zunächst für einen klar definierten Ausschnitt von Interaktionen zu modellieren (z. B. Top-5-Kontaktanlässe) und ihn in einem Pilotprojekt zu validieren, bevor Sie skalieren. So bleibt die Investition überschaubar, während Sie belastbare Wirkungsdaten erhalten.

Reruption unterstützt Organisationen End-to-End dabei, Gemini in einen praxistauglichen Wissens-Copiloten für ihre Kundenservice-Teams zu verwandeln. Mit unserem KI-PoC-Angebot (9.900 €) validieren wir einen konkreten Use Case wie „Bearbeitungszeit für die Top-5-Anliegenarten reduzieren“ in Form eines funktionierenden Prototyps, der mit Ihren echten Daten verbunden ist.

Wir nutzen dabei unseren Co-Preneur-Ansatz: Wir arbeiten eng mit Ihrem Team zusammen, hinterfragen bestehende Workflows und bauen Integrationen, Prompts und UX direkt in Ihre Agenten-Tools – statt bei Folienpräsentationen stehenzubleiben. Nach dem PoC liefern wir einen Produktionsplan und können mit der vollständigen Implementierung fortfahren, inklusive Security- & Compliance-Abstimmung, Enablement der Mitarbeitenden und Performance-Monitoring.

Wenn Sie einen Partner suchen, der strategische Klarheit mit tiefem Engineering-Know-how verbindet und schnell von der Idee zur funktionierenden Lösung kommt, kann Reruption die Verantwortung dafür übernehmen, dass Gemini in Ihrer spezifischen Kundenservice-Umgebung erfolgreich wird.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media