Die Herausforderung: Ineffiziente Unterstützung bei der Auslegung von Richtlinien

Die meisten HR-Teams sind damit beschäftigt, immer wieder dieselben Richtlinienfragen zu beantworten. Mitarbeitende tun sich schwer, komplexe Formulierungen zu Themen wie Remote-Arbeit, Geschäftsreisen, Überstunden oder Abwesenheiten zu interpretieren, und schreiben deshalb E-Mails an HR, eröffnen Tickets oder kontaktieren HR-Business-Partner direkt. Jede einzelne Frage erfordert, dass jemand sich wieder in lange Richtlinien-PDFs oder Intranetseiten einarbeitet, die Regeln interpretiert und sie in verständliche Alltagssprache übersetzt. Multipliziert mit Hunderten oder Tausenden von Mitarbeitenden verwandelt sich Ihr HR-Team in einen manuellen Richtlinien-Helpdesk.

Traditionelle Ansätze skalieren nicht mehr. Statische FAQs im Intranet helfen für einige Wochen, doch dann ändern sich Richtlinien und die Inhalte veralten. Geteilte Postfächer und Ticketsysteme zentralisieren die Arbeit, reduzieren sie aber nicht. Selbst Wissensdatenbanken lösen selten das Kernproblem: Mitarbeitende wünschen sich klare, kontextbezogene, situationsspezifische Antworten – nicht ein 40-seitiges Richtliniendokument oder eine generische FAQ, die weiterhin Raum für Interpretationen lässt. Am Ende wird HR zum Engpass, der juristisch formulierte Dokumente Nachricht für Nachricht in praktische Handlungsempfehlungen übersetzt.

Die geschäftlichen Auswirkungen sind erheblich. Wertvolle HR-Kapazitäten sind in wenig wertschöpfender, repetitiver Arbeit gebunden, statt für Workforce-Planning, Talententwicklung oder Kulturinitiativen zur Verfügung zu stehen. Inkonsistente Antworten erzeugen Compliance-Risiken – zwei Mitarbeitende mit derselben Frage erhalten möglicherweise unterschiedliche Auskünfte, je nachdem, wen sie fragen und wie sie ihre Anfrage formulieren. Lange Antwortzeiten frustrieren Mitarbeitende und Führungskräfte, was zu informellen Schattenentscheidungen führt, bei denen Menschen „einfach machen, was richtig erscheint“, ohne die Richtlinie überhaupt zu prüfen. Langfristig untergräbt das das Vertrauen in HR und kann zu Beschwerden oder rechtlichen Risiken beitragen.

Diese Herausforderung ist real, aber absolut lösbar. Mit modernen KI-Assistenten für die Interpretation von HR-Richtlinien können Sie Ihre bestehenden Docs, Sheets und HR-Sites in eine intelligente, ständig verfügbare Support-Ebene verwandeln, die Mitarbeitenden in Sekunden klare, konsistente und auditierbare Antworten liefert. Bei Reruption haben wir Organisationen dabei unterstützt, ähnliche KI-gestützte Assistenten aufzubauen und komplexe Wissensarbeit zu automatisieren. Im weiteren Verlauf dieses Leitfadens zeigen wir Ihnen praxisnah, wie Sie Gemini in Google Workspace nutzen, um Ihren Richtlinien-Support von einer manuellen Belastung in einen strategischen Vorteil zu verwandeln.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Sicht von Reruption ist Gemini für HR-Richtlinien-Support dann am wirkungsvollsten, wenn es als Teil Ihres HR-Betriebsmodells verstanden wird – nicht als isoliertes Chatbot-Experiment. Da sich Gemini nahtlos in Google Workspace (Docs, Sheets, Drive, Sites, Gmail) integriert, können Sie es direkt mit den Richtlinien und Leitlinien verbinden, die Ihre Teams ohnehin pflegen. Unsere praktische Erfahrung im Aufbau von KI-Assistenten für komplexe Dokumente und wissensintensive Prozesse zeigt, dass der eigentliche Mehrwert entsteht, wenn Sie Gemini mit Ihrer HR-Governance, Ihren Compliance-Anforderungen und Ihrem Change Management ausrichten – nicht nur, wenn Sie es an ein paar Dateien anschließen.

Verankern Sie Gemini in Ihrem HR-Governance- und Compliance-Rahmen

Bevor Sie einen KI-HR-Richtlinienassistenten einführen, benötigen Sie Klarheit darüber, was der Assistent beantworten darf, wo er an Menschen übergeben muss und wie er Sonderfälle behandelt. Beginnen Sie damit, Ihre zentralen Richtlinienbereiche zu kartieren – zum Beispiel Abwesenheiten, Arbeitszeit, Reisen, Benefits, Code of Conduct – und definieren Sie für jeden Bereich, ob Gemini verbindliche Auskünfte geben darf oder nur Erläuterungen plus einen Link zur Originalrichtlinie. Dies reduziert Compliance-Risiken und stellt sicher, dass die inhaltliche Verantwortung bei Ihren HR- und Rechts-Stakeholdern bleibt.

Strategisch geht es darum, Gemini in Ihre HR-Governance einzubetten. Behandeln Sie es wie einen neuen HR-Kanal, der denselben Freigabeprozessen und derselben Versionierung wie Ihre Richtlinien unterliegt. Legen Sie fest, wie häufig die Wissensbasis aktualisiert wird, wie die juristische Freigabe für neue Vorlagen und FAQs erfolgt und wie Eskalationen gehandhabt werden, wenn Gemini sich nicht sicher ist. Diese Governance-first-Perspektive ermöglicht es Ihnen, automatisierten Support zu skalieren, ohne die Kontrolle zu verlieren.

Starten Sie mit häufigen, eindeutig geregelten Richtlinienthemen

Nicht jedes HR-Thema eignet sich gleichermaßen für Automatisierung. Für einen erfolgreichen ersten Einsatz sollten Sie Gemini auf hochvolumige, wenig auslegungsbedürftige HR-Fragen fokussieren, bei denen die Richtlinien stabil und gut dokumentiert sind. Typische Kandidaten sind Standard-Abwesenheitsarten, Arbeitszeit- und Überstundenregelungen, Grenzen für Spesenrückerstattungen sowie grundlegende Anspruchsvoraussetzungen für Benefits. Das sind die Fragen, die einen überproportional großen Teil der HR-Postfächer ausmachen, ohne dass sie meist differenzierte Einzelfallabwägungen erfordern.

Wenn Sie hier beginnen, gewinnen Sie Vertrauen auf beiden Seiten: Mitarbeitende erhalten schnelle, präzise Antworten, und HR-Teams sehen eine unmittelbare Reduktion an Tickets. Zudem schaffen Sie ein kontrolliertes Umfeld, um Prompts, Guardrails und die Integration in Google Workspace zu testen. Sobald Sie Zuverlässigkeit und Akzeptanz in diesen Bereichen nachgewiesen haben, können Sie Gemini schrittweise auf komplexere Themen wie grenzüberschreitende Mobilität, flexible Arbeitsmodelle oder Performance-Richtlinien ausweiten.

Orientieren Sie das Design an der Employee Journey, nicht am Organigramm

Ein häufiger Fehler besteht darin, die interne HR-Struktur im KI-Assistenten abzubilden – also getrennte Bereiche oder Bots für Payroll, Benefits, Reisen usw. Mitarbeitende denken nicht in diesen Kategorien; sie denken in realen Situationen: „Ich ziehe ins Ausland“, „Ich arbeite heute länger“, „Ich muss nächste Woche reisen“. Strategisch erzielen Sie bessere Ergebnisse, wenn Sie Ihren Gemini-HR-Assistenten entlang zentraler Employee Journeys und Auslöser-Momente gestalten.

Skizzieren Sie typische Szenarien für verschiedene Personagruppen (Stundenkräfte, Außendienst, Büroangestellte, Führungskräfte) und stellen Sie sicher, dass Gemini sie ganzheitlich begleiten kann: die relevante Richtlinie in klarer Sprache erklären, Ausnahmen hervorheben und auf den richtigen Prozess oder das passende Formular verweisen. Dieses Journey-zentrierte Design erhöht den wahrgenommenen Nutzen und beschleunigt die Akzeptanz – ein wesentlicher Faktor, um informelle Hinterkanäle zu HR zu reduzieren.

Bereiten Sie Ihr HR-Team darauf vor, den Assistenten mitzuverantworten und kontinuierlich zu verbessern

Damit Gemini die Auslegungsarbeit bei Richtlinien spürbar reduziert, muss Ihr HR-Team ihn als Teil seines Werkzeugkastens sehen – nicht als Blackbox-IT-System. Investieren Sie strategisch in HR-Kompetenzen, sodass HR-Business-Partner und Operativ-Teams Prompts pflegen, Beispiele aktualisieren und die zugrundeliegenden Richtlinieninhalte in Docs und Sites kuratieren können. Niemand muss dafür Entwickler sein, aber alle sollten sich wohl damit fühlen, Modellantworten zu überprüfen, Lücken zu erkennen und Anpassungsvorschläge zu machen.

Positionieren Sie den Assistenten als „augmentiertes HR“ statt „automatisiertes HR“. Ermutigen Sie HR-Mitarbeitende, Gemini selbst zu nutzen – etwa beim Formulieren von Antworten, beim Erstellen von FAQs oder bei der Vorbereitung von Führungskräftekommunikation. So entsteht ein Feedback-Loop, in dem HR die Qualität der KI-gestützten Richtlinieninterpretation fortlaufend verbessert – auf Basis echter Fragen aus dem Feld. Das Ergebnis ist ein lebendiges System, das sich mit Ihrer Organisation weiterentwickelt, statt eine einmalige Implementierung zu bleiben.

Steuern Sie Risiken mit Guardrails, Monitoring und klaren Eskalationspfaden

Der Einsatz von Gemini für HR-Richtlinien erfordert bewusstes Risikomanagement. Definieren Sie strategisch Guardrails: Gemini darf beispielsweise keine neuen Richtlinientexte erfinden, Anspruchsvoraussetzungen ändern oder rechtliche Interpretationen jenseits der Quelltexte liefern. Konfigurieren Sie den Assistenten so, dass er die exakte Richtlinienpassage referenziert, auf die er sich stützt, und Antworten mit geringer Sicherheit kennzeichnet – inklusive Empfehlung, HR zu kontaktieren. So wahren Sie die Richtlinien-Compliance und stärken das Vertrauen in die Zuverlässigkeit des Assistenten.

Richten Sie Monitoring von Beginn an ein. Ziehen Sie eine Stichprobe von Gesprächen (mit angemessenen Datenschutzvorkehrungen), um Genauigkeit und Tonalität zu prüfen. Verfolgen Sie zentrale Kennzahlen wie Deflektionsrate (Anteil der Anfragen, die ohne HR-Beteiligung gelöst werden), durchschnittliche Antwortsicherheit und Themen mit den meisten Eskalationen. Nutzen Sie diese Erkenntnisse, um sowohl Ihre Richtlinien (Vereinfachung verwirrender Abschnitte) als auch Ihre Gemini-Konfiguration zu optimieren. Ein klarer Eskalationspfad – etwa „wenn Ihr Fall komplex ist oder nicht abgedeckt wird, klicken Sie hier, um HR zu kontaktieren“ – stellt sicher, dass Mitarbeitende nie in einer KI-Schleife steckenbleiben.

Sorgfältig eingesetzt kann Gemini in Google Workspace Ihre statischen HR-Richtliniendokumente in einen zuverlässigen, gesteuerten Assistenten verwandeln, der Richtlinienfragen klar, konsistent und in großem Umfang beantwortet. Der eigentliche Gewinn liegt nicht nur in weniger Tickets, sondern in geringeren Compliance-Risiken und mehr Zeit für strategische, menschzentrierte HR-Arbeit. Bei Reruption bringen wir die notwendige technische Tiefe und das Verständnis für HR-Prozesse mit, um solche Assistenten entlang Ihrer Governance und nicht entlang des Toolings zu konzipieren. Wenn Sie erwägen, den Support zur Interpretation von HR-Richtlinien zu automatisieren, prüfen wir gerne gemeinsam mit Ihnen, ob ein gezielter PoC oder ein produktiver Rollout für Ihre Organisation sinnvoll ist.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Telekommunikation bis E‑Commerce: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Three UK

Telekommunikation

Three UK, ein führender Mobilfunkanbieter im Vereinigten Königreich, stand unter erheblichem Druck durch den stark ansteigenden Datenverkehr, getrieben vom 5G‑Ausbau, Video‑Streaming, Online‑Gaming und Remote‑Arbeit. Mit über 10 Millionen Kund:innen führten Spitzenzeiten‑Überlastungen in städtischen Gebieten zu Verbindungsabbrüchen, Buffering bei Streams und hoher Latenz, die das Gaming‑Erlebnis beeinträchtigte. Traditionelle Monitoring‑Tools kamen mit dem Volumen an Big‑Data aus Netzprobes nicht zurecht, sodass Echtzeit‑Optimierung unmöglich war und Kundenabwanderung drohte. Hinzu kam, dass Legacy On‑Premises‑Systeme nicht für 5G‑Network‑Slicing und dynamische Ressourcenallokation skalierten, was zu ineffizienter Spektrumnutzung und steigenden OPEX führte. Three UK benötigte eine Lösung, die Netzengpässe proaktiv vorhersagen und verhindern kann, um niedriglatenzige Dienste für latenzsensible Anwendungen sicherzustellen und gleichzeitig die QoS über verschiedene Verkehrsarten hinweg aufrechtzuerhalten.

Lösung

Microsoft Azure Operator Insights etablierte sich als cloudbasierte KI‑Plattform speziell für Telekommunikationsanbieter und nutzt Big‑Data‑Maschinelles Lernen, um Petabytes an Netztelemetrie in Echtzeit zu verarbeiten. Die Plattform analysiert KPIs wie Durchsatz, Paketverlust und Handover‑Erfolgsraten, erkennt Anomalien und sagt Überlastungen voraus. Three UK integrierte sie in sein Core‑Netzwerk, um automatisierte Erkenntnisse und Handlungsempfehlungen zu erhalten. Die Lösung setzte ML‑Modelle für Root‑Cause‑Analysen, Verkehrsvorhersagen und Optimierungsmaßnahmen wie Beamforming‑Anpassungen und Load‑Balancing ein. Auf Azure's skalierbarer Cloud betrieben, erleichterte sie die Migration von Legacy‑Tools, verringerte die Abhängigkeit von manuellen Eingriffen und stattete Ingenieurteams mit umsetzbaren Dashboards aus.

Ergebnisse

  • 25% Reduktion von Netzüberlastungsereignissen
  • 20% Verbesserung der durchschnittlichen Download‑Geschwindigkeiten
  • 15% Verringerung der End‑to‑End‑Latenz
  • 30% schnellere Anomalieerkennung
  • 10% OPEX‑Einsparungen im Netzbetrieb
  • NPS um 12 Punkte verbessert
Fallstudie lesen →

Airbus

Luft- und Raumfahrt

In der Flugzeugentwicklung sind Computational Fluid Dynamics (CFD)-Simulationen essenziell, um den Luftstrom um Tragflächen, Rümpfe und neuartige Konfigurationen vorherzusagen — entscheidend für Treibstoffeffizienz und Emissionsreduzierung. Herkömmliche hochgenaue RANS-Solver benötigen jedoch Stunden bis Tage pro Lauf auf Supercomputern, wodurch Ingenieure nur wenige Dutzend Iterationen pro Designzyklus durchführen können und die Innovationsfähigkeit für nächste Generationen wie das hydrogenbetriebene ZEROe eingeschränkt wird. Dieses Rechenengpassproblem war besonders akut im Kontext von Airbus' Vorstoß zur Dekarbonisierung der Luftfahrt bis 2035, bei dem komplexe Geometrien eine umfassende Exploration erfordern, um Auftriebs-Widerstands-Verhältnisse zu optimieren und gleichzeitig Gewicht zu minimieren. Kooperationen mit DLR und ONERA zeigten den Bedarf an schnelleren Werkzeugen auf, da manuelle Abstimmungen nicht skalieren, um die Tausenden Varianten zu testen, die für laminares Strömungsverhalten oder Blended-Wing-Body-Konzepte nötig sind.

Lösung

Maschinelle Lern-Surrogatmodelle, einschließlich physik-informierter neuronaler Netze (PINNs), wurden auf umfangreichen CFD-Datensätzen trainiert, um komplette Simulationen in Millisekunden zu emulieren. Airbus integrierte diese in eine generative Design-Pipeline, in der KI Druckfelder, Geschwindigkeiten und Kräfte vorhersagt und dabei die Navier-Stokes-Physik über hybride Verlustfunktionen zur Genauigkeit erzwingt. Die Entwicklung umfasste die Aufbereitung von Millionen von Simulations-Snapshots aus Legacy-Läufen, GPU-beschleunigtes Training und iterative Feinabstimmung mit experimentellen Windkanaldaten. Dadurch wurden schnelle Iterationen möglich: Die KI sichtet Designs, während hochauflösende CFD nur die besten Kandidaten verifiziert, wodurch der Gesamtaufwand um Größenordnungen reduziert wird und gleichzeitig ein <5% Fehler bei Schlüsselmetriken gehalten wird.

Ergebnisse

  • Simulationszeit: 1 Stunde → 30 ms (120.000x Beschleunigung)
  • Design-Iterationen: +10.000 pro Zyklus im gleichen Zeitraum
  • Vorhersagegenauigkeit: 95%+ für Auftriebs-/Widerstandskoeffizienten
  • 50% Verkürzung der Designphasenlaufzeit
  • 30–40% weniger hochauflösende CFD-Läufe erforderlich
  • Treibstoffverbrauchsoptimierung: bis zu 5% Verbesserung in Vorhersagen
Fallstudie lesen →

UC San Diego Health

Gesundheitswesen

Sepsis, eine lebensbedrohliche Erkrankung, stellt in Notaufnahmen eine große Gefahr dar, da verzögerte Erkennung zu hohen Sterblichkeitsraten führt – in schweren Fällen bis zu 20–30 %. Bei UC San Diego Health, einem akademischen Medizinzentrum mit über 1 Million Patientenbesuchen jährlich, erschwerten unspezifische Frühsymptome rechtzeitige Interventionen und verschlechterten die Ergebnisse in stark ausgelasteten Notaufnahmen . Eine randomisierte Studie unterstrich die Notwendigkeit proaktiver Werkzeuge jenseits traditioneller Scores wie qSOFA. Das Kapazitätsmanagement und der Patientenfluss standen nach COVID weiter unter Druck: Bettenknappheit führte zu verlängerten Aufnahmewartezeiten und Verzögerungen bei Verlegungen. Die Ausbalancierung von elektiven Eingriffen, Notfällen und Entlassungen erforderte Echtzeiteinblicke . Die sichere Integration generativer KI, etwa GPT-4 in Epic, barg Risiken wie Datenschutzverletzungen und ungenaue klinische Empfehlungen . Diese Herausforderungen verlangten skalierbare KI-Lösungen zur Vorhersage von Risiken, zur Straffung der Abläufe und zur verantwortungsvollen Einführung neuer Technologien, ohne die Versorgungsqualität zu gefährden.

Lösung

UC San Diego Health implementierte COMPOSER, ein Deep-Learning-Modell, das auf elektronischen Gesundheitsakten trainiert wurde, um das Sepsisrisiko 6–12 Stunden im Voraus vorherzusagen und Epic Best Practice Advisory (BPA)-Alarme für Pflegekräfte auszulösen . Dieser quasi-experimentelle Ansatz in zwei Notaufnahmen integrierte sich nahtlos in Arbeitsabläufe. Mission Control, ein KI-gestütztes Operations-Kommandozentrum, finanziert durch eine Investition von 22 Mio. USD, nutzt prädiktive Analytik für Echtzeit-Bettenzuweisungen, Verlegungen und Kapazitätsprognosen und reduziert so Engpässe . Unter der Leitung des Chief Health AI Officer Karandeep Singh werden Daten aus Epic für ganzheitliche Transparenz genutzt. Für generative KI werden Pilotprojekte mit Epic GPT-4 durchgeführt, die NLP-Abfragen und automatisierte Patientenantworten ermöglichen; diese stehen unter strengen Sicherheitsprotokollen, um Halluzinationen zu minimieren und HIPAA-Konformität zu gewährleisten . Die mehrgleisige Strategie adressierte Erkennung, Ablaufsteuerung und Innovationsintegration.

Ergebnisse

  • Sepsis-In-Hospital-Sterblichkeit: 17 % Reduktion
  • Jährlich gerettete Leben: 50 in zwei Notaufnahmen
  • Einhaltung des Sepsis-Bundles: deutliche Verbesserung
  • 72‑Stunden‑SOFA-Verlauf: reduzierte Verschlechterung
  • Intensivstationskontakte: Rückgang nach Implementierung
  • Patientendurchsatz: verbessert durch Mission Control
Fallstudie lesen →

Wells Fargo

Bankwesen

Wells Fargo, das 70 Millionen Kunden in 35 Ländern betreut, sah sich mit hoher Nachfrage nach 24/7-Kundendienst in seiner Mobile-Banking-App konfrontiert, in der Nutzer sofortige Unterstützung bei Transaktionen wie Überweisungen und Rechnungszahlungen benötigten. Traditionelle Systeme hatten Schwierigkeiten mit hohen Interaktionsvolumina, langen Wartezeiten und der Notwendigkeit schneller Antworten per Sprache und Text, insbesondere da die Kundenerwartungen sich hin zu nahtlosen digitalen Erlebnissen wandelten. Regulatorischer Druck im Bankwesen verschärfte die Herausforderungen und erforderte strenge Datenschutz-Maßnahmen, um PII-Exposition zu verhindern und KI ohne menschliches Eingreifen skalierbar zu machen. Zusätzlich steckten die meisten großen Banken in Proof-of-Concept-Phasen für generative KI fest und hatten keine produktionsreifen Lösungen, die Innovation und Compliance ausbalancierten. Wells Fargo benötigte einen virtuellen Assistenten, der komplexe Anfragen autonom bearbeiten, Ausgabenanalysen liefern und sich kontinuierlich verbessern konnte, ohne Sicherheit oder Effizienz zu gefährden.

Lösung

Wells Fargo entwickelte Fargo, einen generativen KI-Virtual-Assistenten, der in die Banking-App integriert ist und auf Google Cloud AI setzt, einschließlich Dialogflow für den Konversationsfluss und PaLM 2/Flash 2.0 LLMs für das Verständnis natürlicher Sprache. Diese modell-agnostische Architektur ermöglichte eine datenschutzorientierte Orchestrierung, die Anfragen routet, ohne PII an externe Modelle zu senden. Im März 2023 nach einer Ankündigung 2022 gestartet, unterstützt Fargo Sprach- und Textinteraktionen für Aufgaben wie Überweisungen, Rechnungszahlungen und Ausgabenanalysen. Kontinuierliche Updates ergänzten KI-gesteuerte Insights und agentische Fähigkeiten über Google Agentspace, wodurch keine menschlichen Übergaben erforderlich sind und die Lösung für regulierte Branchen skalierbar bleibt. Der Ansatz löste die Herausforderungen durch Fokus auf sichere, effiziente KI-Bereitstellung.

Ergebnisse

  • 245 Millionen Interaktionen in 2024
  • 20 Millionen Interaktionen bis Januar 2024 seit dem Start im März 2023
  • Prognose: 100 Millionen Interaktionen jährlich (Prognose 2024)
  • Keine menschlichen Übergaben bei allen Interaktionen
  • Keine PII an LLMs weitergegeben
  • Durchschnittlich 2,7 Interaktionen pro Nutzersitzung
Fallstudie lesen →

bunq

Bankwesen

Als bunq ein rasantes Wachstum als zweitgrößte Neobank in Europa verzeichnete, wurde die Skalierung des Kundenservice zu einer kritischen Herausforderung. Bei Millionen von Nutzern, die personalisierte Banking-Informationen zu Konten, Ausgabeverhalten und Finanzberatung auf Abruf verlangen, stand das Unternehmen unter Druck, sofortige Antworten zu liefern, ohne die Zahl der menschlichen Supportteams proportional zu erhöhen — was Kosten treiben und Abläufe verlangsamen würde. Traditionelle Suchfunktionen in der App reichten für komplexe, kontextabhängige Anfragen nicht aus und führten zu Ineffizienzen und Nutzerfrustration. Zudem stellten die Gewährleistung von Datenschutz und Genauigkeit in einem stark regulierten Fintech-Umfeld erhebliche Risiken dar. bunq benötigte eine Lösung, die nuancierte Unterhaltungen führen und gleichzeitig EU-Bankvorschriften einhalten konnte, Halluzinationen vermeiden würde, wie sie in frühen GenAI-Modellen vorkommen, und sich nahtlos integrieren ließe, ohne die App-Performance zu beeinträchtigen. Ziel war es, Routineanfragen zu automatisieren, sodass menschliche Agenten sich auf wertschöpfende Fälle konzentrieren konnten.

Lösung

bunq begegnete diesen Herausforderungen durch die Entwicklung von Finn, einer proprietären GenAI-Plattform, die direkt in die mobile App integriert wurde und die herkömmliche Suchfunktion durch einen konversationellen KI-Chatbot ersetzte. Nach der Einstellung von mehr als einem Dutzend Datenexperten im Vorjahr baute das Team Finn so, dass er sicher auf nutzerspezifische Finanzdaten zugreift, Fragen zu Kontoständen, Transaktionen und Budgets beantwortet und sogar allgemeine Ratschläge gibt, wobei der Gesprächskontext über Sitzungen hinweg erhalten bleibt. Nach einer Beta wurde Finn im Dezember 2023 als Europas erster KI-gestützter Bankassistent eingeführt und entwickelte sich schnell weiter. Bis Mai 2024 wurde er vollständig konversationell, was natürliche Mehrfachrunden-Interaktionen ermöglichte. Dieser retrieval-augmented generation (RAG)-Ansatz stützte Antworten auf Echtzeit-Nutzerdaten, minimierte Fehler und erhöhte die Personalisierung.

Ergebnisse

  • 100.000+ Fragen innerhalb von Monaten nach der Beta beantwortet (Ende 2023)
  • 40 % der Nutzeranfragen bis Mitte 2024 autonom vollständig gelöst
  • 35 % der Anfragen unterstützt, insgesamt 75 % sofortige Support-Abdeckung
  • Vor dem Start 12+ Datenexperten für die Dateninfrastruktur eingestellt
  • Zweitgrößte Neobank Europas nach Nutzerbasis (1M+ Nutzer)
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Zentralisieren Sie Richtlinieninhalte in Google Workspace und machen Sie sie maschinenlesbar

Gemini ist nur so gut wie die Inhalte, auf die es zugreifen kann. Beginnen Sie damit, Ihre HR-Richtlinien in eine klare Struktur in Google Drive und Google Sites zu überführen. Migrieren Sie alte PDFs, wo möglich, nach Google Docs – oder stellen Sie zumindest sicher, dass PDFs per Textsuche durchsuchbar sind. Verwenden Sie konsistente Überschriften und Abschnittsstrukturen über alle Richtlinien hinweg (z. B. „Geltungsbereich“, „Anspruchsberechtigung“, „Verfahren“, „Ausnahmen“), damit Gemini relevante Passagen zuverlässig findet und zusammenfasst.

Verschlagworten Sie Ihre Dokumente logisch – erstellen Sie beispielsweise Ordner wie HR/Richtlinien/Abwesenheiten, HR/Richtlinien/Reisen, HR/Richtlinien/Arbeitszeit. Pflegen Sie ein Index-Worksheet in Google Sheets, in dem jede Richtlinie mit Owner, letztem Prüftermin und Status aufgeführt ist. Dieses Sheet kann als einfaches Kontrollpanel dienen, das steuert, auf welche Dokumente Gemini zugreifen darf. Wenn Sie eine Richtlinie aktualisieren, passen Sie den Index an, sodass Ihr Assistent immer die aktuell freigegebene Version verwendet.

Erstellen Sie starke System-Prompts für konsistente, compliant Antworten

Das Verhalten Ihres Gemini-basierten HR-Assistenten wird maßgeblich durch die initialen Anweisungen geprägt. Arbeiten Sie gemeinsam mit HR und Legal an einem robusten System-Prompt, der Tonalität, Umfang und Grenzen definiert. Für die Richtlinieninterpretation gilt: hilfreich sein, ohne die Richtlinie zu erweitern oder zu verändern. In Ihrer Implementierung können Sie oder Ihr Engineering-Partner einen Basis-Prompt wie den folgenden hinterlegen:

System-Prompt für Gemini HR-Richtlinienassistent:

Sie sind ein HR-Richtlinienassistent für [Unternehmensname].
Ihre Ziele:
- Erklären Sie HR-Richtlinien in klarer, verständlicher Alltagssprache.
- Stützen Sie Ihre Antworten IMMER NUR auf die offiziellen Richtlinien, die Ihnen bereitgestellt wurden.
- Erfinden Sie niemals neue Regeln, Ausnahmen oder Benefits.
- Wenn die Richtlinie mehrdeutig ist oder die Situation nicht abdeckt, sagen Sie das ausdrücklich und empfehlen Sie der anfragenden Person, HR zu kontaktieren.
- Nennen Sie das konkrete Richtliniendokument und den Abschnitt, den Sie verwendet haben.
- Heben Sie wichtige Ausnahmen, Schwellenwerte oder Genehmigungserfordernisse hervor.

Tonalität:
- Professionell, neutral und unterstützend.
- Vermeiden Sie juristische Fachbegriffe; erklären Sie Konzepte mit einfachen Beispielen.

Wenn Sie sich nicht mindestens zu 80 % sicher sind, antworten Sie:
„Diese Situation kann komplex sein oder wird möglicherweise nicht vollständig durch unsere schriftlichen Richtlinien abgedeckt. Bitte wenden Sie sich direkt an HR, um eine verbindliche Auskunft zu erhalten.“

Testen und verfeinern Sie diesen Prompt mit realen Fragen von Mitarbeitenden. Kleine Formulierungsänderungen („niemals Regeln erfinden“, „Quelle immer referenzieren“) können Compliance und Vertrauen spürbar verbessern.

Bauen Sie einen Gemini-gestützten HR-FAQ-Workflow in Google Docs und Sites auf

Nutzen Sie Gemini direkt in Google Docs, um eine strukturierte FAQ zu generieren und zu pflegen, die auf Ihrem HR-Intranet verfügbar ist. Starten Sie, indem Sie Gemini eine zentrale Richtlinie zur Verfügung stellen und es bitten, typische Fragen zu formulieren, die Mitarbeitende dazu stellen könnten. Lassen Sie dann klare Antworten verfassen, die sich strikt auf dieses Dokument stützen. In Google Docs können Sie beispielsweise folgenden Prompt verwenden:

Prompt in Google Docs zur Erstellung von FAQs:

Sie unterstützen HR dabei, eine mitarbeiterorientierte FAQ auf Basis des folgenden Richtlinientextes zu erstellen.

1. Schlagen Sie 15–20 natürlich formulierte Fragen vor, die Mitarbeitende zu dieser Richtlinie stellen könnten.
2. Verfassen Sie für jede Frage eine prägnante Antwort (max. 150 Wörter), die ausschließlich auf dieser Richtlinie basiert.
3. Verwenden Sie klare, nicht-juristische Sprache und fügen Sie konkrete Beispiele hinzu, wenn sie hilfreich sind.
4. Fügen Sie nach jeder Antwort einen Verweis auf die Überschrift des Abschnitts ein, den Sie verwendet haben.

Hier ist der Richtlinientext:
[Hier Richtlinieninhalt einfügen oder den Abschnitt im Doc angeben]

Nach Prüfung durch HR und Legal können Sie die FAQs in Google Sites veröffentlichen. Im Laufe der Zeit können Sie Ihre Gemini-Chatoberfläche mit diesen FAQs verknüpfen, sodass Gemini bei passenden Fragen antwortet und explizit auf den relevanten FAQ-Eintrag und den Richtlinienabschnitt verweist.

Konfigurieren Sie eine Gemini-Chatoberfläche mit Eskalation an HR

Für die tägliche Nutzung sollten Mitarbeitende Gemini in natürlicher Sprache über einen vertrauten Kanal kontaktieren können – zum Beispiel über einen eingebetteten Chat auf Ihrer HR-Google-Site oder einen angehefteten Link in Ihrem Intranet. Abhängig von Ihrem Setup können Sie Gemini über Apps Script, eine leichte Web-App oder ein Workspace-Add-on integrieren, das Ihr Engineering-Team oder ein Partner wie Reruption entwickelt.

Gestalten Sie den Interaktionsfluss so, dass eine Eskalation einfach ist. Fügen Sie beispielsweise unter jeder Antwort Buttons oder Links ein: „Diese Antwort hat mir geholfen“ und „Ich benötige weiterhin Unterstützung“. Wenn Nutzerinnen und Nutzer auf „Ich benötige weiterhin Unterstützung“ klicken, leiten Sie sie zu einem vorausgefüllten Google-Formular oder einem E-Mail-Entwurf an HR weiter, der ihre ursprüngliche Frage und die Gemini-Antwort enthält. So erhält HR vollständigen Kontext, Rückfragen werden minimiert und es entsteht ein wertvoller Feedback-Datensatz, mit dem Sie Prompts optimieren und unklare Richtlinien identifizieren können.

Nutzen Sie Gemini zum Vergleichen von Richtlinienversionen und Hervorheben von Änderungen

Richtlinienänderungen sind besonders risikobehaftet: Mitarbeitende verlassen sich auf alte mentale Modelle, und HR wird mit einer Flut von „Was hat sich geändert?“-Fragen konfrontiert. Nutzen Sie Gemini, um alte und neue Versionen von Richtlinien in Google Docs zu vergleichen und verständliche Änderungszusammenfassungen für Mitarbeitende und Führungskräfte zu erstellen. Ein praxistauglicher Workflow ist:

Prompt in Google Docs zur Hervorhebung von Richtlinienänderungen:

Sie vergleichen zwei Versionen derselben HR-Richtlinie.

1. Identifizieren Sie alle inhaltlich relevanten Änderungen zwischen Version A (alt) und Version B (neu).
2. Gruppieren Sie die Änderungen nach Thema (z. B. Anspruchsberechtigung, Grenzen, Genehmigungsprozess).
3. Erklären Sie für jede Änderung in 2–3 Sätzen, was sich für Mitarbeitende praktisch ändert.
4. Markieren Sie alle Änderungen, die möglicherweise eine Führungskräftekommunikation oder Schulung erfordern.

Liefern Sie zwei Ausgaben:
- Eine kurze Zusammenfassung für Mitarbeitende.
- Eine detailliertere Zusammenfassung für Führungskräfte und HR.

Veröffentlichen Sie die kurze Zusammenfassung auf Ihrer HR-Site und senden Sie die ausführlichere Version an HR und Führungskräfte. So verringern Sie Fehlinterpretationen und geben Gemini besseren Kontext, wenn Fragen zu „alten vs. neuen“ Regeln gestellt werden.

Überwachen Sie die Qualität und definieren Sie klare KPIs für die Automatisierung von HR-Richtlinien

Damit Ihr Gemini-HR-Support dauerhaft zuverlässig bleibt, sollten Sie ihn wie jeden anderen HR-Service mit definierten KPIs steuern. Verfolgen Sie die Deflektionsrate (Anteil der Fragen, die ohne HR-Beteiligung gelöst werden), die durchschnittliche Zufriedenheit der Mitarbeitenden mit den Antworten (z. B. über Daumen hoch/runter und optionalen Kommentar) und die durchschnittliche Lösungszeit für eskalierte Fälle. Sie können Interaktionsprotokolle – anonymisiert und im Einklang mit Ihren Datenrichtlinien – in Sheets oder BigQuery speichern und regelmäßig auswerten.

Etablieren Sie ein monatliches oder vierteljährliches Review-Ritual, bei dem HR eine Auswahl von Gesprächen prüft, die Genauigkeit kontrolliert und Richtlinien oder Prompts bei Bedarf aktualisiert. Nutzen Sie Gemini selbst, um Muster zu erkennen, z. B. „Fassen Sie die Top-10-Themen zusammen, zu denen Mitarbeitende in diesem Monat Fragen gestellt haben und bei denen die aktuelle Richtlinie unklar zu sein scheint.“ Mit der Zeit sehen reife Organisationen typischerweise eine Reduktion von 30–60 % bei repetitiven Richtlinienanfragen an HR, ein schnelleres Onboarding neuer Mitarbeitender (weil Antworten leicht auffindbar sind) und weniger richtlinienbezogene Vorfälle oder Beschwerden aufgrund von Missinterpretation.

Mit dieser Disziplin implementiert, kann ein Gemini-basierter HR-Richtlinienassistent realistisch mehrere Hundert Stunden manueller Interpretationsarbeit pro Jahr einsparen, Antwortzeiten bei Standardfragen von Tagen auf Sekunden verkürzen und Compliance- sowie Kommunikationsrisiken spürbar senken – und gleichzeitig HR mehr Kapazität für strategische Initiativen verschaffen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Die Genauigkeit hängt in erster Linie von der Qualität und Klarheit Ihrer zugrunde liegenden Richtliniendokumente und von Ihrer Gemini-Konfiguration ab. Wenn Gemini auf freigegebene HR-Richtlinien in Google Workspace beschränkt ist und durch einen starken System-Prompt gesteuert wird (zum Beispiel „niemals neue Regeln erfinden, Quelle immer zitieren“), kann es Richtlinien zuverlässig in Alltagssprache erklären und den exakten verwendeten Abschnitt referenzieren.

In der Praxis empfehlen wir, mit hochvolumigen, klar abgegrenzten Themen zu starten (wie Standardurlaub, Reisebudgets oder Arbeitszeitregeln) und Guardrails zu definieren: Gemini sollte mehrdeutige Fälle kennzeichnen und an HR weiterleiten. Mit einem solchen Setup erreichen Organisationen in der Regel eine hohe Quote korrekter, konsistenter Antworten auf Routinefragen, während Sonderfälle weiterhin von Menschen entschieden werden.

Sie benötigen drei Kernfähigkeiten: inhaltliche HR-Verantwortung, leichtes Engineering-Know-how und Governance. HR sollte in der Lage sein, Richtlinien in Google Docs, Sheets und Sites zu strukturieren und zu pflegen sowie KI-generierte FAQs und Antwortvorlagen zu prüfen und freizugeben. Auf technischer Seite brauchen Sie jemanden, der Gemini konfiguriert, den Zugriff auf die richtigen Dokumente einrichtet und (optional) eine einfache Chatoberfläche oder Integration in Ihre HR-Site aufbaut.

Rechts-, Compliance- und IT-Sicherheits-Stakeholder sollten frühzeitig eingebunden werden, um Guardrails und den Umgang mit Daten zu definieren. Sie benötigen kein großes KI-Team: Mit einem klar fokussierten Scope und dem richtigen Partner kann ein kleines, funktionsübergreifendes Team innerhalb weniger Wochen einen ersten Gemini-basierten HR-Assistenten in Betrieb nehmen.

Wenn Ihre Richtlinien bereits in Google Workspace zentralisiert sind, sehen Sie meist innerhalb weniger Wochen erste Ergebnisse. Ein Pilotprojekt mit engem Fokus auf 1–2 Richtlinienbereiche (zum Beispiel Abwesenheiten und Reisen) lässt sich in 3–6 Wochen konzipieren, konfigurieren und testen – inklusive Prüfung der Prompts und FAQs durch HR und Legal.

Ein spürbarer Effekt auf Ticketvolumen und HR-Arbeitslast stellt sich typischerweise nach 1–3 Monaten realer Nutzung ein – also dann, wenn Mitarbeitende den Assistenten als ersten Ansprechpartner nutzen und Sie ein bis zwei Optimierungszyklen durchlaufen haben. Ein umfassender Rollout über die meisten Richtlinienbereiche kann mehrere Monate dauern, aber Sie müssen darauf nicht warten, um in einem klar abgegrenzten Bereich ersten Mehrwert zu erzielen.

Die Kosten bestehen aus drei Komponenten: Gemini-Nutzung, Implementierungsaufwand und laufender Governance. Die Modellnutzung für textbasierte HR-Anfragen ist in der Regel moderat – insbesondere im Vergleich zum Wert reduzierter manueller Arbeit. Die Implementierungskosten hängen davon ab, ob Sie intern entwickeln oder mit einem Partner arbeiten; sie umfassen im Wesentlichen die Konfiguration der Prompts, die Integration in Ihre Google-Workspace-HR-Umgebung und das Change Management.

Der ROI speist sich aus mehreren Quellen: weniger repetitive HR-Tickets, schnellere Antwortzeiten, geringere Compliance-Risiken durch inkonsistente Auskünfte und eine verbesserte Employee Experience. Viele Organisationen stellen fest, dass die Automatisierung eines wesentlichen Anteils standardisierter Richtlinienfragen mehrere Hundert HR-Stunden pro Jahr freisetzt. Für ein mittelgroßes Unternehmen übersteigen die eingesparte Zeit und das geringere Risiko häufig bereits im ersten Jahr die Implementierungskosten – insbesondere, wenn Sie mit einem fokussierten, wirkungsstarken Scope starten.

Reruption unterstützt Organisationen End-to-End – von der Idee bis zur produktiven Lösung. Häufig starten wir mit einem KI-PoC für 9.900 €, um zu belegen, dass Gemini Ihre spezifischen HR-Richtlinien und Prozesse zuverlässig abbilden kann. In diesem PoC definieren wir den Use Case, wählen und konfigurieren das passende Gemini-Setup, entwickeln einen funktionalen Prototyp (zum Beispiel einen Richtlinienassistenten, der in Ihre Google-Workspace-Umgebung integriert ist) und messen Qualität, Geschwindigkeit und Kosten pro Interaktion.

Über den PoC hinaus bedeutet unser Co-Preneur-Ansatz, dass wir nicht nur beraten, sondern uns in Ihr Team einbetten, Verantwortung mittragen und echte Lösungen ausliefern. Wir bringen die technische Tiefe mit, um Gemini in Ihre bestehende HR- und Google-Workspace-Landschaft zu integrieren, sowie die strategische Perspektive, um den Assistenten mit Ihrer Governance, Sicherheit und Compliance in Einklang zu bringen. Wenn Sie schnell von manueller Richtlinienklärung zu einer robusten, KI-gestützten HR-Supportschicht kommen möchten, unterstützen wir Sie bei Konzeption, Aufbau und Skalierung in Ihrer Organisation.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media