Die Herausforderung: Überlastete HR-Teams mit wiederkehrenden Fragen

Jede Onboarding-Welle bringt dasselbe Muster mit sich: HR-Postfächer werden mit identischen Fragen zu Urlaub, Abrechnungsterminen, VPN-Zugang, SSO-Logins, Lernplattformen und Benefits überschwemmt. Anstatt neue Mitarbeitende durch eine gut gestaltete Onboarding-Journey zu führen, verbringen HR-Business-Partner und HR-Operations-Teammitglieder täglich Stunden damit, nahezu identische E-Mails, Teams-/Slack-Nachrichten und Tickets zu beantworten. Das Ergebnis sind langsamere Reaktionszeiten, wachsende Frustration auf beiden Seiten und weniger Zeit für wertschöpfende, persönliche Gespräche.

Traditionelle Ansätze halten nicht mehr Schritt. Statische FAQ-PDFs und Intranetseiten sind selten aktuell, schwer zu durchsuchen und losgelöst von den Arbeitsumgebungen neuer Mitarbeitender – also E-Mails, Kalender, Chat und HR-Tools. Selbst gemeinsame Postfächer und Ticketsysteme verteilen die Last nur auf mehr Personen, ohne die wiederkehrende Arbeit zu eliminieren. Während Unternehmen globaler werden und flexiblere Arbeitsmodelle anbieten, wächst die Komplexität der Richtlinien – und das Volumen der Fragen steigt schneller als die Anzahl der HR-Mitarbeitenden.

Die geschäftlichen Auswirkungen sind erheblich. Neue Mitarbeitende warten Stunden oder Tage auf einfache Antworten, wodurch der Zugang zu Tools oder Pflichtschulungen verzögert wird und sich die Time-to-Productivity nach hinten verschiebt. HR-Teams verbrennen Kapazitäten mit Copy-and-Paste-Support, statt sich um Workforce-Planung, Coaching von Führungskräften oder die Weiterentwicklung des Onboarding-Programms zu kümmern. Inkonsistente oder veraltete Antworten schaffen Compliance-Risiken und untergraben das Vertrauen in HR als verlässlichen Partner. Langfristig führt das zu höherer Frühfluktuation, schwächerem Employer Branding und vermeidbaren Onboarding-Kosten.

Diese Herausforderung ist real, aber lösbar. Mit modernen KI-Assistenten ist es heute möglich, die meisten Onboarding-Fragen direkt in den Tools, die Mitarbeitende ohnehin nutzen, sofort und präzise zu beantworten. Bei Reruption haben wir gesehen, wie KI-gestützter Support – von Recruiting-Chatbots bis hin zu internen Wissensassistenten – die manuelle Arbeitslast drastisch reduzieren kann, während sich gleichzeitig die Employee Experience verbessert. Im weiteren Verlauf dieses Artikels finden Sie praxisnahe, umsetzungsreife Empfehlungen, wie Sie Gemini nutzen können, um Ihr Onboarding-Postfach zu bändigen und HR Zeit zurückzugeben.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus der praktischen Arbeit von Reruption beim Aufbau von KI-Assistenten für HR und Recruiting wissen wir, dass der Engpass selten die Technologie selbst ist – sondern wie Sie sie gestalten, steuern und in den Arbeitsalltag integrieren. Gemini für HR-Onboarding-FAQs ist leistungsfähig, weil es nativ auf den Daten in Google Workspace (Docs, Sheets, Sites, Gmail, Drive) aufsetzt und Ihre bestehenden Richtlinien und Playbooks in eine lebendige, dialogorientierte Wissensschicht verwandeln kann. Entscheidend ist, das Ganze nicht als weiteres Chatbot-Projekt zu sehen, sondern als strategische Fähigkeit für skalierbaren, konsistenten HR-Support.

Umfang definieren: Vom „Alles beantworten“ zum fokussierten Onboarding-Assistenten

Der schnellste Weg, mit einem KI-FAQ-Assistenten zu scheitern, ist, ihn von Tag eins an jede HR-Frage beantworten zu lassen. Starten Sie für das Onboarding mit einem klar abgegrenzten Bereich: Fragen, die jede neue Mitarbeiterin bzw. jeder neue Mitarbeiter in den ersten 30–60 Tagen stellt. Denken Sie an Richtlinien und Abläufe rund um Benefits-Anmeldung, Zeiterfassung, IT-Zugänge, den ersten Arbeitstag und Pflichtschulungen. Das reduziert Risiken und vereinfacht die inhaltliche Kuratierung.

Nutzen Sie einen kurzen Discovery-Sprint: Exportieren Sie aktuelle Onboarding-E-Mails, Tickets oder Chat-Verläufe und clustern Sie diese in 20–30 häufig auftretende Themen. Das wird die initiale Wissensbasis für Ihren Gemini HR-Onboarding-Assistenten. Mit einem klaren Umfang können Sie gegenüber Stakeholdern klare Erwartungen setzen: Gemini übernimmt die wiederkehrenden Onboarding-Fragen; HR bleibt für Sonderfälle und sensible Themen zuständig.

HR-Wissen als Produkt behandeln, nicht als Dokumentensammlung

Gemini ist nur so gut wie die Inhalte, auf die es zugreifen kann. In den meisten HR-Bereichen sind Richtlinien über veraltete PDFs, E-Mail-Anhänge und lokale Laufwerke verstreut. Bevor Sie eine KI-basierte Onboarding-FAQ-Lösung ausrollen, behandeln Sie Ihr HR-Wissen wie ein Produkt: Wer ist die Nutzerin bzw. der Nutzer, welche Aufgaben müssen erledigt werden, und wie muss Information strukturiert sein, damit eine KI sie zuverlässig finden und nutzen kann?

Strategisch bedeutet das, onboarding-relevante Informationen in autoritativen Quellen in Google Docs, Sheets und Sites zu konsolidieren – mit klarer Verantwortlichkeit und Versionierung. Definieren Sie, wer welche Richtlinie pflegt, wie Aktualisierungen freigegeben werden und wie diese im KI-Assistenten abgebildet werden. Diese Produktperspektive macht aus Ihrem Gemini-Rollout ein dauerhaft betreibbares Capability statt eines einmaligen Projekts.

Auf HR-Governance ausrichten, nicht auf Schattenautomatisierung

HR-Verantwortliche sorgen sich oft, dass ein KI-Assistent falsche Antworten gibt oder notwendige Freigaben umgeht. Die Antwort besteht nicht darin, die Einführung zu verzögern, sondern Governance fest in Ihr Gemini-für-HR-Rollout zu integrieren. Entscheiden Sie im Vorfeld, welche Themen für vollständig automatisierte Antworten geeignet sind (z. B. „Wie setze ich mein Passwort zurück?“) und welche eine menschliche Prüfung oder explizite Disclaimer erfordern (z. B. individuelle Vergütungsfragen).

Gemini kann so konfiguriert werden, dass es Richtlinienausschnitte mit klaren Referenzen (Dokumentname, Datum der letzten Aktualisierung) anzeigt und mehrdeutige Themen an HR weiterleitet. Strategisch sollten Sie einen Feedback-Loop etablieren: Ermöglichen Sie Mitarbeitenden, Antworten als „unklar“ oder „falsch“ zu markieren, und prüfen Sie diese wöchentlich gemeinsam mit HR und IT, um Prompts, Datenquellen und Leitplanken zu verfeinern. So senken Sie das Risiko und bauen über die Zeit Vertrauen in den Assistenten auf.

HR- und IT-Teams auf ein KI-first-Supportmodell vorbereiten

Wenn wiederkehrende Onboarding-Fragen an Gemini ausgelagert werden, verändert sich die tägliche Arbeit in HR. Anstatt jede Frage manuell zu beantworten, werden HR-Business-Partner zu Kuratorinnen und Kuratoren der Inhalte und Verantwortlichen für das KI-Verhalten. IT muss die passenden Zugriffsrechte und Integrationen innerhalb von Google Workspace sicherstellen. Ohne explizite Abstimmung kann die Initiative zwischen den Abteilungen steckenbleiben.

Investieren Sie strategisch in ein paar Workshops, um HR, IT und Compliance zu Rollen abzustimmen: Wer verantwortet die HR-Wissensbasis für Gemini, wer überwacht Nutzung und Qualität, wie werden Ausnahmen gehandhabt und wie wird Erfolg gemessen. Schulen Sie HR-Mitarbeitende darin, den Assistenten nicht zu fürchten, sondern die gewonnene Zeit für strategischere Onboarding-Unterstützung zu nutzen: Coaching von Führungskräften, persönliche Check-ins und Experience-Design.

Das Richtige messen: Von Ticketvolumen bis Time-to-Productivity

Es ist verlockend, den Erfolg eines Gemini-Onboarding-FAQ-Assistenten nur an der Reduktion des HR-E-Mail-Aufkommens zu messen. Das ist zwar wichtig, aber zu kurz gegriffen. Der eigentliche Wert liegt in einer schnelleren Time-to-Productivity für neue Mitarbeitende und einem konsistenteren, professionelleren Erlebnis in den ersten Wochen.

Definieren Sie auf strategischer Ebene KPIs, die an Business-Ergebnisse gekoppelt sind: Anteil der Onboarding-Fragen, die Gemini autonom beantwortet, durchschnittliche Reaktionszeit für verbleibende HR-Tickets, Erledigungsquote von Onboarding-Aufgaben in den ersten 14/30 Tagen sowie Zufriedenheitswerte neuer Mitarbeitender. Nutzen Sie diese Kennzahlen, um weitere Investitionen zu steuern: Wo der Assistent inhaltlich erweitert, wo Inhalte verfeinert und wann Gemini in andere HR-Workflows wie Learning oder Performance integriert werden sollte.

Bewusst eingesetzt kann Gemini Onboarding-FAQs von einer manuellen Last in einen skalierbaren, hochwertigen HR-Service verwandeln. Indem Sie den Use Case klar eingrenzen, Ihr HR-Wissen kuratieren und klare Governance für Antworten etablieren, können Sie erhebliche HR-Kapazitäten freisetzen und gleichzeitig sicherstellen, dass neue Mitarbeitende sich vom ersten Tag an unterstützt fühlen. Reruption bringt sowohl tiefgehende KI-Engineering-Expertise als auch HR-Prozess-Know-how mit, um solche Assistenten gemeinsam mit Ihrem Team zu konzipieren, zu prototypisieren und auszurollen – wenn Sie erkunden möchten, wie das in Ihrer Google-Workspace-Umgebung aussehen könnte, validieren wir dies gern mit einem fokussierten PoC und einem konkreten Implementierungsplan.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Bankwesen bis Fertigung: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Commonwealth Bank of Australia (CBA)

Bankwesen

Als Australiens größte Bank sah sich CBA zunehmenden Betrugs- und Scam-Bedrohungen gegenüber, wobei Kunden erhebliche finanzielle Verluste erlitten. Betrüger nutzten schnelle digitale Zahlungen wie PayID aus, bei denen nicht übereinstimmende Empfängernamen zu unumkehrbaren Überweisungen führten. Traditionelle Erkennungssysteme hinkten hinter komplexen Angriffen her, was zu hohem Kundenschaden und regulatorischem Druck führte. Parallel dazu waren die Contact Center überlastet und bearbeiteten Millionen von Anfragen zu Betrugswarnungen und Transaktionen. Das führte zu langen Wartezeiten, steigenden Betriebskosten und angespannten Ressourcen. CBA benötigte proaktive, skalierbare KI, um in Echtzeit einzugreifen und gleichzeitig die Abhängigkeit von menschlichen Agenten zu reduzieren.

Lösung

CBA setzte einen hybriden KI-Stack ein, der Maschinelles Lernen zur Anomalieerkennung und generative KI für personalisierte Warnungen kombiniert. NameCheck überprüft Empfängernamen gegen PayID in Echtzeit und warnt Nutzer bei Abweichungen. CallerCheck authentifiziert eingehende Anrufe und blockiert Nachahmungs-Betrugsversuche. In Partnerschaft mit H2O.ai implementierte CBA von GenAI angetriebene prädiktive Modelle zur Scam-Intelligence. Ein KI-virtueller Assistent in der CommBank-App bearbeitet Routineanfragen, generiert natürliche Antworten und eskaliert komplexe Fälle. Die Integration mit Apate.ai liefert nahezu in Echtzeit Scam-Intelligence und verbessert das proaktive Blockieren über alle Kanäle hinweg.

Ergebnisse

  • 70 % Reduktion der Betrugsverluste
  • 50 % Verringerung der Kundenschäden durch Betrug bis 2024
  • 30 % Rückgang der Betrugsfälle durch proaktive Warnungen
  • 40 % Reduktion der Wartezeiten im Contact Center
  • 95 %+ Genauigkeit bei NameCheck-Empfängerabgleichen
Fallstudie lesen →

Duke Health

Gesundheitswesen

Sepsis ist ein lebensbedrohlicher Zustand, der in den USA jährlich für über 270.000 Todesfälle verantwortlich ist, mit Mortalitätsraten von bis zu 40% in Krankenhäusern aufgrund verzögerter Erkennung. Frühsymptome sind oft unspezifisch—Fieber, Tachykardie, veränderter Geisteszustand—und ähneln häufigen Erkrankungen, wodurch eine rechtzeitige Erkennung in stark frequentierten Notaufnahmen (EDs) schwierig ist. Traditionelle Bewertungssysteme wie qSOFA und SIRS leiden unter geringer Sensitivität (etwa 50–60%) und schlechter prädiktiver Leistung Stunden vor Auftreten, was zu späten Interventionen und schlechteren Ergebnissen führt. Duke Health, das hohe Patientenzahlen in seinen drei Notaufnahmen bewältigt, stand vor der doppelten Herausforderung, Frühwarnsysteme zu skalieren und gleichzeitig Alarmmüdigkeit und Workflow-Störungen zu vermeiden. Die Integration neuartiger KI erforderte strenge Validierung, Akzeptanz durch Kliniker und nahtlose Einbettung in das EHR, ohne die Sicherheit zu beeinträchtigen oder unnötige Behandlungen zu erhöhen.

Lösung

Sepsis Watch ist ein auf Deep Learning basierendes Vorhersagemodell, das Echtzeit-EHR-Daten (Vitalwerte, Labore, Demografie) analysiert, um den Sepsisanfall bis zu 48 Stunden im Voraus vorherzusagen, mit dem primären Fokus auf 6-Stunden-Vorhersagen. Entwickelt vom Duke Institute for Health Innovation (DIHI) verwendet es eine rekurrente neuronale Netzwerkarchitektur, die auf historischen Daten von über 600.000 Patientenkontakten (2008–2016) trainiert wurde und eine beeindruckende AUROC von 0,922 erzielte. Die Lösung integriert sich als pflegeorientiertes Best Practice Advisory (BPA) in das Epic EHR und löst nicht-interruptive Warnungen für Hochrisikopatienten aus. Dieses klinikerzentrierte Design fördert Maßnahmen wie frühe Antibiotikagabe und Flüssigkeitszufuhr und minimiert gleichzeitig falsch positive Alarme durch Schwellenwertanpassung. Pilotversuche und iteratives Feedback sicherten eine sichere Einführung.

Ergebnisse

  • AUROC: 92,2% für 6-Stunden-Sepsisvorhersage
  • Früherkennung: Bis zu 6 Stunden vor klinischem Auftreten
  • Einsatzumfang: Alle 3 Duke-Notaufnahmen, Tausende überwachte Patienten
  • Alarm-Compliance: Hohe Akzeptanzraten nach Integration
  • Bundle-Compliance: Deutliche Verbesserungen in Verbindung mit Warnungen
  • Auswirkung auf Sterblichkeit: Assoziiert mit reduzierten in-hospitalen Sepsis-Todesfällen
Fallstudie lesen →

bunq

Bankwesen

Als bunq ein rasantes Wachstum als zweitgrößte Neobank in Europa verzeichnete, wurde die Skalierung des Kundenservice zu einer kritischen Herausforderung. Bei Millionen von Nutzern, die personalisierte Banking-Informationen zu Konten, Ausgabeverhalten und Finanzberatung auf Abruf verlangen, stand das Unternehmen unter Druck, sofortige Antworten zu liefern, ohne die Zahl der menschlichen Supportteams proportional zu erhöhen — was Kosten treiben und Abläufe verlangsamen würde. Traditionelle Suchfunktionen in der App reichten für komplexe, kontextabhängige Anfragen nicht aus und führten zu Ineffizienzen und Nutzerfrustration. Zudem stellten die Gewährleistung von Datenschutz und Genauigkeit in einem stark regulierten Fintech-Umfeld erhebliche Risiken dar. bunq benötigte eine Lösung, die nuancierte Unterhaltungen führen und gleichzeitig EU-Bankvorschriften einhalten konnte, Halluzinationen vermeiden würde, wie sie in frühen GenAI-Modellen vorkommen, und sich nahtlos integrieren ließe, ohne die App-Performance zu beeinträchtigen. Ziel war es, Routineanfragen zu automatisieren, sodass menschliche Agenten sich auf wertschöpfende Fälle konzentrieren konnten.

Lösung

bunq begegnete diesen Herausforderungen durch die Entwicklung von Finn, einer proprietären GenAI-Plattform, die direkt in die mobile App integriert wurde und die herkömmliche Suchfunktion durch einen konversationellen KI-Chatbot ersetzte. Nach der Einstellung von mehr als einem Dutzend Datenexperten im Vorjahr baute das Team Finn so, dass er sicher auf nutzerspezifische Finanzdaten zugreift, Fragen zu Kontoständen, Transaktionen und Budgets beantwortet und sogar allgemeine Ratschläge gibt, wobei der Gesprächskontext über Sitzungen hinweg erhalten bleibt. Nach einer Beta wurde Finn im Dezember 2023 als Europas erster KI-gestützter Bankassistent eingeführt und entwickelte sich schnell weiter. Bis Mai 2024 wurde er vollständig konversationell, was natürliche Mehrfachrunden-Interaktionen ermöglichte. Dieser retrieval-augmented generation (RAG)-Ansatz stützte Antworten auf Echtzeit-Nutzerdaten, minimierte Fehler und erhöhte die Personalisierung.

Ergebnisse

  • 100.000+ Fragen innerhalb von Monaten nach der Beta beantwortet (Ende 2023)
  • 40 % der Nutzeranfragen bis Mitte 2024 autonom vollständig gelöst
  • 35 % der Anfragen unterstützt, insgesamt 75 % sofortige Support-Abdeckung
  • Vor dem Start 12+ Datenexperten für die Dateninfrastruktur eingestellt
  • Zweitgrößte Neobank Europas nach Nutzerbasis (1M+ Nutzer)
Fallstudie lesen →

DBS Bank

Bankwesen

DBS Bank, die führende Finanzinstitution in Südostasien, kämpfte damit, KI von Experimenten in die Produktion zu skalieren, während Betrugsbedrohungen zunahmen, die Nachfrage nach hyperpersonalisierten Kundenerlebnissen stieg und operative Ineffizienzen im Service-Support bestanden. Traditionelle Systeme zur Betrugserkennung hatten Schwierigkeiten, bis zu 15.000 Datenpunkte pro Kunde in Echtzeit zu verarbeiten, was zu übersehenen Bedrohungen und suboptimalen Risikobewertungen führte. Personalisierungsbemühungen wurden durch isolierte Datensilos und fehlende skalierbare Algorithmen für Millionen von Nutzern in unterschiedlichen Märkten behindert. Zusätzlich sahen sich Kundendienstteams mit überwältigenden Anfragevolumina konfrontiert, wobei manuelle Prozesse die Reaktionszeiten verlangsamten und die Kosten erhöhten. Regulatorischer Druck im Bankwesen erforderte verantwortungsvolle KI-Governance, während Fachkräftemangel und Integrationsherausforderungen eine unternehmensweite Einführung erschwerten. DBS benötigte einen robusten Rahmen, um Datenqualitätsprobleme, Modell-Drift und ethische Bedenken bei der Einführung generativer KI zu überwinden und gleichzeitig Vertrauen und Compliance in einem wettbewerbsintensiven südostasiatischen Umfeld sicherzustellen.

Lösung

DBS startete ein konzernweites KI-Programm mit über 20 Anwendungsfällen, nutzte maschinelles Lernen für fortschrittliche Betrugsrisikomodelle und Personalisierung und ergänzte dies durch generative KI für einen internen Support-Assistenten. Die Betrugsmodelle integrierten umfangreiche Datensätze für die Erkennung von Anomalien in Echtzeit, während Personalisierungsalgorithmen hyperzielgerichtete Hinweise und Anlageideen über die digibank-App lieferten. Ein Mensch-KI-Synergie-Ansatz befähigte Serviceteams mit einem GenAI-Assistenten, der Routineanfragen aus internen Wissensdatenbanken bearbeitet. DBS legte Wert auf verantwortungsvolle KI durch Governance-Rahmenwerke, Qualifizierungsmaßnahmen für über 40.000 Mitarbeitende und eine gestaffelte Einführung, beginnend mit Pilotprojekten 2021 und Skalierung in die Produktion bis 2024. Partnerschaften mit Technologieführern und eine von Harvard unterstützte Strategie sicherten ein ethisches Skalieren in den Bereichen Betrug, Personalisierung und Betrieb.

Ergebnisse

  • 17 % Steigerung der Einsparungen durch verhinderte Betrugsversuche
  • Über 100 maßgeschneiderte Algorithmen für Kundenanalysen
  • 250.000 monatliche Anfragen effizient vom GenAI-Assistenten bearbeitet
  • Mehr als 20 konzernweite KI-Anwendungsfälle eingeführt
  • Analysiert bis zu 15.000 Datenpunkte pro Kunde zur Betrugserkennung
  • Produktivitätssteigerung um 20 % durch KI-Einführung (CEO-Aussage)
Fallstudie lesen →

UC San Diego Health

Gesundheitswesen

Sepsis, eine lebensbedrohliche Erkrankung, stellt in Notaufnahmen eine große Gefahr dar, da verzögerte Erkennung zu hohen Sterblichkeitsraten führt – in schweren Fällen bis zu 20–30 %. Bei UC San Diego Health, einem akademischen Medizinzentrum mit über 1 Million Patientenbesuchen jährlich, erschwerten unspezifische Frühsymptome rechtzeitige Interventionen und verschlechterten die Ergebnisse in stark ausgelasteten Notaufnahmen . Eine randomisierte Studie unterstrich die Notwendigkeit proaktiver Werkzeuge jenseits traditioneller Scores wie qSOFA. Das Kapazitätsmanagement und der Patientenfluss standen nach COVID weiter unter Druck: Bettenknappheit führte zu verlängerten Aufnahmewartezeiten und Verzögerungen bei Verlegungen. Die Ausbalancierung von elektiven Eingriffen, Notfällen und Entlassungen erforderte Echtzeiteinblicke . Die sichere Integration generativer KI, etwa GPT-4 in Epic, barg Risiken wie Datenschutzverletzungen und ungenaue klinische Empfehlungen . Diese Herausforderungen verlangten skalierbare KI-Lösungen zur Vorhersage von Risiken, zur Straffung der Abläufe und zur verantwortungsvollen Einführung neuer Technologien, ohne die Versorgungsqualität zu gefährden.

Lösung

UC San Diego Health implementierte COMPOSER, ein Deep-Learning-Modell, das auf elektronischen Gesundheitsakten trainiert wurde, um das Sepsisrisiko 6–12 Stunden im Voraus vorherzusagen und Epic Best Practice Advisory (BPA)-Alarme für Pflegekräfte auszulösen . Dieser quasi-experimentelle Ansatz in zwei Notaufnahmen integrierte sich nahtlos in Arbeitsabläufe. Mission Control, ein KI-gestütztes Operations-Kommandozentrum, finanziert durch eine Investition von 22 Mio. USD, nutzt prädiktive Analytik für Echtzeit-Bettenzuweisungen, Verlegungen und Kapazitätsprognosen und reduziert so Engpässe . Unter der Leitung des Chief Health AI Officer Karandeep Singh werden Daten aus Epic für ganzheitliche Transparenz genutzt. Für generative KI werden Pilotprojekte mit Epic GPT-4 durchgeführt, die NLP-Abfragen und automatisierte Patientenantworten ermöglichen; diese stehen unter strengen Sicherheitsprotokollen, um Halluzinationen zu minimieren und HIPAA-Konformität zu gewährleisten . Die mehrgleisige Strategie adressierte Erkennung, Ablaufsteuerung und Innovationsintegration.

Ergebnisse

  • Sepsis-In-Hospital-Sterblichkeit: 17 % Reduktion
  • Jährlich gerettete Leben: 50 in zwei Notaufnahmen
  • Einhaltung des Sepsis-Bundles: deutliche Verbesserung
  • 72‑Stunden‑SOFA-Verlauf: reduzierte Verschlechterung
  • Intensivstationskontakte: Rückgang nach Implementierung
  • Patientendurchsatz: verbessert durch Mission Control
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Onboarding-Richtlinien in Gemini-freundlichen Quellen zentralisieren

Bevor Sie irgendetwas aktivieren, bereinigen Sie die Inhalte, auf die sich Gemini stützen wird. Verschieben Sie alle onboarding-relevanten Richtlinien, Leitfäden und Checklisten in strukturierte Google Docs, Sheets und Sites. Verwenden Sie klare Titel wie „Onboarding – IT-Zugangsrichtlinie“ und einheitliche Überschriften für Abschnitte wie Berechtigung, Fristen und Schritt-für-Schritt-Anleitungen.

Verschlagworten Sie Dokumente logisch in Drive (z. B. /HR/Onboarding/Richtlinien, /HR/Onboarding/How-To-Guides), damit Sie bei der Konfiguration der Gemini-Datenquellen gezielt nur die richtigen Ordner einbinden können. Fügen Sie jedem Dokument eine kurze Zusammenfassung am Anfang hinzu; dies hilft Gemini, schnell zu verstehen, worum es in der Datei geht, und verbessert die Antwortqualität.

Einen Gemini-HR-FAQ-Assistenten in Google Workspace konfigurieren

Sobald Ihre Inhalte zentralisiert sind, richten Sie einen dedizierten Gemini-gestützten HR-Onboarding-Assistenten ein. Abhängig von Ihrer Umgebung kann dieser über einen Google-Chat-Bereich bereitgestellt, in ein Google-Sites-Onboarding-Portal eingebettet oder über eine benutzerdefinierte Weboberfläche genutzt werden, die die Gemini-API verwendet.

Beschränken Sie bei der Konfiguration des Assistenten den Abrufbereich auf Ihre kuratierten Onboarding-Ordner. Definieren Sie Systemanweisungen, die Tonalität, Umfang und Verhalten festlegen. Zum Beispiel:

System-Prompt für Gemini HR-Onboarding-Assistent:

Sie sind der offizielle HR-Onboarding-Assistent für <Unternehmen>.

Umfang:
- Beantworten Sie nur Fragen, die mit Onboarding, den ersten 60 Tagen, Richtlinien,
  Benefits, Tool-Zugängen und grundlegenden HR-Prozessen zu tun haben.
- Wenn eine Frage außerhalb dieses Umfangs liegt (z. B. Performance-Themen,
  individuelle Gehaltsfragen), erklären Sie höflich, dass diese von einer
  HR-Ansprechperson bearbeitet werden müssen, und nennen Sie den richtigen
  Kontaktkanal.

Verhalten:
- Stützen Sie Ihre Antworten immer auf die bereitgestellten Unternehmensdokumente
  aus Google Drive.
- Zitieren Sie stets den Titel des Quelldokuments und das Datum der letzten
  Aktualisierung, sofern verfügbar.
- Wenn Informationen fehlen oder unklar sind, sagen Sie, dass Sie sich nicht
  sicher sind, und verweisen Sie an HR unter onboarding@company.com.
- Verwenden Sie eine prägnante, freundliche Sprache, die für neue Mitarbeitende
  geeignet ist.

Testen Sie diese Konfiguration mit echten Onboarding-Fragen der letzten Monate, um zu validieren, dass Gemini im definierten Umfang bleibt und die korrekten Quellen zitiert.

Gemini-Antworten in bestehende Onboarding-Touchpoints einbetten

Neue Mitarbeitende sollten kein neues Tool lernen müssen, nur um Hilfe zu bekommen. Anstatt „noch ein Portal“ zu starten, betten Sie Gemini in die Kanäle ein, die sie bereits nutzen: ein Widget oder einen Link auf Ihrem Google-Sites-Onboarding-Hub, vorgeschlagene Antworten in Gmail für das Onboarding-Postfach oder einen angehefteten „Ask HR“-Space in Google Chat.

Sie können zum Beispiel E-Mails an onboarding@company.com in einen schlanken Workflow leiten, in dem Gemini zunächst eine Antwort für die HR-Prüfung vorschlägt. Eine Person kann diese einfach freigeben, bearbeiten oder übersteuern. Mit wachsendem Vertrauen können Sie für risikoarme Themen (z. B. Büro-WLAN, Ablauf des ersten Tags) Antworten von Gemini automatisch versenden und eine manuelle Prüfung nur für sensible Themen beibehalten.

Prompt-Muster nutzen, um mehrstufige How-to-Fragen zu beantworten

Viele Onboarding-Fragen sind prozessualer Natur: „Wie beantrage ich meinen ersten Urlaub?“ oder „Wie richte ich MFA für den Remote-Zugang ein?“. Für solche Fragen funktioniert Gemini am besten, wenn es mit expliziten Prompt-Vorlagen geführt wird, die aus Richtlinientexten klare, nummerierte Schritte machen.

Erstellen Sie wiederverwendbare Prompt-Muster, auf die Ihr Assistent bei „How-to“-Themen zurückgreift. Zum Beispiel:

Prozedur-Prompt-Muster für Gemini:

Sie erhalten eine Frage von einer neuen Mitarbeiterin bzw. einem neuen Mitarbeiter
und eine Sammlung interner Dokumente.
- Extrahieren Sie die relevante Richtlinie oder Anleitung.
- Wandeln Sie diese in eine klare, schrittweise Checkliste um.
- Heben Sie Voraussetzungen und typische Stolperfallen hervor.

Beantworten Sie nun die Frage der Mitarbeiterin bzw. des Mitarbeiters:
"{{employee_question}}"

In Kombination mit guten Quelldokumenten erzeugt dieses Muster konsistente Checklisten, die leichter zu befolgen sind als lange Richtlinientexte – und reduziert so Rückfragen.

Einen Feedback- und Verbesserungszyklus mit HR etablieren

Um die Antwortqualität hoch zu halten, sollten Mitarbeitende und HR Probleme leicht melden können. Fügen Sie am Ende jeder Gemini-Antwort einen kurzen Hinweis ein, etwa: „War das hilfreich? Antworten Sie mit ‚nicht klar‘ und HR meldet sich bei Ihnen.“. Überwachen Sie diese Fälle wöchentlich.

Sammeln Sie in Ihrem HR-Workflow Beispiele, bei denen Gemini Schwierigkeiten hatte, und analysieren Sie diese mit einer einfachen Vorlage: Wie lautete die Frage, welche Dokumente wurden genutzt, was war an der Antwort falsch oder unvollständig und wie lässt sich das beheben (Content-Update, Prompt-Anpassung, neue Entscheidungsregel). Nutzen Sie diese Erkenntnisse, um Ihre HR-Wissensbasis zu aktualisieren und den System-Prompt des Assistenten zu verfeinern. Schon nach wenigen Zyklen werden Sie einen messbaren Rückgang an Eskalationen sehen.

Operative Kennzahlen verfolgen und mit Onboarding-Ergebnissen verknüpfen

Messen Sie schließlich die Wirkung Ihres Gemini-Onboarding-FAQ-Assistenten über anekdotisches Feedback hinaus. Konfigurieren Sie einfache Dashboards (z. B. in Google Sheets/Data Studio), die folgende Kennzahlen nachhalten: Anzahl der von Gemini beantworteten Fragen, Anteil der Fragen ohne HR-Eingriff, durchschnittliche Reaktionszeit und Anzahl der Eskalationen an HR.

Kombinieren Sie dies mit HR-Kennzahlen wie: Abschluss von Onboarding-Aufgaben innerhalb von 14 Tagen, Zeit bis zum ersten produktiven Beitrag (z. B. erstes Ticket gelöst, erster Kundentermin) und NPS- oder Zufriedenheitswerte neuer Mitarbeitender in Bezug auf Onboarding-Support. Eine realistische Erwartung für einen gut eingerichteten Assistenten ist eine Reduktion der wiederkehrenden Onboarding-Fragen, die bei HR landen, um 30–50 % und eine deutlich verbesserte wahrgenommene Reaktionsgeschwindigkeit für neue Mitarbeitende innerhalb der ersten 1–2 Monate.

Sorgfältig implementiert ermöglichen diese Praktiken HR, schnelle, konsistente Antworten in großem Maßstab zu liefern und gleichzeitig jede Woche Stunden für strategische Arbeit zurückzugewinnen. Mit kuratierten Inhalten, klaren Prompts und engen Feedback-Schleifen können Sie eine deutliche Reduktion manueller E-Mail-Bearbeitung und ein reibungsloseres Onboarding-Erlebnis erwarten, das sich sowohl in operativen KPIs als auch in der Zufriedenheit neuer Mitarbeitender niederschlägt.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini eignet sich am besten für wiederkehrende, richtlinienbasierte Onboarding-Fragen, die klar dokumentierte Antworten haben. Typische Beispiele sind:

  • Benefits: Anmeldefristen, Anspruchsregeln, wo Benefits-Informationen zu finden sind
  • Zeiterfassung und Abwesenheiten: wie man Stunden erfasst, Urlaub beantragt, gesetzliche Feiertage
  • IT & Tools: Zugänge am ersten Tag, VPN- und MFA-Einrichtung, Grundlagen zu E-Mail und Kalender
  • Büroorganisation: Bürostandorte, Zutrittskarten, Dresscode, Ablauf des ersten Tages
  • Pflichtschulungen: welche Trainings zu absolvieren sind, wo und bis wann

Themen, die persönliches Ermessen oder vertrauliche Entscheidungen erfordern – wie Performance-Fragen oder individuelle Vergütung – sollten weiterhin direkt von HR bearbeitet werden. Gemini kann hier höchstens allgemeine, unverbindliche Hintergrundinformationen liefern, wenn überhaupt.

Für die meisten Organisationen lässt sich ein fokussierter Gemini-HR-Onboarding-Assistent in Wochen statt Monaten pilotieren. Ein typisches initiales Setup sieht so aus:

  • Woche 1: Häufige Onboarding-Fragen aus E-Mails/Tickets extrahieren, Umfang definieren und relevante Google-Drive-Ordner auswählen.
  • Wochen 2–3: Zentrale Aufbereitung und Bereinigung der wichtigsten Onboarding-Dokumente, Einrichtung des Assistenten in Ihrer Google-Workspace-Umgebung sowie Konfiguration von Prompts und Retrieval.
  • Woche 4: Test mit einer kleinen Gruppe aus HR-Mitarbeitenden und kürzlich eingestellten Personen, Verfeinerung des Verhaltens sowie Abstimmung von Governance- und Eskalationsregeln.

Innerhalb von etwa 4 Wochen sollten Sie einen funktionsfähigen Piloten haben, der einen klar definierten Satz von Onboarding-FAQs bearbeitet. Die weitere Skalierung (mehr Themen, Sprachen oder Kanäle) erfolgt dann iterativ auf Basis von Feedback und messbarem Impact.

Sie brauchen kein großes Data-Science-Team, um Gemini für HR-Onboarding zu nutzen, aber Sie benötigen klare Verantwortlichkeiten und einige grundlegende Kompetenzen:

  • HR: Eine Person, die Onboarding-Inhalte (Richtlinien, Leitfäden) kuratiert und pflegt, festlegt, was Gemini beantworten darf, und schwierige Fälle oder gemeldete Antworten prüft.
  • IT: Administratorinnen und Administratoren, die den Zugriff auf Google Drive konfigurieren, nötige APIs oder Integrationen einrichten und sicherstellen, dass Sicherheits- und Compliance-Anforderungen erfüllt sind.
  • Projektverantwortliche: Eine Person aus HR oder People Ops, die die Einführung vorantreibt, KPIs überwacht und Verbesserungen zwischen HR und IT koordiniert.

Reruption ergänzt diese Rollen typischerweise mit KI-Engineering-Expertise, Prompt- und Retrieval-Design sowie der initialen Architektur, sodass sich Ihre internen Teams auf Inhalte und Change Management konzentrieren können, statt auf technische Details auf niedriger Ebene.

Der direkte ROI entsteht durch eingesparte Zeit bei wiederkehrender Kommunikation und eine schnellere Befähigung neuer Mitarbeitender. In der Praxis sehen Organisationen häufig:

  • 30–50 % weniger wiederkehrende Onboarding-Fragen, die in den HR-Postfächern landen, sobald der Assistent in den richtigen Kanälen verankert ist.
  • Reaktionszeiten, die bei Standardfragen von Stunden auf Sekunden sinken.
  • HR-Mitarbeitende, die pro FTE mehrere Stunden pro Woche gewinnen, um sich auf strategische Onboarding-Aufgaben statt auf Copy-and-Paste-Support zu konzentrieren.

Indirekte Vorteile – wie höhere Zufriedenheit neuer Mitarbeitender, geringere Frühfluktuation und reibungslosere Compliance bei Pflichtschulungen – sind schwerer zu quantifizieren, zeigen sich aber typischerweise in Engagement-Umfragen und Onboarding-KPIs innerhalb eines oder zweier Onboarding-Zyklen. Ein gut abgegrenzter Pilot mit klaren Metriken hilft, den ROI schnell sichtbar zu machen.

Reruption unterstützt Organisationen End-to-End – von der Idee bis zur funktionierenden Lösung. Mit unserem KI-PoC-Angebot (9.900€) validieren wir, ob ein Gemini-basierter HR-Onboarding-Assistent in Ihrem spezifischen Kontext funktioniert: Wir definieren gemeinsam mit Ihrem Team den Use Case, bewerten Daten- und Sicherheitsanforderungen, bauen einen funktionierenden Prototyp auf Basis Ihrer Google-Workspace-Umgebung und messen Performance und Wirkung.

Über den PoC hinaus bedeutet unser Co-Preneur-Ansatz, dass wir uns in Ihre HR- und IT-Teams einbetten, statt nur von außen zu beraten. Wir helfen Ihnen, Ihre HR-Wissensbasis zu strukturieren, Prompts und Leitplanken zu gestalten, Gemini in bestehende Onboarding-Prozesse zu integrieren und Governance sowie KPIs aufzusetzen. Ziel ist nicht ein Foliensatz, sondern ein Live-Assistent, den neue Mitarbeitende und HR-Kolleginnen und -Kollegen tatsächlich nutzen – und eine klare Roadmap für eine sichere Skalierung.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media