Die Herausforderung: Langsame Zugriffe auf Onboarding-Informationen

Neue Mitarbeitende kommen motiviert und neugierig ins Unternehmen, doch ihre ersten Wochen werden oft von einem Thema dominiert: der Suche nach grundlegenden Informationen. „Wo ist das IT-Zugangsformular?“ „Welchen VPN-Client nutzen wir?“ „Wie lautet die Reiserichtlinie?“ Die Antworten sind über SharePoint, Google Drive, HRIS-Portale, Wikis, PDFs und alte E-Mail-Threads verstreut. HR und Führungskräfte werden zu menschlichen Suchmaschinen, die immer wieder dieselben Onboarding-Fragen beantworten.

Traditionelle Ansätze – Onboarding-Ordner, statische Intranetseiten oder lange Einführungspräsentationen – funktionieren in schnelllebigen Organisationen nicht mehr. Inhalte sind veraltet, sobald sie veröffentlicht werden, und Mitarbeitende wissen selten, wo sie nachsehen oder welcher Version sie vertrauen sollen. Die Suche in Standard-Dokumententools ist schlüsselwortbasiert; neue Mitarbeitende, die den exakten Begriff nicht kennen (z. B. „Betriebliches Gesundheitsmanagement“ vs. „HSE“), finden schlicht nicht, was sie brauchen. Das Ergebnis ist ein stetiger Strom an Tickets und Nachrichten an HR zu Fragen, die die Organisation technisch bereits dokumentiert hat.

Die geschäftlichen Auswirkungen sind real. Langsame Zugriffe auf Onboarding-Informationen verzögern die Bestellung von Arbeitsmitteln, Systemzugänge, Compliance-Schulungen und die Einrichtung der Gehaltsabrechnung. Neue Mitarbeitende verlieren produktive Tage und sind frustriert von ihrem ersten Eindruck des Unternehmens. HR-Teams werden mit repetitiven Fragen überlastet und haben weniger Kapazität für strategische Aufgaben wie Workforce Planning, Leadership-Entwicklung und Engagement-Initiativen. Langfristig summieren sich diese Ineffizienzen zu höheren Onboarding-Kosten, längerer Time-to-Productivity und einer schwächeren Arbeitgebermarke.

Die gute Nachricht: Dieses Problem ist sehr gut lösbar. Moderne KI-Tools können auf Ihrer bestehenden HR-Dokumentation aufsetzen und diese direkt dort, wo Mitarbeitende ohnehin arbeiten, in natürlicher Sprache durchsuchbar machen. Bei Reruption haben wir Teams dabei unterstützt, fragmentiertes Wissen in verlässliche, dialogorientierte Assistenten zu verwandeln, die tatsächlich genutzt werden. Im weiteren Verlauf dieser Seite finden Sie praxisnahe Hinweise, wie Sie Gemini in Google Workspace einsetzen können, um langsame Zugriffe auf Onboarding-Informationen auf eine Weise zu beheben, die sicher, wartbar und HR-freundlich ist.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s Erfahrung beim Aufbau von KI-Assistenten für HR- und Operationsteams ist das Muster klar: Die schnellsten Erfolge entstehen, wenn Sie KI mit den Dokumenten und Tools verbinden, die Mitarbeitende ohnehin verwenden. Mit Gemini für Google Workspace kann HR verstreute Onboarding-Inhalte in Docs, Drive, Slides und Sites in eine interaktive Wissensbasis verwandeln, die Fragen neuer Mitarbeitender in klarer Alltagssprache beantwortet – ohne sie in ein weiteres Portal zu zwingen. Entscheidend ist, Gemini nicht als Spielzeug-Chatbot zu betrachten, sondern als strategisch gestaltete Onboarding-Supportschicht, die zu Ihren HR-Prozessen, Compliance-Vorgaben und Ihrer Change-Realität passt.

Definieren Sie einen klaren Scope für KI-gestützten Onboarding-Support

Bevor Sie Gemini für das HR-Onboarding aktivieren, entscheiden Sie, welche Probleme Sie damit konkret lösen wollen. Starten Sie mit den 30–50 häufigsten Fragen, die neue Mitarbeitende in ihren ersten 30 Tagen stellen: Zugänge, Tools, Richtlinien, erste Freigaben, wer wofür zuständig ist. So erhalten Sie einen fokussierten Scope, in dem Gemini sofort Mehrwert liefern kann, statt am ersten Tag alles von Sonderfällen in der Gehaltsabrechnung bis hin zu komplexen arbeitsrechtlichen Fragestellungen abdecken zu sollen.

Strategisch zwingt Sie diese Scoping-Übung auch dazu, HR, IT und Linienführungskräfte darauf auszurichten, was „gutes Onboarding“ bedeutet. Sie können definieren, was vom KI-Assistenten beantwortet werden soll, was zwingend durch Menschen bearbeitet werden muss und welche Themen eine explizite Prüfung durch Rechtsabteilung oder Betriebsrat erfordern. Diese Klarheit reduziert Risiken und verhindert, dass Gemini für „falsche“ Antworten verantwortlich gemacht wird, auf Fragen, die es nie hätte erhalten sollen.

Kuratierten und strukturieren Sie Ihr Wissen, bevor Sie automatisieren

Gemini ist leistungsfähig, aber keine magische Lösung für chaotische Dokumentation. Wenn Ihre Onboarding-Inhalte veraltet oder widersprüchlich sind, wird die KI dies widerspiegeln. Ein strategischer Schritt ist ein kurzer Content-Audit Ihrer Onboarding-bezogenen Google Docs, Drive-Ordner und Sites, bevor Sie KI-Support einführen. Identifizieren Sie die maßgeblichen Quellen für Themen wie Gerätemanagement, Informationssicherheit, Urlaubsrichtlinien und Spesenregeln.

Für viele Organisationen ist dies eine Gelegenheit zur Vereinfachung: doppelte Dokumente konsolidieren, veraltete PDFs archivieren sowie Benennungsrichtlinien und Ordnerstrukturen standardisieren. Indem Sie Gemini einen kleineren, hochwertigeren Korpus zur Verfügung stellen, erhöhen Sie die Zuverlässigkeit der Antworten und reduzieren das Risiko, veraltete Inhalte anzuzeigen. Das ist klassische Knowledge-Management-Arbeit, aber KI macht den Return auf diesen Aufwand jetzt greifbar und unmittelbar.

Gestalten Sie das Zusammenwirken von Mensch und KI im HR

Die Automatisierung von Onboarding-Q&A mit Gemini bedeutet nicht, HR aus dem Prozess zu entfernen; es bedeutet, die Rolle von HR von der „First-Level-Beantwortung“ hin zu „Systemdesign und Qualitätsverantwortung“ zu verändern. Legen Sie strategisch fest, wo KI-gestützter HR-Support enden und ein Mensch übernehmen soll. Beispiel: Gemini beantwortet Standardprozessfragen; alles rund um Leistungsthemen, Konflikte oder sensible Themen wird an eine benannte HR-Ansprechperson oder ein Ticket-System weitergeleitet.

Machen Sie dieses Modell für Mitarbeitende und HR-Teams explizit. HR sollte Gemini als Assistent sehen, der Antworten vorschlägt, die richtigen Dokumente hervorhebt und Mitarbeitende zum nächsten Schritt führt – nicht als Black Box. Dieser Perspektivwechsel ist entscheidend für die Akzeptanz und stellt sicher, dass HR sich in Kontrolle fühlt, nicht ersetzt.

Adressieren Sie Fragen zu Sicherheit, Compliance und Betriebsrat frühzeitig

Beim Einsatz von Gemini im HR-Kontext ist Governance kein Nice-to-have. Mitarbeiterdaten, Verträge und Gesundheitsinformationen sind sensibel. Selbst wenn Ihr erster Use Case nur allgemeine Onboarding-Informationen umfasst, werden Rechtsabteilung, Datenschutzbeauftragte und Arbeitnehmervertretungen zu Recht fragen, wie das System funktioniert und auf welche Daten es zugreifen kann.

Beteiligen Sie diese Stakeholder strategisch von Anfang an. Stellen Sie klar, dass Gemini auf spezifische, Onboarding-bezogene Repositories beschränkt ist, dass der Zugriff die bestehenden Google-Workspace-Berechtigungen respektiert und dass Sie keine vertraulichen HR-Dateien oder Performance-Notizen in das Modell einspeisen. Dokumentieren Sie, welche Fragestellungen im Scope sind, und definieren Sie einen Eskalationspfad, falls jemand versucht, Informationen über andere Mitarbeitende abzufragen. Diese frühe Klarheit reduziert Widerstände erheblich.

Investieren Sie in Change Management und rechnen Sie mit einer Lernkurve

Selbst der beste KI-Onboarding-Assistent scheitert, wenn neue Mitarbeitende nicht wissen, dass es ihn gibt oder ihm nicht vertrauen. Behandeln Sie dies strategisch als Change-Initiative, nicht nur als Tool-Umstellung. Integrieren Sie Gemini explizit in die Onboarding-Journey: Erwähnen Sie es in Willkommens-E-Mails, zeigen Sie es live in der Einführung am ersten Tag und fügen Sie Ihrem Welcome-Pack eine kurze Anleitung „Wie stelle ich gute Fragen“ bei.

Schaffen Sie klare Erwartungen: In den ersten Wochen wird der Assistent besser, da HR reale Fragen sieht und die zugrunde liegenden Inhalte und Prompts feinjustiert. Ermutigen Sie Mitarbeitende, unklare oder falsche Antworten zu melden, und geben Sie HR einen einfachen Prozess, um die zugrunde liegenden Dokumente zu korrigieren. Mit diesem Feedback-Loop verwandeln Sie anfängliche Unschärfen in eine transparente Verbesserungsgeschichte, statt in einen Grund, das System aufzugeben.

Durchdacht eingesetzt kann Gemini in Google Workspace langsames, frustrierendes Onboarding in ein Self-Service-Erlebnis verwandeln, bei dem neue Mitarbeitende in Sekunden verlässliche Antworten aus den Tools erhalten, die sie ohnehin nutzen. Die strategische Arbeit liegt darin, den Use Case zu schärfen, die Wissensbasis aufzuräumen und zu definieren, wie HR und KI zusammenarbeiten. Reruption verfügt über praktische Erfahrung beim Aufbau genau solcher internen Assistenten und ist mit den technischen wie organisatorischen Fragestellungen vertraut, die damit einhergehen. Wenn Sie prüfen möchten, ob ein Gemini-basierter Onboarding-Assistent für Ihr HR-Team sinnvoll ist, unterstützen wir Sie gerne dabei, dies in einem fokussierten, risikoarmen Pilot zu testen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Fertigung bis Bankwesen: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

NVIDIA

Fertigung

In Halbleiterfertigung ist das Chip-Floorplanning — die Aufgabe, Makros und Schaltungen auf einem Die anzuordnen — berüchtigt komplex und NP-schwer. Selbst erfahrene Ingenieur:innen verbringen Monate damit, Layouts iterativ zu verfeinern, um Leistung, Performance und Fläche (PPA) auszubalancieren, wobei sie Kompromisse wie Minimierung der Leiterlänge, Dichtebeschränkungen und Routbarkeit austarieren. Traditionelle Werkzeuge kämpfen mit dem explosiven kombinatorischen Suchraum, insbesondere bei modernen Chips mit Millionen von Zellen und Hunderten von Makros, was zu suboptimalen Entwürfen und verzögerter Markteinführung führt. NVIDIA erlebte dieses Problem besonders beim Entwurf leistungsstarker GPUs, bei denen ungünstige Floorplans den Stromverbrauch erhöhen und die Effizienz von KI-Beschleunigern beeinträchtigen. Manuelle Prozesse limitierten die Skalierbarkeit für 2,7 Millionen Zellen-Designs mit 320 Makros und drohten Engpässe in ihrer Roadmap für beschleunigtes Rechnen zu verursachen. Die Überwindung des menschintensiven Trial-and-Error war entscheidend, um die Führungsposition bei KI-Chips zu halten.

Lösung

NVIDIA setzte Deep Reinforcement Learning (DRL) ein, um Floorplanning als sequentiellen Entscheidungsprozess zu modellieren: Ein Agent platziert Makros nacheinander und lernt optimale Strategien durch Ausprobieren. Graph Neural Networks (GNNs) kodieren den Chip als Graph, erfassen räumliche Beziehungen und sagen Auswirkungen von Platzierungen voraus. Der Agent nutzt ein Policy-Netzwerk, das auf Benchmarks wie MCNC und GSRC trainiert wurde, mit Belohnungen, die Half-Perimeter Wirelength (HPWL), Stau und Überlappungen bestrafen. Proximal Policy Optimization (PPO) ermöglicht effiziente Explorationen, die auf verschiedene Designs übertragbar sind. Dieser KI-gesteuerte Ansatz automatisiert, was Menschen manuell tun, kann aber weit mehr Konfigurationen durchsuchen.

Ergebnisse

  • Designzeit: 3 Stunden für 2,7M Zellen vs. Monate manuell
  • Chip-Größe: 2,7 Millionen Zellen, 320 optimierte Makros
  • PPA-Verbesserung: Besser oder vergleichbar mit menschlichen Entwürfen
  • Trainingseffizienz: Unter 6 Stunden Gesamtaufwand für Produktionslayouts
  • Benchmark-Erfolg: Übertrifft auf MCNC/GSRC-Suiten
  • Beschleunigung: 10–30 % schnellere Schaltungen in verwandten RL-Designs
Fallstudie lesen →

Stanford Health Care

Gesundheitswesen

Stanford Health Care, ein führendes akademisches medizinisches Zentrum, sah sich steigender Klinikermüdung durch überwältigende administrative Aufgaben gegenüber, darunter das Verfassen von Patientenkorrespondenz und das Management überfüllter Postfächer. Bei großen EHR-Datenmengen war das Gewinnen von Erkenntnissen für die Präzisionsmedizin und die Echtzeitüberwachung von Patienten manuell und zeitaufwendig, was die Versorgung verzögerte und das Fehlerpotenzial erhöhte. Traditionelle Arbeitsabläufe hatten Schwierigkeiten mit prädiktiver Analytik für Ereignisse wie Sepsis oder Stürze und mit Computer Vision für die Bildauswertung, bei gleichzeitig steigenden Patientenzahlen. Klinikteams verbrachten übermäßig viel Zeit mit Routinekommunikation, z. B. Benachrichtigungen zu Laborergebnissen, was die Konzentration auf komplexe Diagnosen beeinträchtigte. Der Bedarf an skalierbaren, unbeeinflussten KI-Algorithmen war entscheidend, um umfangreiche Datensätze für bessere Ergebnisse zu nutzen.

Lösung

In Partnerschaft mit Microsoft wurde Stanford eines der ersten Gesundheitssysteme, das den Azure OpenAI Service innerhalb von Epic EHR pilotierte und so generative KI zum Verfassen von Patientennachrichten und für natürliche Sprachabfragen zu klinischen Daten ermöglichte. Diese Integration nutzte GPT-4, um Korrespondenz zu automatisieren und manuellen Aufwand zu reduzieren. Ergänzend dazu setzte das Healthcare AI Applied Research Team maschinelles Lernen für prädiktive Analytik (z. B. Sepsis- und Sturzvorhersage) ein und untersuchte Computer Vision in Bildgebungsprojekten. Tools wie ChatEHR erlauben den konversationellen Zugriff auf Patientenakten und beschleunigen Chart-Reviews. Gestaffelte Pilotprojekte adressierten Datenschutz und Bias und stellten sicher, dass klinische Anwender durch erklärbare KI unterstützt werden.

Ergebnisse

  • 50% Reduktion der Zeit für das Verfassen von Patientenkorrespondenz
  • 30% Verringerung der Belastung durch Nachrichten im Postfach der Klinikteams durch KI-gestützte Nachrichtenzuweisung
  • 91% Genauigkeit bei prädiktiven Modellen für unerwünschte Ereignisse bei stationären Patienten
  • 20% schnellere Kommunikation von Laborergebnissen an Patienten
  • Verbesserte Erkennung von Autoimmunerkrankungen bis zu 1 Jahr vor der Diagnose
Fallstudie lesen →

Goldman Sachs

Investmentbanking

Im schnelllebigen Bereich des Investmentbanking sehen sich Goldman Sachs-Mitarbeiter mit überwältigenden Mengen an wiederkehrenden Aufgaben konfrontiert. Tägliche Routinen wie das Bearbeiten hunderter E-Mails, das Schreiben und Debuggen komplexer Finanzcodes sowie das Durcharbeiten langer Dokumente auf der Suche nach Erkenntnissen beanspruchen bis zu 40 % der Arbeitszeit und lenken von wertschöpfenden Tätigkeiten wie Kundenberatung und Deal-Abwicklung ab. Regulatorische Beschränkungen verschärfen diese Probleme, da sensible Finanzdaten höchste Sicherheitsanforderungen stellen und die Nutzung von Standard-KI-Lösungen einschränken. Traditionelle Werkzeuge skalieren nicht ausreichend für den Bedarf an schneller, genauer Analyse in volatilen Märkten, was Verzögerungen bei den Reaktionszeiten und einen Verlust an Wettbewerbsfähigkeit zur Folge haben kann.

Lösung

Goldman Sachs reagierte mit einem proprietären generativen KI-Assistenten, der auf internen Datensätzen in einer sicheren, privaten Umgebung feinabgestimmt wurde. Das Tool fasst E-Mails zusammen, indem es Aktionspunkte und Prioritäten extrahiert, erzeugt produktionsreifen Code für Modelle wie Risikoabschätzungen und analysiert Dokumente, um zentrale Trends und Anomalien hervorzuheben. Aufgebaut ab frühen 2023er Proof-of-Concepts, nutzt es maßgeschneiderte LLMs, um Compliance und Genauigkeit sicherzustellen und natürliche Sprachinteraktionen ohne externe Datenrisiken zu ermöglichen. Das Unternehmen setzte auf Mitarbeiterunterstützung statt -ersatz und schulte das Personal für den optimalen Einsatz.

Ergebnisse

  • Rollout Scale: 10.000 Mitarbeiter in 2024
  • Timeline: PoCs 2023; erste Einführung 2024; unternehmensweit 2025
  • Productivity Boost: Routineaufgaben optimiert, geschätzte Zeitersparnis 25–40 % bei E-Mails/Code/Dokumenten
  • Adoption: Schnelle Akzeptanz in Technik- und Front-Office-Teams
  • Strategic Impact: Kernbestandteil der 10-Jahres-KI-Strategie für strukturelle Effizienzgewinne
Fallstudie lesen →

Maersk

Seelogistik

In der anspruchsvollen Welt der Seelogistik sah sich Maersk, das weltweit größte Containerreederei-Unternehmen, mit erheblichen Problemen durch unerwartete Motorausfälle konfrontiert. Diese Ausfälle, häufig verursacht durch Verschleiß an kritischen Komponenten wie Zweitakt‑Dieselmotoren unter konstant hoher Belastung, führten zu kostspieligen Verzögerungen, Notreparaturen und mehrmillionenschweren Verlusten durch Ausfallzeiten. Bei einer Flotte von über 700 Schiffen, die weltweite Routen befahren, kann bereits ein einzelner Ausfall Lieferketten stören, die Kraftstoffeffizienz verringern und die Emissionen erhöhen . Suboptimale Schiffsoperationen verschärften das Problem. Traditionelle Festgeschwindigkeitsrouten ignorierten Echtzeitfaktoren wie Wetter, Strömungen und Motorkondition, was zu übermäßigem Kraftstoffverbrauch führte — der bis zu 50% der Betriebskosten ausmachen kann — und zu höheren CO2‑Emissionen. Verzögerungen durch Ausfälle dauerten im Schnitt Tage pro Vorfall und verstärkten logistische Engpässe in einer Branche, in der Zuverlässigkeit oberste Priorität hat .

Lösung

Maersk ging diese Probleme mit Maschinellem Lernen (ML) für vorausschauende Wartung und Optimierung an. Durch die Analyse großer Datensätze aus Motorsensoren, AIS (Automatic Identification System) und meteorologischen Daten sagen ML‑Modelle Ausfälle Tage bis Wochen im Voraus voraus und ermöglichen proaktive Eingriffe. Dies wird mit Algorithmen zur Routen‑ und Geschwindigkeitsoptimierung verknüpft, die Fahrten dynamisch für Kraftstoffeffizienz anpassen . Die Implementierung erfolgte in Partnerschaft mit Technologieführern wie Wärtsilä für Flottenlösungen und der internen digitalen Transformation, wobei MLOps für skalierbare Bereitstellung über die gesamte Flotte genutzt wurde. KI‑Dashboards liefern Echtzeit‑Einblicke für Besatzungen und Landteams und verlagern den Betrieb vom Reaktiven zum Vorausschauenden .

Ergebnisse

  • Kraftstoffverbrauch um 5–10% reduziert durch KI‑basierte Routenoptimierung
  • Ungeplante Motor‑Ausfallzeiten um 20–30% verringert
  • Wartungskosten um 15–25% gesenkt
  • Betriebliche Effizienz um 10–15% verbessert
  • CO2‑Emissionen um bis zu 8% reduziert
  • Vorhersagegenauigkeit für Ausfälle: 85–95%
Fallstudie lesen →

Mayo Clinic

Gesundheitswesen

Als führendes akademisches medizinisches Zentrum verwaltet die Mayo Clinic jährlich Millionen von Patientenakten, doch die früherkennung von Herzinsuffizienz bleibt schwierig. Traditionelle Echokardiographie erkennt niedrige linksventrikuläre Ejektionsfraktionen (LVEF <50%) meist erst bei Symptomen und übersieht asymptomatische Fälle, die bis zu 50 % des Herzinsuffizienzrisikos ausmachen können. Kliniker kämpfen mit umfangreichen unstrukturierten Daten, was die Gewinnung patientenspezifischer Erkenntnisse verlangsamt und Entscheidungen in der kardiologischen Spitzenmedizin verzögert. Zudem verschärfen Personalengpässe und steigende Kosten die Lage; kardiovaskuläre Erkrankungen verursachen weltweit 17,9 Mio. Todesfälle pro Jahr. Manuelle EKG-Interpretation übersieht subtile Muster, die auf niedrige LVEF hinweisen, und das Durchsuchen elektronischer Gesundheitsakten (EHRs) dauert Stunden, was die personalisierte Medizin behindert. Mayo benötigte skalierbare KI, um reaktive Versorgung in proaktive Vorhersage zu verwandeln.

Lösung

Die Mayo Clinic setzte einen Deep-Learning-EKG-Algorithmus ein, der auf über 1 Million EKGs trainiert wurde und niedrige LVEF aus routinemäßigen 10-Sekunden-Ableitungen mit hoher Genauigkeit identifiziert. Dieses ML-Modell extrahiert Merkmale, die für Menschen nicht sichtbar sind, und wurde intern sowie extern validiert. Parallel dazu beschleunigt ein generatives KI-Suchtool in Partnerschaft mit Google Cloud EHR-Abfragen. Eingeführt 2023, nutzt es Large Language Models (LLMs) für natürliche Sprachsuche und liefert klinische Erkenntnisse sofort. Integriert in die Mayo Clinic Platform, unterstützt es über 200 KI-Initiativen. Diese Lösungen überwinden Datensilos durch föderiertes Lernen und eine sichere Cloud-Infrastruktur.

Ergebnisse

  • EKG-KI AUC: 0,93 (intern), 0,92 (externe Validierung)
  • Sensitivität bei Niedriger EF: 82 % bei 90 % Spezifität
  • Erkannte asymptomatische niedrige EF: 1,5 % Prävalenz in der gescreenten Population
  • GenAI-Suche Geschwindigkeit: 40 % Reduktion der Abfragezeit für Kliniker
  • Modell trainiert auf: 1,1 Mio. EKGs von 44.000 Patienten
  • Einsatzreichweite: Seit 2021 in kardiologischen Workflows der Mayo integriert
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Zentralisieren Sie Onboarding-Wissen in einer dedizierten Drive-Struktur

Beginnen Sie mit einer klaren Google-Drive-Struktur für Onboarding, aus der Gemini zuverlässig Informationen beziehen kann. Richten Sie zum Beispiel einen obersten Ordner wie „HR / Onboarding-Wissensbasis“ mit Unterordnern für Richtlinien, IT & Tools, Prozesse & Checklisten, Länderspezifische Infos und Vorlagen & Formulare ein. Verschieben oder kopieren Sie die aktuellen, freigegebenen Dokumente in diese Ordner.

Fügen Sie in jedem Dokument eine kurze Einleitung hinzu, die Zweck, Zielgruppe und letztes Prüfdatum enthält. Gemini kann diesen Kontext nutzen, um präzisere Antworten zu erzeugen („Für Mitarbeitende in Deutschland, die nach 2024 eingestellt wurden, gilt folgende Urlaubsregelung …“). Vermeiden Sie es, mehrere Themen in einem Dokument zu mischen; ein Thema pro Datei macht die KI-Retrieval sauberer und reduziert Verwirrung – sowohl für Menschen als auch für das Modell.

Nutzen Sie Gemini in Docs, um Rohinhalte in verständliche Guides für neue Mitarbeitende zu verwandeln

Viele HR-Dokumente sind in juristischer oder interner Fachsprache verfasst, die für neue Mitarbeitende schwer zu verstehen ist. Nutzen Sie Gemini in Google Docs, um bestehende Inhalte in klare, rollenbezogene Onboarding-Erklärungen zu transformieren, während die maßgebliche Quelle unverändert bleibt. Öffnen Sie ein zentrales Richtlinien- oder Prozessdokument und lassen Sie Gemini daraus eine FAQ, eine Zusammenfassung oder eine Schritt-für-Schritt-Anleitung erstellen, die auf das Original verweist.

Beispiel-Prompt für Gemini in Google Docs:

Sie sind ein HR-Onboarding-Assistent.

1. Lesen Sie dieses Dokument zu unserer Reise- & Spesenrichtlinie.
2. Erstellen Sie am Ende des Dokuments einen Abschnitt "FAQ für neue Mitarbeitende".
3. Fügen Sie 10–15 Fragen hinzu, die eine neue Mitarbeiterin bzw. ein neuer Mitarbeiter
   in klarer Alltagssprache tatsächlich stellen könnte.
4. Beantworten Sie jede Frage in 2–3 Sätzen und verweisen Sie auf den relevanten
   Abschnitt der Richtlinie.
5. Verwenden Sie einfache, freundliche Sprache, behalten Sie aber alle Compliance-Regeln bei.

Wiederholen Sie dies für Ihre am häufigsten genutzten Onboarding-Richtlinien. So entsteht im Laufe der Zeit eine Bibliothek von KI-freundlichen, mitarbeitendenfreundlichen FAQs, die Gemini bei entsprechenden Fragen direkt ausspielen kann.

Integrieren Sie Gemini-gestütztes Q&A direkt in Ihre Onboarding-Site

Wenn Sie Google Sites für Onboarding nutzen, machen Sie diese zur primären Einstiegspunkt für neue Mitarbeitende und positionieren Sie Gemini klar als erste Anlaufstelle. Fügen Sie einen gut sichtbaren Bereich wie „Stellen Sie eine Frage zu Ihrem Onboarding“ ein, mit Hinweisen, wie Gemini geöffnet und genutzt werden kann, oder verlinken Sie auf eine Gemini-gestützte Chat-Oberfläche, die Ihr IT-Team bereitstellt.

Beispieltext für eine Onboarding-Seite:

Sie haben eine Frage zu Ihren ersten Wochen, zu Tools oder Richtlinien?

1. Öffnen Sie das Gemini-Symbol oben rechts auf Ihrem Bildschirm.
2. Stellen Sie Ihre Frage in Ihren eigenen Worten, z. B. „Wie beantrage ich einen Laptop?“
   oder „Wie lautet die Homeoffice-Richtlinie für Deutschland?“.
3. Gemini durchsucht unsere HR-Onboarding-Dokumente und gibt Ihnen eine direkte Antwort
   mit Links zu den Originaldokumenten.

Indem Sie diese Anleitung dort platzieren, wo neue Mitarbeitende ohnehin nach Informationen suchen, reduzieren Sie Reibung und lassen KI-Support wie einen natürlichen Bestandteil der Onboarding-Site wirken – nicht wie ein zusätzliches System, das sie sich merken müssen.

Erstellen Sie wiederverwendbare Prompt-Vorlagen für HR und Führungskräfte

Statten Sie HR-Mitarbeitende und Führungskräfte mit fertigen Gemini-Prompt-Vorlagen aus, damit sie schnell zugeschnittene Onboarding-Inhalte erstellen können, statt ähnliche Nachrichten für jede neue Person neu zu formulieren. Speichern Sie diese Prompts in einem gemeinsamen Doc oder auf einer Site-Seite mit dem Titel „KI-Playbook für Onboarding“.

Prompt-Vorlage: Erstellen Sie eine rollenbezogene Onboarding-Checkliste

Sie sind HR Business Partner.

Erstellen Sie auf Basis der untenstehenden Stellenbeschreibung eine 30-tägige
Onboarding-Checkliste für die Führungskraft der neuen Mitarbeitenden.

Anforderungen:
- Verwenden Sie Aufzählungspunkte, gruppiert nach Woche (Woche 1, Woche 2, Woche 3, Woche 4)
- Berücksichtigen Sie zu planende Meetings, zu vergebende Tool-Zugänge
  und zentrale Prozesse, die erklärt werden müssen
- Verweisen Sie, wenn möglich, auf bestehende Onboarding-Dokumente in unserem Drive
  oder verlinken Sie diese

Stellenbeschreibung:
[Hier die Stellenbeschreibung einfügen]

Diese Vorlagen reduzieren die kognitive Belastung, sorgen für Konsistenz und ermutigen HR, Gemini als täglichen Kollaborationspartner für Onboarding-Kommunikation zu nutzen – nicht nur als einmaliges Experiment.

Konfigurieren Sie Zugriffe und Guardrails mit Google-Workspace-Berechtigungen

Um KI-gestützten Onboarding-Support sicher zu halten, nutzen Sie das bestehende Berechtigungsmodell von Google Workspace. Stellen Sie sicher, dass die mit dem Onboarding verknüpften Drive-Ordner für alle Mitarbeitenden lesbar sind, während sensible HR-Dateien (z. B. Leistungsbeurteilungen, Gehaltsdaten) in separaten, eingeschränkt zugänglichen Bereichen liegen, auf die Gemini für den Onboarding-Support nicht zugreifen kann.

Arbeiten Sie mit der IT zusammen, um typische Fragen zu testen und zu prüfen, welche Dokumente Gemini zur Beantwortung heranzieht. Wenn Sie Verweise auf Legacy- oder unerwünschte Dateien sehen, passen Sie die Ordnerberechtigungen an oder verschieben Sie diese Dateien aus dem indexierten Scope. Dokumentieren Sie einen einfachen Prozess, mit dem HR und IT Wissensbasis und Berechtigungen regelmäßig überprüfen – insbesondere, wenn neue Länder, Gesellschaften oder Richtlinien hinzukommen.

Verfolgen Sie Adoption, Fragetypen und eingesparte Zeit

Um zu belegen, dass Gemini die Effizienz im Onboarding verbessert, definieren Sie vor dem Rollout konkrete Messgrößen. Erfassen Sie das Volumen und die Typen von Onboarding-Fragen, die typischerweise per E-Mail, Chat oder Ticketing-Tool bei HR eingehen. Vergleichen Sie dies nach dem Launch mit der tatsächlichen Nutzung von Gemini (Ihr IT-Team kann in der Regel Zugriffsmetriken und – je nach Setup – anonymisierte Kategorien von Fragestellungen nachhalten).

Setzen Sie realistische Ziele wie „Reduktion repetitiver Onboarding-Fragen an HR um 30 % innerhalb von 3 Monaten“ oder „Verkürzung der Zeit bis zum Zugriff auf Standardrichtlinien von Stunden auf Minuten“. Ergänzen Sie quantitative Daten durch kurze Pulsbefragungen, in denen neue Mitarbeitende angeben, wie einfach sie in ihren ersten Wochen Informationen finden konnten. Nutzen Sie diese Erkenntnisse, um Prompts, Inhalte und Schulungsmaterial zu verfeinern.

Auf diese Weise implementiert kann ein Gemini-gestützter Onboarding-Assistent realistisch wiederkehrende HR-Fragen um 25–40 % reduzieren, die Time-to-Productivity neuer Mitarbeitender um mehrere Tage verkürzen und HR-Kapazitäten für höherwertige Aufgaben freisetzen – etwa die Begleitung von Führungskräften und die Verbesserung des Employee Experience insgesamt.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini integriert sich in Google Workspace und fungiert als dialogorientierte Schicht über Ihren bestehenden Onboarding-Inhalten. Anstatt in mehreren Ordnern, Wikis und E-Mails zu suchen, kann eine neue Mitarbeiterin bzw. ein neuer Mitarbeiter einfach in Alltagssprache fragen, zum Beispiel: „Wie bekomme ich VPN-Zugang?“ oder „Wie lautet unsere Remote-Work-Richtlinie in Frankreich?“.

Gemini durchsucht dann die relevanten Docs, Sites und Drive-Ordner, fasst eine Antwort zusammen und verlinkt auf die Originaldokumente. Damit reduziert sich der Zyklus „HR fragen → auf Antwort warten → Link erhalten → trotzdem unsicher“ auf wenige Sekunden – während HR die Hoheit über die zugrundeliegenden Inhalte behält.

Sie benötigen drei zentrale Bausteine: Google Workspace als Kernplattform, einen einigermaßen aufgeräumten Satz von Onboarding-Dokumenten und ein kleines, funktionsübergreifendes Team (HR + IT, optional Legal/Datenschutz), das Scope und Guardrails definiert. Die meisten Organisationen können mit ihren bestehenden Richtlinien, Prozessbeschreibungen und Onboarding-Checklisten starten, die bereits in Drive und Sites liegen.

Von dort aus sind die praktischen Schritte: 1) definieren, welche Ordner und Sites im Scope liegen sollen, 2) einen kurzen Content-Clean-up durchführen (veraltete Versionen entfernen, Einleitungen ergänzen) und 3) Gemini-Zugänge konfigurieren und mit einer begrenzten Gruppe neuer Mitarbeitender und HR-Mitarbeitender testen. Es sind keine tiefgehenden Data-Science-Skills nötig, aber jemand mit Erfahrung in der Workspace-Administration und eine produktorientierte HR-Führungskraft sind sehr hilfreich.

Für einen fokussierten Use Case wie die Automatisierung von Standard-Onboarding-Q&A sehen Sie greifbare Ergebnisse in Wochen, nicht in Monaten. Ein typischer Zeitplan sieht so aus: 1–2 Wochen, um den Use Case zu schärfen und die Kern-Onboarding-Dokumente zu bereinigen, 1 Woche, um Gemini-Zugänge und erste Prompts zu konfigurieren, und 2–4 Wochen Pilot mit einer ausgewählten Kohorte neuer Mitarbeitender.

Bereits im ersten Pilotmonat sollten Sie eine Veränderung spüren: weniger repetitive Fragen in den HR-Postfächern, schnellere Zugriffe auf Richtlinieninformationen und klareres Feedback dazu, welche Teile Ihrer Onboarding-Inhalte weiterhin unklar sind. Das Hochskalieren auf alle neuen Mitarbeitenden hängt primär von Ihrer Change-Geschwindigkeit ab, nicht von der Technologie.

Die direkten Kosten hängen von Ihren Google-Workspace- und Gemini-Lizenzen ab sowie vom internen oder externen Aufwand für die Konfiguration und laufende Pflege des Onboarding-Assistenten. Da der Use Case eng gefasst ist und auf bestehenden Tools aufbaut, sind Implementierungskosten in der Regel deutlich niedriger als bei umfassenden HR-System-Transformationen.

Auf der Nutzenseite sehen Organisationen typischerweise Mehrwert in drei Bereichen: 1) weniger HR-Zeit für repetitive Onboarding-Fragen, 2) schnellere Time-to-Productivity für neue Mitarbeitende (eingesparte Tage) und 3) ein besseres Mitarbeitererlebnis in den kritischen ersten Wochen. Selbst eine Reduktion repetitiver HR-Anfragen um 20–30 % kann in mittelgroßen Unternehmen Dutzende Stunden pro Monat freisetzen und die anfänglichen Aufwände oft innerhalb weniger Monate amortisieren.

Reruption ist auf den Aufbau praxisnaher KI-Lösungen innerhalb von Organisationen spezialisiert – nicht auf Folienkonstrukte. Für Gemini-basierten Onboarding-Support starten wir typischerweise mit unserem KI-PoC-Angebot (9.900 €), in dem wir den Use Case End-to-End validieren: Wir verbinden Gemini mit einem Teil Ihrer Onboarding-Dokumente, gestalten typische Gesprächsmuster und testen mit echten Fragen neuer Mitarbeitender.

Mit unserem Co-Preneur-Ansatz arbeiten wir eng mit Ihren HR- und IT-Teams zusammen, gestalten gemeinsam die Wissensstruktur, setzen die technische Konfiguration um und helfen Ihnen, den Impact zu messen. Nach dem PoC liefern wir eine Umsetzungs-Roadmap oder unterstützen Sie weiterhin hands-on bei der Skalierung der Lösung – inklusive Governance, HR-Trainings und der Integration in Ihr übergreifendes Employee Experience Design.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media