Die Herausforderung: Langsame Zugriffe auf Onboarding-Informationen

Neue Mitarbeitende kommen motiviert und neugierig ins Unternehmen, doch ihre ersten Wochen werden oft von einem Thema dominiert: der Suche nach grundlegenden Informationen. „Wo ist das IT-Zugangsformular?“ „Welchen VPN-Client nutzen wir?“ „Wie lautet die Reiserichtlinie?“ Die Antworten sind über SharePoint, Google Drive, HRIS-Portale, Wikis, PDFs und alte E-Mail-Threads verstreut. HR und Führungskräfte werden zu menschlichen Suchmaschinen, die immer wieder dieselben Onboarding-Fragen beantworten.

Traditionelle Ansätze – Onboarding-Ordner, statische Intranetseiten oder lange Einführungspräsentationen – funktionieren in schnelllebigen Organisationen nicht mehr. Inhalte sind veraltet, sobald sie veröffentlicht werden, und Mitarbeitende wissen selten, wo sie nachsehen oder welcher Version sie vertrauen sollen. Die Suche in Standard-Dokumententools ist schlüsselwortbasiert; neue Mitarbeitende, die den exakten Begriff nicht kennen (z. B. „Betriebliches Gesundheitsmanagement“ vs. „HSE“), finden schlicht nicht, was sie brauchen. Das Ergebnis ist ein stetiger Strom an Tickets und Nachrichten an HR zu Fragen, die die Organisation technisch bereits dokumentiert hat.

Die geschäftlichen Auswirkungen sind real. Langsame Zugriffe auf Onboarding-Informationen verzögern die Bestellung von Arbeitsmitteln, Systemzugänge, Compliance-Schulungen und die Einrichtung der Gehaltsabrechnung. Neue Mitarbeitende verlieren produktive Tage und sind frustriert von ihrem ersten Eindruck des Unternehmens. HR-Teams werden mit repetitiven Fragen überlastet und haben weniger Kapazität für strategische Aufgaben wie Workforce Planning, Leadership-Entwicklung und Engagement-Initiativen. Langfristig summieren sich diese Ineffizienzen zu höheren Onboarding-Kosten, längerer Time-to-Productivity und einer schwächeren Arbeitgebermarke.

Die gute Nachricht: Dieses Problem ist sehr gut lösbar. Moderne KI-Tools können auf Ihrer bestehenden HR-Dokumentation aufsetzen und diese direkt dort, wo Mitarbeitende ohnehin arbeiten, in natürlicher Sprache durchsuchbar machen. Bei Reruption haben wir Teams dabei unterstützt, fragmentiertes Wissen in verlässliche, dialogorientierte Assistenten zu verwandeln, die tatsächlich genutzt werden. Im weiteren Verlauf dieser Seite finden Sie praxisnahe Hinweise, wie Sie Gemini in Google Workspace einsetzen können, um langsame Zugriffe auf Onboarding-Informationen auf eine Weise zu beheben, die sicher, wartbar und HR-freundlich ist.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s Erfahrung beim Aufbau von KI-Assistenten für HR- und Operationsteams ist das Muster klar: Die schnellsten Erfolge entstehen, wenn Sie KI mit den Dokumenten und Tools verbinden, die Mitarbeitende ohnehin verwenden. Mit Gemini für Google Workspace kann HR verstreute Onboarding-Inhalte in Docs, Drive, Slides und Sites in eine interaktive Wissensbasis verwandeln, die Fragen neuer Mitarbeitender in klarer Alltagssprache beantwortet – ohne sie in ein weiteres Portal zu zwingen. Entscheidend ist, Gemini nicht als Spielzeug-Chatbot zu betrachten, sondern als strategisch gestaltete Onboarding-Supportschicht, die zu Ihren HR-Prozessen, Compliance-Vorgaben und Ihrer Change-Realität passt.

Definieren Sie einen klaren Scope für KI-gestützten Onboarding-Support

Bevor Sie Gemini für das HR-Onboarding aktivieren, entscheiden Sie, welche Probleme Sie damit konkret lösen wollen. Starten Sie mit den 30–50 häufigsten Fragen, die neue Mitarbeitende in ihren ersten 30 Tagen stellen: Zugänge, Tools, Richtlinien, erste Freigaben, wer wofür zuständig ist. So erhalten Sie einen fokussierten Scope, in dem Gemini sofort Mehrwert liefern kann, statt am ersten Tag alles von Sonderfällen in der Gehaltsabrechnung bis hin zu komplexen arbeitsrechtlichen Fragestellungen abdecken zu sollen.

Strategisch zwingt Sie diese Scoping-Übung auch dazu, HR, IT und Linienführungskräfte darauf auszurichten, was „gutes Onboarding“ bedeutet. Sie können definieren, was vom KI-Assistenten beantwortet werden soll, was zwingend durch Menschen bearbeitet werden muss und welche Themen eine explizite Prüfung durch Rechtsabteilung oder Betriebsrat erfordern. Diese Klarheit reduziert Risiken und verhindert, dass Gemini für „falsche“ Antworten verantwortlich gemacht wird, auf Fragen, die es nie hätte erhalten sollen.

Kuratierten und strukturieren Sie Ihr Wissen, bevor Sie automatisieren

Gemini ist leistungsfähig, aber keine magische Lösung für chaotische Dokumentation. Wenn Ihre Onboarding-Inhalte veraltet oder widersprüchlich sind, wird die KI dies widerspiegeln. Ein strategischer Schritt ist ein kurzer Content-Audit Ihrer Onboarding-bezogenen Google Docs, Drive-Ordner und Sites, bevor Sie KI-Support einführen. Identifizieren Sie die maßgeblichen Quellen für Themen wie Gerätemanagement, Informationssicherheit, Urlaubsrichtlinien und Spesenregeln.

Für viele Organisationen ist dies eine Gelegenheit zur Vereinfachung: doppelte Dokumente konsolidieren, veraltete PDFs archivieren sowie Benennungsrichtlinien und Ordnerstrukturen standardisieren. Indem Sie Gemini einen kleineren, hochwertigeren Korpus zur Verfügung stellen, erhöhen Sie die Zuverlässigkeit der Antworten und reduzieren das Risiko, veraltete Inhalte anzuzeigen. Das ist klassische Knowledge-Management-Arbeit, aber KI macht den Return auf diesen Aufwand jetzt greifbar und unmittelbar.

Gestalten Sie das Zusammenwirken von Mensch und KI im HR

Die Automatisierung von Onboarding-Q&A mit Gemini bedeutet nicht, HR aus dem Prozess zu entfernen; es bedeutet, die Rolle von HR von der „First-Level-Beantwortung“ hin zu „Systemdesign und Qualitätsverantwortung“ zu verändern. Legen Sie strategisch fest, wo KI-gestützter HR-Support enden und ein Mensch übernehmen soll. Beispiel: Gemini beantwortet Standardprozessfragen; alles rund um Leistungsthemen, Konflikte oder sensible Themen wird an eine benannte HR-Ansprechperson oder ein Ticket-System weitergeleitet.

Machen Sie dieses Modell für Mitarbeitende und HR-Teams explizit. HR sollte Gemini als Assistent sehen, der Antworten vorschlägt, die richtigen Dokumente hervorhebt und Mitarbeitende zum nächsten Schritt führt – nicht als Black Box. Dieser Perspektivwechsel ist entscheidend für die Akzeptanz und stellt sicher, dass HR sich in Kontrolle fühlt, nicht ersetzt.

Adressieren Sie Fragen zu Sicherheit, Compliance und Betriebsrat frühzeitig

Beim Einsatz von Gemini im HR-Kontext ist Governance kein Nice-to-have. Mitarbeiterdaten, Verträge und Gesundheitsinformationen sind sensibel. Selbst wenn Ihr erster Use Case nur allgemeine Onboarding-Informationen umfasst, werden Rechtsabteilung, Datenschutzbeauftragte und Arbeitnehmervertretungen zu Recht fragen, wie das System funktioniert und auf welche Daten es zugreifen kann.

Beteiligen Sie diese Stakeholder strategisch von Anfang an. Stellen Sie klar, dass Gemini auf spezifische, Onboarding-bezogene Repositories beschränkt ist, dass der Zugriff die bestehenden Google-Workspace-Berechtigungen respektiert und dass Sie keine vertraulichen HR-Dateien oder Performance-Notizen in das Modell einspeisen. Dokumentieren Sie, welche Fragestellungen im Scope sind, und definieren Sie einen Eskalationspfad, falls jemand versucht, Informationen über andere Mitarbeitende abzufragen. Diese frühe Klarheit reduziert Widerstände erheblich.

Investieren Sie in Change Management und rechnen Sie mit einer Lernkurve

Selbst der beste KI-Onboarding-Assistent scheitert, wenn neue Mitarbeitende nicht wissen, dass es ihn gibt oder ihm nicht vertrauen. Behandeln Sie dies strategisch als Change-Initiative, nicht nur als Tool-Umstellung. Integrieren Sie Gemini explizit in die Onboarding-Journey: Erwähnen Sie es in Willkommens-E-Mails, zeigen Sie es live in der Einführung am ersten Tag und fügen Sie Ihrem Welcome-Pack eine kurze Anleitung „Wie stelle ich gute Fragen“ bei.

Schaffen Sie klare Erwartungen: In den ersten Wochen wird der Assistent besser, da HR reale Fragen sieht und die zugrunde liegenden Inhalte und Prompts feinjustiert. Ermutigen Sie Mitarbeitende, unklare oder falsche Antworten zu melden, und geben Sie HR einen einfachen Prozess, um die zugrunde liegenden Dokumente zu korrigieren. Mit diesem Feedback-Loop verwandeln Sie anfängliche Unschärfen in eine transparente Verbesserungsgeschichte, statt in einen Grund, das System aufzugeben.

Durchdacht eingesetzt kann Gemini in Google Workspace langsames, frustrierendes Onboarding in ein Self-Service-Erlebnis verwandeln, bei dem neue Mitarbeitende in Sekunden verlässliche Antworten aus den Tools erhalten, die sie ohnehin nutzen. Die strategische Arbeit liegt darin, den Use Case zu schärfen, die Wissensbasis aufzuräumen und zu definieren, wie HR und KI zusammenarbeiten. Reruption verfügt über praktische Erfahrung beim Aufbau genau solcher internen Assistenten und ist mit den technischen wie organisatorischen Fragestellungen vertraut, die damit einhergehen. Wenn Sie prüfen möchten, ob ein Gemini-basierter Onboarding-Assistent für Ihr HR-Team sinnvoll ist, unterstützen wir Sie gerne dabei, dies in einem fokussierten, risikoarmen Pilot zu testen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis EdTech: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Mayo Clinic

Gesundheitswesen

Als führendes akademisches medizinisches Zentrum verwaltet die Mayo Clinic jährlich Millionen von Patientenakten, doch die früherkennung von Herzinsuffizienz bleibt schwierig. Traditionelle Echokardiographie erkennt niedrige linksventrikuläre Ejektionsfraktionen (LVEF <50%) meist erst bei Symptomen und übersieht asymptomatische Fälle, die bis zu 50 % des Herzinsuffizienzrisikos ausmachen können. Kliniker kämpfen mit umfangreichen unstrukturierten Daten, was die Gewinnung patientenspezifischer Erkenntnisse verlangsamt und Entscheidungen in der kardiologischen Spitzenmedizin verzögert. Zudem verschärfen Personalengpässe und steigende Kosten die Lage; kardiovaskuläre Erkrankungen verursachen weltweit 17,9 Mio. Todesfälle pro Jahr. Manuelle EKG-Interpretation übersieht subtile Muster, die auf niedrige LVEF hinweisen, und das Durchsuchen elektronischer Gesundheitsakten (EHRs) dauert Stunden, was die personalisierte Medizin behindert. Mayo benötigte skalierbare KI, um reaktive Versorgung in proaktive Vorhersage zu verwandeln.

Lösung

Die Mayo Clinic setzte einen Deep-Learning-EKG-Algorithmus ein, der auf über 1 Million EKGs trainiert wurde und niedrige LVEF aus routinemäßigen 10-Sekunden-Ableitungen mit hoher Genauigkeit identifiziert. Dieses ML-Modell extrahiert Merkmale, die für Menschen nicht sichtbar sind, und wurde intern sowie extern validiert. Parallel dazu beschleunigt ein generatives KI-Suchtool in Partnerschaft mit Google Cloud EHR-Abfragen. Eingeführt 2023, nutzt es Large Language Models (LLMs) für natürliche Sprachsuche und liefert klinische Erkenntnisse sofort. Integriert in die Mayo Clinic Platform, unterstützt es über 200 KI-Initiativen. Diese Lösungen überwinden Datensilos durch föderiertes Lernen und eine sichere Cloud-Infrastruktur.

Ergebnisse

  • EKG-KI AUC: 0,93 (intern), 0,92 (externe Validierung)
  • Sensitivität bei Niedriger EF: 82 % bei 90 % Spezifität
  • Erkannte asymptomatische niedrige EF: 1,5 % Prävalenz in der gescreenten Population
  • GenAI-Suche Geschwindigkeit: 40 % Reduktion der Abfragezeit für Kliniker
  • Modell trainiert auf: 1,1 Mio. EKGs von 44.000 Patienten
  • Einsatzreichweite: Seit 2021 in kardiologischen Workflows der Mayo integriert
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

Visa

Zahlungsverkehr

Die Zahlungsbranche sah sich einem Anstieg an Online-Betrug gegenüber, insbesondere Enumeration-Angriffen, bei denen Angreifer automatisierte Skripte und Botnetze einsetzen, um gestohlene Kartendaten in großem Umfang zu testen. Diese Angriffe nutzen Schwachstellen bei Transaktionen ohne Kartenpräsenz (card-not-present) aus und verursachen weltweit jährliche Betrugsverluste in Höhe von 1,1 Mrd. $ sowie erhebliche Betriebskosten für Emittenten. Visa benötigte Echtzeiterkennung, um dem entgegenzuwirken, ohne hohe False-Positive-Raten zu erzeugen, die legitime Kundinnen und Kunden blockieren — insbesondere vor dem Hintergrund steigender E‑Commerce‑Volumina wie bei Cyber Monday-Spitzen. Traditionelle Betrugssysteme kämpften mit der Geschwindigkeit und Raffinesse dieser Angriffe, verstärkt durch KI-gesteuerte Bots. Die Herausforderung für Visa bestand darin, riesige Transaktionsdaten in Millisekunden zu analysieren, anomalische Muster zu erkennen und gleichzeitig nahtlose Nutzererfahrungen beizubehalten. Dafür waren fortgeschrittene KI- und Machine‑Learning‑Lösungen nötig, um Risiken präzise vorherzusagen und zu bewerten.

Lösung

Visa entwickelte den Visa Account Attack Intelligence (VAAI) Score, ein generative KI‑gestütztes Tool, das in Echtzeit die Wahrscheinlichkeit von Enumeration-Angriffen bei Transaktionen ohne Kartenpräsenz bewertet. Durch die Kombination von generativen KI‑Komponenten mit Machine‑Learning‑Modellen erkennt VAAI ausgeklügelte Muster von Botnetzen und Skripten, die legacy, regelbasierte Systeme umgehen. In Visa's breiterem KI-getriebenen Betrugs-Ökosystem, einschließlich Identity Behavior Analysis, verbessert die Lösung das Risikoscoring durch verhaltensbasierte Erkenntnisse. Zunächst 2024 für US‑Emittenten eingeführt, reduziert sie sowohl Betrug als auch falsche Ablehnungen und optimiert die Betriebsabläufe. Dieser Ansatz ermöglicht Emittenten, Bedrohungen in bislang ungekanntem Umfang proaktiv zu mindern.

Ergebnisse

  • 40 Mrd. $ an Betrug verhindert (Okt 2022–Sep 2023)
  • Fast 2x Steigerung YoY bei der Betrugsprävention
  • 1,1 Mrd. $ jährlich an globalen Verlusten durch Enumeration-Angriffe adressiert
  • 85 % mehr betrügerische Transaktionen an Cyber Monday 2024 YoY blockiert
  • 200 % Anstieg an Betrugsversuchen ohne Serviceunterbrechung abgewickelt
  • Verbesserte Genauigkeit des Risikoscorings durch ML und Identity Behavior Analysis
Fallstudie lesen →

John Deere

Landwirtschaft

In der konventionellen Landwirtschaft setzen Landwirte oft auf flächendeckendes Spritzen von Herbiziden über ganze Felder, was zu erheblichem Verschnitt führt. Dieser Ansatz bringt Chemikalien pauschal auf Kulturen und Unkräutern gleichermaßen aus, was zu hohen Kosten für Betriebsmittel führt—Herbizide können 10–20 % der variablen Betriebskosten ausmachen—und zu Umweltschäden durch Bodenbelastung, Abfluss ins Wasser und beschleunigte Herbizidresistenz . Weltweit verursachen Unkräuter bis zu 34 % Ertragsverluste, doch Übernutzung von Herbiziden verschärft Resistenzen bei über 500 Arten und bedroht die Ernährungssicherheit . Bei Reihenfrüchten wie Baumwolle, Mais und Sojabohnen ist die Unterscheidung zwischen Unkraut und Kulturpflanzen besonders schwierig wegen visueller Ähnlichkeiten, variierender Feldbedingungen (Licht, Staub, Geschwindigkeit) und der Notwendigkeit von Sofortentscheidungen bei Spritzgeschwindigkeiten von 15 mph. Arbeitskräftemangel und steigende Chemikalienpreise im Jahr 2025 setzten Landwirte zusätzlich unter Druck, wobei die Herbizidkosten in den USA mehr als 6 Mrd. $ jährlich überstiegen . Traditionelle Methoden konnten Wirksamkeit, Kosten und Nachhaltigkeit nicht in Einklang bringen.

Lösung

See & Spray revolutioniert die Unkrautbekämpfung durch die Integration von hochauflösenden Kameras, KI-gestützter Computervision und präzisen Düsen an Spritzgeräten. Das System erfasst alle paar Zoll Bilder, nutzt Objekterkennungsmodelle, um Unkräuter (über 77 Arten) von Nutzpflanzen in Millisekunden zu unterscheiden, und aktiviert die Sprühdüsen nur an den Zielstellen—wodurch flächendeckendes Aufspritzen reduziert wird . John Deere übernahm Blue River Technology im Jahr 2017, um die Entwicklung zu beschleunigen; die Modelle wurden auf Millionen annotierter Bilder trainiert, um robuste Performance über unterschiedliche Bedingungen zu gewährleisten. Verfügbar in den Versionen Premium (hohe Dichte) und Select (preiswerter Retrofit), lässt es sich in bestehende John Deere-Geräte integrieren und nutzt Edge-Computing für Echtzeit-Inferenz ohne Cloud-Abhängigkeit . Diese robotische Präzision minimiert Abdrift und Überlappung und stimmt mit Nachhaltigkeitszielen überein.

Ergebnisse

  • 5 Millionen Acres 2025 behandelt
  • 31 Millionen Gallonen Herbizid-Mischung eingespart
  • Fast 50 % Reduktion beim Einsatz nicht-residualer Herbizide
  • Über 77 Unkrautarten zuverlässig erkannt
  • Bis zu 90 % weniger Chemikalien in sauberen Kulturflächen
  • Amortisation innerhalb von 1–2 Saisons für Anwender
Fallstudie lesen →

Revolut

Fintech

Revolut sah sich einem zunehmenden Authorized Push Payment (APP)-Betrug gegenüber, bei dem Betrüger Kunden psychologisch manipulieren, damit diese Überweisungen an betrügerische Konten autorisieren – oft unter dem Vorwand von Anlageangeboten. Traditionelle regelbasierte Systeme kamen gegen ausgefeilte Social-Engineering-Taktiken kaum an, was trotz Revoluts schnellem Wachstum auf über 35 Millionen Kunden weltweit zu erheblichen finanziellen Verlusten führte. Der Anstieg digitaler Zahlungen verstärkte Verwundbarkeiten, da Betrüger Echtzeit-Überweisungen ausnutzten, die herkömmliche Kontrollen umgingen. APP-Betrügereien entzogen sich der Erkennung, indem sie legitimes Verhalten nachahmten, was weltweit zu jährlichen Milliardenverlusten führte und das Vertrauen in Fintech-Plattformen wie Revolut untergrub. Es bestand dringender Bedarf an intelligenter, adaptiver Anomalieerkennung, die eingreift, bevor Gelder freigegeben werden.

Lösung

Revolut führte eine KI-gestützte Betrugsabwehrfunktion ein, die maschinelles Lernen zur Anomalieerkennung verwendet, um Transaktionen und Nutzerverhalten in Echtzeit zu überwachen. Das System analysiert Muster, die auf Betrug hindeuten – etwa ungewöhnliche Zahlungsaufforderungen im Zusammenhang mit Anlageködern – und greift ein, indem es Nutzer warnt oder verdächtige Aktionen blockiert. Durch den Einsatz von überwachten und unüberwachten ML-Algorithmen erkennt es Abweichungen vom normalen Verhalten in risikoreichen Momenten und "bricht den Zauber" der Betrüger, bevor eine Autorisierung erfolgt. In die App integriert, verarbeitet es große Mengen an Transaktionsdaten für proaktive Betrugsprävention, ohne legitime Zahlungsflüsse zu stören.

Ergebnisse

  • 30% Reduktion der Betrugsverluste bei APP-bezogenen Kartenbetrugsfällen
  • Gezielte Bekämpfung von Anlagebetrugsversuchen
  • Echtzeit-Interventionen während der Testphase
  • Schützt 35 Millionen globale Kunden
  • Eingesetzt seit Februar 2024
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Zentralisieren Sie Onboarding-Wissen in einer dedizierten Drive-Struktur

Beginnen Sie mit einer klaren Google-Drive-Struktur für Onboarding, aus der Gemini zuverlässig Informationen beziehen kann. Richten Sie zum Beispiel einen obersten Ordner wie „HR / Onboarding-Wissensbasis“ mit Unterordnern für Richtlinien, IT & Tools, Prozesse & Checklisten, Länderspezifische Infos und Vorlagen & Formulare ein. Verschieben oder kopieren Sie die aktuellen, freigegebenen Dokumente in diese Ordner.

Fügen Sie in jedem Dokument eine kurze Einleitung hinzu, die Zweck, Zielgruppe und letztes Prüfdatum enthält. Gemini kann diesen Kontext nutzen, um präzisere Antworten zu erzeugen („Für Mitarbeitende in Deutschland, die nach 2024 eingestellt wurden, gilt folgende Urlaubsregelung …“). Vermeiden Sie es, mehrere Themen in einem Dokument zu mischen; ein Thema pro Datei macht die KI-Retrieval sauberer und reduziert Verwirrung – sowohl für Menschen als auch für das Modell.

Nutzen Sie Gemini in Docs, um Rohinhalte in verständliche Guides für neue Mitarbeitende zu verwandeln

Viele HR-Dokumente sind in juristischer oder interner Fachsprache verfasst, die für neue Mitarbeitende schwer zu verstehen ist. Nutzen Sie Gemini in Google Docs, um bestehende Inhalte in klare, rollenbezogene Onboarding-Erklärungen zu transformieren, während die maßgebliche Quelle unverändert bleibt. Öffnen Sie ein zentrales Richtlinien- oder Prozessdokument und lassen Sie Gemini daraus eine FAQ, eine Zusammenfassung oder eine Schritt-für-Schritt-Anleitung erstellen, die auf das Original verweist.

Beispiel-Prompt für Gemini in Google Docs:

Sie sind ein HR-Onboarding-Assistent.

1. Lesen Sie dieses Dokument zu unserer Reise- & Spesenrichtlinie.
2. Erstellen Sie am Ende des Dokuments einen Abschnitt "FAQ für neue Mitarbeitende".
3. Fügen Sie 10–15 Fragen hinzu, die eine neue Mitarbeiterin bzw. ein neuer Mitarbeiter
   in klarer Alltagssprache tatsächlich stellen könnte.
4. Beantworten Sie jede Frage in 2–3 Sätzen und verweisen Sie auf den relevanten
   Abschnitt der Richtlinie.
5. Verwenden Sie einfache, freundliche Sprache, behalten Sie aber alle Compliance-Regeln bei.

Wiederholen Sie dies für Ihre am häufigsten genutzten Onboarding-Richtlinien. So entsteht im Laufe der Zeit eine Bibliothek von KI-freundlichen, mitarbeitendenfreundlichen FAQs, die Gemini bei entsprechenden Fragen direkt ausspielen kann.

Integrieren Sie Gemini-gestütztes Q&A direkt in Ihre Onboarding-Site

Wenn Sie Google Sites für Onboarding nutzen, machen Sie diese zur primären Einstiegspunkt für neue Mitarbeitende und positionieren Sie Gemini klar als erste Anlaufstelle. Fügen Sie einen gut sichtbaren Bereich wie „Stellen Sie eine Frage zu Ihrem Onboarding“ ein, mit Hinweisen, wie Gemini geöffnet und genutzt werden kann, oder verlinken Sie auf eine Gemini-gestützte Chat-Oberfläche, die Ihr IT-Team bereitstellt.

Beispieltext für eine Onboarding-Seite:

Sie haben eine Frage zu Ihren ersten Wochen, zu Tools oder Richtlinien?

1. Öffnen Sie das Gemini-Symbol oben rechts auf Ihrem Bildschirm.
2. Stellen Sie Ihre Frage in Ihren eigenen Worten, z. B. „Wie beantrage ich einen Laptop?“
   oder „Wie lautet die Homeoffice-Richtlinie für Deutschland?“.
3. Gemini durchsucht unsere HR-Onboarding-Dokumente und gibt Ihnen eine direkte Antwort
   mit Links zu den Originaldokumenten.

Indem Sie diese Anleitung dort platzieren, wo neue Mitarbeitende ohnehin nach Informationen suchen, reduzieren Sie Reibung und lassen KI-Support wie einen natürlichen Bestandteil der Onboarding-Site wirken – nicht wie ein zusätzliches System, das sie sich merken müssen.

Erstellen Sie wiederverwendbare Prompt-Vorlagen für HR und Führungskräfte

Statten Sie HR-Mitarbeitende und Führungskräfte mit fertigen Gemini-Prompt-Vorlagen aus, damit sie schnell zugeschnittene Onboarding-Inhalte erstellen können, statt ähnliche Nachrichten für jede neue Person neu zu formulieren. Speichern Sie diese Prompts in einem gemeinsamen Doc oder auf einer Site-Seite mit dem Titel „KI-Playbook für Onboarding“.

Prompt-Vorlage: Erstellen Sie eine rollenbezogene Onboarding-Checkliste

Sie sind HR Business Partner.

Erstellen Sie auf Basis der untenstehenden Stellenbeschreibung eine 30-tägige
Onboarding-Checkliste für die Führungskraft der neuen Mitarbeitenden.

Anforderungen:
- Verwenden Sie Aufzählungspunkte, gruppiert nach Woche (Woche 1, Woche 2, Woche 3, Woche 4)
- Berücksichtigen Sie zu planende Meetings, zu vergebende Tool-Zugänge
  und zentrale Prozesse, die erklärt werden müssen
- Verweisen Sie, wenn möglich, auf bestehende Onboarding-Dokumente in unserem Drive
  oder verlinken Sie diese

Stellenbeschreibung:
[Hier die Stellenbeschreibung einfügen]

Diese Vorlagen reduzieren die kognitive Belastung, sorgen für Konsistenz und ermutigen HR, Gemini als täglichen Kollaborationspartner für Onboarding-Kommunikation zu nutzen – nicht nur als einmaliges Experiment.

Konfigurieren Sie Zugriffe und Guardrails mit Google-Workspace-Berechtigungen

Um KI-gestützten Onboarding-Support sicher zu halten, nutzen Sie das bestehende Berechtigungsmodell von Google Workspace. Stellen Sie sicher, dass die mit dem Onboarding verknüpften Drive-Ordner für alle Mitarbeitenden lesbar sind, während sensible HR-Dateien (z. B. Leistungsbeurteilungen, Gehaltsdaten) in separaten, eingeschränkt zugänglichen Bereichen liegen, auf die Gemini für den Onboarding-Support nicht zugreifen kann.

Arbeiten Sie mit der IT zusammen, um typische Fragen zu testen und zu prüfen, welche Dokumente Gemini zur Beantwortung heranzieht. Wenn Sie Verweise auf Legacy- oder unerwünschte Dateien sehen, passen Sie die Ordnerberechtigungen an oder verschieben Sie diese Dateien aus dem indexierten Scope. Dokumentieren Sie einen einfachen Prozess, mit dem HR und IT Wissensbasis und Berechtigungen regelmäßig überprüfen – insbesondere, wenn neue Länder, Gesellschaften oder Richtlinien hinzukommen.

Verfolgen Sie Adoption, Fragetypen und eingesparte Zeit

Um zu belegen, dass Gemini die Effizienz im Onboarding verbessert, definieren Sie vor dem Rollout konkrete Messgrößen. Erfassen Sie das Volumen und die Typen von Onboarding-Fragen, die typischerweise per E-Mail, Chat oder Ticketing-Tool bei HR eingehen. Vergleichen Sie dies nach dem Launch mit der tatsächlichen Nutzung von Gemini (Ihr IT-Team kann in der Regel Zugriffsmetriken und – je nach Setup – anonymisierte Kategorien von Fragestellungen nachhalten).

Setzen Sie realistische Ziele wie „Reduktion repetitiver Onboarding-Fragen an HR um 30 % innerhalb von 3 Monaten“ oder „Verkürzung der Zeit bis zum Zugriff auf Standardrichtlinien von Stunden auf Minuten“. Ergänzen Sie quantitative Daten durch kurze Pulsbefragungen, in denen neue Mitarbeitende angeben, wie einfach sie in ihren ersten Wochen Informationen finden konnten. Nutzen Sie diese Erkenntnisse, um Prompts, Inhalte und Schulungsmaterial zu verfeinern.

Auf diese Weise implementiert kann ein Gemini-gestützter Onboarding-Assistent realistisch wiederkehrende HR-Fragen um 25–40 % reduzieren, die Time-to-Productivity neuer Mitarbeitender um mehrere Tage verkürzen und HR-Kapazitäten für höherwertige Aufgaben freisetzen – etwa die Begleitung von Führungskräften und die Verbesserung des Employee Experience insgesamt.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini integriert sich in Google Workspace und fungiert als dialogorientierte Schicht über Ihren bestehenden Onboarding-Inhalten. Anstatt in mehreren Ordnern, Wikis und E-Mails zu suchen, kann eine neue Mitarbeiterin bzw. ein neuer Mitarbeiter einfach in Alltagssprache fragen, zum Beispiel: „Wie bekomme ich VPN-Zugang?“ oder „Wie lautet unsere Remote-Work-Richtlinie in Frankreich?“.

Gemini durchsucht dann die relevanten Docs, Sites und Drive-Ordner, fasst eine Antwort zusammen und verlinkt auf die Originaldokumente. Damit reduziert sich der Zyklus „HR fragen → auf Antwort warten → Link erhalten → trotzdem unsicher“ auf wenige Sekunden – während HR die Hoheit über die zugrundeliegenden Inhalte behält.

Sie benötigen drei zentrale Bausteine: Google Workspace als Kernplattform, einen einigermaßen aufgeräumten Satz von Onboarding-Dokumenten und ein kleines, funktionsübergreifendes Team (HR + IT, optional Legal/Datenschutz), das Scope und Guardrails definiert. Die meisten Organisationen können mit ihren bestehenden Richtlinien, Prozessbeschreibungen und Onboarding-Checklisten starten, die bereits in Drive und Sites liegen.

Von dort aus sind die praktischen Schritte: 1) definieren, welche Ordner und Sites im Scope liegen sollen, 2) einen kurzen Content-Clean-up durchführen (veraltete Versionen entfernen, Einleitungen ergänzen) und 3) Gemini-Zugänge konfigurieren und mit einer begrenzten Gruppe neuer Mitarbeitender und HR-Mitarbeitender testen. Es sind keine tiefgehenden Data-Science-Skills nötig, aber jemand mit Erfahrung in der Workspace-Administration und eine produktorientierte HR-Führungskraft sind sehr hilfreich.

Für einen fokussierten Use Case wie die Automatisierung von Standard-Onboarding-Q&A sehen Sie greifbare Ergebnisse in Wochen, nicht in Monaten. Ein typischer Zeitplan sieht so aus: 1–2 Wochen, um den Use Case zu schärfen und die Kern-Onboarding-Dokumente zu bereinigen, 1 Woche, um Gemini-Zugänge und erste Prompts zu konfigurieren, und 2–4 Wochen Pilot mit einer ausgewählten Kohorte neuer Mitarbeitender.

Bereits im ersten Pilotmonat sollten Sie eine Veränderung spüren: weniger repetitive Fragen in den HR-Postfächern, schnellere Zugriffe auf Richtlinieninformationen und klareres Feedback dazu, welche Teile Ihrer Onboarding-Inhalte weiterhin unklar sind. Das Hochskalieren auf alle neuen Mitarbeitenden hängt primär von Ihrer Change-Geschwindigkeit ab, nicht von der Technologie.

Die direkten Kosten hängen von Ihren Google-Workspace- und Gemini-Lizenzen ab sowie vom internen oder externen Aufwand für die Konfiguration und laufende Pflege des Onboarding-Assistenten. Da der Use Case eng gefasst ist und auf bestehenden Tools aufbaut, sind Implementierungskosten in der Regel deutlich niedriger als bei umfassenden HR-System-Transformationen.

Auf der Nutzenseite sehen Organisationen typischerweise Mehrwert in drei Bereichen: 1) weniger HR-Zeit für repetitive Onboarding-Fragen, 2) schnellere Time-to-Productivity für neue Mitarbeitende (eingesparte Tage) und 3) ein besseres Mitarbeitererlebnis in den kritischen ersten Wochen. Selbst eine Reduktion repetitiver HR-Anfragen um 20–30 % kann in mittelgroßen Unternehmen Dutzende Stunden pro Monat freisetzen und die anfänglichen Aufwände oft innerhalb weniger Monate amortisieren.

Reruption ist auf den Aufbau praxisnaher KI-Lösungen innerhalb von Organisationen spezialisiert – nicht auf Folienkonstrukte. Für Gemini-basierten Onboarding-Support starten wir typischerweise mit unserem KI-PoC-Angebot (9.900 €), in dem wir den Use Case End-to-End validieren: Wir verbinden Gemini mit einem Teil Ihrer Onboarding-Dokumente, gestalten typische Gesprächsmuster und testen mit echten Fragen neuer Mitarbeitender.

Mit unserem Co-Preneur-Ansatz arbeiten wir eng mit Ihren HR- und IT-Teams zusammen, gestalten gemeinsam die Wissensstruktur, setzen die technische Konfiguration um und helfen Ihnen, den Impact zu messen. Nach dem PoC liefern wir eine Umsetzungs-Roadmap oder unterstützen Sie weiterhin hands-on bei der Skalierung der Lösung – inklusive Governance, HR-Trainings und der Integration in Ihr übergreifendes Employee Experience Design.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media