Die Herausforderung: Langsamer Zugang und Konto-Provisionierung

Viele Organisationen investieren massiv in das Gewinnen von Top-Talenten, verlieren dann aber in der ersten Woche an Schwung, weil grundlegende IT-Zugänge fehlen. Neue Mitarbeitende kommen ohne Laptops, können sich nicht in Kernsysteme einloggen und warten Tage auf Tool-Berechtigungen. HR jagt IT, Führungskräften und Dienstleistern per E-Mail und Tabellenkalkulationen hinterher, während neue Mitarbeitende untätig und frustriert herumsitzen, anstatt produktiv zu werden.

Traditionelle Onboarding-Workflows sind stark manuell geprägt und über HR, IT, Security und Linienmanager fragmentiert. Anfragen verschwinden in Posteingängen, Aufgaben befinden sich in unterschiedlichen Tools, und es gibt keine zentrale Sicht darauf, wer was bis wann benötigt. Selbst mit Ticketing-Systemen ist die Konfiguration oft generisch und statisch, sodass Sonderfälle, Rollenwechsel und Ausnahmen ad hoc gehandhabt werden – Arbeit, die ständig zu HR zurückschwappt.

Die Auswirkungen gehen weit über ein paar verlorene Tage hinaus. Langsamer Zugang und eine schleppende Konto-Provisionierung treiben die Onboarding-Kosten in die Höhe, verzögern die Zeit bis zur vollen Produktivität und schwächen Ihre Arbeitgebermarke. Führungskräfte verlieren das Vertrauen in HR und IT, neue Mitarbeitende hinterfragen ihre Entscheidung, dem Unternehmen beizutreten, und kritische Projekte verzögern sich, weil Menschen die Werkzeuge, für die sie eingestellt wurden, schlicht nicht nutzen können. Mit der Zeit summieren sich diese Reibungsverluste zu höherer Frühfluktuation und einem Wettbewerbsnachteil beim Gewinnen und Halten von Talenten.

Die gute Nachricht: Dieses Problem ist sehr gut lösbar. Mit dem richtigen Einsatz von KI im HR-Onboarding können Sie Zugriffsanfragen orchestrieren, die meisten Provisionierungs-Schritte automatisieren und jeder neuen Mitarbeitenden einen klaren, geführten Pfad durch die ersten Tage geben. Bei Reruption haben wir gesehen, wie KI-gestützte Workflows brüchige manuelle Abstimmung durch zuverlässige, prüfbare Automatisierung ersetzen können. Im Folgenden finden Sie praktische Hinweise, wie Sie Gemini nutzen können, um langsamen Zugang und Konto-Provisionierung in ein reibungsloses, planbares Erlebnis zu verwandeln.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s Arbeit beim Aufbau von KI-gestützten Workflows und Assistenten in Organisationen wissen wir, dass langsamer Onboarding-Zugang selten ein reines IT-Problem ist. Es ist ein Koordinations- und Entscheidungsproblem – ideal geeignet für Gemini als konversationale Schicht über HR-, Identity-Management- und Kollaborations-Tools hinweg. Richtig designt beantwortet Gemini nicht nur Fragen; es kann Onboarding-Engpässe analysieren, Automatisierungsregeln vorschlagen und den Fluss von Zugriffsanfragen zwischen HR, IT und Führungskräften orchestrieren.

Behandeln Sie Zugang & Provisionierung als Produkt, nicht als Ticket-Warteschlange

Damit Gemini Onboarding-Zugang und Konto-Provisionierung spürbar verbessert, müssen HR und IT aufhören, in isolierten Tickets zu denken, und in End-to-End-Reisen denken. Kartieren Sie den gesamten Lebenszyklus von „Vertrag unterschrieben“ bis „voll produktiv“ für jede Schlüsselrolle: Welche Systeme, Geräte und Berechtigungen werden in welcher Phase benötigt? Diese Produkt-Perspektive gibt Gemini einen klaren Zielzustand, auf den hin orchestriert wird.

Mit dieser Karte kann Gemini so konfiguriert werden, dass es HR-Daten (Rolle, Abteilung, Standort, Seniorität) interpretiert und ein standardisiertes Zugriffsbündel empfiehlt. Anstatt auf einzelne E-Mails zu reagieren, kuratieren und verbessern Ihre Teams ein Produkt: ein vorhersehbares, rollenbasiertes Zugangserlebnis, das Gemini gegenüber Stakeholdern pflegt und erklärt.

Nutzen Sie Gemini als einzige Anlaufstelle für Zugangsfragen neuer Mitarbeitender

Langsames Onboarding wird häufig durch Informationsrauschen verstärkt. Neue Mitarbeitende wissen nicht, wen sie fragen sollen, HR kennt den Status einzelner IT-Aufgaben nicht, und Führungskräfte sind unsicher, was bereits bestellt wurde. Strategisch gesehen brauchen Sie eine zentrale Anlaufstelle für alle zugangsbezogenen Fragen. Gemini kann diese Schnittstelle werden – eingebettet in Google Chat, Gmail oder das Intranet.

Indem Sie Gemini mit HRIS-Daten, Ticketing-Systemen und Identity-Plattformen verbinden, können Sie es Fragen beantworten lassen wie „Habe ich bereits VPN-Zugang?“, „Welche Tools sollte ich als neue Sales Managerin in Berlin haben?“ oder „Wer genehmigt meinen Salesforce-Zugang?“. Gemini ersetzt Ihre ITSM- oder IAM-Tools nicht; es abstrahiert deren Komplexität und hält HR und Mitarbeitende von wenig wertschöpfender Status-Nachverfolgung fern.

Richten Sie HR, IT und Security auf eine gemeinsame Policy aus, bevor Sie automatisieren

Bevor Sie Gemini in den produktiven Einsatz bringen, sollten sich HR, IT und Security auf Zugangsrichtlinien verständigen: Was ist verpflichtend, was ist optional und was erfordert eine höhere Genehmigungsstufe. KI kann schlechte Prozesse genauso schnell beschleunigen wie gute – daher brauchen Sie Konsens zu den Regeln, die Gemini durchsetzen oder vorschlagen soll. Dazu gehören standardisierte, rollenbasierte Zugangsprofile, der Umgang mit Ausnahmen und Genehmigungsketten.

Nach unserer Erfahrung sind die erfolgreichsten Teams diejenigen, die das zunächst als Policy-Design-Übung und erst danach als Automatisierungsprojekt betrachten. Gemini wird dann zur lebendigen Dokumentation und Ausführungsebene dieser Richtlinien, erklärt Mitarbeitenden, warum sie bestimmte Berechtigungen haben (oder noch nicht haben), und löst die richtigen Workflows aus, ohne dass jedes Mal manuell interpretiert werden muss.

Mit Beobachtbarkeit starten: Lassen Sie Gemini zuerst Engpässe analysieren

Direkt in die Automatisierung einzusteigen ist verlockend, strategisch jedoch ist es klüger, mit einer Engpassanalyse zu beginnen. Verbinden Sie Gemini mit historischen Onboarding-Tickets, E-Mail-Verläufen und HR-Daten und lassen Sie wiederkehrende Verzögerungen identifizieren: Welche Rollen leiden am meisten, welche Tools sind immer zu spät, wo stocken Freigaben. Diese diagnostische Phase schafft eine gemeinsame Faktenbasis zwischen HR und IT.

Wenn Sie die tatsächlichen Reibungspunkte kennen, können Sie wirkungsstarke Automatisierungen priorisieren: zum Beispiel das automatische Auslösen der Kontoerstellung, sobald ein Vertrag unterschrieben ist, oder die Vorab-Genehmigung risikoarmer Tools für bestimmte Rollen. Gemini kann anschließend neue Regeln empfehlen und simulieren, bevor Sie sie dauerhaft in Identity- oder Ticketing-Systemen verankern.

In Change Management und klare Verantwortlichkeiten investieren

Selbst der beste KI-Onboarding-Assistent scheitert, wenn Menschen ihm nicht vertrauen oder ihn nicht nutzen. Definieren Sie deshalb strategisch klare Verantwortlichkeiten: Wer verantwortet den Gemini-Zugriffsassistenten, wer pflegt Prompts und Richtlinien, und wie werden Änderungen freigegeben? Stellen Sie sicher, dass sowohl HR als auch IT den Assistenten als Asset sehen – nicht als konkurrierenden Kanal zu bestehenden Tools.

Kommunizieren Sie gegenüber neuen Mitarbeitenden und Führungskräften klar, was Gemini leisten kann (und was nicht), und verankern Sie ihn in der bestehenden Onboarding-Kommunikation. Ermutigen Sie Teams, wiederkehrende Fragen an Gemini zu leiten, anstatt sie manuell zu beantworten. So entsteht im Lauf der Zeit ein positiver Kreislauf: Mehr Nutzung führt zu besseren Trainingsdaten und einem wirksameren Assistenten.

Strategisch eingesetzt kann Gemini aus langsamer, intransparenter Zugangs-Provisionierung ein vorhersehbares, datengestütztes Onboarding-Erlebnis machen. Indem Sie Zugang als Produkt verstehen, Richtlinien ausrichten und Gemini den Fluss zwischen HR, IT und Identity-Systemen orchestrieren lassen, reduzieren Sie Verzögerungen und ermöglichen neuen Mitarbeitenden einen reibungslosen Start. Bei Reruption sind wir darauf spezialisiert, diese Ideen in funktionierende KI-Workflows in realen Organisationen zu übersetzen; wenn Sie erkunden möchten, wie Gemini in Ihren HR-Stack passt, helfen wir Ihnen, dies schnell und sicher zu testen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Gesundheitswesen: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Mass General Brigham

Gesundheitswesen

Mass General Brigham, als eines der landesweit führenden integrierten akademischen Gesundheitssysteme, steht vor enormen Mengen an medizinischen Bilddaten aus Radiologie und Pathologie, die schnellere und genauere Analysen erfordern, um Kliniker zu unterstützen. Der Zustrom von KI-Technologien in der medizinischen Bildgebung hat Herausforderungen wie Governance, Einbindung medizinischer Expertise und die Gewährleistung einer verantwortungsvollen Einführung mit sich gebracht, während Kliniker wegen manueller Arbeitsabläufe und Entscheidungsüberlastung unter Burnout leiden. Zusätzlich erfordern die operativen Anforderungen in einem großen Krankenhausnetz prädiktive Modelle für Ressourcenallokation, Patientenfluss und Früherkennung. Altsysteme haben Schwierigkeiten mit dem Umfang und der Komplexität von Echtzeitdaten, was Effizienz und Patientenergebnisse beeinträchtigt.

Lösung

Mass General Brigham richtete ein dediziertes Künstliche-Intelligenz-Zentrum ein, das akademische Forschung, Produktentwicklung und klinische Translation verbindet und KI für Bildgebung mittels Computervision sowie für den Betrieb mittels prädiktiver Analytik verwaltet. Sie entwickelten Governance-Initiativen in der Radiologie und bezogen Klinikpersonal ein, um Einführungsbarrieren zu adressieren. Wesentliche Partnerschaften umfassen Microsoft für Foundation-Modelle in der medizinischen Bildgebung und eine frühere Zusammenarbeit mit GE Healthcare an KI-Workflows, die mit 36.000+ Hirnbildern für MRT-Konsistenz trainiert wurden. Dieses Ökosystem unterstützt Hunderte von Modellen, gestützt auf rigorose Forschung und einem 30-Millionen-Dollar-Innovationsfonds.

Ergebnisse

  • 36.000+ Hirnbilder wurden für das KI-Training in MRT-Workflows verwendet
  • 300+ neue KI-bezogene Studien und klinische Studien initiiert
  • Dediziertes KI-Zentrum mit kompletten Services für die Translation von Modellen in die Praxis
  • Partnerschaften ermöglichen KI-Copiloten zur Bildanalyse
  • Führendes Governance-Framework für den Zustrom von Hunderten KI-Tools in der Radiologie
Fallstudie lesen →

UPS

Logistik

UPS sah sich mit enormen Ineffizienzen bei der Zustellroutenplanung konfrontiert: Fahrer mussten eine astronomische Anzahl möglicher Routenvarianten berücksichtigen — weit mehr als die Nanosekunden seit der Entstehung der Erde. Traditionelle manuelle Planung führte zu längeren Fahrzeiten, höherem Kraftstoffverbrauch und steigenden Betriebskosten, verschärft durch dynamische Faktoren wie Verkehr, Paketaufkommen, Gelände und Kundenverfügbarkeit. Diese Probleme trieben nicht nur die Kosten in die Höhe, sondern trugen auch erheblich zu CO2‑Emissionen in einer Branche bei, die unter Druck steht, nachhaltiger zu werden. Zu den zentralen Herausforderungen gehörten Widerstand der Fahrer gegenüber neuer Technologie, die Integration in Altsysteme und die Gewährleistung von Echtzeitanpassungsfähigkeit, ohne den täglichen Betrieb zu stören. Pilotversuche zeigten Annahmehürden, da Fahrer, die an vertraute Routen gewöhnt waren, die Vorschläge der KI infrage stellten — ein Hinweis auf die menschliche Komponente bei Technikeinführungen. Die Skalierung auf 55.000 Fahrzeuge erforderte robuste Infrastruktur und die Verarbeitung von Milliarden von Datenpunkten täglich.

Lösung

UPS entwickelte ORION (On‑Road Integrated Optimization and Navigation), ein KI‑gestütztes System, das Operations Research für mathematische Optimierung mit Maschinellem Lernen für prädiktive Analysen zu Verkehr, Wetter und Zustellmustern kombiniert. Es berechnet Routen dynamisch in Echtzeit neu und berücksichtigt Paketziele, Fahrzeugkapazität, Effizienz von Rechts-/Linksabbiegungen und Stoppsequenzen, um Meilen und Zeit zu minimieren. Die Lösung entwickelte sich von statischer Planung zu dynamischer Routenführung weiter und integrierte agentenfähige KI für autonome Entscheidungsfindung. Das Training basierte auf umfangreichen Datensätzen aus GPS‑Telematik, wobei kontinuierliche ML‑Verbesserungen die Algorithmen verfeinerten. Um Akzeptanzbarrieren zu überwinden, wurden Fahrerschulungen und Gamification‑Anreize eingeführt; die Integration erfolgte nahtlos über Fahrzeuginnen‑Displays.

Ergebnisse

  • 100 Millionen Meilen jährlich eingespart
  • 300–400 Millionen $ Kosteneinsparung pro Jahr
  • 10 Millionen Gallonen Kraftstoff jährlich reduziert
  • 100.000 Tonnen CO2‑Emissionen eingespart
  • 2–4 Meilen kürzere Routen pro Fahrer täglich
  • 97 % Flotteneinführung bis 2021
Fallstudie lesen →

AT&T

Telekommunikation

Als führender Netzbetreiber verwaltet AT&T eines der weltweit größten und komplexesten Netzwerke, das Millionen von Funkzellen, Glasfasern und 5G-Infrastruktur umfasst. Die zentralen Herausforderungen umfassten ineffiziente Netzplanung und -optimierung, etwa die Festlegung optimaler Standorte für Funkzellen und die Frequenzakquisition vor dem Hintergrund explodierender Datenanforderungen durch den 5G-Rollout und das Wachstum des IoT. Traditionelle Methoden beruhten auf manueller Analyse, was zu suboptimaler Ressourcenzuteilung und höheren Kapitalaufwendungen führte. Zusätzlich verursachte die reaktive Netzwartung häufige Ausfälle, da die Anomalieerkennung nicht mit den Echtzeitanforderungen Schritt hielt. Probleme proaktiv zu erkennen und zu beheben war entscheidend, um Ausfallzeiten zu minimieren, doch die enormen Datenmengen aus Netzwerksensoren überforderten die Altsysteme. Dies führte zu erhöhten Betriebskosten, Kundenunzufriedenheit und verzögerter 5G-Bereitstellung. AT&T benötigte skalierbare KI, um Ausfälle vorherzusagen, Selbstheilung zu automatisieren und die Nachfrage präzise zu prognostizieren.

Lösung

AT&T integrierte Maschinelles Lernen und Vorhersageanalytik über seine AT&T Labs und entwickelte Modelle für das Netzwerkdesign, einschließlich Spektrum-Refarming und Optimierung von Funkzellenstandorten. KI-Algorithmen analysieren Geodaten, Verkehrsprofile und historische Leistungsdaten, um ideale Standorte für Sendemasten zu empfehlen und so Baukosten zu reduzieren. Für den Betrieb nutzen Systeme zur Anomalieerkennung und Selbstheilung prädiktive Modelle auf NFV (Network Function Virtualization), um Ausfälle vorherzusagen und automatisierte Behebungen durchzuführen, etwa durch Umleitung von Traffic. Kausale KI geht über Korrelationen hinaus und liefert Ursachenanalysen bei Abwanderung und Netzproblemen. Die Implementierung umfasste Edge-to-Edge-Intelligenz und die Bereitstellung von KI in den Arbeitsabläufen von über 100.000 Ingenieurinnen und Ingenieuren.

Ergebnisse

  • Milliarden von Dollar an Einsparungen bei Netzwerkkosten
  • 20–30% Verbesserung der Netzauslastung und Effizienz
  • Signifikante Reduktion von Vor-Ort-Einsätzen (Truck Rolls) und manuellen Eingriffen
  • Proaktive Erkennung von Anomalien, die größere Ausfälle verhindert
  • Optimierte Standortwahl für Funkzellen, die CapEx um Millionen reduziert
  • Bis zu 40% bessere Genauigkeit bei 5G-Nachfrageprognosen
Fallstudie lesen →

Klarna

Fintech

Klarna, ein führender Fintech-BNPL-Anbieter, stand unter enormem Druck durch Millionen von Kundenanfragen in mehreren Sprachen für seine 150 Millionen Nutzer weltweit. Die Anfragen reichten von komplexen Fintech-Themen wie Rückerstattungen, Retouren, Sendungsverfolgung bis hin zu Zahlungen und erforderten hohe Genauigkeit, regulatorische Konformität und 24/7-Verfügbarkeit. Traditionelle menschliche Agenten konnten nicht effizient skalieren, was zu langen Wartezeiten von durchschnittlich 11 Minuten pro Lösung und steigenden Kosten führte. Zusätzlich war es schwierig, personalisierte Einkaufsberatung in großem Maßstab bereitzustellen, da Kunden kontextbewusste, konversationelle Unterstützung über Einzelhandelspartner erwarteten. Mehrsprachiger Support war in Märkten wie den USA, Europa und darüber hinaus kritisch, aber die Einstellung mehrsprachiger Agenten war kostenintensiv und langsam. Dieser Engpass behinderte Wachstum und Kundenzufriedenheit in einem wettbewerbsintensiven BNPL-Sektor.

Lösung

Klarna arbeitete mit OpenAI zusammen, um einen generativen KI-Chatbot auf Basis von GPT-4 als mehrsprachigen Kundenservice-Assistenten einzusetzen. Der Bot bearbeitet Rückerstattungen, Retouren, Bestellprobleme und fungiert als konversationeller Einkaufsberater, nahtlos in Klarna's App und Website integriert. Wesentliche Innovationen umfassten die Feinabstimmung auf Klarnas Daten, retrieval-augmented generation (RAG) für den Echtzeitzugriff auf Richtlinien und Schutzmechanismen zur Einhaltung von Fintech-Vorgaben. Er unterstützt Dutzende von Sprachen, eskaliert komplexe Fälle an Menschen und lernt aus Interaktionen. Dieser KI-native Ansatz ermöglichte eine schnelle Skalierung ohne proportionale Zunahme des Personalbestands.

Ergebnisse

  • 2/3 aller Kundenservice-Chats werden von KI bearbeitet
  • 2,3 Millionen Konversationen im ersten Monat allein
  • Lösungszeit: 11 Minuten → 2 Minuten (82% Reduktion)
  • CSAT: 4,4/5 (KI) vs. 4,2/5 (Menschlich)
  • 40 Mio. US-Dollar jährliche Kosteneinsparungen
  • Entspricht 700 Vollzeit-Angestellten
  • Über 80% der Anfragen werden ohne menschliches Eingreifen gelöst
Fallstudie lesen →

Capital One

Bankwesen

Capital One sah sich mit einem hohen Volumen routinemäßiger Kundenanfragen konfrontiert, die ihre Callcenter überschwemmten – darunter Kontostände, Transaktionshistorien und grundlegende Supportanfragen. Das führte zu steigenden Betriebskosten, Überlastung der Agenten und frustrierenden Wartezeiten für Kunden, die sofortige Hilfe erwarteten. Traditionelle Callcenter arbeiteten nur eingeschränkt rund um die Uhr und konnten die Anforderungen an 24/7-Verfügbarkeit im wettbewerbsintensiven Bankenmarkt, in dem Tempo und Komfort zentral sind, nicht erfüllen. Zusätzlich erschwerten die branchenspezifische Finanzterminologie und regulatorische Vorgaben die Lage, wodurch Standard-AI-Lösungen unzureichend waren. Kunden erwarteten personalisierte, sichere Interaktionen, doch die Skalierung menschlicher Unterstützung war angesichts der wachsenden Nutzung digitaler Bankangebote nicht nachhaltig.

Lösung

Capital One begegnete diesen Problemen durch die Entwicklung von Eno, einem proprietären konversationellen KI-Assistenten, der auf firmeneigener NLP beruht und für Banking-Vokabular angepasst wurde. Ursprünglich 2017 als SMS-Chatbot eingeführt, wurde Eno auf mobile Apps, Weboberflächen und Sprachintegration mit Alexa ausgeweitet und ermöglicht Multichannel-Support per Text oder Sprache für Aufgaben wie Kontostandsabfragen, Ausgabenanalysen und proaktive Benachrichtigungen. Das Team meisterte die Terminologie-Herausforderungen durch die Entwicklung domänenspezifischer NLP-Modelle, die auf Capital One–Daten trainiert wurden und so natürliche, kontextbewusste Gespräche gewährleisteten. Eno eskaliert komplexe Anfragen nahtlos an Agenten und bietet gleichzeitig Betrugsschutz durch Echtzeitüberwachung – bei gleichbleibend hohen Sicherheitsstandards.

Ergebnisse

  • 50% Reduzierung des Callcenter-Kontaktvolumens bis 2024
  • Rund-um-die-Uhr-Verfügbarkeit, die jährlich Millionen von Interaktionen abwickelt
  • Über 100 Millionen verarbeitete Kundengespräche
  • Bedeutende Einsparungen bei den Betriebskosten im Kundenservice
  • Beinahe sofortige Antwortzeiten bei Routineanfragen
  • Verbesserte Kundenzufriedenheit durch personalisierten Support
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Gemini als Basis mit Ihrem HRIS und Google Workspace verbinden

Der erste taktische Schritt besteht darin, Gemini mit den Systemen zu verbinden, die Ihre zentralen Onboarding-Daten enthalten. In einer Google-zentrierten Umgebung bedeutet das typischerweise Ihr HRIS (für Rolle, Standort, Startdatum) und Google Workspace (für E-Mail, Gruppen und grundlegende Zugriffe). Verwenden Sie sichere Konnektoren oder APIs, sodass Gemini in der Anfangsphase lesen, aber nicht beliebig in diese Systeme schreiben kann.

Ist die Verbindung hergestellt, konfigurieren Sie Gemini so, dass es grundlegende Fragen wie „Wann ist mein Startdatum?“, „Wer ist meine Führungskraft?“ und „In welchen Google-Gruppen bin ich?“ beantworten kann. So entlasten Sie HR bereits von einem erheblichen Teil wiederkehrender Anfragen, noch bevor Sie Zugangs-Workflows zur Provisionierung anfassen.

Gemini zur Erstellung rollenbasierter Zugangs-Bundles nutzen

Definieren Sie Standard-Zugangs-Bundles für typische Rollen (z. B. Sales Manager, Backend Engineer, HR Business Partner). Speichern Sie diese Bundles in einem strukturierten Format (z. B. ein Google Sheet oder eine schlanke Konfigurationsdatenbank), auf das Gemini zugreifen kann. Jedes Bundle sollte die benötigten Systeme, Gruppen und Berechtigungen definieren.

Fordern Sie Gemini dann auf, auf Basis der HRIS-Daten das passende Bundle zu empfehlen und eine menschenlesbare Zusammenfassung zu erstellen, die HR und Führungskräfte validieren können:

Beispiel für einen System-Prompt:
Sie sind ein Assistent für HR-Onboarding und Zugangs-Provisionierung.
Sie erhalten Mitarbeiterdaten (Rolle, Abteilung, Standort, Seniorität)
und einen Katalog von Zugangs-Bundles.
Ihre Aufgaben:
1) Wählen Sie das passendste Zugangs-Bundle bzw. die passendsten Zugangs-Bundles für die Mitarbeiterin bzw. den Mitarbeiter aus.
2) Erklären Sie in klarer, verständlicher Geschäftssprache, welche Zugänge gewährt werden und warum.
3) Markieren Sie alle Zugänge, die eine zusätzliche Genehmigung erfordern.
Antworten Sie im JSON-Format mit den Feldern: selected_bundles, explanation, approvals_required.

Erwartetes Ergebnis: HR kann Geminis Vorschlag schnell prüfen und freigeben, wodurch manuelle Entscheidungsarbeit und Inkonsistenzen zwischen verschiedenen Einstellungen reduziert werden.

Ticket-Erstellung und -Routing aus Gemini-Konversationen automatisieren

Sobald Gemini Zugangs-Bundles vorschlagen kann, verbinden Sie es mit Ihrem ITSM- oder Ticketing-Tool (z. B. Jira Service Management, ServiceNow oder einen Google-Chat-basierten Workflow), um strukturierte Tickets automatisch zu erstellen. Verwenden Sie konsistente Vorlagen, sodass IT alle notwendigen Informationen ohne Rückfragen per E-Mail erhält.

Beispiel-Prompt für Gemini zur Ticket-Erstellung:
Sie sind mit der IT-Ticketing-API integriert.
Erstellen Sie auf Basis des ausgewählten Zugangs-Bundles
und der Mitarbeiterdaten separate Tickets für:
- Hardware (Laptop, Zubehör)
- Kern-Accounts (E-Mail, SSO)
- Business-Anwendungen (CRM, ERP, HR-Tools)
Enthalten sein müssen: due_date (vor dem Startdatum),
priority und approver.
Geben Sie ein JSON-Array von Ticket-Objekten aus,
das direkt von der API verarbeitet werden kann.

Erwartetes Ergebnis: Neueinstellungen lösen eine einzige HR-Aktion aus (oder sogar eine automatische Aktion bei Vertragsunterzeichnung), und Gemini verteilt daraus gut strukturierte Tickets in die richtigen Warteschlangen – die manuelle Koordinationszeit sinkt drastisch.

Einen Gemini-Assistenten für neue Mitarbeitende in Google Chat oder im Intranet bereitstellen

Stellen Sie Gemini neuen Mitarbeitenden direkt in den Kanälen zur Verfügung, die sie ohnehin nutzen, etwa in Google Chat, im Gmail-Seitenpanel oder im Intranet. Geben Sie ihm einen klaren Scope: Onboarding-Fragen beantworten, den Status von Zugangs-Anfragen anzeigen und fehlende Berechtigungen über einen geführten Flow anfordern lassen.

Beispiel-Prompt für einen Gemini-Assistenten für neue Mitarbeitende:
Sie sind ein Onboarding- und Zugangs-Assistent für neue Mitarbeitende.
Ziele:
- Beantworten Sie Fragen zu Onboarding-Aufgaben und IT-Zugängen.
- Zeigen Sie den aktuellen Status von Laptop-, Account-
  und Tool-Provisionierung an.
- Sammeln Sie klare Informationen, wenn die Mitarbeiterin
  bzw. der Mitarbeiter zusätzliche Zugänge anfordert.
Immer:
- Verwenden Sie einfache, verständliche Sprache.
- Verlinken Sie, wenn verfügbar, auf die relevante interne
  Seite oder Richtlinie.
- Eskalieren Sie an HR oder IT, wenn die Frage außerhalb
  des Scopes liegt oder die Richtlinie unklar ist.

Erwartetes Ergebnis: Weniger direkte E-Mails an HR und IT, schnellere Antworten für Mitarbeitende und eine konsistente Onboarding-Kommunikation.

Gemini SLAs überwachen und Verzögerungen proaktiv eskalieren lassen

Definieren Sie realistische SLAs für jedes Onboarding-Asset (z. B. Laptop 3 Tage vor Start einsatzbereit, Kern-Accounts 1 Tag vor Start, Business-Apps innerhalb von 2 Tagen nach Start). Geben Sie Gemini Leserechte auf Ticket-Status und Zeitstempel, damit es berechnen kann, ob Sie im Plan sind oder ein Risiko besteht.

Konfigurieren Sie Gemini so, dass es proaktive Alerts sendet, wenn SLAs gefährdet sind. Wenn z. B. ein Laptop-Ticket 5 Tage vor Start noch keinem Bearbeitenden zugewiesen ist, pingt Gemini die verantwortliche IT-Queue und HR mit einer kompakten Zusammenfassung und Vorschlägen für nächste Schritte.

Beispiel-Prompt für Gemini zur SLA-Überwachung:
Sie überwachen Onboarding-Tickets mit SLA-Zielen.
Jede Stunde erhalten Sie aktualisierte Ticketdaten.
Bestimmen Sie für jedes Ticket:
- Ist es im Plan, gefährdet oder verletzt?
- Wer muss informiert werden (IT, HR, Führungskraft)?
Formulieren Sie eine kurze Statusnachricht und
empfohlene Aktion.
Eskalieren Sie nur, wenn ein klares SLA-Risiko besteht.

Erwartetes Ergebnis: Weniger Last-Minute-Überraschungen am ersten Arbeitstag, höhere Einhaltung der SLAs und bessere Transparenz für HR und Führungskräfte.

Ausnahmen erfassen und zur Verbesserung von Richtlinien nutzen

Nicht jede Neueinstellung passt in ein Standard-Bundle. Nutzen Sie Gemini, um Ausnahme-Anfragen (z. B. Spezialtools für eine Senior-Architektin) strukturiert zu erfassen und die Gründe für Genehmigungen zu dokumentieren. Analysieren Sie diese Ausnahmen im Zeitverlauf mit Gemini, um Muster zu erkennen und Anpassungen an Standard-Bundles oder Richtlinien vorzuschlagen.

Sie können Gemini zum Beispiel regelmäßig Ausnahme-Tickets überprüfen lassen und Fragen beantworten lassen wie: „Welche Rollen fordern am häufigsten nicht-standardisierte Tools an?“ oder „Welche Ausnahmen werden praktisch immer genehmigt und sollten zum Standard werden?“. So schließen Sie die Feedback-Schleife zwischen täglicher Onboarding-Praxis und der Weiterentwicklung Ihrer Policies.

Schrittweise umgesetzt können diese Gemini-Onboarding-Best Practices den manuellen Koordinationsaufwand zwischen HR und IT realistisch um 30–50 % reduzieren, durchschnittliche Zugangsverzögerungen für viele Rollen von Tagen auf Stunden verkürzen und die Zufriedenheit neuer Mitarbeitender in den ersten 30–60 Tagen steigern. Die genauen Kennzahlen hängen von Ihrem Ausgangspunkt ab, aber das Muster ist konsistent: weniger Hinterherlaufen, klarere Verantwortlichkeiten und schnellere Zeit bis zur Produktivität.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini beschleunigt die Onboarding-Zugangs-Provisionierung, indem es zwischen HR-Daten, Identity-Systemen und IT-Ticketing sitzt. Es kann Informationen zu neuen Mitarbeitenden aus Ihrem HRIS lesen, das passende rollenbasierte Zugangs-Bundle vorschlagen und automatisch gut strukturierte Tickets für Hardware, Accounts und Tools erstellen.

Darüber hinaus agiert Gemini als konversationale Schnittstelle für neue Mitarbeitende und HR: Es beantwortet Statusfragen, sammelt fehlende Informationen ein und erinnert IT, wenn SLAs gefährdet sind. Dies reduziert manuelles E-Mail-Ping-Pong und stellt sicher, dass Provisionierungsarbeit früher startet und konsistenter abläuft.

Sie benötigen kein großes Data-Science-Team, um zu starten. Die meisten Implementierungen erfordern:

  • Eine HR- oder People-Ops-Verantwortliche bzw. einen -Verantwortlichen, die bzw. der Ihren aktuellen Onboarding-Prozess und Ihre Richtlinien versteht.
  • Eine IT-/Identity-Ansprechperson, die Zugriff auf Systeme wie HRIS, Google Workspace und Ihr Ticketing-Tool bereitstellen kann.
  • Eine kleine Engineering-Kapazität (intern oder extern), um sichere Integrationen und grundlegende Workflows aufzusetzen.

Gemini selbst übernimmt die Schicht für natürliche Sprache und „Reasoning“; die Hauptarbeit besteht darin, klare Zugangsregeln zu definieren, Ihren aktuellen Prozess zu kartieren und Gemini über APIs oder bestehende Konnektoren anzubinden. Reruption hilft Kundinnen und Kunden typischerweise dabei, dies in einen fokussierten PoC zu verdichten, statt in ein langes IT-Projekt.

Wenn der Scope klar fokussiert ist, können Sie Ergebnisse in Wochen statt Monaten sehen. Ein realistischer Zeitplan sieht so aus:

  • Woche 1–2: Aktuelle Onboarding-Flows aufnehmen, Ziel-Zugangs-Bundles definieren, Gemini mit Testdaten verbinden.
  • Woche 3–4: Einen Pilot-Gemini-Assistenten nur für HR ausrollen (Bundles empfehlen, Tickets generieren, Engpässe analysieren).
  • Woche 5–8: Auf eine begrenzte Gruppe neuer Mitarbeitender und Führungskräfte erweitern, Monitoring und SLA-Alerts ergänzen.

Verbesserungen zeigen sich oft sofort in Form von weniger Status-E-Mails und höherer Ticketqualität. Zeit bis zum Zugang und Zufriedenheit neuer Mitarbeitender verbessern sich üblicherweise über die ersten 1–2 Onboarding-Zyklen hinweg, während Sie Workflows und Bundles verfeinern.

Der ROI speist sich aus drei Hauptbereichen: weniger manueller Aufwand, schnellere Zeit bis zur Produktivität und bessere Bindung. Die Automatisierung von Zugangsentscheidungen und Ticket-Erstellung kann HR und IT leicht mehrere Stunden pro Neueinstellung einsparen. Wenn Sie pro Jahr Dutzende oder Hunderte Menschen onboarden, entsteht daraus eine erhebliche Kostenreduktion.

Noch wichtiger ist, dass rechtzeitig bereitstehende Laptops und Accounts die unproduktive Phase in der Anfangszeit verkürzen. Wenn Gemini jeder Mitarbeiterin und jedem Mitarbeiter hilft, auch nur einen Tag früher produktiv zu werden, kann der Produktivitätsgewinn über die gesamte Belegschaft die Implementierungskosten schnell übersteigen. Schließlich wirkt sich ein reibungsloseres Onboarding positiv auf Arbeitgebermarke und Frühfluktuation aus – beides wesentliche versteckte Kosten in vielen Organisationen.

Reruption arbeitet als Co-Preneur in Ihrer Organisation: Wir beraten nicht nur, wir bauen mit. Mit unserem KI-PoC-Angebot (9.900 €) können wir schnell testen, ob ein Gemini-basierter Onboarding-Assistent mit Ihrem realen HR- und IT-Stack funktioniert. Das umfasst die Konkretisierung des Use Cases, die Auswahl der passenden Architektur, das Prototyping der Workflows und die Erfolgsmessung.

Über den PoC hinaus helfen wir Ihnen, den Prototyp in ein robustes internes Produkt zu überführen: Integration mit HRIS und Google Workspace, Verfeinerung von Prompts und Richtlinien sowie Aufbau von Monitoring und Governance. Unser Fokus auf KI-Strategie, KI-Engineering, Security & Compliance sowie Enablement stellt sicher, dass die Lösung nicht nur ein Demo bleibt, sondern ein verlässlicher Bestandteil Ihres Onboarding-Prozesses wird.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media