Die Herausforderung: Langsame Bereitstellung von Zugängen und Konten

Für viele Organisationen ist der frustrierendste Teil des Onboardings zugleich der grundlegendste: neuen Mitarbeitenden die Werkzeuge zu geben, die sie für ihre Arbeit brauchen. Laptops kommen verspätet an, Konten werden manuell angelegt, und der Zugang zu Kernsystemen hängt von langen E-Mail-Ketten zwischen HR, IT und Führungskräften ab. Neue Mitarbeitende verbringen ihre ersten Tage damit, auf Logins zu warten, statt Mehrwert zu schaffen.

Traditionelle Ansätze verlassen sich auf statische Checklisten, Ticket-Portale und Tabellen, die von HR oder IT verwaltet werden. Jede Ausnahme – eine Spezialrolle, ein neues SaaS-Tool, eine geänderte Richtlinie – fügt weitere manuelle Entscheidungen und Nachverfolgung hinzu. HR jagt Status-Updates hinterher, Führungskräfte sind unsicher, was sie freigeben müssen, und IT-Teams bearbeiten unzureichend spezifizierte Tickets. Nichts davon skaliert, wenn Sie an mehreren Standorten, für verschiedene Rollen und Vertragsarten einstellen.

Die geschäftlichen Auswirkungen sind größer als ein paar verlorene Tage. Langsame Bereitstellung von Zugängen und Konten erhöht die Time-to-Productivity, frustriert neue Mitarbeitende und schwächt Ihre Arbeitgebermarke. Fachvorgesetzte verlieren das Vertrauen in HR und IT. Das Sicherheitsrisiko steigt, weil Abkürzungen entstehen: geteilte Logins, Ad-hoc-Zugriffe und nicht dokumentierte Ausnahmen. Langfristig werden diese Verzögerungen zu einer strukturellen Wachstumsbremse und einem stillen Wettbewerbsnachteil im Arbeitsmarkt.

Dennoch ist dies ein sehr gut lösbares Problem. Mit dem richtigen KI-gestützten Onboarding-Assistenten können Sie Zugriffe orchestrieren, Entscheidungen standardisieren und alle Beteiligten in Echtzeit informieren. Bei Reruption haben wir gesehen, wie intelligente Workflows und konversationale Oberflächen manuelle Koordination in ähnlich komplexen Prozessen ersetzen können. In den restlichen Abschnitten dieses Leitfadens finden Sie praktische Schritte, um Claude zu nutzen und die Zugriffsbereitstellung von einem Engpass in einen planbaren, schnellen und positiven Teil des Onboarding-Erlebnisses zu verwandeln.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Sicht von Reruption eignet sich Claude als HR-Onboarding-Assistent besonders gut für das Problem der Zugriffs- und Kontenbereitstellung. Wir haben KI-Lösungen implementiert, die zwischen Fachbereichen und technischen Systemen sitzen und chaotische Abläufe in geführte Workflows verwandeln. Dasselbe Muster funktioniert auch hier: Claude kann die Intention von HR und Führungskräften in strukturierte Anfragen übersetzen, mit HRIS- und IAM-APIs interagieren und neue Mitarbeitende informieren, ohne zusätzlichen manuellen Aufwand für HR oder IT zu erzeugen.

Betrachten Sie Zugriffsbereitstellung als Erlebnis, nicht nur als IT-Aufgabe

Strategisch wird langsame Zugriffsbereitstellung oft als reines IT-Backlog-Problem gesehen, dabei ist sie ein Kernbestandteil des Employee-Onboarding-Erlebnisses. HR sollte die End-to-End-Reise verantworten – mit Claude als einheitlicher, konversationaler Schicht, mit der neue Mitarbeitende, Führungskräfte und IT gleichermaßen interagieren können – statt mit verstreuten E-Mails und Portalen. Diese Neubewertung macht klar, dass das Ziel nicht nur schnellere Ticketbearbeitung ist, sondern eine reibungslosere erste Woche für jede neue Kollegin und jeden neuen Kollegen.

Wenn Sie Ihren Claude-Anwendungsfall gestalten, starten Sie aus der Perspektive der neuen Mitarbeitenden: Was müssen sie an Tag 1, 3, 7 und 30 erreichen und welche Systeme und Berechtigungen werden in jedem Schritt benötigt? Kartieren Sie zunächst diese Reise und richten Sie danach die IT-Workflows aus. Diese Denkweise verhindert, dass Sie KI einfach auf fehlerhafte Prozesse „draufschrauben“.

Mit klaren Regeln und Leitplanken für Zugriffsentscheidungen starten

Claude ist sehr leistungsfähig bei der Interpretation unstrukturierter Anfragen, aber rollenbasierter Zugriff muss weiterhin durch klare Richtlinien gesteuert werden. Investieren Sie strategisch Zeit, um zu definieren, welche Systeme und Berechtigungssätze welchen Rollen, Senioritätsstufen und Standorten zugeordnet sind. Claude kann diese Regeln dann nutzen, um beim Eintritt einer neuen Person oder bei einem Rollenwechsel automatisch Zugriffspakete zusammenzustellen.

Anstatt Claude „entscheiden“ zu lassen, welche Zugriffe vergeben werden, sollte es vordefinierte Richtlinien anwenden, Ausnahmen kennzeichnen und an die richtigen Genehmigenden weiterleiten. Das begrenzt Risiken, reduziert den Bedarf an KI-Expertise in HR oder IT und erleichtert Prüfungs- und Compliance-Gespräche erheblich. Claude soll ein intelligenter Koordinator sein, kein ungebundener Entscheider.

HR, IT und Security als gemeinsame Eigentümer des KI-Assistenten etablieren

Viele Onboarding-Initiativen scheitern, weil sie ausschließlich in HR oder ausschließlich in IT verortet sind. Damit Claude die Zugriffs- und Kontenbereitstellung wirklich verschlankt, benötigen Sie ein Modell der gemeinsamen Verantwortung. HR definiert die Onboarding-Journey und den Kommunikationsstil. IT verantwortet die Integration in Ticketing-, HRIS- und IAM-Systeme. Security legt die Regeln für Datenzugriff, Protokollierung und Freigabe-Workflows fest.

Aus Readiness-Perspektive sollten Sie frühzeitig sicherstellen, dass Stakeholder aus allen Funktionen am Tisch sitzen. Bringen Sie sie auf gemeinsame Erfolgskennzahlen (z. B. Time-to-Access, weniger Eskalationen, Richtlinien-Compliance) und darauf, was Claude autonom tun darf und wo zwingend eine menschliche Freigabe nötig ist. Diese frühzeitige Abstimmung reduziert Reibung, wenn Sie die Lösung später über Geschäftsbereiche hinweg skalieren.

Mit einem Pilotprojekt Integrations- und Change-Risiken reduzieren

KI-Onboarding-Assistenten berühren sensible Systeme und bereichsübergreifende Workflows. Ein strategischer Weg zur Risikominimierung ist, Claude in einem fokussierten Pilot einzuführen: zum Beispiel in einem bestimmten Land, Geschäftsbereich oder einer Rollenfamilie mit relativ standardisierten Zugriffsanforderungen. So können Sie Claudes Orchestrierungsfähigkeiten validieren und Prompts, Richtlinien sowie API-Aufrufe feinjustieren, bevor Sie unternehmensweit ausrollen.

Verfolgen Sie im Pilot nicht nur Leistungskennzahlen, sondern auch qualitatives Feedback: Verstehen neue Mitarbeitende besser, was wann passieren wird? Fühlen sich Führungskräfte besser unterstützt? Erhält die IT besser strukturierte Anfragen? Dieser Ansatz erlaubt es, sowohl die technische Konfiguration als auch die Kommunikationsstrategie zu optimieren, bevor formales Rollout und Change Management starten.

Für Governance, Monitoring und kontinuierliche Verbesserung planen

Sobald Claude im Onboarding verankert ist, wird es Teil Ihrer kritischen Infrastruktur. Strategisch bedeutet das, es wie ein Produkt zu behandeln: Verantwortlichkeiten, SLAs und einen Prozess zur Aktualisierung von Regeln und Prompts definieren, während sich Ihre Tool-Landschaft weiterentwickelt. HR und IT sollten regelmäßig Analysen zur Zugriffsbereitstellung prüfen: Zeit bis zur Kontoerstellung, Fehlerraten, manuelle Übersteuerungen und Richtlinienausnahmen.

Claude kann seine eigene Governance unterstützen, indem es Randfälle zusammenfasst, Vorschläge für Richtlinienverbesserungen macht und wiederkehrende Ausnahmen hervorhebt. Wenn Sie diese Feedbackschleife in Ihr Operating Model integrieren, stellen Sie sicher, dass der Assistent mit Sicherheitsanforderungen, neuen Anwendungen und organisatorischen Veränderungen im Einklang bleibt, statt im Laufe der Zeit zu „veralten“.

Sorgfältig eingesetzt kann Claude langsame, intransparente Zugriffsbereitstellung in einen planbaren, geführten Onboarding-Flow verwandeln, in dem neue Mitarbeitende jederzeit wissen, was als Nächstes passiert, und die IT saubere, richtlinienkonforme Anfragen erhält. Der Schlüssel ist, Claudes konversationale Stärken und Orchestrierungsfähigkeiten mit klaren Regeln, bereichsübergreifender Verantwortung und kontinuierlichem Monitoring zu kombinieren. Wenn Sie Unterstützung bei Konzeption und Implementierung einer solchen Lösung wünschen, bringt Reruption praxisnahe KI-Engineering- und HR-Prozess-Expertise ein, um schnell einen funktionierenden Proof-of-Concept aufzubauen und ihn dann mit Vertrauen zu skalieren.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Logistik bis Einzelhandel: Erfahren Sie, wie Unternehmen Claude erfolgreich einsetzen.

DHL

Logistik

DHL, ein globaler Logistikriese, sah sich erheblichen Herausforderungen durch Fahrzeugausfälle und suboptimale Wartungspläne gegenüber. Unvorhersehbare Ausfälle in der umfangreichen Fahrzeugflotte führten zu häufigen Lieferverzögerungen, gestiegenen Betriebskosten und verärgerten Kunden. Traditionelle reaktive Wartung – Probleme erst nach ihrem Auftreten zu beheben – führte zu übermäßigen Ausfallzeiten, wobei Fahrzeuge stunden- oder tagelang stillstanden und weltweite Lieferketten störten. Ineffizienzen wurden durch unterschiedliche Fahrzeugzustände in den Regionen verschärft, sodass geplante Wartungen ineffizient und verschwenderisch waren, oft gesunde Fahrzeuge zu intensiv gewartet wurden, während andere, gefährdete, unterversorgt blieben. Diese Probleme trieben nicht nur die Wartungskosten in einigen Segmenten um bis zu 20% in die Höhe, sondern untergruben auch das Kundenvertrauen durch unzuverlässige Lieferungen. Mit steigenden E‑Commerce-Anforderungen benötigte DHL einen proaktiven Ansatz, um Ausfälle vorherzusagen, bevor sie auftraten, und so Störungen in der hart umkämpften Logistikbranche zu minimieren.

Lösung

DHL implementierte ein System zur vorausschauenden Wartung, das IoT-Sensoren an Fahrzeugen nutzt, um Echtzeitdaten zu Motorleistung, Reifenverschleiß, Bremsen und mehr zu erfassen. Diese Daten fließen in Machine-Learning-Modelle, die Muster analysieren, potenzielle Ausfälle vorhersagen und optimale Wartungszeitpunkte empfehlen. Die KI-Lösung integriert sich in bestehende Flottenmanagementsysteme von DHL und verwendet Algorithmen wie Random Forests und neuronale Netze zur Anomalieerkennung und Ausfallprognose. Um Datensilos und Integrationsprobleme zu überwinden, ging DHL Partnerschaften mit Technologieanbietern ein und setzte Edge-Computing für schnellere Verarbeitung ein. Pilotprogramme in Schlüssel-Hubs wurden global ausgerollt, wodurch man von zeitbasierten auf zustandsbasierte Wartung umstellte und Ressourcen gezielt auf risikoreiche Fahrzeuge konzentrierte.

Ergebnisse

  • Fahrzeugausfallzeiten um 15% reduziert
  • Wartungskosten um 10% gesenkt
  • Ungeplante Ausfälle um 25% verringert
  • Pünktlichkeitsrate um 12% verbessert
  • Verfügbarkeit der Flotte um 20% erhöht
  • Gesamtbetriebliche Effizienz um 18% gesteigert
Fallstudie lesen →

Klarna

Fintech

Klarna, ein führender Fintech-BNPL-Anbieter, stand unter enormem Druck durch Millionen von Kundenanfragen in mehreren Sprachen für seine 150 Millionen Nutzer weltweit. Die Anfragen reichten von komplexen Fintech-Themen wie Rückerstattungen, Retouren, Sendungsverfolgung bis hin zu Zahlungen und erforderten hohe Genauigkeit, regulatorische Konformität und 24/7-Verfügbarkeit. Traditionelle menschliche Agenten konnten nicht effizient skalieren, was zu langen Wartezeiten von durchschnittlich 11 Minuten pro Lösung und steigenden Kosten führte. Zusätzlich war es schwierig, personalisierte Einkaufsberatung in großem Maßstab bereitzustellen, da Kunden kontextbewusste, konversationelle Unterstützung über Einzelhandelspartner erwarteten. Mehrsprachiger Support war in Märkten wie den USA, Europa und darüber hinaus kritisch, aber die Einstellung mehrsprachiger Agenten war kostenintensiv und langsam. Dieser Engpass behinderte Wachstum und Kundenzufriedenheit in einem wettbewerbsintensiven BNPL-Sektor.

Lösung

Klarna arbeitete mit OpenAI zusammen, um einen generativen KI-Chatbot auf Basis von GPT-4 als mehrsprachigen Kundenservice-Assistenten einzusetzen. Der Bot bearbeitet Rückerstattungen, Retouren, Bestellprobleme und fungiert als konversationeller Einkaufsberater, nahtlos in Klarna's App und Website integriert. Wesentliche Innovationen umfassten die Feinabstimmung auf Klarnas Daten, retrieval-augmented generation (RAG) für den Echtzeitzugriff auf Richtlinien und Schutzmechanismen zur Einhaltung von Fintech-Vorgaben. Er unterstützt Dutzende von Sprachen, eskaliert komplexe Fälle an Menschen und lernt aus Interaktionen. Dieser KI-native Ansatz ermöglichte eine schnelle Skalierung ohne proportionale Zunahme des Personalbestands.

Ergebnisse

  • 2/3 aller Kundenservice-Chats werden von KI bearbeitet
  • 2,3 Millionen Konversationen im ersten Monat allein
  • Lösungszeit: 11 Minuten → 2 Minuten (82% Reduktion)
  • CSAT: 4,4/5 (KI) vs. 4,2/5 (Menschlich)
  • 40 Mio. US-Dollar jährliche Kosteneinsparungen
  • Entspricht 700 Vollzeit-Angestellten
  • Über 80% der Anfragen werden ohne menschliches Eingreifen gelöst
Fallstudie lesen →

Commonwealth Bank of Australia (CBA)

Bankwesen

Als Australiens größte Bank sah sich CBA zunehmenden Betrugs- und Scam-Bedrohungen gegenüber, wobei Kunden erhebliche finanzielle Verluste erlitten. Betrüger nutzten schnelle digitale Zahlungen wie PayID aus, bei denen nicht übereinstimmende Empfängernamen zu unumkehrbaren Überweisungen führten. Traditionelle Erkennungssysteme hinkten hinter komplexen Angriffen her, was zu hohem Kundenschaden und regulatorischem Druck führte. Parallel dazu waren die Contact Center überlastet und bearbeiteten Millionen von Anfragen zu Betrugswarnungen und Transaktionen. Das führte zu langen Wartezeiten, steigenden Betriebskosten und angespannten Ressourcen. CBA benötigte proaktive, skalierbare KI, um in Echtzeit einzugreifen und gleichzeitig die Abhängigkeit von menschlichen Agenten zu reduzieren.

Lösung

CBA setzte einen hybriden KI-Stack ein, der Maschinelles Lernen zur Anomalieerkennung und generative KI für personalisierte Warnungen kombiniert. NameCheck überprüft Empfängernamen gegen PayID in Echtzeit und warnt Nutzer bei Abweichungen. CallerCheck authentifiziert eingehende Anrufe und blockiert Nachahmungs-Betrugsversuche. In Partnerschaft mit H2O.ai implementierte CBA von GenAI angetriebene prädiktive Modelle zur Scam-Intelligence. Ein KI-virtueller Assistent in der CommBank-App bearbeitet Routineanfragen, generiert natürliche Antworten und eskaliert komplexe Fälle. Die Integration mit Apate.ai liefert nahezu in Echtzeit Scam-Intelligence und verbessert das proaktive Blockieren über alle Kanäle hinweg.

Ergebnisse

  • 70 % Reduktion der Betrugsverluste
  • 50 % Verringerung der Kundenschäden durch Betrug bis 2024
  • 30 % Rückgang der Betrugsfälle durch proaktive Warnungen
  • 40 % Reduktion der Wartezeiten im Contact Center
  • 95 %+ Genauigkeit bei NameCheck-Empfängerabgleichen
Fallstudie lesen →

bunq

Bankwesen

Als bunq ein rasantes Wachstum als zweitgrößte Neobank in Europa verzeichnete, wurde die Skalierung des Kundenservice zu einer kritischen Herausforderung. Bei Millionen von Nutzern, die personalisierte Banking-Informationen zu Konten, Ausgabeverhalten und Finanzberatung auf Abruf verlangen, stand das Unternehmen unter Druck, sofortige Antworten zu liefern, ohne die Zahl der menschlichen Supportteams proportional zu erhöhen — was Kosten treiben und Abläufe verlangsamen würde. Traditionelle Suchfunktionen in der App reichten für komplexe, kontextabhängige Anfragen nicht aus und führten zu Ineffizienzen und Nutzerfrustration. Zudem stellten die Gewährleistung von Datenschutz und Genauigkeit in einem stark regulierten Fintech-Umfeld erhebliche Risiken dar. bunq benötigte eine Lösung, die nuancierte Unterhaltungen führen und gleichzeitig EU-Bankvorschriften einhalten konnte, Halluzinationen vermeiden würde, wie sie in frühen GenAI-Modellen vorkommen, und sich nahtlos integrieren ließe, ohne die App-Performance zu beeinträchtigen. Ziel war es, Routineanfragen zu automatisieren, sodass menschliche Agenten sich auf wertschöpfende Fälle konzentrieren konnten.

Lösung

bunq begegnete diesen Herausforderungen durch die Entwicklung von Finn, einer proprietären GenAI-Plattform, die direkt in die mobile App integriert wurde und die herkömmliche Suchfunktion durch einen konversationellen KI-Chatbot ersetzte. Nach der Einstellung von mehr als einem Dutzend Datenexperten im Vorjahr baute das Team Finn so, dass er sicher auf nutzerspezifische Finanzdaten zugreift, Fragen zu Kontoständen, Transaktionen und Budgets beantwortet und sogar allgemeine Ratschläge gibt, wobei der Gesprächskontext über Sitzungen hinweg erhalten bleibt. Nach einer Beta wurde Finn im Dezember 2023 als Europas erster KI-gestützter Bankassistent eingeführt und entwickelte sich schnell weiter. Bis Mai 2024 wurde er vollständig konversationell, was natürliche Mehrfachrunden-Interaktionen ermöglichte. Dieser retrieval-augmented generation (RAG)-Ansatz stützte Antworten auf Echtzeit-Nutzerdaten, minimierte Fehler und erhöhte die Personalisierung.

Ergebnisse

  • 100.000+ Fragen innerhalb von Monaten nach der Beta beantwortet (Ende 2023)
  • 40 % der Nutzeranfragen bis Mitte 2024 autonom vollständig gelöst
  • 35 % der Anfragen unterstützt, insgesamt 75 % sofortige Support-Abdeckung
  • Vor dem Start 12+ Datenexperten für die Dateninfrastruktur eingestellt
  • Zweitgrößte Neobank Europas nach Nutzerbasis (1M+ Nutzer)
Fallstudie lesen →

Nubank

Fintech

Nubank, die größte digitale Bank Lateinamerikas, die 114 Millionen Kunden in Brasilien, Mexiko und Kolumbien betreut, stand unter enormem Druck, den Kundensupport angesichts des explosiven Wachstums zu skalieren. Traditionelle Systeme kamen mit dem hohen Volumen an Tier‑1‑Anfragen nicht zurecht, was zu längeren Wartezeiten und inkonsistenter Personalisierung führte, während die Betrugserkennung eine Echtzeitanalyse riesiger Transaktionsdaten von über 100 Millionen Nutzern erforderte. Die Balance zwischen gebührenfreien Services, personalisierten Erlebnissen und robuster Sicherheit war in einem wettbewerbsintensiven Fintech‑Umfeld, das von ausgefeilten Betrugsformen wie Spoofing und komplexen zentralen Betrugsfällen geprägt ist, entscheidend. Intern brauchten Callcenter und Support‑Teams Werkzeuge, um komplexe Anfragen effizient zu bearbeiten, ohne die Qualität zu opfern. Vor der KI führten lange Antwortzeiten zu Engpässen, und manuelle Betrugsprüfungen waren ressourcenintensiv, was Vertrauen der Kunden und regulatorische Compliance in den dynamischen Märkten Lateinamerikas gefährdete.

Lösung

Nubank integrierte OpenAI GPT-4‑Modelle in sein Ökosystem für einen generativen KI‑Chatassistenten, einen Copilot für Callcenter und eine fortschrittliche Betrugserkennung, die NLP und Computer Vision kombiniert. Der Chatassistent löst autonom Tier‑1‑Probleme, während der Copilot menschliche Agenten mit Echtzeit‑Insights unterstützt. Für die Betrugserkennung analysiert ein auf Foundation‑Modellen basierendes ML System Transaktionsmuster in großem Maßstab. Die Implementierung erfolgte in Phasen: Pilotierung von GPT‑4 für den Support Anfang 2024, Ausbau auf interne Tools bis Anfang 2025 und Erweiterung der Betrugssysteme mit multimodaler KI. Diese KI‑zentrische Strategie, verankert im maschinellen Lernen, ermöglichte nahtlose Personalisierung und deutliche Effizienzgewinne in den Abläufen.

Ergebnisse

  • 55 % der Tier‑1‑Supportanfragen werden autonom von KI bearbeitet
  • 70 % Reduktion der Chat‑Antwortzeiten
  • Mehr als 5.000 Mitarbeitende nutzen bis 2025 interne KI‑Tools
  • 114 Millionen Kunden profitieren von personalisiertem KI‑Service
  • Echtzeit‑Betrugserkennung für über 100 Mio. Transaktionsanalysen
  • Deutlicher Effizienzschub in den Callcentern
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Claude nutzen, um rollenbasierte Zugriffspakete aus HR-Daten zu generieren

Ein praxisnaher erster Schritt besteht darin, Claude HRIS-Daten in strukturierte Zugriffspakete übersetzen zu lassen. Wenn im HR-System eine neue Person angelegt wird, senden Sie Claude ein Payload mit Schlüsselfeldern wie Rolle, Abteilung, Standort, Seniorität und Vertragsart. Claude kann dann Ihre Zugriffsregeln anwenden, um zu empfehlen, welche Systeme, Gruppen und Berechtigungsstufen benötigt werden.

Sie können dies über eine interne Chat-Oberfläche für HR oder Führungskräfte bereitstellen. Diese fügen die Daten der neuen Mitarbeitenden ein oder bestätigen sie, und Claude antwortet mit einem präzisen Zugriffsplan, der per API in Ihr ITSM- oder IAM-System übertragen werden kann.

Beispiel für einen System-Prompt für Claude:
Sie sind ein HR-Onboarding- und Zugriffsbereitstellungs-Assistent.

Ziel:
- Basierend auf den Daten zu neuen Mitarbeitenden, die ich Ihnen sende,
  schlagen Sie eine strukturierte Liste von Systemen und
  Berechtigungsgruppen vor, die sie erhalten sollten.
- Nutzen Sie die untenstehende Zugriffsrichtlinie des Unternehmens.

Zugriffsrichtlinie (Auszug):
- Sales Manager (EU): CRM (Rolle SalesManager), E-Mail, Slack-Sales-Kanal,
  Finanzreporting (Read-only), SSO zu SalesAcademy.
- Software Engineers (DE): GitHub (Rolle Engineer), Jira (Developer),
  Confluence (Standard), VPN, SSO zu CI/CD.

Wenn ich Ihnen Daten zu neuen Mitarbeitenden sende, antworten Sie in
gültigem JSON mit den Feldern:
- systems: [Liste von Systemen]
- groups: [Liste von Berechtigungsgruppen]
- approvals_required: [Liste von Manager:innen/Rollen]

Erwartetes Ergebnis: HR und Führungskräfte erhalten innerhalb von Sekunden konsistente, richtlinienkonforme Zugriffspläne, reduzieren Rückfragen mit der IT und senken Fehler in der initialen Bereitstellung.

Ticket-Erstellung und Status-Updates über ITSM- und IAM-APIs automatisieren

Sobald Claude ein Zugriffspaket generiert hat, verbinden Sie es über APIs mit Ihrem ITSM (z. B. ServiceNow, Jira Service Management) und Ihrem IAM (z. B. Azure AD, Okta). Claude sollte Konten nicht direkt anlegen, kann aber vollständig spezifizierte Tickets und API-Aufrufe erzeugen, die Ihre Backend-Services ausführen.

Wenn zum Beispiel ein Angebot angenommen wurde, löst HR ein Ereignis „Zugang bereitstellen“ aus. Claude stellt dann eine Reihe von API-Anfragen zusammen: eine Nutzerin bzw. einen Nutzer im Verzeichnis anlegen, sie oder ihn den richtigen Gruppen zuordnen und alle erforderlichen Hardware- oder manuellen Genehmigungs-Tickets eröffnen. Wenn sich Statuswerte in diesen Systemen ändern, spielen Sie Updates zurück an Claude, damit neue Mitarbeitende und Führungskräfte auf dem Laufenden bleiben.

Beispiel für eine Workflow-Konfiguration (Pseudocode):
Bei HRIS-Ereignis: NewHireCreated
  - Rufen Sie Claude mit JSON zum neuen Mitarbeitenden und der Zugriffsrichtlinie auf
  - Erhalten Sie strukturiertes access_plan-JSON
  - Für jedes System in access_plan.systems:
      - Erstellen Sie ein ITSM-Ticket mit allen erforderlichen Feldern
      - Oder rufen Sie die IAM-API auf, um Standardgruppen zuzuweisen
  - Speichern Sie die Zuordnung von Tickets zur ID des neuen Mitarbeitenden

Bei ITSM-Ereignis: TicketStatusChanged
  - Aktualisieren Sie den Status-Speicher
  - Benachrichtigen Sie Claude, damit es Statusanfragen beantworten kann

Erwartetes Ergebnis: Die IT erhält vollständige, standardisierte Anfragen; neue Mitarbeitende und Führungskräfte können Claude nach Echtzeit-Status fragen, statt HR oder IT zu mailen.

Neuen Mitarbeitenden einen Claude-gestützten Onboarding-Chat bereitstellen

Setzen Sie Claude als Chat-Assistenten (in Teams, Slack oder Ihrem Intranet) ein, der speziell für Onboarding- und Zugriffsfragen zuständig ist. Verbinden Sie ihn mit Ihrer HR-Wissensdatenbank, Ihren Richtlinien und den Statusdaten aus Ihren ITSM/IAM-Integrationen. Neue Mitarbeitende können fragen: „Habe ich bereits Zugriff auf das CRM?“ oder „Wann kommt mein Laptop an?“ und erhalten präzise, kontextbezogene Antworten.

Konfigurieren Sie Claude mit Leitplanken: Es sollte nur Statusdaten für die authentifizierte Person anzeigen und bei Blockaden Optionen zur Eskalation an Menschen anbieten (z. B. „Es sieht so aus, als wäre Ihr VPN-Zugang noch in der Genehmigung durch Ihre Führungskraft. Ich kann Ihre Führungskraft erinnern oder Sie können hier die IT kontaktieren.“).

Beispiel für einen nutzerorientierten Prompt:
Sie sind der Onboarding-Assistent für neue Mitarbeitende.

Fähigkeiten:
- Sie können die Onboarding-Aufgaben und Zugriffs-Status der aktuellen
  Nutzerin/des aktuellen Nutzers sehen (bereitgestellt als strukturiertes
  JSON in den Systemnachrichten).
- Sie können HR-Onboarding-FAQs auf Basis der Wissensdatenbank
  beantworten.

Beim Antworten:
- Seien Sie knapp und handlungsorientiert.
- Wenn eine Aufgabe blockiert ist, erklären Sie warum und was als
  Nächstes passieren wird.
- Geben Sie niemals Daten über andere Mitarbeitende preis.

Erwartetes Ergebnis: Weniger wiederkehrende Fragen an HR und IT, mehr Klarheit für neue Mitarbeitende und ein professionelleres, geführtes Erlebnis in der ersten Woche.

Genehmigungs-Workflows für Führungskräfte direkt in Claude-Konversationen einbetten

Oft stockt die Zugriffsbereitstellung, weil Führungskräfte nicht auf Genehmigungs-E-Mails reagieren oder unsicher sind, welche Berechtigungen sie vergeben sollen. Nutzen Sie Claude, um dies zu verschlanken, indem Genehmigungsanfragen direkt an Führungskräfte per Chat, E-Mail oder HR-Portal mit One-Click-Optionen gesendet werden.

Claude kann das Standard-Zugriffspaket basierend auf der Rolle erklären und besonders risikoreiche Berechtigungen hervorheben. Führungskräfte können das Standardpaket genehmigen oder Änderungen über dieselbe Oberfläche anfragen. Claude aktualisiert dann den Zugriffsplan und stößt die notwendigen Backend-Aktionen an.

Beispiel für eine Genehmigungsnachricht, die Claude an Führungskräfte sendet:
"Ein neues Teammitglied, Jane Doe (Sales Manager, EU), startet am 15. März.
Basierend auf unserer Richtlinie planen wir folgende Zugriffe zu gewähren:
- CRM: Rolle SalesManager
- E-Mail & Kalender
- Slack: #sales-europe, #company-announcements
- Finanzreporting: Read-only

Antworten Sie mit einer der folgenden Optionen:
- APPROVE STANDARD
- APPROVE WITH CHANGES: <Änderungen beschreiben>
- ESCALATE TO IT SECURITY

Wenn keine Antwort innerhalb von 48 Stunden erfolgt, sende ich eine Erinnerung."

Erwartetes Ergebnis: Schnellere Entscheidungen durch Führungskräfte, weniger überprivilegierte Konten und klare Dokumentation, wer was wann genehmigt hat.

Claude zur Erkennung von Risiken und Anomalien in Zugriffsanfragen nutzen

Über die Automatisierung hinaus kann Claude helfen, Sicherheit und Compliance zu stärken. Speisen Sie Protokolle über bereitgestellte Zugriffe und Anfragen über einen längeren Zeitraum ein und lassen Sie Claude Anomalien identifizieren: Rollen, die häufig nicht standardisierte Berechtigungen anfordern, inkonsistente Gruppenzuordnungen innerhalb derselben Jobfamilie oder Tools, die vergeben werden, ohne dass eine verantwortliche Person hinterlegt ist.

Sie können dies als geplante Batch-Analyse laufen lassen oder auslösen, wenn bestimmte Schwellenwerte überschritten werden (z. B. wenn eine neue Person mehr als X privilegierte Rollen erhält). Claude kann potenzielle Probleme für IT-Security oder HR zusammenfassen und konkrete Vorschläge für Richtlinienanpassungen liefern.

Beispiel-Prompt für eine periodische Analyse:
Sie unterstützen eine Überprüfung der Zugriffsgovernance.

Input:
- Eine Liste der Zugriffspakete für neue Mitarbeitende der letzten 90 Tage
- Die offizielle Zugriffsrichtlinie für jede Rolle

Aufgaben:
1) Identifizieren Sie Muster, bei denen der tatsächliche Zugriff von der
   Richtlinie abweicht.
2) Heben Sie potenziell überprivilegierte Konten hervor.
3) Schlagen Sie konkrete Richtlinienupdates oder Schulungsthemen für
   Führungskräfte vor.

Antworten Sie mit:
- Zusammenfassung (in einfacher Sprache für die HR-Leitung)
- Detaillierte Ergebnisse (tabellenähnliches Markdown)
- Empfohlene nächste Schritte.

Erwartetes Ergebnis: Geringeres Risiko von „Access Sprawl“, bessere Übereinstimmung von Richtlinie und Praxis sowie fundiertere Gespräche zwischen HR, IT und Security.

KPIs verfolgen und in Claudes Workflow-Logik zurückspielen

Um den Nutzen von Claude im Onboarding zu maximieren, definieren und messen Sie klare Onboarding-KPIs im Zusammenhang mit Zugriffen: Zeit von der Vertragsunterschrift bis zur Aktivierung aller Pflichtkonten, Anteil der neuen Mitarbeitenden, die vor dem ersten Arbeitstag vollständig bereitgestellt sind, Anzahl der zugriffsbezogenen Support-Tickets pro Person und durchschnittliche Bearbeitungszeit für Zugriffsprobleme.

Speichern Sie diese Kennzahlen zentral und lassen Sie sie regelmäßig von Claude zusammenfassen, um Engpässe nach Rolle, Standort oder System zu identifizieren. Im Zeitverlauf können Sie Trigger anpassen (z. B. Bereitstellung für bestimmte Rollen früher starten), Prompts verfeinern oder Regeln aktualisieren, um definierte SLAs zu erreichen.

Erwartete Ergebnisse: Organisationen, die diese Praktiken mit Claude umsetzen, können typischerweise 30–60 % schnellere Zugriffsbereitstellung für Standardrollen, einen deutlichen Rückgang von Onboarding-bezogenen IT-Tickets und eine klare, messbare Verbesserung der Time-to-Productivity neuer Mitarbeitender anstreben.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Claude beschleunigt die Bereitstellung von Zugängen und Konten, indem es als intelligenter Koordinator zwischen HR, Führungskräften, IT sowie Ihren HRIS-/IAM-Systemen agiert. Es nutzt Daten zu neuen Mitarbeitenden (Rolle, Abteilung, Standort, Startdatum), um standardisierte Zugriffspakete basierend auf Ihren Richtlinien zusammenzustellen, generiert vollständig spezifizierte Tickets oder API-Aufrufe für die IT und hält neue Mitarbeitende per Chat über den Fortschritt auf dem Laufenden.

Statt dass HR manuell E-Mails an die IT schreibt und Tabellen pflegt, verwandelt Claude diese Schritte in automatisierte Workflows. Das Ergebnis ist eine schnellere, konsistentere Bereitstellung und weniger Statusanfragen, die auf den Schreibtischen von HR und IT landen.

Um Claude für dieses Problem wirksam einzusetzen, benötigen Sie typischerweise Zugriff auf drei Arten von Systemen über APIs: Ihr HRIS (für Daten zu neuen Mitarbeitenden und Rollen), Ihr ITSM- oder Ticketing-System (für Hardware und manuelle Aufgaben) und Ihr IAM/Verzeichnis (für Konten, Gruppen und Berechtigungen). In vielen Organisationen sind diese Systeme bereits vorhanden; es fehlt nur die intelligente Orchestrierungsschicht.

Claude verbindet sich über einen Backend-Service mit diesen Systemen, den Reruption oder Ihr internes IT-Team einrichtet. Claude selbst konzentriert sich darauf, Richtlinien zu interpretieren, Zugriffspakete zu erstellen und strukturierte Anfragen zu generieren, während die Integrationen Ausführung und Authentifizierung übernehmen.

Ein fokussierter Pilot für Onboarding und Zugriffsbereitstellung kann oft innerhalb weniger Wochen realisiert werden, vorausgesetzt, die APIs stehen zur Verfügung. Ein typischer Zeitplan ist: 1–2 Wochen für Discovery und Mapping der Richtlinien, 1–2 Wochen für den Aufbau von Prompts, Workflows und Integrationen für einen begrenzten Scope (z. B. ein Land oder eine Rollenfamilie) und weitere 1–2 Wochen für Tests und Verfeinerung mit echten Neueinstellungen.

Sie benötigen Input von HR (zur Onboarding-Journey und Kommunikation), IT (für Systeme und Integrationen) sowie Security/Compliance (für Richtlinien und Leitplanken). Reruption arbeitet üblicherweise mit einem kleinen, funktionsübergreifenden Team, um Entscheidungen zu beschleunigen und die Implementierung praxisnah zu halten.

Die meisten Organisationen können mit messbaren Verbesserungen sowohl in Effizienz als auch im Erlebnis rechnen. Typische Ergebnisse sind 30–60 % schnellere Bereitstellung für Standardrollen, eine deutliche Reduktion zugriffsbezogener Support-Tickets und weniger Verzögerungen, bis neue Mitarbeitende grundlegende Produktivitätsmeilensteine erreichen. Für HR und IT bedeutet dies zurückgewonnene Kapazität, die zuvor in Koordination und manuelle Nachverfolgung floss.

Der ROI ergibt sich aus mehreren Quellen: kürzere Time-to-Productivity für neue Mitarbeitende, geringerer manueller Aufwand in HR/IT, weniger Zugriffsfehler und Eskalationen sowie eine stärkere Arbeitgebermarke durch eine reibungslosere erste Woche. Diese Vorteile lassen sich leicht quantifizieren, sobald Sie Basiswerte und Post-Implementierungs-KPIs wie Time-to-Access und Ticketvolumen pro Neueinstellung verfolgen.

Reruption unterstützt Sie End-to-End – von der Identifikation geeigneter Employee-Onboarding- und Zugriffs-Use-Cases bis zur Auslieferung einer funktionierenden Lösung. Mit unserem 9.900 € KI-PoC validieren wir schnell, dass Claude Ihren HRIS-, ITSM- und IAM-Stack für einen definierten Scope orchestrieren kann – inklusive funktionsfähigem Prototyp, Performance-Kennzahlen und einem konkreten Rollout-Plan.

Über den PoC hinaus bedeutet unser Co-Preneur-Ansatz, dass wir uns wie Mitgründer:innen in Ihre HR- und IT-Teams einbetten: Wir helfen, Richtlinien zu verfeinern, Workflows zu gestalten, Integrationen aufzubauen und abzusichern und das Change Management zu unterstützen, bis der Assistent wirklich angenommen ist. Wir agieren in Ihrer GuV, nicht nur in Foliensätzen, und stellen so sicher, dass Claude tatsächlich Wirkung auf Time-to-Productivity und das Erlebnis neuer Mitarbeitender entfaltet.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media