Die Herausforderung: Langsamer Zugang zu Onboarding-Informationen

Die meisten HR-Teams haben stark in Onboarding-Inhalte investiert: Handbücher, Richtlinien-PDFs, LMS-Module, Confluence-Seiten, gemeinsame Laufwerke und lange Willkommens-E-Mails. Dennoch haben neue Mitarbeitende weiterhin Schwierigkeiten, einfache Fragen zu beantworten wie „Wie beantrage ich Ausstattung?“ oder „Wo erfasse ich meine Arbeitszeit?“. Informationen sind über verschiedene Tools verstreut, schwer auffindbar und häufig veraltet. Dadurch wenden sich neue Mitarbeitende für jede grundlegende Frage an HR, ihre Führungskraft oder Kolleginnen und Kollegen.

Traditionelle Ansätze für Onboarding-Support – statische FAQs, generische Intranet-Suchen oder Sammel-Mails zur Orientierung – funktionieren in einer komplexen, sich schnell verändernden Umgebung nicht mehr. Mitarbeitende erwarten sofortigen, dialogorientierten Zugang zu Informationen, ähnlich wie in Consumer-Apps. HR-Wissensdatenbanken sind selten so strukturiert, dass sie natürliche Sprachfragen gut beantworten, und die Aktualisierung von Inhalten in mehreren Systemen ist zeitaufwendig. Selbst wenn Dokumentation vorhanden ist, ist sie oft versteckt, inkonsistent oder in juristischer Sprache verfasst, die für neue Mitarbeitende schwer zu interpretieren ist.

Die geschäftlichen Auswirkungen sind erheblich. Langsamer Zugang zu Onboarding-Informationen verzögert die Produktivität, erhöht das Risiko verpasster Compliance-Schritte und frustriert neue Mitarbeitende in ihren ersten Wochen. HR-Teams verbringen jede Woche Stunden damit, immer wieder dieselben Fragen zu Tools, Richtlinien, Benefits und Payroll zu beantworten, statt sich auf strategische Themen wie Workforce-Planning oder Leadership-Entwicklung zu konzentrieren. Diese repetitive Arbeit treibt die HR-Servicekosten in die Höhe, erzeugt Engpässe in Spitzenphasen der Einstellung und erschwert es, Onboarding in wachstumsstarken oder verteilten Organisationen zu skalieren.

Die gute Nachricht: Auch wenn die Herausforderung real ist, ist sie sehr gut lösbar. Moderne KI-HR-Assistenten können auf Ihren bestehenden Handbüchern, Richtlinien-PDFs und LMS-Inhalten aufsetzen und neuen Mitarbeitenden in Sekunden klare, konforme Antworten liefern. Bei Reruption sehen wir in der Praxis, wie KI-gestützte Support-Agents wiederkehrende Wissensarbeit im HR und in angrenzenden Funktionen grundlegend verändern können. Im weiteren Verlauf dieser Seite finden Sie konkrete Hinweise, wie Sie Claude nutzen können, um den langsamen Zugang zu Onboarding-Informationen zu beheben – ohne Ihren gesamten HR-Tech-Stack neu aufzubauen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Sicht von Reruption gehört der Einsatz von Claude zur Automatisierung des HR-Onboarding-Supports zu den wirkungsvollsten KI-Maßnahmen, die eine HR-Abteilung ergreifen kann. Claudes Long-Context-Fähigkeiten ermöglichen es, umfangreiche HR-Handbücher, Richtlinien-PDFs und LMS-Inhalte aufzunehmen, ohne Nuancen und compliance-relevante Formulierungen zu verlieren – ideal für Onboarding, bei dem Genauigkeit und Tonfall genauso wichtig sind wie Geschwindigkeit. Basierend auf unserer praktischen Erfahrung mit KI-Implementierungen in komplexen Organisationen besteht der Schlüssel nicht nur darin, Claude an Ihre Inhalte anzuschließen, sondern den richtigen Umfang, klare Leitplanken und passende Workflows darum herum zu gestalten.

Definieren Sie eine klare Support-Grenze für Ihren HR-Assistenten

Bevor Sie Claude mit Onboarding-Inhalten verbinden, legen Sie genau fest, welche Fragen er beantworten soll – und welche nicht. Ein erfolgreicher KI-HR-Onboarding-Assistent konzentriert sich auf vorhersehbare, risikoarme Themen: Zugang zu Tools, grundlegende IT-Einrichtung, standardisierte Erläuterungen von Richtlinien, Prozessüberblicke und Hinweise, wo sich Formulare finden. Er sollte keine rechtsverbindlichen Auskünfte geben, keine Richtlinienausnahmen versprechen oder sich zu sensiblen Themen wie Performance- oder Vergütungsentscheidungen äußern.

In der Praxis bedeutet das, eine klare „Support-Grenze“ in Zusammenarbeit mit HR, Legal und falls erforderlich dem Betriebsrat zu dokumentieren. Diese Grenze bestimmt dann, wie Sie Claude anleiten, auf welche Inhalte er Zugriff erhält und welche Fälle an menschliches HR eskaliert werden. Mit einem klar definierten Scope reduzieren Sie Risiken, schaffen Vertrauen bei Stakeholdern und stellen sicher, dass der Assistent als verlässlicher Partner wahrgenommen wird – nicht als improvisierender Chatbot.

Behandeln Sie Onboarding-Inhalte als Produkt, nicht als statische Bibliothek

Claude ist nur so gut wie die HR-Onboarding-Wissensbasis, an die Sie ihn anschließen. Wenn Richtlinien in mehreren Systemen dupliziert sind, Prozessbeschreibungen einander widersprechen oder lokale Abweichungen nicht dokumentiert sind, verstärkt eine KI-Ebene diese Unklarheiten nur. Strategisch betrachtet müssen Sie Onboarding-Informationen wie ein Produkt behandeln: kuratiert, verantwortlich betreut, versioniert und regelmäßig anhand realer Nutzung verbessert.

Beginnen Sie damit, Content-Verantwortliche in HR und in angrenzenden Funktionen (IT, Facilities, Finance) zu benennen und festzulegen, wer für welchen Themenbereich zuständig ist. Nutzen Sie die Analysen und Gesprächsprotokolle von Claude (sobald vorhanden), um zu sehen, wo Mitarbeitende ins Stocken geraten, welche Antworten Rückfragen auslösen und wo Inhaltslücken bestehen. Diese Produkt-Sicht stellt sicher, dass Ihr KI-Assistent im Laufe der Zeit intelligenter und besser an Ihre Organisation angepasst wird – statt zu einem weiteren veralteten Wissenssilo zu werden.

Stakeholder frühzeitig auf Compliance und Employee Experience ausrichten

Die Automatisierung des Onboarding-Supports betrifft mehrere Stakeholder: HR Operations, HR Business Partner, Legal, Datenschutz und häufig auch IT. Jede Gruppe hat berechtigte Anliegen – von Datensicherheit bis hin zum Tonfall in der Kommunikation. Strategisch sollten Sie Claude-basiertes Onboarding-Automatisierung als Möglichkeit positionieren, Compliance und Konsistenz zu erhöhen, nicht als Risiko, das eingedämmt werden muss.

Beziehen Sie diese Stakeholder in die Designphase ein, zeigen Sie, wie sich Claude darauf begrenzen lässt, ausschließlich aus freigegebenen Dokumenten zu antworten, und demonstrieren Sie, wie er bei Bedarf exakte Richtlinientexte beibehält. Gleichzeitig sollte das Erlebnis für neue Mitarbeitende dennoch freundlich und menschlich wirken. Vereinbaren Sie Prinzipien wie Sprachstil, Eskalationsregeln und den Umgang mit standortspezifischen Regelungen. Diese frühe Abstimmung verringert späteren Widerstand und beschleunigt Freigaben.

Bereiten Sie HR und Führungskräfte auf einen neuen Support-Workflow vor

Die Einführung eines KI-Onboarding-Assistenten mit Claude verändert, wer welche Fragen beantwortet – und wie. HR-Teams und Führungskräfte brauchen Klarheit: Welche Fragen sollen sie an den Assistenten weiterleiten, wann sollen sie direkt eingreifen und wie sehen sie, was der Assistent bereits beantwortet hat? Ohne diese Klarheit riskieren Sie Doppelarbeit oder abweichende Antworten aus verschiedenen Kanälen.

Planen Sie die Veränderung wie jede andere Prozess-Transformation. Erstellen Sie eine einfache Anleitung für Führungskräfte, die sie mit neuen Mitarbeitenden teilen können: wo der Assistent zu finden ist, Beispiele für Fragen, die er beantworten kann, und wann HR direkt kontaktiert werden sollte. Für HR-Mitarbeitende positionieren Sie Claude als First-Level-Support-Kollegen, der Volumen abfängt, sodass sie sich auf komplexe, wertschöpfende Fälle konzentrieren können. Dieser Mindset-Wechsel fördert die Nutzung und stellt sicher, dass Ihre Investition die HR-Arbeitslast tatsächlich reduziert – statt einfach nur ein weiteres Tool hinzuzufügen.

Risiken durch Leitplanken, Monitoring und Iteration begrenzen

Selbst mit leistungsfähigen Modellen wie Claude ist es riskant, einen KI-Chatbot unkontrolliert der Belegschaft zur Verfügung zu stellen. Strategisch brauchen Sie Leitplanken: kontrollierte Inhaltszugriffe, explizite Anweisungen, was der Assistent keinesfalls tun darf, sowie Monitoring, um Probleme frühzeitig zu erkennen. Konfigurieren Sie Claude so, dass er Fragen außerhalb seines Scopes ablehnt und bei kritischen Richtlinien auf Quelldokumente verweist, damit Mitarbeitende Details nachprüfen können.

Planen Sie eine überwachte Beta-Phase, in der Sie eine Stichprobe von Gesprächen prüfen, wiederkehrende Probleme klassifizieren und Prompts oder Inhalte entsprechend anpassen. Etablieren Sie einen schlanken Governance-Prozess: Wer genehmigt Aktualisierungen am Assistenten, wie werden Vorfälle behandelt und wie oft prüfen Sie Leistungskennzahlen wie Containment-Rate, Nutzerzufriedenheit und Eskalationsvolumen. Mit diesen Strukturen wird Claude zu einem gesteuerten, verlässlichen Bestandteil Ihrer HR-Servicebereitstellung – und nicht zu einer Blackbox.

Sorgfältig eingesetzt kann Claude den langsamen, fragmentierten Zugang zu Onboarding-Informationen in ein schnelles, verlässliches und konformes Erlebnis für jede neue Mitarbeitende verwandeln. Die Kombination aus Long-Context-Verständnis und präziser Kontrolle darüber, aus welchen Dokumenten Antworten stammen, macht Claude besonders geeignet für die HR-Welt, in der Nuancen und Regulierung eng miteinander verflochten sind. Bei Reruption arbeiten wir mit Teams daran, den richtigen Scope, passende Leitplanken und Workflows zu definieren, damit ein KI-Onboarding-Assistent das HR-Ticketvolumen reduziert, ohne das Vertrauen der Mitarbeitenden zu gefährden. Wenn Sie erkunden möchten, wie dies in Ihrem Umfeld aussehen könnte, unterstützen wir Sie gerne beim Testen in einem fokussierten Proof of Concept mit einem klaren Weg in den produktiven Betrieb.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Bankwesen bis Bankwesen: Erfahren Sie, wie Unternehmen Claude erfolgreich einsetzen.

JPMorgan Chase

Bankwesen

In der hochdynamischen Welt des Asset Management und der Vermögensverwaltung bei JPMorgan Chase waren Berater mit erheblichen zeitlichen Belastungen durch manuelle Recherche, Dokumentenzusammenfassungen und Berichtsentwürfe konfrontiert. Die Erstellung von Investmentideen, Marktanalysen und personalisierten Kundenberichten dauerte oft Stunden oder Tage, wodurch die Zeit für Kundeninteraktion und strategische Beratung eingeschränkt wurde. Diese Ineffizienz verstärkte sich nach dem Aufkommen von ChatGPT, sodass die Bank den Bedarf an sicherer, interner KI erkannte, die mit umfangreichen proprietären Daten arbeiten kann, ohne Compliance- oder Sicherheitsrisiken einzugehen. Die Private-Bank-Berater hatten es besonders schwer, sich auf Kundentermine vorzubereiten, sich durch Research-Reports zu arbeiten und maßgeschneiderte Empfehlungen zu erstellen – und das unter regulatorischer Beobachtung und in einer Umgebung mit Datensilos, was die Produktivität und Reaktionsfähigkeit gegenüber Kunden in einem wettbewerbsintensiven Umfeld behinderte.

Lösung

JPMorgan begegnete diesen Herausforderungen durch die Entwicklung der LLM Suite, einer internen Suite aus sieben feinabgestimmten Large Language Models (LLMs), die von generativer KI angetrieben und in eine sichere Dateninfrastruktur integriert sind. Diese Plattform ermöglicht es Beratern, Berichte zu entwerfen, Investmentideen zu generieren und Dokumente schnell zusammenzufassen, wobei proprietäre Daten genutzt werden. Ein spezialisiertes Tool, Connect Coach, wurde für Private-Bank-Berater entwickelt, um bei der Vorbereitung auf Kundengespräche, der Ideenfindung und der Synthese von Research zu unterstützen. Die Implementierung legte starken Wert auf Governance, Risikomanagement und Mitarbeiterschulungen durch KI-Wettbewerbe und 'learning-by-doing'-Ansätze, um eine sichere Skalierung in der gesamten Firma zu gewährleisten. Die LLM Suite wurde schrittweise eingeführt, beginnend mit Proof-of-Concepts und einer anschließenden Ausweitung auf die gesamte Organisation.

Ergebnisse

  • Erreichte Nutzer: 140.000 Mitarbeitende
  • Entwickelte Use Cases: 450+ Proof-of-Concepts
  • Finanzieller Nutzen: Bis zu 2 Mrd. $ an KI-Wert
  • Bereitstellungsgeschwindigkeit: Vom Pilot bis zu 60.000 Nutzern in wenigen Monaten
  • Berater-Tools: Connect Coach für die Private Bank
  • Firmenweite PoCs: Strikte ROI-Messung über 450 Initiativen
Fallstudie lesen →

Morgan Stanley

Bankwesen

Finanzberater bei Morgan Stanley hatten Schwierigkeiten, schnell auf die umfangreiche proprietäre Forschungsdatenbank des Unternehmens zuzugreifen, die über 350.000 Dokumente und Jahrzehnte institutionellen Wissens umfasst. Manuelle Recherchen in diesem riesigen Archiv waren zeitraubend und dauerten oft 30 Minuten oder länger pro Anfrage, was die Fähigkeit der Berater einschränkte, während Kundengesprächen zeitnahe, personalisierte Beratung zu liefern . Dieser Engpass begrenzte die Skalierbarkeit in der Vermögensverwaltung, in der vermögende Kunden sofort datenbasierte Einblicke in volatilen Märkten erwarten. Zudem erschwerte das schiere Volumen unstrukturierter Daten — 40 Millionen Wörter an Forschungsberichten — die schnelle Synthese relevanter Informationen, was suboptimale Empfehlungen und geringere Kundenzufriedenheit zur Folge haben konnte. Die Berater benötigten eine Lösung, um den Zugang zu dieser Wissensquelle zu demokratisieren, ohne umfangreiche Schulungen oder technische Vorkenntnisse .

Lösung

Morgan Stanley arbeitete mit OpenAI zusammen, um AI @ Morgan Stanley Debrief zu entwickeln, einen auf GPT-4 basierenden generativen KI-Chatbot, der speziell für Vermögensverwaltungsberater zugeschnitten ist. Das Tool verwendet retrieval-augmented generation (RAG), um sicher und kontextbewusst Abfragen in der proprietären Forschungsdatenbank durchzuführen und sofortige, quellenbasierte Antworten zu liefern . Als konversationeller Assistent implementiert, ermöglicht Debrief Beratern, natürliche Fragen wie ‚Was sind die Risiken bei Investitionen in AI-Aktien?‘ zu stellen und synthetisierte Antworten mit Zitaten zu erhalten — ohne manuelle Suche. Strenge KI-Evaluationen und menschliche Aufsicht sorgen für Genauigkeit; das Modell wurde zudem feingetunt, um sich an Morgan Stanleys institutionelles Wissen anzupassen . Dieser Ansatz löste Datensilos auf und ermöglichte eine nahtlose Integration in die Arbeitsabläufe der Berater.

Ergebnisse

  • 98% Akzeptanzrate bei Vermögensverwaltungsberatern
  • Zugriff für nahezu 50% der gesamten Mitarbeitenden von Morgan Stanley
  • Anfragen werden in Sekunden statt in über 30 Minuten beantwortet
  • Mehr als 350.000 proprietäre Forschungsdokumente indexiert
  • 60% Mitarbeiterzugriff bei Wettbewerbern wie JPMorgan zum Vergleich
  • Signifikante Produktivitätssteigerungen laut Chief Administrative Officer
Fallstudie lesen →

Citibank Hong Kong

Vermögensverwaltung

Citibank Hong Kong sah sich einer wachsenden Nachfrage nach fortschrittlichen persönlichen Finanzmanagement-Tools ausgesetzt, die über mobile Geräte zugänglich sind. Kunden suchten nach prädiktiven Erkenntnissen zu Budgetierung, Investitionen und Finanzverfolgung, doch traditionelle Apps fehlten an Personalisierung und Echtzeit‑Interaktivität. In einem wettbewerbsintensiven Privatkundengeschäft‑Umfeld, insbesondere im Bereich der Vermögensverwaltung, erwarteten Kunden nahtlose, proaktive Beratung inmitten volatiler Märkte und steigender digitaler Erwartungen in Asien. Zu den zentralen Herausforderungen gehörten die Integration großer Kundendatenmengen für präzise Prognosen, die Gewährleistung, dass konversationelle Schnittstellen natürlich wirkten, sowie das Überwinden von Datenschutzhürden im regulierten Umfeld Hongkongs. Frühe mobile Tools zeigten ein niedriges Engagement, da Nutzer Apps wegen generischer Empfehlungen abbrachen — ein klares Signal für die Notwendigkeit KI‑getriebener Personalisierung, um hochvermögende Kunden zu binden.

Lösung

Wealth 360 entstand als Citibank HKs KI‑gestützter persönlicher Finanzmanager, eingebettet in die Citi Mobile App. Er nutzt prädiktive Analytik, um Ausgabemuster, Anlageerträge und Portfoliorisiken vorherzusagen und liefert personalisierte Empfehlungen über eine konversationelle Schnittstelle wie Chatbots. Aufbauend auf Cis globaler KI‑Expertise verarbeitet das System Transaktionsdaten, Markttrends und Nutzerverhalten für maßgeschneiderte Ratschläge zu Budgetierung und Vermögensaufbau. Die Implementierung umfasste Modelle des maschinellen Lernens zur Personalisierung und natürliche Sprachverarbeitung (NLP) für intuitive Chats, aufbauend auf Citibank‑Erfolgen wie Chatbots in der Asien‑Pazifik‑Region und API‑Lösungen. Die Lösung schloss Lücken, indem sie proaktive Alerts und virtuelle Beratungen erlaubte und so die Kundenerfahrung ohne menschliches Eingreifen verbesserte.

Ergebnisse

  • 30% Zunahme der Engagement‑Kennzahlen in der mobilen App
  • 25% Verbesserung der Kundenbindungsrate im Wealth‑Management
  • 40% schnellere Reaktionszeiten durch konversationelle KI
  • 85% Kundenzufriedenheitswert für personalisierte Insights
  • Über 18 Mio. API‑Aufrufe in vergleichbaren Citi‑Initiativen
  • 50% Reduktion manueller Beratungsanfragen
Fallstudie lesen →

Kaiser Permanente

Gesundheitswesen

In Krankenhäusern erfahren erwachsene Patienten auf Allgemeinstationen häufig eine , ohne dass rechtzeitig ausreichend Warnzeichen erkannt werden. Das führt zu Notfallverlegungen auf Intensivstationen, erhöhter Sterblichkeit und vermeidbaren Wiederaufnahmen. Kaiser Permanente Northern California stand vor diesem Problem in seinem Netzwerk, in dem subtile Veränderungen bei Vitalparametern und Laborwerten bei hohem Patientenvolumen und anspruchsvollen Arbeitsabläufen leicht übersehen wurden. Das resultierte in erhöhten negativen Ergebnissen, darunter vermeidbar hohe Sterberaten und 30-Tage-Wiederaufnahmen . Traditionelle Frühwarnscores wie MEWS (Modified Early Warning Score) waren durch manuelle Erfassung und unzureichende Vorhersagegenauigkeit für Verschlechterungen innerhalb von 12 Stunden limitiert und nutzten nicht das volle Potenzial elektronischer Patientenakten (EHR). Die Herausforderung wurde durch Alarmmüdigkeit durch weniger präzise Systeme verschärft und erforderte eine skalierbare Lösung für 21 Krankenhäuser, die Millionen von Patienten versorgen .

Lösung

Kaiser Permanente entwickelte den Advance Alert Monitor (AAM), ein KI-gestütztes Frühwarnsystem, das prädiktive Analytik einsetzt, um Echtzeit-EHR-Daten — einschließlich Vitalzeichen, Laborwerte und Demografie — zu analysieren und Patienten mit hohem Risiko einer Verschlechterung innerhalb der nächsten 12 Stunden zu identifizieren. Das Modell erzeugt eine Risikobewertung und automatisierte Alarme, die in die klinischen Arbeitsabläufe integriert werden und zeitnahe Interventionen wie ärztliche Überprüfungen oder den Einsatz von Rapid Response Teams auslösen . Seit der Einführung in 2013 in Nordkalifornien verwendet AAM Machine-Learning-Algorithmen, die auf historischen Daten trainiert wurden und traditionelle Scores übertreffen, wobei erklärbare Vorhersagen das Vertrauen der Mitarbeitenden stärken. Die Einführung erfolgte stationsweit, Integrationsprobleme wurden über Epic-EHR-Kompatibilität und Schulungen für Klinikpersonal adressiert, um Alarmmüdigkeit zu minimieren .

Ergebnisse

  • 16 % geringere Sterblichkeitsrate in der AAM-Interventionskohorte
  • Über 500 Todesfälle jährlich im Netzwerk verhindert
  • 10 % Reduktion bei 30-Tage-Wiederaufnahmen
  • Identifiziert Verschlechterungsrisiken innerhalb von 12 Stunden mit hoher Zuverlässigkeit
  • Eingesetzt in 21 Krankenhäusern in Nordkalifornien
Fallstudie lesen →

Cruise (GM)

Automobilindustrie

Die Entwicklung eines selbstfahrenden Taxi‑Dienstes in dicht besiedelten urbanen Umgebungen stellte Cruise vor immense Herausforderungen. Komplexe Situationen wie unberechenbare Fußgänger, erratische Radfahrer, Baustellen und widrige Wetterbedingungen erforderten nahezu perfekte Wahrnehmung und Entscheidungsfindung in Echtzeit. Sicherheit hatte oberste Priorität, da jeder Fehler zu Unfällen, behördlicher Prüfung oder öffentlicher Empörung führen konnte. Frühe Tests zeigten Lücken bei der Handhabung von Randfällen, etwa Einsatzfahrzeuge oder verdeckte Objekte, und verlangten eine robuste KI, die die Leistung menschlicher Fahrer übertreffen sollte. Ein entscheidender Sicherheitsvorfall im Oktober 2023 verschärfte diese Probleme: Ein Cruise‑Fahrzeug erfasste eine Fußgängerin, die von einem Unfallfahrer in seinen Weg gedrängt worden war, und schleifte sie, als das Fahrzeug den Unfallort verließ, was zur Aussetzung der Betriebsführungen landesweit führte. Dies legte Schwachstellen im Nach‑Kollisions‑Verhalten, in der Sensorfusion unter chaotischen Bedingungen und in der regulatorischen Compliance offen. Die Skalierung zu kommerziellen Robotaxi‑Flotten bei gleichzeitiger Erreichung von Null schuldhaften Vorfällen erwies sich angesichts von $10 Mrd.+ Investitionen seitens GM als schwer realisierbar.

Lösung

Cruise begegnete diesen Herausforderungen mit einem integrierten KI‑Stack, der Computervision für die Wahrnehmung und verstärkendes Lernen für die Planung nutzte. Lidar, Radar und mehr als 30 Kameras speisten CNNs und Transformers für Objekterkennung, semantische Segmentierung und Szenenvorhersage, wodurch 360°‑Ansichten mit hoher Detailtreue selbst bei schwachem Licht oder Regen verarbeitet wurden. Verstärkendes Lernen optimierte Trajektorienplanung und Verhaltensentscheidungen, trainiert auf Millionen simulierten Meilen, um seltene Ereignisse zu bewältigen. End‑to‑end‑Neuronale Netze verfeinerten die Bewegungsprognose, während Simulationsframeworks die Iteration ohne reales Risiko beschleunigten. Nach dem Vorfall verstärkte Cruise die Sicherheitsprotokolle und nahm 2024 mit verbesserten Disengagement‑Raten wieder beaufsichtigte Tests auf. GMs Strategiewechsel integrierte diese Technologie in die Weiterentwicklung von Super Cruise für Privatfahrzeuge.

Ergebnisse

  • 1.000.000+ Meilen vollständig autonom gefahren bis 2023
  • 5 Millionen fahrerlose Meilen für das KI‑Modelltraining verwendet
  • $10 Mrd.+ kumulative Investition von GM in Cruise (2016–2024)
  • 30.000+ Meilen pro Eingriff in frühen unbeaufsichtigten Tests
  • Betrieb ausgesetzt Okt 2023; im Mai 2024 mit beaufsichtigten Tests wieder aufgenommen
  • Keine kommerziellen Robotaxi‑Einnahmen; Strategiewechsel Dez 2024
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Zentralisieren und strukturieren Sie Ihre Onboarding-Quellinhalte zuerst

Bevor Sie irgendetwas mit Claude verbinden, konsolidieren Sie die Kern­dokumente, auf die sich Ihr Assistent stützen wird: HR-Handbücher, Richtlinien-PDFs, Onboarding-Checklisten, LMS-Kursbeschreibungen, IT-Setup-Guides und Benefits-Übersichten. Speichern Sie diese in einem einzigen, zugriffsgeschützten Repository (z. B. einem dedizierten Ordner in Ihrem DMS oder einem eingeschränkten Wissensbereich). Entfernen Sie offensichtliche Duplikate und kennzeichnen oder archivieren Sie veraltete Dokumente klar.

Wo möglich, fügen Sie langen Dokumenten eine leichte Struktur hinzu: Überschriften, Abschnitte und kurze Zusammenfassungen am Anfang jeder Richtlinie. Claudes Long-Context-Fähigkeit erlaubt zwar den Umgang mit unstrukturiertem Text, aber eine klare Struktur verbessert die Antwortqualität und reduziert Mehrdeutigkeiten. Stellen Sie sicher, dass jedes Dokument mit Metadaten wie Land, Standort, Business Unit oder Rolle versehen ist, damit Sie Claude gezielt auf die richtigen Varianten für jede Mitarbeitendengruppe lenken können.

Entwerfen Sie einen rollen- und standortbewussten Prompt für Claude

Ihr Onboarding-Assistent sollte Antworten an den Kontext der neuen Mitarbeitenden anpassen: Land, Standort/Büro, Anstellungsart und Rolle. Dies ist in erster Linie eine Aufgabe des Prompt-Designs. Wenn Sie Claude aufrufen (über API oder Integration), übergeben Sie diese Attribute und weisen Sie ihn an, Inhalte zu bevorzugen, die zu diesem Kontext passen, und nur bei Bedarf auf globale Richtlinien zurückzugreifen.

Ein möglicher System-Prompt für Ihren Assistenten könnte so aussehen:

Sie sind ein HR-Onboarding-Assistent für ACME Corp.

Ziele:
- Helfen Sie neuen Mitarbeitenden, schnell genaue und konforme Informationen zum Onboarding zu finden.
- Antworten Sie NUR auf Basis der bereitgestellten HR-Dokumente und Wissensdatenbank.
- Wenn Informationen fehlen oder unklar sind, sagen Sie, dass Sie sich nicht sicher sind, und empfehlen Sie, HR zu kontaktieren.

Kontext zur Person, die die Frage stellt:
- Land: {{country}}
- Standort/Büro: {{location}}
- Anstellungsart: {{employment_type}}
- Abteilung: {{department}}
- Rolle: {{role}}

Anweisungen:
- Bevorzugen Sie Dokumente und Abschnitte, die zum Land und Standort der Nutzerin/des Nutzers passen.
- Wenn es lokale und globale Richtlinien gibt, erwähnen Sie beide und erklären Sie klar, welche zutrifft.
- Bewahren Sie die exakte Formulierung von Richtlinien für rechtliche oder compliance-relevante Abschnitte.
- Geben Sie prägnante, schrittweise Antworten und verlinken Sie das relevante Quelldokument oder den entsprechenden Abschnitt.
- Erfinden Sie niemals Richtlinien, Fristen oder juristische Auslegungen.
- Wenn nach Ausnahmen oder persönlicher Beratung gefragt wird, erläutern Sie die allgemeine Regel und empfehlen Sie, HR zu kontaktieren.

Damit stellen Sie sicher, dass Claude im definierten Rahmen bleibt, lokale Unterschiede respektiert und Mitarbeitende konsequent auf autoritative Quellen verweist.

Typische New-Hire-Journeys in wiederverwendbare Prompt-Muster übersetzen

Viele Onboarding-Fragen folgen wiederkehrenden Mustern: „Wie mache ich…?“, „Wo finde ich…?“, „Wer genehmigt…?“. Sie können die Antwortqualität und Konsistenz verbessern, indem Sie wiederverwendbare Prompt-Vorlagen oder Wrapper-Funktionen rund um Claude für diese Muster definieren.

Für Prozessfragen könnten Sie die Nutzerfrage zum Beispiel wie folgt einbetten:

Aufgabe: Erklären Sie einer neuen Mitarbeiterin/einem neuen Mitarbeiter einen internen Onboarding-Prozess.

Frage der Nutzerin/des Nutzers:
"{{user_question}}"

Anweisungen:
- Identifizieren Sie den relevanten Prozess in den bereitgestellten Dokumenten.
- Fassen Sie den Prozess in 3–7 klaren Schritten zusammen.
- Heben Sie Fristen (z. B. innerhalb von 3 Tagen abschließen) und benötigte Systeme hervor.
- Wenn es Unterschiede nach Land oder Rolle gibt, erläutern Sie die Variante, die auf die Nutzerin/den Nutzer zutrifft.
- Fügen Sie einen kurzen Abschnitt „Wenn Sie nicht weiterkommen“ hinzu, mit der richtigen Kontaktstelle (aus den Dokumenten).

Durch die Standardisierung dieser Muster in Ihrer Integration reduzieren Sie Streuung in den Antworten und können leichter Leitplanken für spezifische Fragetypen (z. B. Zugriffsanfragen vs. Benefits-Erklärungen) einziehen.

Integrieren Sie Claude dort, wo neue Mitarbeitende bereits sind (nicht als weiteres Portal)

Ein häufiger Fehler ist es, den HR-KI-Assistenten als weitere eigenständige Website zu starten, die neue Mitarbeitende schnell vergessen. Besser ist es, Claude in die Tools einzubetten, die während des Onboardings ohnehin genutzt werden: Ihr Intranet, HR-Portal oder Kollaborationstools wie Microsoft Teams oder Slack.

Richten Sie beispielsweise einen dedizierten „#ask-onboarding“-Kanal in Teams oder Slack ein, in dem ein auf Claude basierender Bot Fragen beantwortet. Verlinken Sie in Ihrer Willkommens-E-Mail und in LMS-Kursen direkt auf diesen Kanal und erklären Sie in einem Satz, wobei er helfen kann. Ergänzen Sie auf der Onboarding-Checklisten-Seite im HRIS ein „Frage stellen“-Widget, das von Claude betrieben wird. Eine enge Integration fördert die tatsächliche Nutzung und lässt den Assistenten wie einen natürlichen Bestandteil der Onboarding-Reise wirken.

Eskalations- und Feedback-Schleifen in HR-Workflows einbauen

Um HR die Kontrolle zu lassen und den Assistenten kontinuierlich zu verbessern, benötigen Sie zwei zentrale Mechanismen: Eskalation und Feedback. Bei sensiblen oder unklaren Themen sollte Claude eine Eskalation vorschlagen, statt zu raten. Technisch können Sie Ihre Integration so konfigurieren, dass der Assistent bei bestimmten Schlüsselwörtern oder Mustern mit geringer Sicherheit eine Standardnachricht ausgibt und ein Ticket in Ihrem HR-Case-Management-Tool auslöst.

Gleichzeitig sollten Nutzende Antworten bewerten oder als nicht hilfreich markieren können. Leiten Sie dieses Feedback in eine einfache Review-Queue, in der HR oder eine benannte Content-Verantwortliche/ ein benannter Content-Verantwortlicher die ursprüngliche Frage, Claudes Antwort und das zugehörige Quelldokument sehen kann. Nutzen Sie diese Queue, um Prompts zu verfeinern, Dokumente zu aktualisieren oder neue Q&A-Snippets hinzuzufügen. In den ersten 4–8 Wochen steigern diese Iterationen die Antwortqualität deutlich und stärken das Vertrauen von HR in das System.

Impact mit klaren, HR-relevanten KPIs messen

Definieren Sie im Vorfeld, wie Sie messen wollen, ob Claude Ihr Problem des langsamen Zugangs zu Onboarding-Informationen tatsächlich löst. Konzentrieren Sie sich auf eine kleine Anzahl von KPIs, die für HR und Führung relevant sind, zum Beispiel:

  • Reduktion wiederkehrender HR-Tickets zum Onboarding (z. B. Tool-Zugänge, Richtlinien, Benefits)
  • Durchschnittliche Zeit bis zur ersten Antwort auf Onboarding-Fragen (vor vs. nach Claude)
  • Self-Service-Rate neuer Mitarbeitender (Anteil der Fragen, die ohne HR-Intervention gelöst werden)
  • Qualitatives Feedback in Onboarding-Umfragen (z. B. „Ich wusste, wo ich Antworten auf meine Fragen finde“)

Verfolgen Sie diese KPIs monatlich und vergleichen Sie Kohorten vor und nach der Einführung. Realistische Ergebnisse, die wir in ähnlichen wissensintensiven Szenarien sehen, sind 30–50 % weniger wiederkehrende Fragen an HR, Reaktionszeiten, die von Stunden auf Sekunden sinken, und eine spürbare Verbesserung der wahrgenommenen Klarheit im Onboarding – alles ohne Erhöhung der HR-Kapazitäten.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Claude eignet sich besonders gut für standardisierte, wiederkehrende Onboarding-Fragen, die bereits in Ihren HR-Unterlagen dokumentiert sind. Beispiele sind:

  • Wie man auf Tools und Systeme zugreift (E-Mail, VPN, HRIS, Zeiterfassung)
  • Wo Onboarding-Checklisten, Formulare und Trainingsmodule zu finden sind
  • Erläuterungen von Richtlinien (Arbeitszeiten, Remote Work, Urlaub, Reisen)
  • Grundlegende Informationen zu Payroll und Benefits, sofern die Details klar definiert sind

Claude sollte HR nicht bei der Entscheidung über Ausnahmen, der Auslegung von Gesetzen oder bei individueller Beratung zu sensiblen Themen ersetzen. Mit den richtigen Prompts und Inhaltsbeschränkungen können Sie ihn so konfigurieren, dass er nur aus freigegebenen Dokumenten antwortet und alles außerhalb dieses Rahmens an HR eskaliert.

Ein fokussierter Pilot lässt sich überraschend schnell umsetzen, wenn Sie den initialen Scope eng halten. Nach unserer Erfahrung können Sie in 3–6 Wochen von der Idee zu einem funktionierenden Prototypen eines Claude-HR-Onboarding-Assistenten gelangen:

  • Woche 1–2: Scope-Definition, Content-Auswahl, Leitplanken und Stakeholder-Abstimmung
  • Woche 2–4: Technisches Setup, Prompt-Design, erste Integration (z. B. Intranet oder Teams/Slack)
  • Woche 4–6: Beta-Rollout für eine kleine Gruppe neuer Mitarbeitender, Monitoring, Iterationen

Vollständige Enterprise-Rollouts mit mehreren Sprachen, Standorten und Systemintegrationen dauern länger, aber ein schlanker Proof of Concept kann schnell zeigen, ob der Ansatz in Ihrem spezifischen Umfeld funktioniert.

Sie benötigen kein großes KI-Team, um von Claude zu profitieren, aber einige Rollen sind wichtig:

  • HR-Content-Owner: Kennt Onboarding-Prozesse und Richtlinien, hilft bei der Auswahl und Verfeinerung der Quelldokumente.
  • Prozess-/Projektverantwortliche:r: Koordiniert Stakeholder, definiert Erfolgskennzahlen, steuert den Rollout.
  • Technischer Partner (intern oder extern): Integriert Claude in Ihre bestehenden Tools, richtet Zugriffskontrollen und Logging ein.

Reruption bringt in der Regel die Expertise in KI-Engineering und Prompt-Design mit, während Ihr HR-Team das Domänenwissen liefert und das Verhalten des Assistenten freigibt. Im Zeitverlauf helfen wir HR dabei, eigenständiger zu werden, sodass Inhalte und Regeln ohne tiefgehende technische Unterstützung angepasst werden können.

Der direkte Effekt der Automatisierung des Zugangs zu Onboarding-Informationen ist eine Reduktion der wiederkehrenden HR-Arbeit und ein schnelleres Ramp-up für neue Mitarbeitende. Typische Ergebnisse in ähnlichen wissensintensiven Umgebungen sind:

  • 30–50 % weniger wiederkehrende „Wie mache ich…?“-Tickets an HR in den ersten 90 Tagen der Beschäftigung
  • Antwortzeiten auf Standardfragen, die von Stunden auf Sekunden sinken
  • Spürbare Verbesserung der Onboarding-Zufriedenheitswerte in Bezug auf Klarheit und Support

Der ROI ergibt sich aus eingesparter HR-Zeit, weniger Unterbrechungen für Führungskräfte und einer schnelleren Time-to-Productivity für neue Mitarbeitende. Da Claude nutzungsbasiert abgerechnet wird, können Sie klein starten, den Impact in einer einzelnen Kohorte oder an einem Standort messen und die Investition nur dann skalieren, wenn die Daten dafür sprechen.

Reruption arbeitet als Co-Preneur eng mit Ihren HR- und IT-Teams zusammen, um die Idee eines KI-Onboarding-Assistenten in eine funktionierende Lösung zu überführen. Mit unserem AI-PoC-Angebot (9.900 €) helfen wir Ihnen, den Use Case zu definieren, die richtigen Inhalte auszuwählen, Prompts und Leitplanken für Claude zu entwerfen und einen funktionsfähigen Prototyp zu bauen, den Ihre neuen Mitarbeitenden tatsächlich nutzen können.

Über den PoC hinaus unterstützen wir Sie bei der praktischen Umsetzung: der Integration von Claude in Ihr Intranet oder Ihre Kollaborationstools, dem Aufbau von Monitoring- und Eskalationsflüssen sowie beim Enablement von HR, den Assistenten eigenständig zu betreiben und weiterzuentwickeln. Wir agieren weniger wie klassische Berater:innen und eher wie eingebettete Co-Founder, die gemeinsam Verantwortung für Ergebnisse übernehmen und etwas Reales in Ihrer bestehenden HR-Umgebung auf die Beine stellen.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media