Die Herausforderung: Überlastete HR durch wiederkehrende Fragen

Während des Onboardings füllen sich HR-Inboxen und Chat-Kanäle schnell mit denselben Fragen: „Wo finde ich das VPN-Setup?“, „Welchen Gesundheitstarif habe ich?“, „Wer genehmigt meine Ausstattung?“, „Wie buche ich Urlaub?“. Jede Nachricht manuell zu beantworten, frisst den Arbeitstag des Teams auf – obwohl 80–90 % der Fragen von einer neuen Einstellung zur nächsten identisch sind. Das Ergebnis ist eine HR-Funktion, die mehr Zeit mit Ad-hoc-Feuerwehrarbeit verbringt als mit der Gestaltung einer überzeugenden Onboarding-Journey.

Traditionelle Ansätze halten damit nicht mehr Schritt. Statische Onboarding-PDFs, verstreute Intranet-Seiten und einmalige Willkommensschulungen passen nicht zu dem tatsächlichen Verhalten neuer Mitarbeitender: Sie fragen in Slack oder Teams, sie durchsuchen E-Mails, sie schreiben HR direkt an. Selbst gut gestaltete FAQs sind häufig veraltet, schwer durchsuchbar und von den Tools abgekoppelt, die Mitarbeitende täglich nutzen. Wenn die Einstellungszahlen steigen oder das Onboarding komplexer wird (Remote-Mitarbeitende, mehrere Standorte, hybride Richtlinien), ist es nicht nachhaltig, einfach zusätzliche HR-Kapazitäten aufzubauen.

Die geschäftlichen Auswirkungen sind erheblich. Langsame oder inkonsistente Antworten lassen neue Mitarbeitende sich in den ersten Wochen verloren und wenig unterstützt fühlen. Die Time-to-Productivity steigt, weil Mitarbeitende auf Basisinformationen zu Tools, Zugriffsrechten und Prozessen warten. HR Business Partner werden von strategischen Themen wie Workforce Planning, Unterstützung der Führungskräfte und Capability Building abgezogen. Langfristig trägt dies zu geringerer Bindung, höherer Frühfluktuation und der Wahrnehmung bei, dass das Unternehmen nicht so modern oder gut organisiert ist, wie es im Recruitingprozess versprochen wurde.

Diese Herausforderung ist real, aber sie ist absolut lösbar. Mit dem richtigen Einsatz von KI-gestützten HR-Assistenten wie ChatGPT können wiederkehrende Onboarding-Fragen sofort, präzise und in großem Umfang beantwortet werden – in den Kanälen, die Mitarbeitende ohnehin nutzen. Reruption verfügt über praktische Erfahrung beim Aufbau solcher KI-Lösungen innerhalb von Organisationen – nicht nur in der Theorie auf Folien. Im weiteren Verlauf dieser Seite finden Sie konkrete Hinweise, wie Sie ChatGPT in einen verlässlichen Onboarding-Copiloten für HR verwandeln, ohne Compliance, Sicherheit oder die menschliche Seite Ihrer Employee Experience zu gefährden.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s Arbeit beim Aufbau von KI-Assistenten für HR-Prozesse und wissensintensive Funktionen wissen wir: ChatGPT ist am wirksamsten, wenn es als Bestandteil des Onboarding-Systems verstanden wird – nicht als glänzendes Add-on. Ein gut konzipierter ChatGPT-Onboarding-Assistent kann in Slack, Microsoft Teams oder Ihrem Intranet sitzen und rund um die Uhr konsistente, richtlinienkonforme Antworten geben – während HR die Kontrolle über Inhalte, Compliance und Eskalationsregeln behält. Entscheidend ist, Technologie, Prozesse und Menschen von Tag eins an aufeinander auszurichten.

In Employee Journeys denken, nicht nur in einem Chatbot

Bevor Sie ChatGPT für das HR-Onboarding einführen, sollten Sie die tatsächliche Journey einer neuen Einstellung abbilden: Welche Fragen werden in Woche 1, 2, 4 und 8 gestellt? Welche Tools kommen ins Spiel? Von wem sind die Personen abhängig? So verstehen Sie, wo ein KI-Assistent echten Hebel erzeugen kann – und wo menschliche Interaktion kritisch ist (z. B. Manager-Check-ins, kulturelle Themen, Feedback-Gespräche).

Nutzen Sie diese Journey-Map, um klare Grenzen zu definieren: ChatGPT beantwortet faktenbasierte, wiederholbare Fragen zu Richtlinien, Benefits und Tools; Menschen kümmern sich um Ausnahmen, sensible Themen und Entscheidungen. Diese Denkweise verhindert den häufigen Fehler, menschlichen Kontakt ersetzen zu wollen, und positioniert den Assistenten stattdessen als geführte Self-Service-Schicht, die sowohl die Employee Experience als auch den Fokus von HR verbessert.

Mit einem engen, hochrelevanten Scope starten

Widerstehen Sie der Versuchung, Ihren HR-Chatbot vom ersten Tag an alles beantworten zu lassen. Strategisch ist es besser, mit den 30–50 wichtigsten Onboarding-Fragen zu beginnen, die heute Ihre Inbox verstopfen. Typische Cluster sind IT-Zugänge, Zeiterfassung, Benefits-Übersicht, Reiserichtlinie und lokale Büroregeln. Dieser fokussierte Scope macht Qualitätssicherung beherrschbar und baut Vertrauen schnell auf.

Wenn Sie den Mehrwert belegt haben – weniger Tickets, schnellere Antwortzeiten, positives Feedback – können Sie den Assistenten Schritt für Schritt auf komplexere Bereiche ausweiten, etwa rollen­spezifische Onboarding-Checklisten oder Lernempfehlungen. Bei Reruption formalisieren wir dies oft als KI-PoC: ein begrenztes, messbares Experiment, das zeigt, ob der Use Case in Ihrem Umfeld funktioniert, bevor Sie skalieren.

HR-Inhalte wie ein Produkt behandeln, nicht wie statische Dokumente

ChatGPT ist nur so gut wie die Richtlinien, Playbooks und Guidelines, die Sie bereitstellen. Strategisch bedeutet das, Ihre HR-Wissensbasis wie ein lebendiges Produkt zu behandeln: versioniert, gepflegt und mit klarer Ownership. Jemand in HR (oft HR Ops oder People Analytics) braucht eine explizite Verantwortung dafür, die Inhalte zu kuratieren und zu aktualisieren, auf denen der Assistent basiert.

Das verändert auch die Art, wie Sie Dokumente verfassen. Anstatt langer, erzählerischer PDFs strukturieren Sie Ihre Richtlinien in klare Q&A-Blöcke, Entscheidungsbäume und Beispiele, die sowohl für Mitarbeitende als auch für das Modell leicht interpretierbar sind. Dieser Wechsel zahlt sich über den Chatbot hinaus aus: Er macht HR-Wissen transparenter und über Systeme hinweg besser nutzbar.

Vertrauen durch Governance aufbauen, nicht durch blinde Automatisierung

Die Einführung von KI in HR wirft berechtigte Fragen zu Genauigkeit, Bias und Vertraulichkeit auf. Gehen Sie diese strategisch mit klarer Governance an: Definieren Sie, welche Quellen als maßgeblich gelten, wer neue Inhalte freigibt, wie Änderungen dokumentiert werden und wie die Eskalation aussieht, wenn der Assistent unsicher ist oder eine Frage sensibel ist (z. B. persönliche Konflikte, Details zu medizinischen Abwesenheiten).

Setzen Sie explizite Leitplanken in Ihrer ChatGPT-Konfiguration: Weisen Sie den Assistenten an, innerhalb der Unternehmensrichtlinien zu bleiben, rechtliche oder medizinische Beratung zu vermeiden und Mitarbeitende bei bestimmten Themen an benannte HR-Kontakte zu verweisen. Kommunizieren Sie diese Regeln offen gegenüber den Mitarbeitenden, damit klar ist, was der Assistent kann und was nicht – diese Transparenz ist entscheidend für Adoption und Vertrauen.

HR und Führungskräfte auf eine neue Rolle vorbereiten

Wenn wiederkehrende Fragen automatisiert werden, verändern sich die Interaktionen von HR und Führungskräften mit Mitarbeitenden. Planen Sie diesen Wandel strategisch: Schulen Sie HR-Mitarbeitende darin, die Leistung des Assistenten zu überwachen, Fragentrends zu analysieren und diese Erkenntnisse zu nutzen, um das Onboarding-Design zu verbessern – statt jedes Ticket manuell zu beantworten.

Führungskräfte sollten verstehen, wie sie den Assistenten als erste Supportlinie für ihre neuen Mitarbeitenden nutzen – und wann sie persönlich eingreifen sollten. In Reruption’s Co-Preneur-Projekten richten wir häufig einfache Dashboards ein, die zeigen, was neue Mitarbeitende fragen; HR nutzt diese dann, um Manager-Briefings, Onboarding-Checklisten und sogar Richtlinienvereinfachungen zu optimieren. Das Ergebnis ist ein positiver Kreislauf, in dem KI Reibungspunkte sichtbar macht – und Menschen den zugrunde liegenden Prozess verbessern.

Durchdacht eingesetzt kann ChatGPT das Onboarding von einer E-Mail-Lawine in eine geführte Self-Service-Experience verwandeln, in der sich neue Mitarbeitende unterstützt fühlen und HR gleichzeitig Zeit für strategische Arbeit zurückgewinnt. Erfolgreiche Organisationen stecken nicht einfach nur einen Chatbot oben drauf; sie gestalten ihre Onboarding-Journeys, Inhalte und Governance darum herum neu. Reruption’s Kombination aus technischer KI-Engineering-Expertise und tiefem Verständnis für HR-Prozesse ermöglicht es uns, diese Assistenten direkt in Ihre bestehenden Tools und Workflows einzubauen – beginnend mit einem konkreten PoC und weiterentwickelt zu einer robusten, sicheren Fähigkeit. Wenn Sie erkunden möchten, wie das in Ihrer HR-Umgebung aussehen könnte, sind wir bereit, es gemeinsam mit Ihnen zu bauen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Nachrichtenmedien: Erfahren Sie, wie Unternehmen ChatGPT erfolgreich einsetzen.

AstraZeneca

Gesundheitswesen

In der stark regulierten pharmazeutischen Industrie stand AstraZeneca unter erheblichem Druck, die Wirkstoffforschung und klinischen Studien zu beschleunigen, die traditionell 10–15 Jahre dauern und Milliarden kosten, bei geringen Erfolgsraten von unter 10 %. Datensilos, strenge Compliance-Anforderungen (z. B. FDA-Regularien) und manuelle Wissensarbeit behinderten die Effizienz in F&E und Geschäftsbereichen. Forschende hatten Schwierigkeiten, riesige Datensets aus 3D-Bildgebung, Literaturauswertungen und Protokollentwürfen zu analysieren, was zu Verzögerungen bei der Therapiefindung für Patienten führte. Die Skalierung von KI wurde durch Datenschutz-Bedenken, Integration in Altsysteme und die Sicherstellung verlässlicher KI-Ergebnisse in einem hochkritischen Umfeld erschwert. Ohne schnelle Adoption riskierte AstraZeneca, gegenüber Wettbewerbern zurückzufallen, die KI für schnellere Innovationen zur Erreichung der 2030-Ziele nutzten.

Lösung

AstraZeneca startete eine unternehmensweite Strategie für generative KI und setzte ChatGPT Enterprise ein, maßgeschneidert für Pharma-Workflows. Dazu gehörten KI-Assistenten für die Analyse 3D-molekularer Bildgebung, automatische Entwürfe von Protokollen für klinische Studien und die Synthese von Wissen aus wissenschaftlicher Literatur. Sie gingen Partnerschaften mit OpenAI für sichere, skalierbare LLMs ein und investierten in Schulungen: Rund 12.000 Mitarbeitende aus F&E und anderen Funktionen schlossen bis Mitte 2025 GenAI-Programme ab. Infrastruktur-Upgrades wie AMD Instinct MI300X GPUs optimierten das Modelltraining. Governance-Rahmen stellten Compliance sicher, mit menschlicher Validierung in kritischen Aufgaben. Der Rollout erfolgte phasenweise von Pilotprojekten in 2023–2024 bis zur vollständigen Skalierung 2025, mit Schwerpunkt auf der Beschleunigung der F&E durch GenAI für Moleküldesign und Real-World-Evidence-Analysen.

Ergebnisse

  • ~12.000 Mitarbeitende bis Mitte 2025 in generativer KI geschult
  • 85–93 % der Mitarbeitenden berichteten von Produktivitätssteigerungen
  • 80 % der Medical Writer fanden KI-Protokollentwürfe nützlich
  • Signifikante Reduktion der Trainingszeit für Life-Sciences-Modelle durch MI300X-GPUs
  • Hohe AI-Maturity-Bewertung laut IMD-Index (weltweit oben)
  • GenAI ermöglicht schnellere Studienplanung und Dosiswahl
Fallstudie lesen →

AT&T

Telekommunikation

Als führender Netzbetreiber verwaltet AT&T eines der weltweit größten und komplexesten Netzwerke, das Millionen von Funkzellen, Glasfasern und 5G-Infrastruktur umfasst. Die zentralen Herausforderungen umfassten ineffiziente Netzplanung und -optimierung, etwa die Festlegung optimaler Standorte für Funkzellen und die Frequenzakquisition vor dem Hintergrund explodierender Datenanforderungen durch den 5G-Rollout und das Wachstum des IoT. Traditionelle Methoden beruhten auf manueller Analyse, was zu suboptimaler Ressourcenzuteilung und höheren Kapitalaufwendungen führte. Zusätzlich verursachte die reaktive Netzwartung häufige Ausfälle, da die Anomalieerkennung nicht mit den Echtzeitanforderungen Schritt hielt. Probleme proaktiv zu erkennen und zu beheben war entscheidend, um Ausfallzeiten zu minimieren, doch die enormen Datenmengen aus Netzwerksensoren überforderten die Altsysteme. Dies führte zu erhöhten Betriebskosten, Kundenunzufriedenheit und verzögerter 5G-Bereitstellung. AT&T benötigte skalierbare KI, um Ausfälle vorherzusagen, Selbstheilung zu automatisieren und die Nachfrage präzise zu prognostizieren.

Lösung

AT&T integrierte Maschinelles Lernen und Vorhersageanalytik über seine AT&T Labs und entwickelte Modelle für das Netzwerkdesign, einschließlich Spektrum-Refarming und Optimierung von Funkzellenstandorten. KI-Algorithmen analysieren Geodaten, Verkehrsprofile und historische Leistungsdaten, um ideale Standorte für Sendemasten zu empfehlen und so Baukosten zu reduzieren. Für den Betrieb nutzen Systeme zur Anomalieerkennung und Selbstheilung prädiktive Modelle auf NFV (Network Function Virtualization), um Ausfälle vorherzusagen und automatisierte Behebungen durchzuführen, etwa durch Umleitung von Traffic. Kausale KI geht über Korrelationen hinaus und liefert Ursachenanalysen bei Abwanderung und Netzproblemen. Die Implementierung umfasste Edge-to-Edge-Intelligenz und die Bereitstellung von KI in den Arbeitsabläufen von über 100.000 Ingenieurinnen und Ingenieuren.

Ergebnisse

  • Milliarden von Dollar an Einsparungen bei Netzwerkkosten
  • 20–30% Verbesserung der Netzauslastung und Effizienz
  • Signifikante Reduktion von Vor-Ort-Einsätzen (Truck Rolls) und manuellen Eingriffen
  • Proaktive Erkennung von Anomalien, die größere Ausfälle verhindert
  • Optimierte Standortwahl für Funkzellen, die CapEx um Millionen reduziert
  • Bis zu 40% bessere Genauigkeit bei 5G-Nachfrageprognosen
Fallstudie lesen →

Airbus

Luft- und Raumfahrt

In der Flugzeugentwicklung sind Computational Fluid Dynamics (CFD)-Simulationen essenziell, um den Luftstrom um Tragflächen, Rümpfe und neuartige Konfigurationen vorherzusagen — entscheidend für Treibstoffeffizienz und Emissionsreduzierung. Herkömmliche hochgenaue RANS-Solver benötigen jedoch Stunden bis Tage pro Lauf auf Supercomputern, wodurch Ingenieure nur wenige Dutzend Iterationen pro Designzyklus durchführen können und die Innovationsfähigkeit für nächste Generationen wie das hydrogenbetriebene ZEROe eingeschränkt wird. Dieses Rechenengpassproblem war besonders akut im Kontext von Airbus' Vorstoß zur Dekarbonisierung der Luftfahrt bis 2035, bei dem komplexe Geometrien eine umfassende Exploration erfordern, um Auftriebs-Widerstands-Verhältnisse zu optimieren und gleichzeitig Gewicht zu minimieren. Kooperationen mit DLR und ONERA zeigten den Bedarf an schnelleren Werkzeugen auf, da manuelle Abstimmungen nicht skalieren, um die Tausenden Varianten zu testen, die für laminares Strömungsverhalten oder Blended-Wing-Body-Konzepte nötig sind.

Lösung

Maschinelle Lern-Surrogatmodelle, einschließlich physik-informierter neuronaler Netze (PINNs), wurden auf umfangreichen CFD-Datensätzen trainiert, um komplette Simulationen in Millisekunden zu emulieren. Airbus integrierte diese in eine generative Design-Pipeline, in der KI Druckfelder, Geschwindigkeiten und Kräfte vorhersagt und dabei die Navier-Stokes-Physik über hybride Verlustfunktionen zur Genauigkeit erzwingt. Die Entwicklung umfasste die Aufbereitung von Millionen von Simulations-Snapshots aus Legacy-Läufen, GPU-beschleunigtes Training und iterative Feinabstimmung mit experimentellen Windkanaldaten. Dadurch wurden schnelle Iterationen möglich: Die KI sichtet Designs, während hochauflösende CFD nur die besten Kandidaten verifiziert, wodurch der Gesamtaufwand um Größenordnungen reduziert wird und gleichzeitig ein <5% Fehler bei Schlüsselmetriken gehalten wird.

Ergebnisse

  • Simulationszeit: 1 Stunde → 30 ms (120.000x Beschleunigung)
  • Design-Iterationen: +10.000 pro Zyklus im gleichen Zeitraum
  • Vorhersagegenauigkeit: 95%+ für Auftriebs-/Widerstandskoeffizienten
  • 50% Verkürzung der Designphasenlaufzeit
  • 30–40% weniger hochauflösende CFD-Läufe erforderlich
  • Treibstoffverbrauchsoptimierung: bis zu 5% Verbesserung in Vorhersagen
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

American Eagle Outfitters

Bekleidungs-Einzelhandel

In der wettbewerbsintensiven Bekleidungs-Einzelhandel-Landschaft stand American Eagle Outfitters vor erheblichen Herausforderungen in den Ankleidekabinen, wo Kund:innen nach Styling-Beratung, präziser Größenempfehlung und ergänzenden Artikelvorschlägen verlangen, ohne auf überlastete Mitarbeitende warten zu müssen . Während Stoßzeiten führten Personalknappheiten häufig dazu, dass frustrierte Käufer:innen Waren zurückließen, die Anprobefrequenz sanken und Konversionschancen verpasst wurden, da traditionelle In-Store-Erfahrungen hinter der personalisierten E‑Commerce-Welt zurückblieben . Frühe Ansätze wie Beacon-Technologie im Jahr 2014 verdoppelten zwar die Wahrscheinlichkeit des Betretens der Umkleide, fehlte es ihnen jedoch an Tiefe für Echtzeit-Personalisierung . Hinzu kamen Daten-Silos zwischen Online und Offline, die einheitliche Kundenkenntnisse erschwerten und es schwierig machten, Artikel dynamisch an individuelle Stilpräferenzen, Körpertypen oder sogar Hauttöne anzupassen. American Eagle benötigte eine skalierbare Lösung, um Engagement und Kundentreue in Flagship-Stores zu steigern und gleichzeitig mit KI breiter zu experimentieren .

Lösung

American Eagle ging eine Partnerschaft mit Aila Technologies ein, um interaktive Ankleidekabinen-Kioske einzusetzen, die von Computervision und Maschinellem Lernen angetrieben werden; diese wurden 2019 in Flagship-Filialen in Boston, Las Vegas und San Francisco eingeführt . Kund:innen scannen Kleidungsstücke über iOS-Geräte, wodurch CV‑Algorithmen die Artikel identifizieren und ML‑Modelle — trainiert auf Kaufhistorie und Google Cloud‑Daten — optimale Größen, Farben und Outfit‑Ergänzungen vorschlagen, zugeschnitten auf inferierte Stilpräferenzen . Integriert mit den ML-Funktionen von Google Cloud ermöglicht das System Echtzeit-Empfehlungen, Benachrichtigungen an Mitarbeitende und nahtlose Bestandsabfragen und entwickelte sich von Beacon‑Gimmicks zu einem vollwertigen smarten Assistenten . Dieser experimentelle Ansatz, gefördert vom CMO Craig Brommers, fördert eine KI‑Kultur für Personalisierung im großen Maßstab .

Ergebnisse

  • Zweistellige Conversion-Steigerungen durch KI‑Personalisierung
  • 11% Wachstum der vergleichbaren Verkäufe für die Marke Aerie im Q3 2025
  • 4% Anstieg der gesamten vergleichbaren Verkäufe im Q3 2025
  • 29% EPS‑Wachstum auf $0,53 im Q3 2025
  • Verdoppelte Anprobewahrscheinlichkeit in Ankleidekabinen durch frühe Technik
  • Rekordumsatz im Q3 von $1,36 Mrd.
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Onboarding-Wissen zentralisieren, damit ChatGPT es nutzen kann

Beginnen Sie damit, alle onboarding-relevanten Informationen zu sammeln: Richtlinien, Benefits-Übersichten, IT-Setup-Anleitungen, Büroregeln und standardisierte HR-Prozesse. Speichern Sie diese in einer strukturierten, zentralen Wissensbasis (SharePoint, Confluence, Notion oder ein internes Wiki) mit klaren Bereichen und aktuellen Verantwortlichen. Das Ziel ist, ChatGPT für das HR-Onboarding eine zentrale „Single Source of Truth“ zu geben.

Schreiben Sie zentrale Dokumente in prägnante Q&A-Einträge um. Anstatt beispielsweise eines 15-seitigen Benefits-PDFs erstellen Sie konkrete Abschnitte wie „Überblick Krankenversicherung“, „Optionen der betrieblichen Altersvorsorge“, „Wie kann ich meinen Tarif ändern?“. Das erleichtert die punktgenaue Beantwortung und reduziert Mehrdeutigkeit. Binden Sie diese Inhalte über eine interne API oder dateibasierte Retrieval-Mechanismen an ChatGPT an, sodass das Modell ausschließlich auf Ihre freigegebenen Materialien zugreift.

Eine richtlinienkonforme HR-Assistenten-Persona konfigurieren

Definieren Sie einen konsistenten System-Prompt, der ChatGPT in einen richtlinienkonformen HR-Assistenten verwandelt. Dieser Prompt sollte Tonalität, Grenzen, Eskalationsregeln und die Dokumente spezifizieren, auf die sich der Assistent stützen darf. In sicheren Enterprise-Setups liegt diese Konfiguration in Ihrer Integrationsschicht (z. B. Azure OpenAI + Teams-App) und ist für Endnutzer nicht veränderbar.

Beispiel für eine System-Prompt-Konfiguration:

Sie sind der "Reruption HR Onboarding Assistant", ein interner HR-Support-Bot.
Ihre Aufgaben:
- Beantworten Sie sachliche Fragen zu Onboarding, Richtlinien, Tools und Benefits.
- Nutzen Sie ausschließlich die offizielle HR-Wissensbasis und die Ihnen bereitgestellten verknüpften Dokumente.
- Wenn eine Frage sensibel ist (Leistung, Konflikte, rechtliche Themen, medizinische Sachverhalte), antworten Sie NICHT direkt.
  Verweisen Sie die Mitarbeiterin oder den Mitarbeiter stattdessen an die/den HR Business Partner oder das gemeinsame HR-Postfach.
- Wenn Sie sich nicht zu 100 % sicher sind, sagen Sie, dass Sie unsicher sind, und bieten Sie die nächstliegende relevante Information plus einen menschlichen Ansprechpartner an.
Tonalität:
- Freundlich, klar, prägnant, professionell
- Vermeiden Sie rechtliche oder medizinische Beratung.
Verweisen Sie immer auf die genaue Richtlinie oder Seite, aus der Ihre Antwort stammt.

Diese Konfiguration stellt konsistente, compliance-konforme Antworten sicher und reduziert das Risiko, dass der Assistent Inhalte improvisiert, die Ihren offiziellen Richtlinien widersprechen.

ChatGPT in bestehende HR-Kanäle integrieren

Neue Mitarbeitende suchen selten nach einem separaten Tool; sie stellen Fragen dort, wo sie arbeiten. Damit KI-gestütztes Onboarding wirksam ist, sollte der Assistent in Ihren bestehenden Kanälen sichtbar sein: Slack, Microsoft Teams, Ihr HR-Portal oder den Onboarding-Bereich Ihres Intranets.

Für Teams oder Slack konfigurieren Sie einen dedizierten „#ask-hr-onboarding“-Channel oder eine App, in der der auf ChatGPT basierende Assistent die erste Antwortinstanz ist. In Ihrem Intranet können Sie ein Chat-Widget auf zentralen Onboarding-Seiten einbetten. Technisch erfordert dies in der Regel eine Integration über die ChatGPT- oder Azure-OpenAI-API plus Ihren Identity Provider (z. B. Azure AD), sodass der Zugriff auf Mitarbeitende beschränkt ist und Logs gemäß Ihren Datenschutzregeln verarbeitet werden können.

Prompt-Muster für typische HR-Fragetypen entwickeln

Selbst mit einem starken System-Prompt können Sie die Antwortqualität verbessern, indem Sie steuern, wie Nutzerfragen verarbeitet werden. Implementieren Sie Zwischenschritte (Intermediate Prompts), die den Fragetyp klassifizieren (Richtliniennachschlagefrage, How-to, „Wer ist zuständig?“) und rufen Sie dann ChatGPT mit dem passenden Kontext und den richtigen Anweisungen auf.

Für „How-to“-Fragen zu Tools (Zeiterfassung, Spesenabrechnung) können Sie beispielsweise folgendes Muster nutzen:

System:
Sie sind ein HR-Onboarding-Assistent, der Mitarbeitenden hilft, Aufgaben zu erledigen.
Nutzerfrage:
"Wie reiche ich meine erste Spesenabrechnung ein?"
Developer (versteckt):
Klassifizieren Sie die Frage und beantworten Sie sie dann Schritt für Schritt unter Verwendung der Dokumente "Spesenrichtlinie" und "Reiserichtlinien".
Wenn Tools verwendet werden, nennen Sie die genauen Navigationsschritte in unserem System "Contoso Travel".
Beenden Sie Ihre Antwort immer mit: "Wenn etwas unklar ist, antworten Sie mit einem Screenshot oder einer Fehlermeldung, und ich helfe Ihnen weiter."

Diese Struktur fördert klare, umsetzbare Anweisungen und lädt zu Rückfragen ein, anstatt nur eine einmalige Antwort zu geben.

Eskalations- und Feedback-Schleifen einrichten

Ein praxistauglicher HR-Onboarding-Chatbot muss wissen, wann er an Menschen übergeben sollte. Implementieren Sie einfache Regeln in Ihrer Integration: Wenn der Assistent in einem Gespräch mehr als einmal seine Unsicherheit äußert oder wenn bestimmte Schlüsselwörter auftauchen (z. B. „Diskriminierung“, „Belästigung“, „Kündigung“, „Gehaltstreitigkeit“), wird der Chat markiert und an einen HR-Ansprechpartner weitergeleitet.

Ermöglichen Sie außerdem, dass Mitarbeitende Antworten mit einem Klick bewerten (👍/👎) und optional einen kurzen Kommentar hinterlassen. Speichern Sie Interaktionen mit schlechter Bewertung in einer Review-Queue, in der HR die zugrunde liegenden Inhalte oder die Prompts des Assistenten anpassen kann. Über wenige Wochen hinweg steigert dieses kontinuierliche Tuning Genauigkeit und Vertrauen deutlich.

Analytics nutzen, um das Onboarding zu verbessern – nicht nur den Bot

Instrumentieren Sie Ihre ChatGPT-Integration so, dass anonymisierte Fragengruppen, Volumen im Zeitverlauf und ungelöste Themen protokolliert werden. Nutzen Sie diese Daten als Insights-Engine für Ihren Onboarding-Prozess: Wenn viele neue Mitarbeitende nach VPN-Zugang fragen, sind Ihre Pre-Day-One-E-Mails oder die IT-Checkliste möglicherweise unklar. Wenn Benefits-Fragen in Woche 3 stark zunehmen, sollten Sie eventuell ein Benefits-Q&A-Webinar zu diesem Zeitpunkt planen.

Definieren Sie klare KPIs: Reduktion der HR-Tickets, mediane Antwortzeit, Anteil der Fragen, die ohne menschliches Eingreifen gelöst werden, sowie qualitative Zufriedenheitswerte von neuen Mitarbeitenden. Überprüfen Sie diese monatlich mit der HR-Leitung, um zu entscheiden, ob Sie den Scope des Assistenten ausweiten, Richtlinien aktualisieren oder Onboarding-Kommunikation anpassen.

Schrittweise umgesetzt führen diese Praktiken typischerweise zu einer Reduktion von 30–60 % der wiederkehrenden HR-Onboarding-Fragen, die im Posteingang landen, zu nahezu sofortigen Antworten auf Standardanfragen und zu einer konsistenteren Experience für neue Mitarbeitende – ohne den menschlichen Kontakt dort zu verlieren, wo er entscheidend ist.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

ChatGPT eignet sich am besten für wiederholbare, faktenbasierte Onboarding-Fragen, die klar in Ihren bestehenden HR-Richtlinien und -Guides abgedeckt sind. Typische Beispiele:

  • Basics: Arbeitszeiten, Probezeit, Bürozugang, Dresscode, Regeln für Remote Work
  • IT & Tools: VPN-Setup, E-Mail-Signatur, Zeiterfassung, Collaboration-Tools
  • Benefits: Überblick Krankenversicherung, betriebliche Altersvorsorge, Essensgutscheine, Zuschüsse für den Arbeitsweg
  • Prozesse: Wie beantrage ich Urlaub, reiche Spesen ein, melde Krankheit, aktualisiere meine persönlichen Daten?

Bei sensiblen Themen (Performance, Konflikte, Rechtsstreitigkeiten, medizinische Details) sollte der Assistent nicht direkt antworten. Stattdessen instruieren Sie ihn, Mitarbeitende an ihre HR Business Partner oder eine dedizierte Kontaktstelle zu verweisen. So konzentriert sich der Assistent auf hochvolumige, risikoarme Fragen, bei denen er den größten Mehrwert liefert.

Für einen fokussierten Use Case wie das Automatisieren wiederkehrender Onboarding-Fragen ist eine erste funktionierende Version meist eine Frage von Wochen, nicht von Monaten – vorausgesetzt, Sie konzentrieren sich auf einen klaren Scope.

Ein typischer Zeitplan sieht so aus:

  • Woche 1: Top 30–50 Onboarding-Fragen identifizieren, Dokumente sammeln, Leitplanken und Kanäle definieren (z. B. Teams, Intranet).
  • Woche 2–3: HR-Inhalte strukturieren, die ChatGPT-Persona konfigurieren, eine Basisintegration bauen, Test mit einer kleinen Gruppe neuer Mitarbeitender und HR-Mitarbeitender.
  • Woche 4: Auf Basis des Feedbacks verfeinern, Eskalation und grundlegende Analytics implementieren, dann Roll-out für alle neuen Mitarbeitenden.

Reruption’s KI-PoC-Ansatz ist speziell darauf ausgelegt, Sie innerhalb dieses 4-Wochen-Fensters zu einem funktionierenden Prototyp zu bringen – inklusive Live-Demo und klarer Implementierungs-Roadmap, falls Sie skalieren möchten.

Sie benötigen kein großes Data-Science-Team, um einen ChatGPT-Onboarding-Assistenten zu betreiben, aber ein paar Rollen sind wichtig:

  • HR-Content-Owner: Jemand in HR Ops oder People, der Richtlinien, FAQs kuratiert und sicherstellt, dass Inhalte aktuell bleiben.
  • Technische Verantwortung: Ein internes IT- oder Digitalteam, das Integrationen (Teams/Slack/Intranet), Authentifizierung und grundlegendes Monitoring betreut.
  • Prozess-Owner: Eine Person, die für die Onboarding-Journey verantwortlich ist und die Analytics des Assistenten nutzt, um Kommunikation und Checklisten zu verbessern.

Reruption kann die Seite des KI-Engineerings und der Konfiguration übernehmen, sodass sich Ihre internen Teams vor allem auf Inhalte, Entscheidungen und Governance konzentrieren – nicht auf Low-Level-Model-Tuning.

Der ROI ergibt sich im Wesentlichen aus drei Quellen: Zeitersparnis, schnellerer Time-to-Productivity und besserer Experience für neue Mitarbeitende.

  • Zeitersparnis: Organisationen sehen in den ersten Monaten häufig 30–60 % weniger wiederkehrende HR-Tickets, was Dutzende Stunden pro Monat für strategischere Arbeit freisetzt.
  • Time-to-Productivity: Neue Mitarbeitende erhalten sofort Antworten, statt Stunden oder Tage zu warten – das beschleunigt den Zugang zu Tools, erste Deliverables und die Integration ins Team.
  • Experience und Marke: Ein reaktionsschneller, moderner Onboarding-Assistent signalisiert Professionalität und Wertschätzung – das stärkt Engagement und reduziert das Risiko früher Fluktuation.

In unseren Projekten erfassen wir diese Effekte mit konkreten KPIs (Ticketvolumen, Antwortzeit, Lösungsquote des Assistenten, Zufriedenheitswerte), sodass der Business Impact sichtbar und nicht nur anekdotisch ist.

Reruption verbindet KI-Engineering mit einem Co-Preneur-Ansatz: Wir arbeiten eingebettet in Ihrer HR- und IT-Umgebung und bauen die Lösung gemeinsam mit Ihnen – nicht nur als externe Berater.

Konkret starten wir in der Regel mit einem KI-PoC zum Festpreis (9.900 €), der auf das Automatisieren wiederkehrender Onboarding-Fragen ausgerichtet ist. Dieser umfasst die gemeinsame Definition des Use Cases mit HR, die Auswahl des passenden ChatGPT-Setups (z. B. Azure OpenAI), den Bau eines funktionierenden Prototyps in Ihren Tools (etwa Teams oder Ihr Intranet) sowie die Bewertung von Performance und Kosten.

Nach dem PoC unterstützen wir Sie bei der praktischen Umsetzung: Härtung von Sicherheit & Compliance, Optimierung von Prompts und Wissensmanagement, Aufbau von Analytics und Training des HR-Teams, damit es den Assistenten eigenständig betreiben und weiterentwickeln kann. Da wir wie Co-Gründer agieren, bleiben wir nah am Business Impact – mit kurzen Feedbackschleifen, echter Nutzung und klaren Metriken –, bis der Assistent ein stabiler Bestandteil Ihres Onboarding-Prozesses ist.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media