Die Herausforderung: Regelwidrige Spesenabrechnungen

Den meisten Finanzteams ist bewusst, dass ein erheblicher Teil der Reise- und Spesenaufwendungen technisch gesehen nicht richtlinienkonform ist – sie sehen dies aber höchstens im Nachhinein, wenn überhaupt. Controller sind gezwungen, Belege, Kartentransaktionen und Spesenbeschreibungen manuell zu prüfen, während Richtlinien in statischen PDFs liegen, die Mitarbeitende selten lesen. Bis ein Verstoß erkannt wird, ist die Reise vorbei, die Rechnung bezahlt und das Gespräch mit der Mitarbeiterin oder dem Mitarbeiter ist für alle Beteiligten unangenehm.

Traditionelle Ansätze beruhen auf schlagwortbasierten Prüfungen in Spesentools, Stichprobenprüfungen oder Tabellen mit manuellen Kommentaren. Diese Methoden verstehen weder natürlichsprachliche Beschreibungen wie „Kundenessen nach Workshop“ oder „Upgrade wegen Verspätung“ noch erfassen sie Kontext wie Rolle, Projekt oder lokale Vorschriften. Mit zunehmenden Spesenvolumina und immer feineren Regelungen können menschliche Prüfer schlicht nicht mehr mithalten, und regelbasierte Systeme übersehen die Graubereiche, in denen sich der Großteil der Nicht-Compliance verbirgt.

Die geschäftlichen Auswirkungen sind erheblich. Nicht regelkonforme Ausgaben treiben Reise- und Unterhaltungskosten in die Höhe, schmälern Margen und untergraben die Budgetdisziplin. Die Finanzabteilung verliert die Echtzeitsicht auf Kostentreiber und kann Genehmigungsregeln in der Breite nicht zuverlässig durchsetzen. Späte Auseinandersetzungen über abgelehnte Abrechnungen beschädigen das Vertrauen, erzeugen Reibung mit Vielfahrenden und Führungskräften und binden wertvolle Zeit in zähen Rückfragen mit Mitarbeitenden und Prüfern. Auf Dauer schwächt inkonsequente Durchsetzung die wahrgenommene Relevanz der Richtlinie selbst.

Die gute Nachricht: Dieses Problem ist sehr gut lösbar. Fortschritte bei KI für das Finanzwesen und insbesondere große Sprachmodelle wie ChatGPT ermöglichen es, Richtlinien in natürlicher Sprache zu lesen, Mitarbeitendenbeschreibungen zu interpretieren und regelwidrige Spesenabrechnungen automatisch zu markieren. Bei Reruption haben wir Organisationen dabei unterstützt, komplexe, textlastige Regeln in KI-gestützte Prüfungen und Workflows zu überführen. In den folgenden Abschnitten finden Sie praxisnahe Hinweise, wie Sie ChatGPT nutzen können, um die Spesenkontrolle zu verschärfen, während Sie den manuellen Aufwand reduzieren und die Employee Experience verbessern.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions praktischer Arbeit beim Aufbau von KI-Automatisierung für Finanzteams sehen wir ChatGPT als wirkungsvolles Mittel, um die Lücke zwischen dichten Richtliniendokumenten und unstrukturierten Spesendaten aus der Praxis zu schließen. Anstatt sich nur auf starre Regeln in Ihrem Spesentool zu verlassen, können Sie ein Modell, das natürliche Sprache versteht, Spesenbeschreibungen prüfen lassen, diese mit Ihrer Reise- und Spesenrichtlinie vergleichen und potenzielle Verstöße mit einer klaren Begründung kennzeichnen, die Controller und Mitarbeitende tatsächlich nachvollziehen können.

Betrachten Sie ChatGPT als Policy-Co-Pilot, nicht als Blackbox-Richter

Die wirkungsvollsten Finanzteams nutzen ChatGPT für Spesenkontrolle als Entscheidungshilfe, nicht als automatischen Ja/Nein-Torwächter. Das Modell liest Richtlinien, interpretiert Freitext-Spesenbeschreibungen und schlägt vor, ob eine Abrechnung eher richtlinienkonform, grenzwertig oder klar regelwidrig ist. Menschliche Prüfer behalten die letztendliche Entscheidungshoheit, insbesondere bei Grenzfällen, können diese aber mit deutlich mehr Kontext und Geschwindigkeit treffen.

Diese Denkweise reduziert interne Widerstände und regulatorische Risiken. Controller können die Begründung des Modells einsehen und hinterfragen, erkennen, wo Richtlinien unklar sind, und die Automatisierung schrittweise dort erhöhen, wo Vertrauenswerte hoch sind. Im Zeitverlauf kann die Finanzabteilung von assistenzartigen Vorschlägen hin zu Auto-Genehmigung und Auto-Ablehnung für klar definierte Kategorien übergehen, während für risikoreiche oder hochvolumige Positionen weiterhin menschliche Aufsicht besteht.

Starten Sie mit wirkungsstarken Spesenkategorien und klaren Regeln

Strategisch betrachtet ist es selten sinnvoll, KI zur Erkennung regelwidriger Spesen vom ersten Tag an in jeder Kategorie auszurollen. Stattdessen sollten Finanzverantwortliche 3–5 Ausgabenbereiche identifizieren, in denen Richtlinienverstöße häufig sind, die Kosten wesentlich ins Gewicht fallen und die Regeln relativ klar sind: zum Beispiel Hotelraten über einer Stadtkappungsgrenze, Flugklassen-Upgrades, Alkohol bei Kundenessen oder Überschreitungen von Tagespauschalen.

Indem Sie ChatGPT zunächst auf einen begrenzten Umfang fokussieren, können Sie seine Interpretationen kalibrieren, Prompts und Richtlinien abstimmen und das Vertrauen der Stakeholder aufbauen. Sobald die Organisation in diesen Kategorien konkrete Einsparungen und weniger Streitfälle sieht, können Sie den Ansatz auf nuanciertere Bereiche wie Kunden-Entertainment, kombinierte Geschäfts-/Privatreisen oder wiederkehrende Abonnements ausweiten.

Bereiten Sie Richtlinie und Daten für den KI-Einsatz auf

Große Sprachmodelle entfalten ihre Stärke bei klaren, strukturierten Eingaben. Wenn Ihre Reise- und Spesenrichtlinie in einem 40-seitigen PDF in Juristendeutsch vorliegt, wird selbst der beste KI-Spesenprüfer sich schwertun. Ein strategischer Schritt ist, Ihre Richtlinien in maschinenlesbare Abschnitte zu refaktorieren: Definieren Sie Kategorien, Schwellenwerte, Ausnahmen und Genehmigungsprozesse so, dass sie über Prompts oder eine Wissensdatenbank referenziert werden können.

Überprüfen Sie in ähnlicher Weise, wie Spesendaten erfasst werden. Ermutigen Sie Mitarbeitende, aussagekräftige Beschreibungen zu verwenden ("Kundenessen mit ABC GmbH nach Workshop" statt "Essen"), konsistente Händlercodes und Projekt-Tags zu nutzen. Je besser die Eingangsdaten, desto verlässlicher die Schlussfolgerungen von ChatGPT und desto einfacher kann die Finanzabteilung Entscheidungen in Prüfungen verteidigen.

Bringen Sie Finance, HR und IT frühzeitig bei Governance zusammen

Der Einsatz von ChatGPT im Finanzbereich berührt sensible Themen: Mitarbeitendenverhalten, Reisemuster, Kartendaten und Unternehmensrichtlinien. Bevor Sie skalieren, sollten Finance, HR, Legal und IT sich darüber abstimmen, welche Daten das Modell sehen darf, wie Entscheidungen protokolliert werden und wie Mitarbeitende eine automatisierte Markierung anfechten können. Klären Sie, wie Sie mit Sonderfällen wie VIP-Reisen, vertraulichen Projekten oder Märkten mit abweichenden rechtlichen Anforderungen umgehen.

Diese Governance-Arbeit muss nicht schwergewichtig sein, aber sie muss explizit sein. Definieren Sie klare Verantwortlichkeiten für Prompts, Richtlinienupdates, Ausnahmeworkflows und Zugriffsrechte. So verringern Sie das Risiko von Schatten-KI-Tools und stellen sicher, dass Ihre KI-gestützte Spesenprüfung ebenso konform ist wie die Richtlinie, die sie durchsetzt.

Investieren Sie in Change Management und Transparenz für Mitarbeitende

Initiativen zur Spesenkontrolle scheitern oft, weil Mitarbeitende sie als willkürliche Kostensenkungsmaßnahme und nicht als faire Durchsetzung empfinden. Wenn Sie eine KI-gestützte Spesenprüfung einführen, erklären Sie sorgfältig, was sich ändert: dass ChatGPT hilft, bestehende Regeln konsequent anzuwenden, statt neue zu schaffen, und dass es klarere Begründungen für Genehmigungen und Ablehnungen liefert.

Beziehen Sie Vielfahrende und Führungskräfte früh ein, zeigen Sie Beispielausgaben und holen Sie Feedback zu Sprache und Ton ein. Wenn Mitarbeitende sehen, dass KI-generierte Erklärungen die konkrete Richtlinienklausel zitieren und den Kontext (Reisezweck, Kunde, Rolle) berücksichtigen, steigt das Vertrauen in das System und sie passen ihr Verhalten proaktiv an.

Durchdacht eingesetzt kann ChatGPT Ihre Reise- und Spesenrichtlinie in ein lebendiges Kontrollsystem verwandeln, das natürliche Sprache versteht, regelwidrige Spesenabrechnungen in Echtzeit markiert und sowohl Controller als auch Mitarbeitende mit klarer, konsistenter Begründung unterstützt. Bei Reruption kombinieren wir diese Technologie mit tiefgehender Implementierungsarbeit in Ihren bestehenden Tools, sodass Finanzverantwortliche messbare Einsparungen erzielen – nicht nur ein weiteres Dashboard. Wenn Sie ausloten möchten, wie ein maßgeschneiderter Expense-Control-GPT in Ihrer Umgebung aussehen könnte, sprechen wir gerne konkret über Möglichkeiten und Rahmenbedingungen mit Ihrem Team.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Nachrichtenmedien: Erfahren Sie, wie Unternehmen ChatGPT erfolgreich einsetzen.

AstraZeneca

Gesundheitswesen

In der stark regulierten pharmazeutischen Industrie stand AstraZeneca unter erheblichem Druck, die Wirkstoffforschung und klinischen Studien zu beschleunigen, die traditionell 10–15 Jahre dauern und Milliarden kosten, bei geringen Erfolgsraten von unter 10 %. Datensilos, strenge Compliance-Anforderungen (z. B. FDA-Regularien) und manuelle Wissensarbeit behinderten die Effizienz in F&E und Geschäftsbereichen. Forschende hatten Schwierigkeiten, riesige Datensets aus 3D-Bildgebung, Literaturauswertungen und Protokollentwürfen zu analysieren, was zu Verzögerungen bei der Therapiefindung für Patienten führte. Die Skalierung von KI wurde durch Datenschutz-Bedenken, Integration in Altsysteme und die Sicherstellung verlässlicher KI-Ergebnisse in einem hochkritischen Umfeld erschwert. Ohne schnelle Adoption riskierte AstraZeneca, gegenüber Wettbewerbern zurückzufallen, die KI für schnellere Innovationen zur Erreichung der 2030-Ziele nutzten.

Lösung

AstraZeneca startete eine unternehmensweite Strategie für generative KI und setzte ChatGPT Enterprise ein, maßgeschneidert für Pharma-Workflows. Dazu gehörten KI-Assistenten für die Analyse 3D-molekularer Bildgebung, automatische Entwürfe von Protokollen für klinische Studien und die Synthese von Wissen aus wissenschaftlicher Literatur. Sie gingen Partnerschaften mit OpenAI für sichere, skalierbare LLMs ein und investierten in Schulungen: Rund 12.000 Mitarbeitende aus F&E und anderen Funktionen schlossen bis Mitte 2025 GenAI-Programme ab. Infrastruktur-Upgrades wie AMD Instinct MI300X GPUs optimierten das Modelltraining. Governance-Rahmen stellten Compliance sicher, mit menschlicher Validierung in kritischen Aufgaben. Der Rollout erfolgte phasenweise von Pilotprojekten in 2023–2024 bis zur vollständigen Skalierung 2025, mit Schwerpunkt auf der Beschleunigung der F&E durch GenAI für Moleküldesign und Real-World-Evidence-Analysen.

Ergebnisse

  • ~12.000 Mitarbeitende bis Mitte 2025 in generativer KI geschult
  • 85–93 % der Mitarbeitenden berichteten von Produktivitätssteigerungen
  • 80 % der Medical Writer fanden KI-Protokollentwürfe nützlich
  • Signifikante Reduktion der Trainingszeit für Life-Sciences-Modelle durch MI300X-GPUs
  • Hohe AI-Maturity-Bewertung laut IMD-Index (weltweit oben)
  • GenAI ermöglicht schnellere Studienplanung und Dosiswahl
Fallstudie lesen →

AT&T

Telekommunikation

Als führender Netzbetreiber verwaltet AT&T eines der weltweit größten und komplexesten Netzwerke, das Millionen von Funkzellen, Glasfasern und 5G-Infrastruktur umfasst. Die zentralen Herausforderungen umfassten ineffiziente Netzplanung und -optimierung, etwa die Festlegung optimaler Standorte für Funkzellen und die Frequenzakquisition vor dem Hintergrund explodierender Datenanforderungen durch den 5G-Rollout und das Wachstum des IoT. Traditionelle Methoden beruhten auf manueller Analyse, was zu suboptimaler Ressourcenzuteilung und höheren Kapitalaufwendungen führte. Zusätzlich verursachte die reaktive Netzwartung häufige Ausfälle, da die Anomalieerkennung nicht mit den Echtzeitanforderungen Schritt hielt. Probleme proaktiv zu erkennen und zu beheben war entscheidend, um Ausfallzeiten zu minimieren, doch die enormen Datenmengen aus Netzwerksensoren überforderten die Altsysteme. Dies führte zu erhöhten Betriebskosten, Kundenunzufriedenheit und verzögerter 5G-Bereitstellung. AT&T benötigte skalierbare KI, um Ausfälle vorherzusagen, Selbstheilung zu automatisieren und die Nachfrage präzise zu prognostizieren.

Lösung

AT&T integrierte Maschinelles Lernen und Vorhersageanalytik über seine AT&T Labs und entwickelte Modelle für das Netzwerkdesign, einschließlich Spektrum-Refarming und Optimierung von Funkzellenstandorten. KI-Algorithmen analysieren Geodaten, Verkehrsprofile und historische Leistungsdaten, um ideale Standorte für Sendemasten zu empfehlen und so Baukosten zu reduzieren. Für den Betrieb nutzen Systeme zur Anomalieerkennung und Selbstheilung prädiktive Modelle auf NFV (Network Function Virtualization), um Ausfälle vorherzusagen und automatisierte Behebungen durchzuführen, etwa durch Umleitung von Traffic. Kausale KI geht über Korrelationen hinaus und liefert Ursachenanalysen bei Abwanderung und Netzproblemen. Die Implementierung umfasste Edge-to-Edge-Intelligenz und die Bereitstellung von KI in den Arbeitsabläufen von über 100.000 Ingenieurinnen und Ingenieuren.

Ergebnisse

  • Milliarden von Dollar an Einsparungen bei Netzwerkkosten
  • 20–30% Verbesserung der Netzauslastung und Effizienz
  • Signifikante Reduktion von Vor-Ort-Einsätzen (Truck Rolls) und manuellen Eingriffen
  • Proaktive Erkennung von Anomalien, die größere Ausfälle verhindert
  • Optimierte Standortwahl für Funkzellen, die CapEx um Millionen reduziert
  • Bis zu 40% bessere Genauigkeit bei 5G-Nachfrageprognosen
Fallstudie lesen →

Airbus

Luft- und Raumfahrt

In der Flugzeugentwicklung sind Computational Fluid Dynamics (CFD)-Simulationen essenziell, um den Luftstrom um Tragflächen, Rümpfe und neuartige Konfigurationen vorherzusagen — entscheidend für Treibstoffeffizienz und Emissionsreduzierung. Herkömmliche hochgenaue RANS-Solver benötigen jedoch Stunden bis Tage pro Lauf auf Supercomputern, wodurch Ingenieure nur wenige Dutzend Iterationen pro Designzyklus durchführen können und die Innovationsfähigkeit für nächste Generationen wie das hydrogenbetriebene ZEROe eingeschränkt wird. Dieses Rechenengpassproblem war besonders akut im Kontext von Airbus' Vorstoß zur Dekarbonisierung der Luftfahrt bis 2035, bei dem komplexe Geometrien eine umfassende Exploration erfordern, um Auftriebs-Widerstands-Verhältnisse zu optimieren und gleichzeitig Gewicht zu minimieren. Kooperationen mit DLR und ONERA zeigten den Bedarf an schnelleren Werkzeugen auf, da manuelle Abstimmungen nicht skalieren, um die Tausenden Varianten zu testen, die für laminares Strömungsverhalten oder Blended-Wing-Body-Konzepte nötig sind.

Lösung

Maschinelle Lern-Surrogatmodelle, einschließlich physik-informierter neuronaler Netze (PINNs), wurden auf umfangreichen CFD-Datensätzen trainiert, um komplette Simulationen in Millisekunden zu emulieren. Airbus integrierte diese in eine generative Design-Pipeline, in der KI Druckfelder, Geschwindigkeiten und Kräfte vorhersagt und dabei die Navier-Stokes-Physik über hybride Verlustfunktionen zur Genauigkeit erzwingt. Die Entwicklung umfasste die Aufbereitung von Millionen von Simulations-Snapshots aus Legacy-Läufen, GPU-beschleunigtes Training und iterative Feinabstimmung mit experimentellen Windkanaldaten. Dadurch wurden schnelle Iterationen möglich: Die KI sichtet Designs, während hochauflösende CFD nur die besten Kandidaten verifiziert, wodurch der Gesamtaufwand um Größenordnungen reduziert wird und gleichzeitig ein <5% Fehler bei Schlüsselmetriken gehalten wird.

Ergebnisse

  • Simulationszeit: 1 Stunde → 30 ms (120.000x Beschleunigung)
  • Design-Iterationen: +10.000 pro Zyklus im gleichen Zeitraum
  • Vorhersagegenauigkeit: 95%+ für Auftriebs-/Widerstandskoeffizienten
  • 50% Verkürzung der Designphasenlaufzeit
  • 30–40% weniger hochauflösende CFD-Läufe erforderlich
  • Treibstoffverbrauchsoptimierung: bis zu 5% Verbesserung in Vorhersagen
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

American Eagle Outfitters

Bekleidungs-Einzelhandel

In der wettbewerbsintensiven Bekleidungs-Einzelhandel-Landschaft stand American Eagle Outfitters vor erheblichen Herausforderungen in den Ankleidekabinen, wo Kund:innen nach Styling-Beratung, präziser Größenempfehlung und ergänzenden Artikelvorschlägen verlangen, ohne auf überlastete Mitarbeitende warten zu müssen . Während Stoßzeiten führten Personalknappheiten häufig dazu, dass frustrierte Käufer:innen Waren zurückließen, die Anprobefrequenz sanken und Konversionschancen verpasst wurden, da traditionelle In-Store-Erfahrungen hinter der personalisierten E‑Commerce-Welt zurückblieben . Frühe Ansätze wie Beacon-Technologie im Jahr 2014 verdoppelten zwar die Wahrscheinlichkeit des Betretens der Umkleide, fehlte es ihnen jedoch an Tiefe für Echtzeit-Personalisierung . Hinzu kamen Daten-Silos zwischen Online und Offline, die einheitliche Kundenkenntnisse erschwerten und es schwierig machten, Artikel dynamisch an individuelle Stilpräferenzen, Körpertypen oder sogar Hauttöne anzupassen. American Eagle benötigte eine skalierbare Lösung, um Engagement und Kundentreue in Flagship-Stores zu steigern und gleichzeitig mit KI breiter zu experimentieren .

Lösung

American Eagle ging eine Partnerschaft mit Aila Technologies ein, um interaktive Ankleidekabinen-Kioske einzusetzen, die von Computervision und Maschinellem Lernen angetrieben werden; diese wurden 2019 in Flagship-Filialen in Boston, Las Vegas und San Francisco eingeführt . Kund:innen scannen Kleidungsstücke über iOS-Geräte, wodurch CV‑Algorithmen die Artikel identifizieren und ML‑Modelle — trainiert auf Kaufhistorie und Google Cloud‑Daten — optimale Größen, Farben und Outfit‑Ergänzungen vorschlagen, zugeschnitten auf inferierte Stilpräferenzen . Integriert mit den ML-Funktionen von Google Cloud ermöglicht das System Echtzeit-Empfehlungen, Benachrichtigungen an Mitarbeitende und nahtlose Bestandsabfragen und entwickelte sich von Beacon‑Gimmicks zu einem vollwertigen smarten Assistenten . Dieser experimentelle Ansatz, gefördert vom CMO Craig Brommers, fördert eine KI‑Kultur für Personalisierung im großen Maßstab .

Ergebnisse

  • Zweistellige Conversion-Steigerungen durch KI‑Personalisierung
  • 11% Wachstum der vergleichbaren Verkäufe für die Marke Aerie im Q3 2025
  • 4% Anstieg der gesamten vergleichbaren Verkäufe im Q3 2025
  • 29% EPS‑Wachstum auf $0,53 im Q3 2025
  • Verdoppelte Anprobewahrscheinlichkeit in Ankleidekabinen durch frühe Technik
  • Rekordumsatz im Q3 von $1,36 Mrd.
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Erstellen Sie einen Custom GPT, der auf Ihre Reise- & Spesenrichtlinie trainiert ist

Anstatt nur die generische ChatGPT-Oberfläche zu nutzen, erstellen Sie einen Custom GPT zur Durchsetzung Ihrer Spesenrichtlinie, der Ihre aktuelle T&E-Richtlinie, Länderanhänge und Genehmigungsregeln als Wissensbasis eingebettet hat. Strukturieren Sie die Richtlinie in Abschnitte (z. B. Flüge, Hotels, Mahlzeiten, Bodentransport, Tagespauschalen, Geschenke) und definieren Sie Schwellenwerte, Ausnahmen und Genehmigungshierarchien explizit.

Definieren Sie in der GPT-Konfiguration einen stabilen System-Prompt, der dem Modell vorgibt, wie es argumentieren soll, welche Ausgaben es erzeugen soll und wann Positionen als nicht konform oder grenzwertig zu markieren sind. Zum Beispiel:

Beispiel für Systemanweisungen:
Sie sind ein KI-Assistent für die Finanzabteilung.
Sie prüfen Spesenabrechnungen von Mitarbeitenden auf Richtlinienkonformität.
Sie erhalten:
- Die einzelne Spesenposition (Kategorie, Betrag, Währung, Datum)
- Die Freitextbeschreibung der Mitarbeiterin / des Mitarbeiters
- Kontext (Rolle der Person, Kostenstelle, Projekt, Standort)
- Relevante Auszüge aus der Reise- & Spesenrichtlinie

Ihre Aufgaben:
1) Entscheiden Sie, ob die Spese In-Policy, Borderline oder Out-of-Policy ist.
2) Erklären Sie Ihre Begründung in 2–4 Sätzen unter Verweis auf konkrete Richtlinienregeln.
3) Schlagen Sie bei Out-of-Policy oder Borderline eine Korrekturmaßnahme vor (z. B. Teil-Erstattung, Genehmigung durch Führungskraft).
4) Formulieren Sie zusätzlich eine mitarbeiterfreundliche Erklärung ohne juristische Fachsprache.

Testen Sie diesen Custom GPT mit historischen Spesendaten und verfeinern Sie die Formulierungen, bis Controller der Klassifizierung und den Erklärungen vertrauen.

Entwickeln Sie ein standardisiertes Input-Schema für jede Spesenzeile

Für konsistente Ergebnisse sollten Sie standardisieren, welche Daten Sie aus Ihrem Spesentool oder ERP an ChatGPT übergeben. Mappen Sie Felder wie Mitarbeiter-ID, Rolle, Abteilung, Projektcode, Händler, Kategorie, Betrag, Währung, Datum, Stadt/Land, Kostenstelle und Rohbeschreibung in ein einfaches JSON- oder Tabellenformat.

Wenn Sie ChatGPT über API oder ein internes Tool nutzen, verpacken Sie jede Spesenposition in eine einheitliche Prompt-Struktur. Zum Beispiel:

Beispiel-Prompt an den Custom GPT:
Prüfen Sie die folgende Spesenposition auf Richtlinienkonformität.

Rolle der Mitarbeiterin / des Mitarbeiters: Senior Consultant
Abteilung: Vertrieb
Kostenstelle: 1203
Projekt: Implementierung Kunde XYZ
Standort: Paris, Frankreich

Spesenkategorie: Hotel
Betrag: 280
Währung: EUR
Datum: 2025-03-14
Beschreibung (Mitarbeiter): "Zwei Nächte im Hotel Central nahe Kundenbüro"

Relevanter Richtlinienauszug:
- Maximale Hotelrate in Paris: 220 EUR pro Nacht (inkl. Steuern).
- Ausnahmen erfordern vorherige schriftliche Genehmigung durch die Projektleitung.

Geben Sie die Ausgabe als JSON mit den Feldern decision, reasoning, corrective_action, employee_message zurück.

Diese Struktur erleichtert es, die Ausgabe von ChatGPT wieder in Ihr Spesensystem zurückzuspielen, Workflows anzuwenden und konsistente Prüfpfade zu erzeugen.

Integrieren Sie ChatGPT-Prüfungen in den Spesen-Einreichungsworkflow

Für spürbare Wirkung sollten Sie KI-gestützte Spesenprüfungen dort einbetten, wo Mitarbeitende und Genehmigende ohnehin arbeiten. Nutzen Sie Ihr IT-Team oder einen Partner wie Reruption, um Ihr Spesenmanagementsystem (oder den Kreditkarten-Transaktionsfeed) via API mit ChatGPT zu verbinden. Lösen Sie eine Richtlinienprüfung aus, wenn eine Spese eingereicht wird, wenn ein Bericht abgeschlossen wird oder bevor eine Führungskraft genehmigt.

Konfigurieren Sie die Integration so, dass risikoarme, klar richtlinienkonforme Positionen automatisch genehmigt werden, grenzwertige Fälle Führungskräften mit der Begründung des Modells hervorgehoben werden und eindeutig regelwidrige Positionen eine Prüfung durch Finance erfordern. Zeigen Sie die mitarbeiterfreundliche Erklärung der KI direkt in der Oberfläche an, damit Einreichende sofort sehen, warum etwas markiert wurde und was zu tun ist (z. B. Umkategorisierung, Aufteilung geschäftlich/privat, Nachreichen einer Genehmigung).

Erarbeiten Sie Playbooks für häufige Richtlinienverstöße

Nutzen Sie die Begründungen von ChatGPT nicht nur zur Erkennung von Problemen, sondern auch für eine konsistente Lösung. Analysieren Sie einige Monate an Spesenprüfungen, um wiederkehrende Muster der Nicht-Compliance zu identifizieren: etwa spät gebuchte Flüge über Tarifgrenzen, Hotel-Upgrades über Limit, Minibar-Ausgaben oder wiederkehrende SaaS-Abos, die über die Privatkarte bezahlt wurden.

Definieren Sie für jedes Muster ein Playbook: ob teilweise erstattet, eine schriftliche Begründung der Führungskraft verlangt oder abgelehnt wird; welches Alternativverhalten gefördert werden soll; und welche Formulierungen in der Kommunikation mit Mitarbeitenden akzeptabel sind. Kodifizieren Sie diese dann in den Anweisungen des Custom GPT, sodass er die passende Korrekturmaßnahme und Botschaft automatisch vorschlagen kann. Beispielausschnitt:

Instruktion für Richtlinien-Playbook:
Wenn der einzige Verstoß darin besteht, dass die nächtliche Hotelrate die stadtspezifische Obergrenze um <= 15 % überschreitet,
UND die Reise für ein Kundenprojekt war,
DANN empfehlen Sie eine teilweise Erstattung bis zur Obergrenze
UND schlagen Sie vor, künftige Buchungen mindestens 7 Tage im Voraus
ODER nach Möglichkeit in bevorzugten Partnerhotels vorzunehmen.

So bleiben Entscheidungen vorhersehbar und der Abstimmungsaufwand zwischen Finance und Mitarbeitenden sinkt.

Erzeugen Sie maßgeschneiderte Erklärungen für Mitarbeitende und Prüfer

Eine der Stärken von ChatGPT ist die Fähigkeit, dieselbe zugrunde liegende Begründung für unterschiedliche Zielgruppen aufzubereiten. Nutzen Sie dies, indem Sie das Modell anweisen, für jede markierte Spese zwei Erklärungen zu erzeugen: eine kurze, klare, nicht-juristische Erklärung für die Mitarbeiterin oder den Mitarbeiter und eine ausführlichere mit Verweis auf konkrete Richtlinienklauseln für Controller und Prüfer.

Erweitern Sie Ihre Prompts entsprechend:

System-Prompt erweitern:
Erstellen Sie für jede Entscheidung:
- employee_message: Eine prägnante Erklärung (max. 120 Wörter) in neutralem, respektvollem Ton.
  Vermeiden Sie juristische Fachbegriffe. Erklären Sie, was erstattet werden kann und was nicht – und warum.
- audit_note: Eine ausführliche Notiz (max. 250 Wörter) mit Verweis auf die konkrete Richtliniensektion
  und die numerischen Schwellenwerte, die die Entscheidung begründen.

Speichern Sie die Audit-Notizen zusammen mit der Spesenposition in Ihrem Finanzsystem. Das spart Zeit bei Prüfungen und macht strittige Entscheidungen deutlich leichter verteidigbar.

Überwachen Sie die Performance und kalibrieren Sie Schwellenwerte anhand echter Kennzahlen

Sobald Ihr KI-gestützter Spesenprüfprozess live ist, behandeln Sie ihn wie jeden anderen Kontrollmechanismus und messen Sie seine Performance. Verfolgen Sie zentrale Kennzahlen: Anteil der von KI geprüften Spesen, Verhältnis Auto-Genehmigung vs. Eskalation, Anzahl und Wert der erkannten regelwidrigen Abrechnungen, False-Positive-Rate, eingesparte Zeit für Controller und Genehmigende sowie die Quote an Einsprüchen durch Mitarbeitende.

Überprüfen Sie monatlich eine Stichprobe der KI-Entscheidungen gemeinsam mit Finance und HR, passen Sie Prompts an, erweitern oder verfeinern Sie Richtlinienauszüge und verändern Sie Schwellenwerte für Auto-Genehmigungen, sobald das Vertrauen wächst. Im Zeitverlauf sollten Sie eine Reduktion nicht-konformer Ausgaben in den fokussierten Kategorien sehen (oft 10–25 %), weniger manuelle zeilenweise Prüfungen und eine schnellere Abwicklung von Spesenberichten – ohne mehr Konflikte zu erzeugen.

Pragmatisch umgesetzt können diese Vorgehensweisen ChatGPT in eine skalierbare Kontrollschicht verwandeln, die regelwidrige Ausgaben reduziert, die manuelle Prüfzeit um 30–50 % senkt und die Transparenz für Mitarbeitende und Prüfer verbessert – ohne dass Sie Ihre bestehenden Spesentools austauschen müssen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

ChatGPT kann sowohl Ihre Reise- und Spesenrichtlinie als auch die Freitextbeschreibungen lesen, die Mitarbeitende bei der Einreichung von Spesen angeben. Durch den Abgleich von Beschreibung, Betrag, Kategorie, Standort und Rolle der Person mit den relevanten Richtlinienregeln kann jede Position als richtlinienkonform, grenzwertig oder regelwidrig klassifiziert werden.

Im Unterschied zu einfachen Regel-Engines versteht ChatGPT natürliche Sprache wie "Taxi genommen wegen Ankunft spät abends" oder "auf Economy Plus upgegradet nach Verspätung" und kann diesen Kontext in die Begründung einfließen lassen. Anschließend gibt es eine Entscheidung mit Erklärung aus und schlägt bei Bedarf eine Korrekturmaßnahme vor (z. B. Teil-Erstattung oder Genehmigung durch die Führungskraft).

Mindestens benötigen Sie drei Komponenten: eine ausreichend klare T&E-Richtlinie, die dem Modell zur Verfügung gestellt werden kann, Zugriff auf Spesendaten (aus Ihrem Spesentool, Firmenkartensystem oder ERP) und eine sichere Möglichkeit, diese Daten mit ChatGPT zu verbinden (typischerweise via API oder ein internes Tool).

Organisatorisch sollten Sie Verantwortlichkeiten festlegen: in Finance für die Interpretation der Richtlinie und in IT für Integration und Sicherheit. Sie benötigen kein großes Data-Science-Team; der Großteil der Arbeit liegt in der Prompt-Gestaltung, der Strukturierung der Richtlinie und der Workflow-Integration – Bereiche, in denen Reruption Sie End-to-End unterstützen kann.

Der Zeitbedarf hängt von der Komplexität ab, aber viele Organisationen können innerhalb von 4–6 Wochen ein erstes KI-Proof-of-Concept auf historischen Spesen durchführen. Dieses PoC deckt in der Regel einen Ausschnitt der Kategorien ab (z. B. Flüge und Hotels), bewertet die Erkennungsqualität und schätzt potenzielle Einsparungen durch reduzierte regelwidrige Ausgaben.

Ist der Ansatz validiert, dauert die Integration von ChatGPT in den Live-Spesenworkflow und der Rollout auf eine Pilotgruppe häufig weitere 4–8 Wochen. Verhaltensänderungen und spürbare Kosteneffekte zeigen sich meist innerhalb der ersten Abschluszyklen, wenn Mitarbeitende auf klarere und konsistentere Durchsetzung reagieren.

Der ROI ergibt sich im Wesentlichen aus drei Quellen: reduzierter nicht-konformer Ausgaben, weniger manueller Prüfaufwände und weniger Streitfällen. In fokussierten Kategorien mit häufigen Richtlinienverstößen erzielen Finanzteams oft zweistellige prozentuale Reduktionen der regelwidrigen Beträge, sobald konsequente Prüfungen etabliert sind.

Auf der Produktivitätsseite können Controller von zeilenweiser Vollprüfung auf ausnahmebasierte Prüfung umstellen und so Stunden pro Woche einsparen. Die exakten Zahlen hängen von Ihrer Ausgangssituation ab, aber ein gut implementiertes Setup für KI-basierte Spesenkontrolle amortisiert sich typischerweise innerhalb von 6–12 Monaten durch Kostenvermeidung und freigesetzte Kapazitäten im Finanzteam.

Reruption verbindet tiefgehende KI-Engineering-Kompetenz mit einem Co-Preneur-Mindset: Wir arbeiten eingebettet mit Ihren Finance- und IT-Teams und liefern funktionierende Lösungen statt nur Folien. Unser KI-PoC-Angebot (9.900€) ist darauf ausgelegt, schnell zu validieren, ob ChatGPT in Ihrer spezifischen Umgebung regelwidrige Spesenabrechnungen zuverlässig erkennen kann.

Wir unterstützen Sie bei der Use-Case-Abgrenzung, der Refaktorierung und Kodifizierung Ihrer T&E-Richtlinie, beim Design und Test des Custom GPT sowie bei der Integration in Ihre bestehenden Spesen- oder ERP-Systeme mit angemessener Sicherheit und Governance. Nach dem PoC liefern wir einen Produktionsplan und können als praktische Co-Builder an Bord bleiben, um die Lösung über Kategorien, Gesellschaften und Länder hinweg zu skalieren.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media