Die Herausforderung: Unvorhersehbare diskretionäre Ausgaben

Diskretionäre Ausgaben – Teamevents, SaaS-Tools, Trainings, Büroequipment, Ad-hoc-Dienstleistungen – sind der Bereich, in dem Budgets leise auslaufen. Diese Kosten verteilen sich über Firmenkreditkarten, individuelle Spesenabrechnungen und einmalige Lieferantenrechnungen. Für Finance bedeutet das fragmentierte Daten, unklare Verantwortlichkeiten und begrenzte Transparenz darüber, was die Ausgaben tatsächlich treibt – bis zum Monatsende, wenn es zu spät ist, zu reagieren, ohne das Geschäft zu stören.

Traditionelle Ansätze stützen sich auf manuelle Prüfungen von Kartenabrechnungen und Spesenberichten, einfache Kategorieregeln in ERP-Systemen und gelegentliche Ausgabenaudits. Sie werden der Realität moderner Ausgaben nicht gerecht: neue SaaS-Tools in jedem Quartal, hybride Arbeitsmodelle, sich ständig ändernde Kostenstellen und kreative Ausgabenbeschreibungen. Statische Regeln brechen schnell, generische FiBu-Konten (GL-Codes) verschleiern den eigentlichen Zweck der Ausgaben, und Finanzteams laufen Details per E-Mail und Tabellenkalkulationen hinterher.

Die Auswirkungen sind erheblich. Unvorhersehbare diskretionäre Ausgaben führen zu Budgetüberschreitungen, kurzfristigen Ausgabestopps und reaktiven Reise- oder Trainingskürzungen, die die Employee Experience beeinträchtigen. Prognosen verlieren an Glaubwürdigkeit, wenn die Zeilen „Sonstiges“ jedes Quartal wachsen. Unentdeckte Abo-Ausweitung und sich überschneidende Tools erhöhen die laufenden Kosten, während Richtlinienverstöße und umgangene Freigaben das Risiko für Compliance-Verstöße und Betrug steigern. Im Wettbewerb fallen Unternehmen, die ihre Kostentreiber nicht in Echtzeit sehen, zurück, wenn es darum geht, Kapital schnell umzuverteilen, sobald sich Marktbedingungen ändern.

Diese Herausforderung ist real, aber sie ist lösbar. Moderne KI kann Rechnungen, Belege und Kartendaten in großem Umfang lesen, die Intention hinter jedem Kauf verstehen und Muster erkennen, die Menschen entgehen würden. Bei Reruption sehen wir, wie KI-gestützte Analysen unstrukturierter Geschäftsdaten bessere Entscheidungen in komplexen Umfeldern ermöglichen. Im Folgenden zeigen wir konkrete Wege, wie Sie ChatGPT für die Steuerung diskretionärer Ausgaben einsetzen können – von Quick-Win-Piloten bis hin zu eingebetteten Policy-Assistenten – damit Finance von reaktiver Kontrolle zu proaktiver Steuerung wechselt.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption's Arbeit an KI-gestützten internen Tools und Dokumentenanalyse-Systemen wissen wir: Das Kernproblem bei diskretionären Ausgaben ist nicht fehlende Daten – sondern die Unfähigkeit, sie schnell genug zu interpretieren. ChatGPT für Finanzteams ändert diese Gleichung: Es kann Freitextbeschreibungen, Lieferantennamen, E-Mail-Verläufe und Richtlinien lesen und dann Szenarien klassifizieren, erklären und simulieren – auf eine Weise, die klassische Regel-Engines nicht leisten können. Unsere Sicht: Das Potenzial ist groß, aber nur, wenn Sie ChatGPT in klare Workflows einbetten, es mit den richtigen Kontrollen absichern und es als Bestandteil Ihres Finance Operating Model betrachten – nicht als Spielzeug-Chatbot nebenbei.

Ein klares Verantwortungsmodell für diskretionäre Ausgaben definieren

Bevor Sie KI hinzufügen, klären Sie, wer welche Arten diskretionärer Ausgaben verantwortet und welche Entscheidungen ChatGPT unterstützen soll. Beispiel: Marketing und HR verantworten Teamevents, IT verantwortet Softwaresubscriptionen, Bereichsleiter verantworten Trainings. Ohne diese Zuordnung macht KI das Chaos nur sichtbarer statt beherrschbarer.

Strategisch sollte Finance ChatGPT als Entscheidungsschicht positionieren: Es liefert eine einheitliche, KI-angereicherte Sicht auf Ausgaben nach Verantwortlichem, Zweck und Richtlinienstatus. Das bedeutet, dass Sie Ihre Taxonomie (Kategorien, Unterkategorien, Kostenstellen, Richtlinien) so gestalten, dass ChatGPT sie konsistent anwenden kann, und Eskalationspfade definieren, wenn die KI unsicher ist oder potenzielle Richtlinienverstöße erkennt.

Mit fokussierten Piloten in hochvolatilen Ausgabenkategorien starten

Zu versuchen, alle diskretionären Ausgaben auf einmal zu automatisieren, verwässert den Effekt und erzeugt Rauschen. Identifizieren Sie stattdessen 2–3 Kategorien, in denen Unvorhersehbarkeit besonders schmerzt – zum Beispiel Softwaresubscriptionen, Reisen und Entertainment oder Trainings. Nutzen Sie ChatGPT, um zunächst nur diese Kategorien zu klassifizieren und zu analysieren, und definieren Sie klare Erfolgskriterien wie Prognosegenauigkeit und Richtlinieneinhaltung.

Dieser fokussierte Ansatz ermöglicht es Finance, IT und Fachbereichen zu lernen, wie sich KI-basierte Klassifikation und Anomalieerkennung an realen Daten verhalten. Er schafft zudem interne Champions: Sobald ein Bereich dank besserer Transparenz weniger Überraschungsrechnungen oder Quartalsende-Freeze erlebt, wird er eine breitere Einführung aktiv unterstützen. Reruption strukturiert solche Vorhaben typischerweise als kurze, ergebnisorientierte Piloten statt als offene Experimente.

Human-in-the-Loop-Kontrollen von Anfang an einplanen

Beim Einsatz von KI in Finanzprozessen ist das Risiko nicht, dass ChatGPT einen Fehler macht – sondern dass niemand ihn bemerkt. Bauen Sie Human-in-the-Loop-Prüfpunkte ein, an denen Finanzanalysten unsichere Klassifikationen, hochvolumige Anomalien und vorgeschlagene Richtlinienentscheidungen überprüfen. Arbeiten Sie mit Konfidenzwerten und Schwellwerten: Unterhalb einer bestimmten Konfidenz macht die KI Vorschläge; oberhalb klassifiziert sie automatisch, protokolliert aber die Begründung für die Nachvollziehbarkeit.

Dieser Ansatz hält Kontrolle und Compliance im Zentrum und hebt gleichzeitig Automatisierungspotenziale. Mit wachsendem Vertrauen und verfeinerten Prompts und Mustern können Sie die Automatisierung für risikoarme, geringwertige Transaktionen schrittweise erhöhen und menschliche Aufsicht auf wesentliche oder ungewöhnliche Fälle konzentrieren.

ChatGPT in bestehende Finanzsysteme integrieren, nicht daneben stellen

Strategisch sollte ChatGPT innerhalb Ihres bestehenden Spend-Management-Stacks sitzen – ERP, Kartenplattformen, Spesentools – statt als separates Interface zu existieren, das niemand benutzt. Das heißt, Sie denken in Integrationspunkten: Webhooks von Kartenanbietern, Exporte aus Spesentools, geplante ETL-Jobs oder API-basierte Anreicherung von Transaktionen, bevor sie in Ihr Hauptbuch einlaufen.

Aus Sicht der organisatorischen Veränderungsbereitschaft reduziert das den Change-Management-Aufwand. Nutzer arbeiten weiter in vertrauten Tools, während ChatGPT im Hintergrund Daten anreichert, Risiken markiert und Freigaben unterstützt. Reruption's Engineering-getriebener Ansatz setzt auf schlanke Integrationen und Prototypen, die innerhalb weniger Tage in reale Workflows eingebunden werden, damit Finance den Effekt sieht, ohne ein monatelanges IT-Projekt zu starten.

KI-Ausgabenkontrollen mit Kultur und Policy-Kommunikation verzahnen

Die Einführung KI-gestützter Policy-Durchsetzung ohne Anpassung von Kultur und Kommunikation kann nach hinten losgehen. Mitarbeitende können sie als Überwachung oder willkürliche Blockade wahrnehmen. Positionieren Sie ChatGPT stattdessen als „Policy Co-Pilot“, der Mitarbeitende unterstützt, bessere Entscheidungen zu treffen und unabsichtliche Verstöße zu vermeiden – insbesondere in Graubereichen wie Konferenzen oder Teamevents.

Finance-Verantwortliche sollten HR und Kommunikation einbeziehen, um Tonalität, Eskalationsoptionen und Transparenz zu definieren: Welche Erklärung sieht ein Mitarbeitender, wenn eine Ausgabe markiert wird, wie kann er Kontext nachliefern, und wie werden Richtlinienänderungen in der KI-Unterstützung reflektiert. Richtig eingesetzt wird ChatGPT so zu einem skalierbaren Weg, das „Warum“ hinter Richtlinien zu erklären – nicht nur das „Nein“ durchzusetzen.

ChatGPT zur Steuerung unvorhersehbarer diskretionärer Ausgaben einzusetzen, ist letztlich ein strategischer Wandel: weg von verspäteter, manueller Kontrolle hin zu Echtzeit, KI-gestützter Entscheidungsfindung, eingebettet in Ihren Finance-Stack. Richtig umgesetzt erhalten Finanzteams granulare Transparenz, weniger Budgetüberraschungen und einen konstruktiveren Dialog mit dem Business darüber, wohin das Geld tatsächlich fließt. Bei Reruption verbinden wir diese strategische Einordnung mit pragmatischer Engineering-Umsetzung, um Ideen wie Policy Co-Pilots und Anomalie-Dashboards in funktionierende Tools zu übersetzen. Wenn Sie erkunden möchten, wie das auf Ihren eigenen Spesendaten aussehen könnte, unterstützen wir Sie gerne dabei, einen gezielten Proof of Concept zu konzipieren und zu testen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Nachrichtenmedien: Erfahren Sie, wie Unternehmen ChatGPT erfolgreich einsetzen.

AstraZeneca

Gesundheitswesen

In der stark regulierten pharmazeutischen Industrie stand AstraZeneca unter erheblichem Druck, die Wirkstoffforschung und klinischen Studien zu beschleunigen, die traditionell 10–15 Jahre dauern und Milliarden kosten, bei geringen Erfolgsraten von unter 10 %. Datensilos, strenge Compliance-Anforderungen (z. B. FDA-Regularien) und manuelle Wissensarbeit behinderten die Effizienz in F&E und Geschäftsbereichen. Forschende hatten Schwierigkeiten, riesige Datensets aus 3D-Bildgebung, Literaturauswertungen und Protokollentwürfen zu analysieren, was zu Verzögerungen bei der Therapiefindung für Patienten führte. Die Skalierung von KI wurde durch Datenschutz-Bedenken, Integration in Altsysteme und die Sicherstellung verlässlicher KI-Ergebnisse in einem hochkritischen Umfeld erschwert. Ohne schnelle Adoption riskierte AstraZeneca, gegenüber Wettbewerbern zurückzufallen, die KI für schnellere Innovationen zur Erreichung der 2030-Ziele nutzten.

Lösung

AstraZeneca startete eine unternehmensweite Strategie für generative KI und setzte ChatGPT Enterprise ein, maßgeschneidert für Pharma-Workflows. Dazu gehörten KI-Assistenten für die Analyse 3D-molekularer Bildgebung, automatische Entwürfe von Protokollen für klinische Studien und die Synthese von Wissen aus wissenschaftlicher Literatur. Sie gingen Partnerschaften mit OpenAI für sichere, skalierbare LLMs ein und investierten in Schulungen: Rund 12.000 Mitarbeitende aus F&E und anderen Funktionen schlossen bis Mitte 2025 GenAI-Programme ab. Infrastruktur-Upgrades wie AMD Instinct MI300X GPUs optimierten das Modelltraining. Governance-Rahmen stellten Compliance sicher, mit menschlicher Validierung in kritischen Aufgaben. Der Rollout erfolgte phasenweise von Pilotprojekten in 2023–2024 bis zur vollständigen Skalierung 2025, mit Schwerpunkt auf der Beschleunigung der F&E durch GenAI für Moleküldesign und Real-World-Evidence-Analysen.

Ergebnisse

  • ~12.000 Mitarbeitende bis Mitte 2025 in generativer KI geschult
  • 85–93 % der Mitarbeitenden berichteten von Produktivitätssteigerungen
  • 80 % der Medical Writer fanden KI-Protokollentwürfe nützlich
  • Signifikante Reduktion der Trainingszeit für Life-Sciences-Modelle durch MI300X-GPUs
  • Hohe AI-Maturity-Bewertung laut IMD-Index (weltweit oben)
  • GenAI ermöglicht schnellere Studienplanung und Dosiswahl
Fallstudie lesen →

AT&T

Telekommunikation

Als führender Netzbetreiber verwaltet AT&T eines der weltweit größten und komplexesten Netzwerke, das Millionen von Funkzellen, Glasfasern und 5G-Infrastruktur umfasst. Die zentralen Herausforderungen umfassten ineffiziente Netzplanung und -optimierung, etwa die Festlegung optimaler Standorte für Funkzellen und die Frequenzakquisition vor dem Hintergrund explodierender Datenanforderungen durch den 5G-Rollout und das Wachstum des IoT. Traditionelle Methoden beruhten auf manueller Analyse, was zu suboptimaler Ressourcenzuteilung und höheren Kapitalaufwendungen führte. Zusätzlich verursachte die reaktive Netzwartung häufige Ausfälle, da die Anomalieerkennung nicht mit den Echtzeitanforderungen Schritt hielt. Probleme proaktiv zu erkennen und zu beheben war entscheidend, um Ausfallzeiten zu minimieren, doch die enormen Datenmengen aus Netzwerksensoren überforderten die Altsysteme. Dies führte zu erhöhten Betriebskosten, Kundenunzufriedenheit und verzögerter 5G-Bereitstellung. AT&T benötigte skalierbare KI, um Ausfälle vorherzusagen, Selbstheilung zu automatisieren und die Nachfrage präzise zu prognostizieren.

Lösung

AT&T integrierte Maschinelles Lernen und Vorhersageanalytik über seine AT&T Labs und entwickelte Modelle für das Netzwerkdesign, einschließlich Spektrum-Refarming und Optimierung von Funkzellenstandorten. KI-Algorithmen analysieren Geodaten, Verkehrsprofile und historische Leistungsdaten, um ideale Standorte für Sendemasten zu empfehlen und so Baukosten zu reduzieren. Für den Betrieb nutzen Systeme zur Anomalieerkennung und Selbstheilung prädiktive Modelle auf NFV (Network Function Virtualization), um Ausfälle vorherzusagen und automatisierte Behebungen durchzuführen, etwa durch Umleitung von Traffic. Kausale KI geht über Korrelationen hinaus und liefert Ursachenanalysen bei Abwanderung und Netzproblemen. Die Implementierung umfasste Edge-to-Edge-Intelligenz und die Bereitstellung von KI in den Arbeitsabläufen von über 100.000 Ingenieurinnen und Ingenieuren.

Ergebnisse

  • Milliarden von Dollar an Einsparungen bei Netzwerkkosten
  • 20–30% Verbesserung der Netzauslastung und Effizienz
  • Signifikante Reduktion von Vor-Ort-Einsätzen (Truck Rolls) und manuellen Eingriffen
  • Proaktive Erkennung von Anomalien, die größere Ausfälle verhindert
  • Optimierte Standortwahl für Funkzellen, die CapEx um Millionen reduziert
  • Bis zu 40% bessere Genauigkeit bei 5G-Nachfrageprognosen
Fallstudie lesen →

Airbus

Luft- und Raumfahrt

In der Flugzeugentwicklung sind Computational Fluid Dynamics (CFD)-Simulationen essenziell, um den Luftstrom um Tragflächen, Rümpfe und neuartige Konfigurationen vorherzusagen — entscheidend für Treibstoffeffizienz und Emissionsreduzierung. Herkömmliche hochgenaue RANS-Solver benötigen jedoch Stunden bis Tage pro Lauf auf Supercomputern, wodurch Ingenieure nur wenige Dutzend Iterationen pro Designzyklus durchführen können und die Innovationsfähigkeit für nächste Generationen wie das hydrogenbetriebene ZEROe eingeschränkt wird. Dieses Rechenengpassproblem war besonders akut im Kontext von Airbus' Vorstoß zur Dekarbonisierung der Luftfahrt bis 2035, bei dem komplexe Geometrien eine umfassende Exploration erfordern, um Auftriebs-Widerstands-Verhältnisse zu optimieren und gleichzeitig Gewicht zu minimieren. Kooperationen mit DLR und ONERA zeigten den Bedarf an schnelleren Werkzeugen auf, da manuelle Abstimmungen nicht skalieren, um die Tausenden Varianten zu testen, die für laminares Strömungsverhalten oder Blended-Wing-Body-Konzepte nötig sind.

Lösung

Maschinelle Lern-Surrogatmodelle, einschließlich physik-informierter neuronaler Netze (PINNs), wurden auf umfangreichen CFD-Datensätzen trainiert, um komplette Simulationen in Millisekunden zu emulieren. Airbus integrierte diese in eine generative Design-Pipeline, in der KI Druckfelder, Geschwindigkeiten und Kräfte vorhersagt und dabei die Navier-Stokes-Physik über hybride Verlustfunktionen zur Genauigkeit erzwingt. Die Entwicklung umfasste die Aufbereitung von Millionen von Simulations-Snapshots aus Legacy-Läufen, GPU-beschleunigtes Training und iterative Feinabstimmung mit experimentellen Windkanaldaten. Dadurch wurden schnelle Iterationen möglich: Die KI sichtet Designs, während hochauflösende CFD nur die besten Kandidaten verifiziert, wodurch der Gesamtaufwand um Größenordnungen reduziert wird und gleichzeitig ein <5% Fehler bei Schlüsselmetriken gehalten wird.

Ergebnisse

  • Simulationszeit: 1 Stunde → 30 ms (120.000x Beschleunigung)
  • Design-Iterationen: +10.000 pro Zyklus im gleichen Zeitraum
  • Vorhersagegenauigkeit: 95%+ für Auftriebs-/Widerstandskoeffizienten
  • 50% Verkürzung der Designphasenlaufzeit
  • 30–40% weniger hochauflösende CFD-Läufe erforderlich
  • Treibstoffverbrauchsoptimierung: bis zu 5% Verbesserung in Vorhersagen
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

American Eagle Outfitters

Bekleidungs-Einzelhandel

In der wettbewerbsintensiven Bekleidungs-Einzelhandel-Landschaft stand American Eagle Outfitters vor erheblichen Herausforderungen in den Ankleidekabinen, wo Kund:innen nach Styling-Beratung, präziser Größenempfehlung und ergänzenden Artikelvorschlägen verlangen, ohne auf überlastete Mitarbeitende warten zu müssen . Während Stoßzeiten führten Personalknappheiten häufig dazu, dass frustrierte Käufer:innen Waren zurückließen, die Anprobefrequenz sanken und Konversionschancen verpasst wurden, da traditionelle In-Store-Erfahrungen hinter der personalisierten E‑Commerce-Welt zurückblieben . Frühe Ansätze wie Beacon-Technologie im Jahr 2014 verdoppelten zwar die Wahrscheinlichkeit des Betretens der Umkleide, fehlte es ihnen jedoch an Tiefe für Echtzeit-Personalisierung . Hinzu kamen Daten-Silos zwischen Online und Offline, die einheitliche Kundenkenntnisse erschwerten und es schwierig machten, Artikel dynamisch an individuelle Stilpräferenzen, Körpertypen oder sogar Hauttöne anzupassen. American Eagle benötigte eine skalierbare Lösung, um Engagement und Kundentreue in Flagship-Stores zu steigern und gleichzeitig mit KI breiter zu experimentieren .

Lösung

American Eagle ging eine Partnerschaft mit Aila Technologies ein, um interaktive Ankleidekabinen-Kioske einzusetzen, die von Computervision und Maschinellem Lernen angetrieben werden; diese wurden 2019 in Flagship-Filialen in Boston, Las Vegas und San Francisco eingeführt . Kund:innen scannen Kleidungsstücke über iOS-Geräte, wodurch CV‑Algorithmen die Artikel identifizieren und ML‑Modelle — trainiert auf Kaufhistorie und Google Cloud‑Daten — optimale Größen, Farben und Outfit‑Ergänzungen vorschlagen, zugeschnitten auf inferierte Stilpräferenzen . Integriert mit den ML-Funktionen von Google Cloud ermöglicht das System Echtzeit-Empfehlungen, Benachrichtigungen an Mitarbeitende und nahtlose Bestandsabfragen und entwickelte sich von Beacon‑Gimmicks zu einem vollwertigen smarten Assistenten . Dieser experimentelle Ansatz, gefördert vom CMO Craig Brommers, fördert eine KI‑Kultur für Personalisierung im großen Maßstab .

Ergebnisse

  • Zweistellige Conversion-Steigerungen durch KI‑Personalisierung
  • 11% Wachstum der vergleichbaren Verkäufe für die Marke Aerie im Q3 2025
  • 4% Anstieg der gesamten vergleichbaren Verkäufe im Q3 2025
  • 29% EPS‑Wachstum auf $0,53 im Q3 2025
  • Verdoppelte Anprobewahrscheinlichkeit in Ankleidekabinen durch frühe Technik
  • Rekordumsatz im Q3 von $1,36 Mrd.
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Eine KI-fähige Spesen-Datenpipeline aufbauen

Damit ChatGPT für Spesenanalysen nützlich ist, benötigen Sie einen konsistenten Datenstrom. Beginnen Sie damit, Kartentransaktionen, Spesenberichte und Lieferantenrechnungen in einer einzigen Tabelle oder einem Dataset zu aggregieren. Fügen Sie Felder wie Datum, Betrag, Händler, Nutzer, Abteilung, Projekt, FiBu-Konto, Freitextbeschreibung und Freigabestatus hinzu. Schon ein täglicher CSV-Export aus Ihren Systemen in einen sicheren Datenspeicher reicht für eine erste Iteration.

Definieren Sie anschließend, wie ChatGPT auf diese Daten zugreift: per API, geplanten Batch-Exporten oder in einer sicheren Analytics-Umgebung, in der Analysten gefilterte Daten zur Analyse einfügen können. Stellen Sie sicher, dass personenbezogene Daten gemäß Ihren Compliance-Vorgaben behandelt werden – pseudonymisieren Sie bei Bedarf und vermeiden Sie es, unnötige Felder an das Modell zu senden.

Robuste Kategorisierungs- und Zweck-Prompts erstellen

Nutzen Sie strukturierte Prompts, damit ChatGPT Ausgaben konsistent klassifizieren und den Zweck ableiten kann. Seien Sie explizit bei Kategorien, Regeln und gewünschtem Ausgabeformat. Sie könnten das Modell zum Beispiel bitten, jeder Zeile eine Ausgabenkategorie (z. B. „Teamevent“, „SaaS“, „Training“, „Büromaterial“), ein Zweck-Tag (z. B. „Mitarbeiterbindung“, „Produktivitätstool“) und ein Policy-Risiko-Level zuzuweisen.

Systemanweisung:
Sie sind ein KI-Assistent für die Finanzabteilung. Ihre Aufgabe ist es,
Unternehmensausgaben zu klassifizieren und potenzielle Richtlinienrisiken
zu identifizieren.

Nutzerdaten (Beispielfeld):
{"description": "Miro-Lizenz-Upgrade für Design-Team", 
 "merchant": "MIRO.COM", 
 "amount": 960, 
 "currency": "EUR", 
 "department": "Product", 
 "country": "DE"}

Aufgabe:
1. Weisen Sie eine spend_category aus dieser Liste zu:
   - SaaS
   - Travel & Entertainment
   - Training & Education
   - Team Events
   - Office & Remote Work Equipment
   - Other
2. Weisen Sie ein purpose_tag zu (kurzer Text, max. 4 Wörter).
3. Weisen Sie policy_risk als Low, Medium oder High zu.
4. Erklären Sie kurz (max. 2 Sätze) warum, mit Fokus auf den geschäftlichen Zweck.

Antworten Sie im JSON-Format mit den Schlüsseln: spend_category, purpose_tag,
policy_risk, rationale.

Nutzen Sie dieses Muster für Ihre Daten per API oder Batch-Verarbeitung. Speichern Sie die KI-generierten Felder zu jeder Transaktion, damit Sie diskretionäre Ausgabentreiber im Zeitverlauf analysieren und visualisieren können.

Workflows zur Erkennung von Anomalien und Richtlinienverstößen implementieren

Kombinieren Sie einfache quantitative Regeln mit der qualitativen Bewertung durch ChatGPT, um auffällige diskretionäre Ausgaben zu identifizieren. Filtern Sie zunächst mit Ihrem Analytics-Stack Kandidaten vor: z. B. Transaktionen über einem Schwellwert, mehrere ähnliche Käufe durch denselben Nutzer oder plötzliche Ausschläge in einer Kategorie für eine Abteilung.

Senden Sie diese Kandidaten dann mit Kontext zu Ihren Richtlinien und historischen Mustern an ChatGPT. Bitten Sie das Modell zu beurteilen, ob die Ausgabe im Rahmen der Richtlinien, grenzwertig oder wahrscheinlich außerhalb der Richtlinien liegt, und eine Erklärung sowie einen Vorschlag für das weitere Vorgehen zu liefern.

Systemanweisung:
Sie unterstützen unser Finanzteam bei der Prüfung potenziell riskanter
diskretionärer Ausgaben. Sie kennen unsere Richtlinie: Teamevents müssen
vorab genehmigt werden; SaaS über 500 EUR/Jahr erfordert ein IT-Okay;
Reisen sollten über bevorzugte Anbieter gebucht werden.

Nutzerdaten:
- Aktuelle Ausgabe: {JSON der Transaktion}
- Die letzten 6 ähnlichen Ausgaben desselben Nutzers/derselben Abteilung: {JSON-Liste}

Aufgabe:
1. Klassifizieren Sie als: In-Policy, Borderline oder Likely Out-of-Policy.
2. Geben Sie eine kurze Erklärung (max. 3 Sätze).
3. Schlagen Sie die nächste Aktion vor: "auto-approve", "request manager justification" 
   oder "escalate to finance".

Binden Sie dies in einen schlanken Workflow ein: Markierte Ausgaben lösen eine Nachricht in Ihrem Ticketing-Tool oder Posteingang aus, inklusive der KI-Bewertung, sodass Finance schnell handeln kann, ohne jede Transaktion manuell prüfen zu müssen.

Einen Policy Co-Pilot für Mitarbeitende und Genehmigende bereitstellen

Erstellen Sie einen ChatGPT-gestützten Policy-Assistenten, den Mitarbeitende vor der Ausgabe nutzen können. Binden Sie ihn in Ihr Intranet oder Ihre Chat-Plattform ein, sodass Nutzer Fragen stellen können wie „Darf ich diese Software kaufen?“ oder „Aus welchem Budget soll dieses Teamevent bezahlt werden?“. Speisen Sie den Assistenten mit Ihren Reise-, Spesen- und Beschaffungsrichtlinien als Quelldokumente und weisen Sie ihn an, mit Verweisen auf konkrete Klauseln zu antworten.

Systemanweisung:
Sie sind ein Assistent für Unternehmens-Spesenrichtlinien. Sie beantworten
Fragen von Mitarbeitenden dazu, wofür sie Geld ausgeben dürfen und wie sie
es korrekt tun.
Sie verwenden ausschließlich Informationen aus den bereitgestellten
Richtliniendokumenten. Wenn Sie unsicher sind, sagen Sie das klar und
empfehlen, Finance zu kontaktieren.

Beispielfragen von Nutzern:
- "Kann ich ein Team-Lunch für einen Projekt-Kickoff abrechnen?"
- "Ich möchte ein Tool für 60 EUR/Monat abonnieren. Welche Freigaben brauche ich?"

Antwortanforderungen:
- Antworten Sie in einfacher, verständlicher Sprache.
- Verweisen Sie auf relevante Richtlinien-Abschnittsnummern.
- Wenn die Frage mehrdeutig ist, stellen Sie 1–2 Rückfragen zur Klärung.

Erweitern Sie das Konzept auf Genehmigende. Wenn eine Führungskraft eine Ausgabe prüft, kann sie auf einen Button „Erläutern“ klicken, der die Transaktionsdetails an ChatGPT sendet. ChatGPT antwortet mit einer knappen Zusammenfassung: voraussichtlicher Zweck, relevante Policy-Aspekte und empfohlene Entscheidung. Das beschleunigt Freigaben und macht die Anwendung von Richtlinien konsistenter.

Szenariosimulation zur Stabilisierung von Budgets nutzen

Speisen Sie ChatGPT mit aggregierten historischen Daten nach Abteilung, Kategorie und Monat sowie mit anstehenden Plänen (Headcount-Veränderungen, große Projekte, bekannte Events). Bitten Sie das Modell, Szenarien für diskretionäre Ausgaben unter verschiedenen Annahmen zu generieren – zum Beispiel Verschärfung der Reiserichtlinien, Zentralisierung der Softwarebeschaffung oder Zuteilung fester quartalsweiser Teamevent-Budgets.

Systemanweisung:
Sie sind ein Assistent für Finanzplanung. Auf Basis vergangener Daten und
geplanter Änderungen schätzen Sie wahrscheinliche Bandbreiten für
diskretionäre Ausgaben und identifizieren Hebel, um Volatilität zu
reduzieren, ohne Geschäftsergebnisse zu schädigen.

Nutzerdaten:
- Historische Ausgaben nach Abteilung & Kategorie (3 Jahre)
- Geplante Headcount-Änderungen nach Abteilung
- Übergeordnete Richtlinienänderungen (Text)

Aufgabe:
1. Schätzen Sie für jede Abteilung Low-/Base-/High-Szenarien für die
   nächsten 12 Monate diskretionärer Ausgaben.
2. Listen Sie die 3 wichtigsten Volatilitätstreiber je Abteilung auf.
3. Schlagen Sie 2–3 konkrete Policy- oder Prozessänderungen vor, um die
   Unvorhersehbarkeit zu reduzieren.

Nutzen Sie die Ergebnisse der KI als Ausgangspunkt, nicht als endgültige Prognose. Finance kann Annahmen hinterfragen, Eingaben verfeinern und die vielversprechendsten Hebel in Budgetregeln oder Leitlinien für Bereichsleiter übersetzen.

Impact mit einfachen, transparenten KPIs messen

Um den Wert nachzuweisen, definieren Sie einen kleinen Satz KPIs für KI-gestützte Ausgabenkontrolle. Beispiele: Anteil der diskretionären Ausgaben, die granular korrekt kategorisiert sind; Reduktion von „Sonstiges“ oder nicht kategorisierten Ausgaben; Anzahl der vor Zahlung erkannten Richtlinienverstöße; Abweichung diskretionärer Ausgaben vs. Budget je Abteilung; eingesparte Zeit bei monatlichen Ausgabenreviews.

Instrumentieren Sie Ihre Workflows so, dass Sie diese Kennzahlen vom ersten Tag an messen können: Protokollieren Sie, wie viele Ausgaben ChatGPT automatisch klassifiziert vs. eskaliert, verfolgen Sie Korrekturraten durch menschliche Prüfer und erfassen Sie Durchlaufzeiten vor und nach der Automatisierung. Teilen Sie diese Metriken mit Stakeholdern, um Vertrauen aufzubauen und zu begründen, warum KI auf zusätzliche Kategorien und Prozesse ausgeweitet werden sollte.

Die erwarteten Ergebnisse aus der Anwendung dieser Best Practices sind greifbar, sollten aber realistisch bleiben: Viele Finanzteams erreichen granulare Kategorisierungsraten von über 90 %, eine Reduktion der Zeit für manuelle Spesenprüfung um 20–40 % sowie merklich weniger Budgetüberraschungen innerhalb von zwei bis drei Quartalen, wenn KI-gestützte Transparenz bei diskretionären Ausgaben zum Standard wird.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

ChatGPT kann die unstrukturierten Teile Ihrer Spesendaten – Beschreibungen, Lieferantennamen, E-Mail-Begründungen, Richtlinien – lesen und interpretieren und in strukturierte Insights übersetzen. Es klassifiziert Ausgaben automatisch in sinnvolle Kategorien, leitet den geschäftlichen Zweck ab und markiert potenzielle Richtlinienverstöße oder auffällige Ausgaben zur Prüfung.

Statt dass Finanzteams Kartenabrechnungen Zeile für Zeile scannen, prüft ChatGPT Transaktionen vor, hebt Risiken hervor und fasst Muster wie „mehrere überlappende SaaS-Tools“ oder „plötzlicher Anstieg bei Teamevents“ zusammen. Sie treffen weiterhin die finalen Entscheidungen – aber mit deutlich besserer Transparenz und wesentlich weniger manueller Arbeit.

Sie benötigen kein perfektes Data Warehouse zum Start, aber grundlegenden Datenzugang und klare Leitplanken. Konkret sollten Sie einplanen: (1) regelmäßige Exporte oder API-Zugriff auf Karten-, Spesen- und Rechnungsdaten; (2) ein einfaches Kategorisierungs-Framework (Ausgabenkategorien und Richtlinienregeln) zur Steuerung des Modells; und (3) einen abgestimmten Human-in-the-Loop-Prozess zur Überprüfung von KI-Hinweisen und -Entscheidungen.

Auf der Kompetenzseite brauchen Sie jemanden aus Finance, der Ihre Richtlinien und Reporting-Anforderungen versteht, plus jemanden aus IT oder Data, der Systeme verbinden und Sicherheit gewährleisten kann. Reruption arbeitet typischerweise mit einem kleinen gemeinsamen Team, um dies im Rahmen eines fokussierten Proof of Concept innerhalb weniger Tage aufzusetzen.

Bei einem gut abgegrenzten Use Case wie der Analyse diskretionärer Ausgaben sollten Sie Ergebnisse innerhalb von Wochen, nicht Monaten sehen. Ein typischer Zeitplan: In Woche 1–2 binden wir Beispieldaten an und entwickeln Prompts für Klassifikation und Anomalieerkennung; bis Woche 3–4 können Sie KI-gestützte Analysen auf mehreren Monaten historischer Ausgaben fahren und konkrete Themen wie doppelte Tools oder wiederkehrende Ausgaben außerhalb der Richtlinien identifizieren.

Die Stabilisierung von Budgets und die Reduktion von Varianz dauern länger, weil Sie mehrere Planungs- und Abschlusszyklen benötigen. In der Praxis berichten Finanzteams oft von besserer Transparenz und schnelleren Monatsabschlüssen nach einem Quartal sowie von klareren Budgetgesprächen mit Bereichsleitern nach zwei bis drei Quartalen mit KI-angereicherten Ausgabendaten.

Die direkten ChatGPT-Nutzungskosten (API-Calls) für Spesenanalysen sind in der Regel gering im Vergleich zu Arbeits- und Toolkosten – oft im niedrigen dreistelligen Euro-Bereich pro Monat für mittelgroße Organisationen. Die Hauptinvestitionen liegen in der initialen Integrationsarbeit, Prompt-Entwicklung und Prozessgestaltung, die sich jedoch eng auf eine spezifische Kategorie oder Geschäftseinheit zuschneiden lassen.

Der ROI kommt aus mehreren Quellen: weniger manueller Prüfaufwand im Finance-Team, weniger Überraschungsüberschreitungen und Notfallkürzungen, Eliminierung redundanter Subscriptions und Tools sowie verbesserte Richtlinieneinhaltung. Zwar variieren die Zahlen, aber eine Reduktion des manuellen Prüfaufwands um 20–40 % und identifizierte jährliche Einsparungen im hohen fünfstelligen Bereich bei überlappenden oder nicht gerechtfertigten diskretionären Ausgaben sind realistisch, sobald das System verankert ist.

Reruption verbindet strategisches Finance-Verständnis mit tiefem Engineering-Know-how, um schnell vom Konzept zur funktionierenden Lösung zu kommen. Mit unserem AI PoC-Angebot (9.900€) definieren und schärfen wir einen konkreten Use Case – zum Beispiel automatisierte Klassifikation und Anomalieerkennung für Software- und Teamevent-Ausgaben – und bauen innerhalb weniger Tage einen funktionsfähigen Prototypen auf Ihren Echtdaten.

Wir arbeiten mit einem Co-Preneur-Ansatz: eingebettet an der Seite Ihrer Finance- und IT-Teams und in Ihrer P&L statt auf Foliensätzen. Das bedeutet, wir übernehmen Modellauswahl, Datenpipelines, Prompt-Design sowie eine einfache UI oder Integration in Ihre bestehenden Tools und bleiben so lange an Bord, bis Performance messbar ist und eine Roadmap für den produktiven Betrieb steht. Wenn der PoC seinen Wert belegt, helfen wir Ihnen, daraus eine sichere, skalierbare interne Fähigkeit zu machen – statt eines einmaligen Experiments.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media