Die Herausforderung: Doppelte und betrügerische Spesenabrechnungen

Für die meisten Finanzteams treten doppelte und betrügerische Spesenabrechnungen nicht als klar erkennbares großes Warnsignal auf. Sie verbergen sich in Tausenden von Taxifahrten, Hotelrechnungen und Kartenzahlungen. Wiederverwendete Belege, leicht veränderte PDFs, geteilte Rechnungen und erfundene Anbieter rutschen durch, weil Prüfer Sekunden statt Minuten für jede Abrechnung haben. Das Ergebnis ist ein schleichender Verlust von Liquidität und Kontrolle, der schwer zu quantifizieren, aber sehr real ist.

Traditionelle Kontrollen wurden für ein anderes Zeitalter entwickelt: Stichproben, manuelle Spot-Checks, einfache Transaktionsregeln und nachgelagerte Audits. Diese Methoden setzen voraus, dass Sie jedes Detail lesen und sich merken können, aber heutige Spesendaten sind unstrukturiert und unübersichtlich – PDFs, Fotos, E-Mail-Bestätigungen und Freitextbeschreibungen. Legacy-Tools können Beträge und Daten vergleichen, aber sie verstehen keinen Kontext, keine Absicht und keine Geschichte hinter der Abrechnung. Genau dort verstecken sich jedoch raffinierte Dubletten und Betrugsfälle.

Die geschäftlichen Auswirkungen sind zweifach. Einerseits führen unentdeckte Dubletten und auffällige Abrechnungen zu direkten finanziellen Verlusten und schwächen Ihr internes Kontrollsystem. Andererseits binden stark manuelle Prüfprozesse hochqualifizierte Finanzressourcen, verlangsamen Erstattungen und verschlechtern die Employee Experience. Wenn Ihr Unternehmen wächst, akzeptieren Sie entweder steigende Leckagen oder Sie stellen mehr Personal für zusätzliche Kontrollen ein – beides ist weder nachhaltig noch wettbewerbsfähig.

Trotzdem ist die Situation alles andere als aussichtslos. Fortschritte bei der KI im Finanzbereich ermöglichen es Ihnen heute, jede Abrechnung, jeden Beleg und jeden Kommentar zu analysieren – nicht nur eine kleine Stichprobe. Bei Reruption sehen wir, wie KI-Copiloten dokumentenintensive Prozesse wie Dokumentenrecherche und -analyse transformieren, und dieselben Prinzipien gelten für die Spesenkontrolle. Im weiteren Verlauf dieser Seite zeigen wir praktische Wege, wie Sie ChatGPT nutzen können, um doppelte und betrügerische Abrechnungen in großem Maßstab aufzudecken – und zwar so, dass es zu Ihren bestehenden Finanzprozessen und Compliance-Anforderungen passt.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus unserer Arbeit an KI-gestützter Dokumentenanalyse und internen Copiloten wissen wir, dass ChatGPT besonders stark darin ist, unstrukturierten Text zu verstehen, Narrative zu vergleichen und Unstimmigkeiten in Dokumenten zu erkennen. Auf doppelte und betrügerische Spesenabrechnungen angewendet bedeutet dies, dass Sie von regelbasierter Stichprobe zu kontextbewusster Prüfung jeder Transaktion wechseln können. Bei Reruption betrachten wir dies nicht als glänzendes Tool, sondern als Upgrade Ihrer Finanzkontrollen: Wir gestalten, wie KI in Ihre Freigaberegeln, Prüfanforderungen und Ihre Risikobereitschaft eingebettet wird.

Verstehen Sie ChatGPT als Prüfer der zweiten Linie, nicht als Black-Box-Richter

Wenn Sie KI für die Kontrolle von Spesenabrechnungen einführen, ist die Haltung entscheidend. ChatGPT sollte als unermüdlicher Prüfer der zweiten Linie agieren, der Auffälligkeiten, Dubletten und verdächtige Narrative für eine menschliche Entscheidung markiert – nicht als automatische Ablehnungsmaschine. So bleiben Verantwortlichkeiten klar, Widerstände von Mitarbeitenden und Prüfern werden reduziert, und Sie können das System kalibrieren, ohne Ihre bestehenden Richtlinien zu stören.

Gestalten Sie Workflows strategisch so, dass ChatGPT strukturierte Risikobewertungen liefert: Gründe für Bedenken, Ähnlichkeitsscores zu früheren Belegen und vorgeschlagene Rückfragen. Ihr Finanzteam behält die Kontrolle über Freigaben, aber mit besseren Informationen und deutlich weniger manueller Lesezeit. Das passt gut zu internen Kontrollrahmenwerken und liefert eine nachvollziehbare Geschichte für Compliance- und Audit-Teams.

Starten Sie mit risikoreichen Kategorien und klaren Richtlinien

KI arbeitet am besten dort, wo die Spielregeln klar sind. Versuchen Sie nicht, am ersten Tag jede Spesenentscheidung zu automatisieren, sondern konzentrieren Sie Ihre anfängliche ChatGPT-Einführung im Finanzbereich auf Kategorien mit häufigem Missbrauch und klar definierten Richtlinien: Reisen, Bewirtung, Kilometerpauschalen, Subscriptions. Diese Bereiche enthalten oft wiederkehrende Anbieter, ähnliche Belege und spezifische Limits, die sich leicht in KI-Prüfungen übersetzen lassen.

Dieser fokussierte Ansatz hilft Ihnen, den Mehrwert schnell zu belegen: Doppelte Hotelrechnungen, doppelt abgerechnete Flüge oder sich wiederholende SaaS-Tools treten aus dem Rauschen hervor. Gleichzeitig bleibt der Umfang überschaubar, damit Ihr Team Prompts, Schwellenwerte und Workflows feinjustieren kann, bevor Sie auf den gesamten Spend ausweiten.

Bereiten Sie Ihre Daten und Richtlinien für die Nutzung durch KI auf

ChatGPT ist nur so effektiv wie die Daten und Leitlinien, die Sie bereitstellen. Strategisch müssen Sie die Digitalisierung der Spesenrichtlinie als Teil des Projekts behandeln, nicht als Nebensache. Textbasierte Richtlinien sollten bereinigt, eindeutig formuliert und in klare Regeln, Beispiele und Grenzfälle strukturiert werden, denen das Modell folgen kann.

Auf der Datenseite sollten Belege, Rechnungen und Kartentransaktionen konsistent erfasst und vorverarbeitet werden: PDFs und Bilder in Text umgewandelt, Währungen normalisiert und Schlüsselfelder (Datum, Anbieter, Betrag, Mitarbeitende) in strukturierter Form verfügbar. Diese Vorbereitung verbessert die Modellgenauigkeit erheblich und reduziert False Positives, die sonst das Vertrauen in das System untergraben könnten.

Risikobereitschaft, Schwellenwerte und Eskalationspfade abstimmen

Unterschiedliche Organisationen haben unterschiedliche Toleranzen für kleine Fehler versus potenziellen Betrug. Ein strategisches KI-basiertes Spesenkontroll-Setup bildet diese Risikobereitschaft explizit ab. Arbeiten Sie mit Compliance, Interner Revision und HR zusammen, um festzulegen, was passieren soll, wenn ChatGPT einen potenziellen Doppel- oder Betrugsfall markiert: reine Information, weicher Block, verpflichtende Führungskräfteprüfung oder Eskalation an Ermittlungen.

Durch klar definierte Schwellenwerte (z. B. Ähnlichkeitsscores oder Anzahl von Warnsignalen) und Eskalationspfade vermeiden Sie Ad-hoc-Entscheidungen und sorgen für eine konsistente Behandlung über Teams und Regionen hinweg. Zudem können Sie Prüfern leichter demonstrieren, wie der KI-gestützte Prozess funktioniert und an welchen Stellen menschliches Urteil einfließt.

In Change Management und Schulung der Prüfer investieren

Selbst die beste KI-Lösung zur Erkennung betrügerischer Spesen scheitert, wenn Prüfer die Ergebnisse ignorieren oder ihnen misstrauen. Strategisch sollten Sie ChatGPT als Produktivitäts- und Qualitätstool für Finance positionieren, nicht als zusätzliche Kontrollschicht von oben. Binden Sie zentrale Prüfer früh ein, lassen Sie sie Prompts und Ausgabeformate mitgestalten und zeigen Sie, wie KI den Lärm reduziert, damit sie sich auf wirklich auffällige Fälle konzentrieren können.

Stellen Sie kurze, praxisnahe Trainings bereit: wie KI-generierte Risikozusammenfassungen zu interpretieren sind, wie man mit Begründung übersteuert und wie man Fälle zurückmeldet, in denen das Modell etwas übersehen oder überreagiert hat. Im Zeitverlauf wird dieses Human-in-the-Loop-Feedback zu einem strategischen Asset, das Ihre KI-Kontrollen kontinuierlich verbessert und gleichzeitig die Menschen eingebunden hält.

Durchdacht eingesetzt verwandelt ChatGPT für doppelte und betrügerische Spesenabrechnungen die Spesenprüfung von einer manuellen, stichprobenbasierten Pflichtaufgabe in einen zielgerichteten Risikoprozess über 100 % der Transaktionen. Entscheidend ist die Kombination aus klaren Richtlinien, strukturierten Daten und gut gestalteten Human-in-the-Loop-Workflows, sodass KI Ihr Finanzteam verstärkt statt ersetzt. Wenn Sie dies in Ihrer eigenen Umgebung erkunden möchten, unterstützt Sie Reruption mit einem fokussierten KI-PoC bei der Machbarkeitsprüfung und baut den Prüf-Copiloten anschließend gemeinsam mit Ihnen direkt in Ihre bestehenden Tools ein – nicht als Foliensatz, sondern als produktives System, das Ihr Team tatsächlich nutzt.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Nachrichtenmedien: Erfahren Sie, wie Unternehmen ChatGPT erfolgreich einsetzen.

AstraZeneca

Gesundheitswesen

In der stark regulierten pharmazeutischen Industrie stand AstraZeneca unter erheblichem Druck, die Wirkstoffforschung und klinischen Studien zu beschleunigen, die traditionell 10–15 Jahre dauern und Milliarden kosten, bei geringen Erfolgsraten von unter 10 %. Datensilos, strenge Compliance-Anforderungen (z. B. FDA-Regularien) und manuelle Wissensarbeit behinderten die Effizienz in F&E und Geschäftsbereichen. Forschende hatten Schwierigkeiten, riesige Datensets aus 3D-Bildgebung, Literaturauswertungen und Protokollentwürfen zu analysieren, was zu Verzögerungen bei der Therapiefindung für Patienten führte. Die Skalierung von KI wurde durch Datenschutz-Bedenken, Integration in Altsysteme und die Sicherstellung verlässlicher KI-Ergebnisse in einem hochkritischen Umfeld erschwert. Ohne schnelle Adoption riskierte AstraZeneca, gegenüber Wettbewerbern zurückzufallen, die KI für schnellere Innovationen zur Erreichung der 2030-Ziele nutzten.

Lösung

AstraZeneca startete eine unternehmensweite Strategie für generative KI und setzte ChatGPT Enterprise ein, maßgeschneidert für Pharma-Workflows. Dazu gehörten KI-Assistenten für die Analyse 3D-molekularer Bildgebung, automatische Entwürfe von Protokollen für klinische Studien und die Synthese von Wissen aus wissenschaftlicher Literatur. Sie gingen Partnerschaften mit OpenAI für sichere, skalierbare LLMs ein und investierten in Schulungen: Rund 12.000 Mitarbeitende aus F&E und anderen Funktionen schlossen bis Mitte 2025 GenAI-Programme ab. Infrastruktur-Upgrades wie AMD Instinct MI300X GPUs optimierten das Modelltraining. Governance-Rahmen stellten Compliance sicher, mit menschlicher Validierung in kritischen Aufgaben. Der Rollout erfolgte phasenweise von Pilotprojekten in 2023–2024 bis zur vollständigen Skalierung 2025, mit Schwerpunkt auf der Beschleunigung der F&E durch GenAI für Moleküldesign und Real-World-Evidence-Analysen.

Ergebnisse

  • ~12.000 Mitarbeitende bis Mitte 2025 in generativer KI geschult
  • 85–93 % der Mitarbeitenden berichteten von Produktivitätssteigerungen
  • 80 % der Medical Writer fanden KI-Protokollentwürfe nützlich
  • Signifikante Reduktion der Trainingszeit für Life-Sciences-Modelle durch MI300X-GPUs
  • Hohe AI-Maturity-Bewertung laut IMD-Index (weltweit oben)
  • GenAI ermöglicht schnellere Studienplanung und Dosiswahl
Fallstudie lesen →

AT&T

Telekommunikation

Als führender Netzbetreiber verwaltet AT&T eines der weltweit größten und komplexesten Netzwerke, das Millionen von Funkzellen, Glasfasern und 5G-Infrastruktur umfasst. Die zentralen Herausforderungen umfassten ineffiziente Netzplanung und -optimierung, etwa die Festlegung optimaler Standorte für Funkzellen und die Frequenzakquisition vor dem Hintergrund explodierender Datenanforderungen durch den 5G-Rollout und das Wachstum des IoT. Traditionelle Methoden beruhten auf manueller Analyse, was zu suboptimaler Ressourcenzuteilung und höheren Kapitalaufwendungen führte. Zusätzlich verursachte die reaktive Netzwartung häufige Ausfälle, da die Anomalieerkennung nicht mit den Echtzeitanforderungen Schritt hielt. Probleme proaktiv zu erkennen und zu beheben war entscheidend, um Ausfallzeiten zu minimieren, doch die enormen Datenmengen aus Netzwerksensoren überforderten die Altsysteme. Dies führte zu erhöhten Betriebskosten, Kundenunzufriedenheit und verzögerter 5G-Bereitstellung. AT&T benötigte skalierbare KI, um Ausfälle vorherzusagen, Selbstheilung zu automatisieren und die Nachfrage präzise zu prognostizieren.

Lösung

AT&T integrierte Maschinelles Lernen und Vorhersageanalytik über seine AT&T Labs und entwickelte Modelle für das Netzwerkdesign, einschließlich Spektrum-Refarming und Optimierung von Funkzellenstandorten. KI-Algorithmen analysieren Geodaten, Verkehrsprofile und historische Leistungsdaten, um ideale Standorte für Sendemasten zu empfehlen und so Baukosten zu reduzieren. Für den Betrieb nutzen Systeme zur Anomalieerkennung und Selbstheilung prädiktive Modelle auf NFV (Network Function Virtualization), um Ausfälle vorherzusagen und automatisierte Behebungen durchzuführen, etwa durch Umleitung von Traffic. Kausale KI geht über Korrelationen hinaus und liefert Ursachenanalysen bei Abwanderung und Netzproblemen. Die Implementierung umfasste Edge-to-Edge-Intelligenz und die Bereitstellung von KI in den Arbeitsabläufen von über 100.000 Ingenieurinnen und Ingenieuren.

Ergebnisse

  • Milliarden von Dollar an Einsparungen bei Netzwerkkosten
  • 20–30% Verbesserung der Netzauslastung und Effizienz
  • Signifikante Reduktion von Vor-Ort-Einsätzen (Truck Rolls) und manuellen Eingriffen
  • Proaktive Erkennung von Anomalien, die größere Ausfälle verhindert
  • Optimierte Standortwahl für Funkzellen, die CapEx um Millionen reduziert
  • Bis zu 40% bessere Genauigkeit bei 5G-Nachfrageprognosen
Fallstudie lesen →

Airbus

Luft- und Raumfahrt

In der Flugzeugentwicklung sind Computational Fluid Dynamics (CFD)-Simulationen essenziell, um den Luftstrom um Tragflächen, Rümpfe und neuartige Konfigurationen vorherzusagen — entscheidend für Treibstoffeffizienz und Emissionsreduzierung. Herkömmliche hochgenaue RANS-Solver benötigen jedoch Stunden bis Tage pro Lauf auf Supercomputern, wodurch Ingenieure nur wenige Dutzend Iterationen pro Designzyklus durchführen können und die Innovationsfähigkeit für nächste Generationen wie das hydrogenbetriebene ZEROe eingeschränkt wird. Dieses Rechenengpassproblem war besonders akut im Kontext von Airbus' Vorstoß zur Dekarbonisierung der Luftfahrt bis 2035, bei dem komplexe Geometrien eine umfassende Exploration erfordern, um Auftriebs-Widerstands-Verhältnisse zu optimieren und gleichzeitig Gewicht zu minimieren. Kooperationen mit DLR und ONERA zeigten den Bedarf an schnelleren Werkzeugen auf, da manuelle Abstimmungen nicht skalieren, um die Tausenden Varianten zu testen, die für laminares Strömungsverhalten oder Blended-Wing-Body-Konzepte nötig sind.

Lösung

Maschinelle Lern-Surrogatmodelle, einschließlich physik-informierter neuronaler Netze (PINNs), wurden auf umfangreichen CFD-Datensätzen trainiert, um komplette Simulationen in Millisekunden zu emulieren. Airbus integrierte diese in eine generative Design-Pipeline, in der KI Druckfelder, Geschwindigkeiten und Kräfte vorhersagt und dabei die Navier-Stokes-Physik über hybride Verlustfunktionen zur Genauigkeit erzwingt. Die Entwicklung umfasste die Aufbereitung von Millionen von Simulations-Snapshots aus Legacy-Läufen, GPU-beschleunigtes Training und iterative Feinabstimmung mit experimentellen Windkanaldaten. Dadurch wurden schnelle Iterationen möglich: Die KI sichtet Designs, während hochauflösende CFD nur die besten Kandidaten verifiziert, wodurch der Gesamtaufwand um Größenordnungen reduziert wird und gleichzeitig ein <5% Fehler bei Schlüsselmetriken gehalten wird.

Ergebnisse

  • Simulationszeit: 1 Stunde → 30 ms (120.000x Beschleunigung)
  • Design-Iterationen: +10.000 pro Zyklus im gleichen Zeitraum
  • Vorhersagegenauigkeit: 95%+ für Auftriebs-/Widerstandskoeffizienten
  • 50% Verkürzung der Designphasenlaufzeit
  • 30–40% weniger hochauflösende CFD-Läufe erforderlich
  • Treibstoffverbrauchsoptimierung: bis zu 5% Verbesserung in Vorhersagen
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

American Eagle Outfitters

Bekleidungs-Einzelhandel

In der wettbewerbsintensiven Bekleidungs-Einzelhandel-Landschaft stand American Eagle Outfitters vor erheblichen Herausforderungen in den Ankleidekabinen, wo Kund:innen nach Styling-Beratung, präziser Größenempfehlung und ergänzenden Artikelvorschlägen verlangen, ohne auf überlastete Mitarbeitende warten zu müssen . Während Stoßzeiten führten Personalknappheiten häufig dazu, dass frustrierte Käufer:innen Waren zurückließen, die Anprobefrequenz sanken und Konversionschancen verpasst wurden, da traditionelle In-Store-Erfahrungen hinter der personalisierten E‑Commerce-Welt zurückblieben . Frühe Ansätze wie Beacon-Technologie im Jahr 2014 verdoppelten zwar die Wahrscheinlichkeit des Betretens der Umkleide, fehlte es ihnen jedoch an Tiefe für Echtzeit-Personalisierung . Hinzu kamen Daten-Silos zwischen Online und Offline, die einheitliche Kundenkenntnisse erschwerten und es schwierig machten, Artikel dynamisch an individuelle Stilpräferenzen, Körpertypen oder sogar Hauttöne anzupassen. American Eagle benötigte eine skalierbare Lösung, um Engagement und Kundentreue in Flagship-Stores zu steigern und gleichzeitig mit KI breiter zu experimentieren .

Lösung

American Eagle ging eine Partnerschaft mit Aila Technologies ein, um interaktive Ankleidekabinen-Kioske einzusetzen, die von Computervision und Maschinellem Lernen angetrieben werden; diese wurden 2019 in Flagship-Filialen in Boston, Las Vegas und San Francisco eingeführt . Kund:innen scannen Kleidungsstücke über iOS-Geräte, wodurch CV‑Algorithmen die Artikel identifizieren und ML‑Modelle — trainiert auf Kaufhistorie und Google Cloud‑Daten — optimale Größen, Farben und Outfit‑Ergänzungen vorschlagen, zugeschnitten auf inferierte Stilpräferenzen . Integriert mit den ML-Funktionen von Google Cloud ermöglicht das System Echtzeit-Empfehlungen, Benachrichtigungen an Mitarbeitende und nahtlose Bestandsabfragen und entwickelte sich von Beacon‑Gimmicks zu einem vollwertigen smarten Assistenten . Dieser experimentelle Ansatz, gefördert vom CMO Craig Brommers, fördert eine KI‑Kultur für Personalisierung im großen Maßstab .

Ergebnisse

  • Zweistellige Conversion-Steigerungen durch KI‑Personalisierung
  • 11% Wachstum der vergleichbaren Verkäufe für die Marke Aerie im Q3 2025
  • 4% Anstieg der gesamten vergleichbaren Verkäufe im Q3 2025
  • 29% EPS‑Wachstum auf $0,53 im Q3 2025
  • Verdoppelte Anprobewahrscheinlichkeit in Ankleidekabinen durch frühe Technik
  • Rekordumsatz im Q3 von $1,36 Mrd.
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Erstellen Sie einen richtlinienbewussten Review-Copilot-Prompt

Der Kern eines erfolgreichen ChatGPT-Spesenprüf-Copiloten ist ein sorgfältig gestalteter System-Prompt, der Ihre Richtlinien und gewünschten Ausgaben einbettet. Statt vager Fragen wie „Ist diese Abrechnung in Ordnung?“ geben Sie dem Modell eine klare Rolle, Schritt-für-Schritt-Anweisungen und strukturierte Ausgaben. So werden Ergebnisse konsistenter und leichter in Ihren Freigabeprozess integrierbar.

Beispiel-System-Prompt für ChatGPT:
Sie sind ein KI-Assistent, der das Finanzteam bei der Prüfung von Mitarbeiterspesen unterstützt.

Ziele:
- Potenzielle doppelte Abrechnungen erkennen.
- Potenzielle Betrugsindikatoren identifizieren.
- Abrechnungen mit der Travel-&-Expense-Richtlinie des Unternehmens abgleichen.

Anweisungen:
1) Lesen Sie die Spesendetails, den Belegtext und die Kartentransaktionsdaten sorgfältig.
2) Vergleichen Sie diese Abrechnung mit der Liste der bereitgestellten früheren Abrechnungen.
3) Identifizieren Sie Folgendes:
   - Mögliche Dubletten (gleicher Anbieter, Betrag, Datumsbereich oder sehr ähnliche Beschreibung).
   - Richtlinienverstöße (über Limits, fehlende Begründung, nicht erstattungsfähige Positionen).
   - Verdächtige Muster (glatte/gerundete Beträge, ungewöhnliche Anbieter, nicht zueinander passende Orte/Daten).
4) Geben Sie ein JSON-Objekt mit folgenden Feldern zurück:
   - risk_level: low / medium / high
   - reasons: Liste konkreter Feststellungen
   - duplicate_candidates: Liste mit Abrechnungs-IDs und Ähnlichkeitserklärungen
   - suggested_questions: Fragen an Mitarbeitende oder Genehmiger
   - recommendation: approve / approve_with_comment / escalate

Erwartetes Ergebnis: eine standardisierte Bewertung, die Prüfer in Sekunden erfassen können und deren strukturierte Felder Audit- und Analytics-Teams für Reporting und Trendanalysen nutzen können.

Dublettenerkennung über historische Abrechnungen automatisieren

Um wiederverwendete Belege und geteilte Rechnungen zu erkennen, müssen Sie jede neue Abrechnung mit einem breiten Verlauf von Spesen vergleichen. Taktisch kombinieren Sie Ihr bestehendes Spesen- oder ERP-System mit ChatGPT-basierten Ähnlichkeitsprüfungen. Wählen Sie potenzielle Dubletten mit einfachen Regeln vor (gleicher Betrag + Anbieter innerhalb eines Datumsbereichs) und lassen Sie dann ChatGPT den Belegtext und die Narrative analysieren, um den Treffer zu bestätigen oder zu verwerfen.

Beispiel-Prompt für Dublettenprüfung:
Sie erhalten:
- current_claim: {id, employee, date, amount, currency, vendor, description, receipt_text}
- candidate_claims: [{id, employee, date, amount, currency, vendor, description, receipt_text}, ...]

Aufgabe:
Bewerten Sie für jeden Kandidaten, wie wahrscheinlich es ist, dass er eine Dublette von current_claim ist.
Berücksichtigen Sie:
- Gleiche oder sehr ähnliche Anbieternamen (einschließlich Schreibvarianten).
- Gleiche oder sehr ähnliche Beträge (nach Währungsumrechnung).
- Überlappende Daten (z. B. gleiche Hotelnächte).
- Sehr ähnliche Beschreibungen oder Belegtexte.

Geben Sie JSON zurück:
[
  {
    "candidate_id": <id>,
    "duplicate_likelihood": 0-100,
    "evidence": ["Gleicher Hotelname, gleiche Nächte", "Belegnummer identisch"]
  }
]

Erwartetes Ergebnis: deutlich weniger „falsche Dubletten“ für Prüfer und eine hohe Trefferquote bei echten Doppelabrechnungen, selbst wenn Beschreibungen oder PDFs leicht verändert wurden.

ChatGPT für prüferfertige Risikozusammenfassungen nutzen

Roh-Ausgaben von Modellen sind selten für ausgelastete Finanzteams geeignet. Eine taktische Best Practice ist, ChatGPT technische Prüfungen in prägnante Risikozusammenfassungen für Spesenfreigebende übersetzen zu lassen. Diese können direkt in Ihr Spesentool eingebettet oder als Teil des Freigabe-Workflows per E-Mail versendet werden, sodass Führungskräfte klare, verständliche Gründe sehen, eine Abrechnung zu genehmigen oder zu hinterfragen.

Beispiel-Prompt für eine Manager-Zusammenfassung:
Sie erstellen eine kurze Zusammenfassung für die Führungskraft, die diese Spesenabrechnung genehmigen muss.

Input:
- employee_role und Abteilung
- Spesendetails (Kategorie, Betrag, Datum, Anbieter, Beschreibung)
- KI-Risikobewertung (risk_level, reasons, duplicate_candidates, suggested_questions)
- Relevante Auszüge aus der Spesenrichtlinie

Aufgabe:
Schreiben Sie eine Zusammenfassung mit 3–5 Sätzen, die Folgendes abdeckt:
- Gesamtrisiko in klarer Alltagssprache.
- Die 2–3 wichtigsten Gründe für dieses Risikoniveau.
- 1–3 konkrete Fragen, die die Führungskraft vor der Freigabe stellen sollte.
Verwenden Sie neutrale, professionelle Sprache.

Erwartetes Ergebnis: Führungskräfte verbringen weniger Zeit damit, „zu verstehen, was los ist“, und mehr Zeit mit der Ausübung ihres Urteils, was zu schnelleren und besser informierten Freigaben führt.

Verdächtige Narrative und inkonsistente Geschichten markieren

Viele betrügerische oder nicht konforme Abrechnungen verstecken sich im Beschreibungsfeld: vage Formulierungen, nicht passende Zwecke oder Narrative, die nicht zur Rolle der Mitarbeitenden passen. ChatGPT ist stark in der Erkennung von Inkonsistenzen in natürlicher Sprache. Nutzen Sie es, um Narrative mit Rollen, Reiseplänen, Meetingdaten (wo zulässig) und Richtlinientexten abzugleichen.

Beispiel-Prompt für Narrative-Checks:
Sie erhalten:
- employee_role: "Senior Sales Manager, DACH"
- expense_description: Freitext aus der Spesenabrechnung
- receipt_text: OCR-Text vom Beleg
- policy_summary: zentrale Regeln für diese Spesenkategorie

Fragen:
1) Ist der angegebene Zweck für diese Rolle und Kategorie plausibel?
2) Passt die Beschreibung zu den Belegdaten (Ort, Datum, Teilnehmende)?
3) Gibt es Formulierungen, die häufig auf private statt geschäftliche Nutzung hinweisen?

Geben Sie zurück:
- narrative_risk: low/medium/high
- explanation: Stichpunkte
- suggested_follow_up_questions.

Erwartetes Ergebnis: subtilere Fälle – etwa private Mahlzeiten, die als Kundenbewirtung deklariert werden – werden systematisch markiert, ohne dass für jede einzelne Abrechnung zusätzlicher manueller Prüfaufwand entsteht.

Klare, auditfeste Begründungen und Protokolle erzeugen

Jede KI-gestützte Entscheidung im Finanzbereich sollte erklärbar sein. Ein praktischer Schritt ist, ChatGPT zur Erstellung standardisierter Begründungen für Freigaben, Teilfreigaben oder Ablehnungen zu nutzen – basierend auf den festgestellten Auffälligkeiten und den Richtlinienverweisen. Speichern Sie diese Begründungen bei der Abrechnung, um einen Audit-Trail aufzubauen, der auch Monate oder Jahre später leicht nachvollziehbar ist.

Beispiel-Prompt für die Begründungserstellung:
Input:
- claim_id und grundlegende Details der Abrechnung
- decision: approve / approve_with_comment / reject
- KI-Ergebnisse: Liste der Auffälligkeiten und Richtlinienverweise
- human notes: optionale Kommentare des Prüfers

Aufgabe:
Erstellen Sie eine kurze Begründung (100–200 Wörter) für die Interne Revision, die Folgendes abdeckt:
- Zentrale Fakten zur Abrechnung.
- Hauptgründe für die Entscheidung.
- Relevante Richtlinienpassagen.
- Etwaige mildernde Faktoren.
Verwenden Sie klare, nicht anklagende Sprache.

Erwartetes Ergebnis: konsistente Entscheidungsbegründungen, weniger Zeitaufwand für das Schreiben von Erklärungen und eine deutlich stärkere Position in internen oder externen Audits.

Performance überwachen und Prompts kontinuierlich verfeinern

Wenn Ihre ChatGPT-basierte Spesenkontrolle live ist, behandeln Sie sie als System, das laufender Optimierung bedarf. Taktisch sollten Sie KPIs wie Anteil markierter Abrechnungen, bestätigte Dubletten-/Betrugsrate, False-Positive-Rate, durchschnittliche Prüfzeit und Einspruchsquote von Mitarbeitenden verfolgen. Überprüfen Sie regelmäßig eine Stichprobe von KI-Entscheidungen gemeinsam mit Finance und Interner Revision, um Muster zu identifizieren.

Nehmen Sie diese Erkenntnisse, um Prompts, Schwellenwerte und Trainingsbeispiele zu verfeinern. Wenn bestimmte Anbieter oder Kategorien zu viele False Positives erzeugen, passen Sie Regeln an oder ergänzen Sie Beispiele dafür, wie „gute“ Fälle aussehen. Wenn Ermittler neue Betrugsmuster entdecken (z. B. häufige Fake-Merchant-Namen), aktualisieren Sie die Prompts, damit ChatGPT proaktiv danach sucht. Im Zeitverlauf entwickeln Sie sich von einem statischen Regelwerk zu einem lebenden Kontrollsystem, das mit jedem Fall besser wird.

Erwartete Ergebnisse: Bei einer gut implementierten Lösung sehen Finanzteams typischerweise eine 30–60%ige Reduktion der manuellen Prüfzeit pro Abrechnung, eine deutlich höhere Erkennung von doppelten und betrügerischen Spesenabrechnungen und ein vorhersehbareres, auditfähiges Kontrollumfeld – ohne zusätzliches Personal.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

ChatGPT erkennt Dubletten und Betrug, indem es den vollständigen Kontext jeder Abrechnung analysiert: Beträge, Daten, Anbieter, Belegtext und Freitextbeschreibungen. Statt nur Zahlen zu vergleichen, sucht es nach Mustern wie identischen oder sehr ähnlichen Belegen, überlappenden Hotelnächten, wiederkehrenden Händlernamen oder Narrativen, die nicht zum Beleg passen.

In der Praxis wählt Ihr Spesen- oder ERP-System potenzielle Dubletten mit einfachen Regeln vor (gleicher Anbieter und Betrag innerhalb eines Datumsbereichs), und ChatGPT bewertet diese Kandidaten dann im Detail und erklärt, warum sie wahrscheinlich Dubletten sind – oder nicht. Bei Betrug markiert das Modell inkonsistente Geschichten, ungewöhnliche Anbieter, verdächtige Formulierungen und Richtlinienverstöße und präsentiert anschließend eine Risikozusammenfassung, auf deren Basis ein menschlicher Prüfer entscheidet.

Sie benötigen kein vollständiges Data-Science-Team, aber einige zentrale Fähigkeiten, um ChatGPT für doppelte und betrügerische Spesenabrechnungen wirksam einzusetzen:

  • Zugriff auf Ihre Spesen-, Karten- und Belegdaten über APIs oder Exporte.
  • Engineering-Kapazität, um ChatGPT in Ihre bestehenden Tools zu integrieren oder eine kleine interne Web-App zu bauen.
  • Finance- und Compliance-Expertinnen und -Experten, die Ihre Travel-&-Expense-Richtlinie in klare, maschinenlesbare Regeln und Beispiele übersetzen können.

Reruption arbeitet typischerweise mit einem kleinen, funktionsübergreifenden Team: ein bis zwei Stakeholder aus Finance, eine Produkt-/Operations-Verantwortliche Person und 1–2 Engineers. Mit diesem Setup können Sie in wenigen Wochen vom Konzept zu einem funktionierenden Prototyp gelangen.

Die Zeitachse hängt von Ihrer Datenlandschaft und der Integrationskomplexität ab, aber ein fokussierter KI-Proof of Concept für Spesenkontrolle lässt sich in wenigen Wochen aufbauen. Nach unserer Erfahrung können Sie:

  • Machbarkeit prüfen und einen funktionierenden Prototyp in 3–4 Wochen aufsetzen.
  • Einen Live-Piloten mit einem Teil der Mitarbeitenden oder Kategorien über 4–8 Wochen durchführen.
  • Die Lösung innerhalb weniger Monate schrittweise auf die gesamte Organisation ausrollen, sobald Schwellenwerte und Workflows kalibriert sind.

Messbare Ergebnisse – etwa neu entdeckte Dubletten, reduzierte Prüfzeit oder klarere Audit-Trails – zeigen sich in der Regel bereits in der Pilotphase, weil Sie 100 % der ausgewählten Abrechnungen statt nur einer Stichprobe analysieren.

Der ROI ergibt sich im Wesentlichen aus drei Quellen: geringere Leckagen, weniger manueller Aufwand und stärkere Kontrollen. Indem Sie ChatGPT jede Abrechnung auf Dubletten und Auffälligkeiten prüfen lassen, decken Unternehmen häufig eine lange Liste von Problemen auf, die manuelle Stichproben niemals gefunden hätten. Selbst ein geringer prozentualer Rückgang falscher Erstattungen kann sich in größeren Organisationen mehrfach bezahlt machen.

Hinzu kommt die Zeitersparnis für Finanzteams: KI-generierte Risikozusammenfassungen sorgen dafür, dass Prüfer sich auf Ausnahmen konzentrieren, statt jeden Beleg im Detail zu lesen. Schließlich stärken konsistente, dokumentierte KI-Prüfungen Ihr internes Kontrollsystem, was Prüfungsfeststellungen und den Bedarf teurer Nachbesserungen später reduzieren kann.

Reruption begleitet Sie mit dem Co-Preneur-Ansatz vom ersten Konzept bis zur produktiven Lösung. Wir starten mit einem fokussierten KI-PoC (9.900€), um zu belegen, dass ChatGPT doppelte und betrügerische Spesenabrechnungen in Ihren Echtdaten zuverlässig markieren kann. Das umfasst Use-Case-Abgrenzung, Modellauswahl, Rapid Prototyping und eine klare Performance-Evaluierung.

Wenn der PoC Ihre Kriterien erfüllt, unterstützen wir Sie anschließend dabei, den KI-Prüfer in Ihren bestehenden Finanz-Stack zu integrieren, Workflows und Schwellenwerte gemeinsam mit Ihren Finance- und Compliance-Teams zu gestalten und Prüfer zu schulen, effektiv mit dem Copiloten zu arbeiten. Weil wir uns eher wie Co-Founder als wie klassische Berater einbetten, ist das Ergebnis kein Foliensatz, sondern eine interne KI-Fähigkeit, die Ihr Team betreibt und weiterentwickelt.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media