Die Herausforderung: Unklassifizierte Ausgabeneinträge

In vielen Organisationen reichen Mitarbeitende Ausgaben mit vagen oder fehlenden Kategorien ein: „Kundentermin“, „Software“, „Reise“ oder schlicht gar nichts. Finanzteams müssen dann raten, welches Hauptbuchkonto (GL), welches Kostenstelle oder welcher Projektcode korrekt ist. Das Ergebnis sind langsame und schmerzhafte Monatsabschlüsse, endlose Rückfragen an Mitarbeitende und die ständige Sorge, dass falsch gebuchte Kosten sich in der Buchhaltung verstecken.

Traditionelle Ansätze stützen sich auf statische Reiserichtlinien, manuelle Tabellen und nachträgliche Bereinigung durch überlastete Buchhalterinnen und Buchhalter. Regeln im ERP- oder Spesen-Tool kommen nur begrenzt weit: Sie haben Schwierigkeiten mit unstrukturierten Freitextbeschreibungen, mehrsprachigen Belegen und neuen Lieferanten, die nicht zu bestehenden Zuordnungen passen. Die Arbeit an Juniors oder Shared Service Center zu delegieren, löst das Problem ebenfalls nicht – der Engpass verlagert sich nur und es entsteht zusätzlicher Raum für menschliche Fehler.

Die geschäftlichen Auswirkungen sind erheblich. Falsch klassifizierte oder unklassifizierte Einträge verfälschen Ihre Sicht auf Ausgaben nach Kostenstelle und Projekt und erschweren es, Reise-, SaaS- und Beschaffungskosten rechtzeitig zu steuern. Der Abschluss dauert länger, die Forecast-Qualität leidet, und die Finanzfunktion verliert an Glaubwürdigkeit als strategischer Partner, wenn Berichte nachträglich korrigiert werden müssen. Noch schlimmer: Richtlinienverstöße und potenzieller Betrug können sich in einem Sammelposten „Sonstiges“ verbergen, den niemand mehr gründlich untersucht.

Die Herausforderung ist real, aber lösbar. Moderne KI – insbesondere Tools wie ChatGPT für Ausgabenklassifizierung – kann Beschreibungen und Belege lesen, die wahrscheinlichste Kategorie ableiten und Ihre Finanzrichtlinien in großem Maßstab anwenden. Bei Reruption haben wir Teams dabei unterstützt, ähnliche unstrukturierte, manuelle Prozesse in robuste, KI-gestützte Workflows zu verwandeln. In den folgenden Abschnitten finden Sie praxisnahe Hinweise, wie Sie ChatGPT nutzen können, um Ordnung in unklassifizierte Ausgaben zu bringen und eine verlässliche Ausgaben-Transparenz zurückzugewinnen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions Arbeit beim Aufbau KI-gestützter interner Tools und Automatisierungen wissen wir, dass unklassifizierte Ausgabeneinträge genau die Art von sich wiederholendem, beurteilungsbasiertem Muster sind, die ChatGPT für Finance sehr gut handhabt. Wenn Sie Ihren bestehenden Kontenplan und Ihre Richtlinien mit einem maßgeschneiderten ChatGPT-Workflow kombinieren, können Sie die manuelle Klassifizierung drastisch reduzieren und gleichzeitig die volle Kontrolle der Finanzabteilung über die Regeln bewahren.

Behandeln Sie Ausgabenklassifizierung als Richtlinien-Engine, nicht als Ratespiel

Viele Teams betrachten KI für Ausgabenkategorisierung als Blackbox, die einfach ein GL-Konto „errät“. Strategisch sollten Sie ChatGPT als Richtlinien-Engine verstehen, die unter expliziten Leitplanken arbeitet: Ihr Kontenplan, Ihre Kostenstellenstruktur und Ihre Spesenrichtlinie werden zum Referenzsystem, dem das Modell folgen muss. Dadurch verschiebt sich die Denkweise von „Hoffen, dass die KI richtig liegt“ hin zum Design klarer, prüfbarer Entscheidungsregeln.

Definieren Sie, welche Eingaben ChatGPT berücksichtigen soll (Beschreibung, Händler, Betrag, Kostenstelle, Projekt, Datum, Land) und welche Richtlinien immer durchgesetzt werden müssen (z. B. kein Alkohol auf Kostenstellen 4xxx, keine Hardware auf Reisekostenbudgets). Je mehr Sie Ihre interne Logik in Prompts und Systemdesign einbetten, desto verlässlicher und regelkonformer wird der Output.

Starten Sie mit einem fokussierten Pilotprojekt für einen Ausgabenkategorie-Cluster

Statt alle Ausgaben auf einmal zu automatisieren, sollten Sie Ihre erste ChatGPT-Einführung auf 1–2 besonders problematische Cluster fokussieren: zum Beispiel Reisen und Bewirtung oder Software & Subscriptions. Diese Kategorien erzeugen in der Regel viele unklassifizierte Einträge und erfordern wiederkehrende Interpretation von Beschreibungen wie „SaaS-Rechnung“, „Uber-Fahrt“ oder „Kundenessen“.

Ein fokussierter Pilot ermöglicht es Ihnen, den Impact zu messen (z. B. Reduktion manueller Eingriffe, bessere Richtlinieneinhaltung), ohne Ihren gesamten Abschlussprozess zu gefährden. Er hilft Ihrer Finanzabteilung zudem, Vertrauen in KI-gestützte Vorschläge aufzubauen, da sie KI-Klassifizierungen in einem begrenzten, risikoarmen Bereich mit ihrem eigenen Urteil vergleichen kann, bevor skaliert wird.

Gestalten Sie von Anfang an einen Human-in-the-Loop-Workflow

Für Finanzverantwortliche sind Kontrolle und Prüfpfad nicht verhandelbar. Strategisch sollten Sie Human-in-the-Loop-Freigabe in Ihren ChatGPT-Workflow einbauen, anstatt von Beginn an auf vollständige Autonomie zu setzen. Das Modell schlägt Kategorien vor und erläutert seine Begründung; Ihr Team validiert, korrigiert und nutzt dieses Feedback, um die künftige Performance zu verbessern.

Dieser Ansatz reduziert Risiken, hilft Prüfern nachzuvollziehen, wie Entscheidungen getroffen werden, und bietet ein Sicherheitsnetz für Sonderfälle wie ungewöhnliche Lieferanten, gemischte geschäftliche/private Belege oder neue Projektcodes. Mit sinkenden Fehlerquoten und wachsendem Vertrauen können Sie den Anteil der Transaktionen erhöhen, die automatisch freigegeben werden, und die manuelle Prüfung auf auffällige Anomalien beschränken.

Beziehen Sie Finance – nicht nur IT – in die Gestaltung der KI-Regeln ein

Erfolgreiche Nutzung von ChatGPT für Finance-Workflows ist kein IT-Projekt mit einem Finance-Stakeholder; es ist ein Finance-Projekt mit KI-Fähigkeiten. Die Personen, die heute Ausgaben klassifizieren, verstehen die feinen Muster (z. B. wie man Marketing- von Vertriebsausgaben unterscheidet oder welche Schulungen zu welchen Kostenstellen gehören), die in Prompts, Beispielen und Bewertungskriterien abgebildet werden müssen.

Holen Sie erfahrene Buchhalterinnen, Buchhalter und Controller in Workshops, in denen Sie gemeinsam die Regeln, Beispiele und Ausnahmen definieren, denen ChatGPT folgen soll. So wird das Verhalten der KI eng an Ihr tatsächliches Urteilsvermögen angelehnt, und die Akzeptanz steigt, weil das Team seine eigene Expertise im Systemoutput wiedererkennt.

Planen Sie Governance, Datenschutz und Change Management frühzeitig

Der Einsatz von ChatGPT im Finanzbereich wirft neue Governance-Fragen auf: Welche Daten dürfen an das Modell gesendet werden, wie werden Outputs protokolliert und wie wird Compliance bei Audits nachgewiesen. Strategisch brauchen Sie klare Richtlinien zu Anonymisierung oder Pseudonymisierung (z. B. Maskierung von Mitarbeitendennamen), Aufbewahrung von Modell-Ein- und -Ausgaben sowie rollenbasiertem Zugriff auf die KI-Tools.

Unterschätzen Sie zudem das Change Management nicht. Controller und Buchhalter müssen verstehen, wann sie der KI vertrauen können, wann sie sie übersteuern sollten und wie sich ihre Rolle von „jeden Eintrag selbst klassifizieren“ hin zu „das Klassifikationssystem gestalten und überwachen“ verschiebt. Transparente Kommunikation und Schulung reduzieren Ängste und helfen Ihrem Team, ChatGPT als Hebel und nicht als Bedrohung zu sehen.

Richtig eingesetzt kann ChatGPT unklassifizierte Ausgaben von einer chronischen, manuellen Belastung in einen kontrollierten, prüfbaren Workflow verwandeln, der Ihre tatsächliche Kostenstruktur widerspiegelt. Entscheidend ist, Ihre Richtlinien einzubetten, Finance am Steuer zu lassen und von einem gut designten Pilotprojekt aus zu skalieren. Das Team von Reruption verbindet tiefgehendes KI-Engineering mit praktischer Erfahrung in Finanzprozessen. Wenn Sie also einen Proof of Concept evaluieren oder einen Klassifikationsprototyp in Ihre bestehenden Tools integrieren möchten, unterstützen wir Sie gerne bei Konzeption und Umsetzung in Ihrer realen Umgebung.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Nachrichtenmedien: Erfahren Sie, wie Unternehmen ChatGPT erfolgreich einsetzen.

AstraZeneca

Gesundheitswesen

In der stark regulierten pharmazeutischen Industrie stand AstraZeneca unter erheblichem Druck, die Wirkstoffforschung und klinischen Studien zu beschleunigen, die traditionell 10–15 Jahre dauern und Milliarden kosten, bei geringen Erfolgsraten von unter 10 %. Datensilos, strenge Compliance-Anforderungen (z. B. FDA-Regularien) und manuelle Wissensarbeit behinderten die Effizienz in F&E und Geschäftsbereichen. Forschende hatten Schwierigkeiten, riesige Datensets aus 3D-Bildgebung, Literaturauswertungen und Protokollentwürfen zu analysieren, was zu Verzögerungen bei der Therapiefindung für Patienten führte. Die Skalierung von KI wurde durch Datenschutz-Bedenken, Integration in Altsysteme und die Sicherstellung verlässlicher KI-Ergebnisse in einem hochkritischen Umfeld erschwert. Ohne schnelle Adoption riskierte AstraZeneca, gegenüber Wettbewerbern zurückzufallen, die KI für schnellere Innovationen zur Erreichung der 2030-Ziele nutzten.

Lösung

AstraZeneca startete eine unternehmensweite Strategie für generative KI und setzte ChatGPT Enterprise ein, maßgeschneidert für Pharma-Workflows. Dazu gehörten KI-Assistenten für die Analyse 3D-molekularer Bildgebung, automatische Entwürfe von Protokollen für klinische Studien und die Synthese von Wissen aus wissenschaftlicher Literatur. Sie gingen Partnerschaften mit OpenAI für sichere, skalierbare LLMs ein und investierten in Schulungen: Rund 12.000 Mitarbeitende aus F&E und anderen Funktionen schlossen bis Mitte 2025 GenAI-Programme ab. Infrastruktur-Upgrades wie AMD Instinct MI300X GPUs optimierten das Modelltraining. Governance-Rahmen stellten Compliance sicher, mit menschlicher Validierung in kritischen Aufgaben. Der Rollout erfolgte phasenweise von Pilotprojekten in 2023–2024 bis zur vollständigen Skalierung 2025, mit Schwerpunkt auf der Beschleunigung der F&E durch GenAI für Moleküldesign und Real-World-Evidence-Analysen.

Ergebnisse

  • ~12.000 Mitarbeitende bis Mitte 2025 in generativer KI geschult
  • 85–93 % der Mitarbeitenden berichteten von Produktivitätssteigerungen
  • 80 % der Medical Writer fanden KI-Protokollentwürfe nützlich
  • Signifikante Reduktion der Trainingszeit für Life-Sciences-Modelle durch MI300X-GPUs
  • Hohe AI-Maturity-Bewertung laut IMD-Index (weltweit oben)
  • GenAI ermöglicht schnellere Studienplanung und Dosiswahl
Fallstudie lesen →

AT&T

Telekommunikation

Als führender Netzbetreiber verwaltet AT&T eines der weltweit größten und komplexesten Netzwerke, das Millionen von Funkzellen, Glasfasern und 5G-Infrastruktur umfasst. Die zentralen Herausforderungen umfassten ineffiziente Netzplanung und -optimierung, etwa die Festlegung optimaler Standorte für Funkzellen und die Frequenzakquisition vor dem Hintergrund explodierender Datenanforderungen durch den 5G-Rollout und das Wachstum des IoT. Traditionelle Methoden beruhten auf manueller Analyse, was zu suboptimaler Ressourcenzuteilung und höheren Kapitalaufwendungen führte. Zusätzlich verursachte die reaktive Netzwartung häufige Ausfälle, da die Anomalieerkennung nicht mit den Echtzeitanforderungen Schritt hielt. Probleme proaktiv zu erkennen und zu beheben war entscheidend, um Ausfallzeiten zu minimieren, doch die enormen Datenmengen aus Netzwerksensoren überforderten die Altsysteme. Dies führte zu erhöhten Betriebskosten, Kundenunzufriedenheit und verzögerter 5G-Bereitstellung. AT&T benötigte skalierbare KI, um Ausfälle vorherzusagen, Selbstheilung zu automatisieren und die Nachfrage präzise zu prognostizieren.

Lösung

AT&T integrierte Maschinelles Lernen und Vorhersageanalytik über seine AT&T Labs und entwickelte Modelle für das Netzwerkdesign, einschließlich Spektrum-Refarming und Optimierung von Funkzellenstandorten. KI-Algorithmen analysieren Geodaten, Verkehrsprofile und historische Leistungsdaten, um ideale Standorte für Sendemasten zu empfehlen und so Baukosten zu reduzieren. Für den Betrieb nutzen Systeme zur Anomalieerkennung und Selbstheilung prädiktive Modelle auf NFV (Network Function Virtualization), um Ausfälle vorherzusagen und automatisierte Behebungen durchzuführen, etwa durch Umleitung von Traffic. Kausale KI geht über Korrelationen hinaus und liefert Ursachenanalysen bei Abwanderung und Netzproblemen. Die Implementierung umfasste Edge-to-Edge-Intelligenz und die Bereitstellung von KI in den Arbeitsabläufen von über 100.000 Ingenieurinnen und Ingenieuren.

Ergebnisse

  • Milliarden von Dollar an Einsparungen bei Netzwerkkosten
  • 20–30% Verbesserung der Netzauslastung und Effizienz
  • Signifikante Reduktion von Vor-Ort-Einsätzen (Truck Rolls) und manuellen Eingriffen
  • Proaktive Erkennung von Anomalien, die größere Ausfälle verhindert
  • Optimierte Standortwahl für Funkzellen, die CapEx um Millionen reduziert
  • Bis zu 40% bessere Genauigkeit bei 5G-Nachfrageprognosen
Fallstudie lesen →

Airbus

Luft- und Raumfahrt

In der Flugzeugentwicklung sind Computational Fluid Dynamics (CFD)-Simulationen essenziell, um den Luftstrom um Tragflächen, Rümpfe und neuartige Konfigurationen vorherzusagen — entscheidend für Treibstoffeffizienz und Emissionsreduzierung. Herkömmliche hochgenaue RANS-Solver benötigen jedoch Stunden bis Tage pro Lauf auf Supercomputern, wodurch Ingenieure nur wenige Dutzend Iterationen pro Designzyklus durchführen können und die Innovationsfähigkeit für nächste Generationen wie das hydrogenbetriebene ZEROe eingeschränkt wird. Dieses Rechenengpassproblem war besonders akut im Kontext von Airbus' Vorstoß zur Dekarbonisierung der Luftfahrt bis 2035, bei dem komplexe Geometrien eine umfassende Exploration erfordern, um Auftriebs-Widerstands-Verhältnisse zu optimieren und gleichzeitig Gewicht zu minimieren. Kooperationen mit DLR und ONERA zeigten den Bedarf an schnelleren Werkzeugen auf, da manuelle Abstimmungen nicht skalieren, um die Tausenden Varianten zu testen, die für laminares Strömungsverhalten oder Blended-Wing-Body-Konzepte nötig sind.

Lösung

Maschinelle Lern-Surrogatmodelle, einschließlich physik-informierter neuronaler Netze (PINNs), wurden auf umfangreichen CFD-Datensätzen trainiert, um komplette Simulationen in Millisekunden zu emulieren. Airbus integrierte diese in eine generative Design-Pipeline, in der KI Druckfelder, Geschwindigkeiten und Kräfte vorhersagt und dabei die Navier-Stokes-Physik über hybride Verlustfunktionen zur Genauigkeit erzwingt. Die Entwicklung umfasste die Aufbereitung von Millionen von Simulations-Snapshots aus Legacy-Läufen, GPU-beschleunigtes Training und iterative Feinabstimmung mit experimentellen Windkanaldaten. Dadurch wurden schnelle Iterationen möglich: Die KI sichtet Designs, während hochauflösende CFD nur die besten Kandidaten verifiziert, wodurch der Gesamtaufwand um Größenordnungen reduziert wird und gleichzeitig ein <5% Fehler bei Schlüsselmetriken gehalten wird.

Ergebnisse

  • Simulationszeit: 1 Stunde → 30 ms (120.000x Beschleunigung)
  • Design-Iterationen: +10.000 pro Zyklus im gleichen Zeitraum
  • Vorhersagegenauigkeit: 95%+ für Auftriebs-/Widerstandskoeffizienten
  • 50% Verkürzung der Designphasenlaufzeit
  • 30–40% weniger hochauflösende CFD-Läufe erforderlich
  • Treibstoffverbrauchsoptimierung: bis zu 5% Verbesserung in Vorhersagen
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

American Eagle Outfitters

Bekleidungs-Einzelhandel

In der wettbewerbsintensiven Bekleidungs-Einzelhandel-Landschaft stand American Eagle Outfitters vor erheblichen Herausforderungen in den Ankleidekabinen, wo Kund:innen nach Styling-Beratung, präziser Größenempfehlung und ergänzenden Artikelvorschlägen verlangen, ohne auf überlastete Mitarbeitende warten zu müssen . Während Stoßzeiten führten Personalknappheiten häufig dazu, dass frustrierte Käufer:innen Waren zurückließen, die Anprobefrequenz sanken und Konversionschancen verpasst wurden, da traditionelle In-Store-Erfahrungen hinter der personalisierten E‑Commerce-Welt zurückblieben . Frühe Ansätze wie Beacon-Technologie im Jahr 2014 verdoppelten zwar die Wahrscheinlichkeit des Betretens der Umkleide, fehlte es ihnen jedoch an Tiefe für Echtzeit-Personalisierung . Hinzu kamen Daten-Silos zwischen Online und Offline, die einheitliche Kundenkenntnisse erschwerten und es schwierig machten, Artikel dynamisch an individuelle Stilpräferenzen, Körpertypen oder sogar Hauttöne anzupassen. American Eagle benötigte eine skalierbare Lösung, um Engagement und Kundentreue in Flagship-Stores zu steigern und gleichzeitig mit KI breiter zu experimentieren .

Lösung

American Eagle ging eine Partnerschaft mit Aila Technologies ein, um interaktive Ankleidekabinen-Kioske einzusetzen, die von Computervision und Maschinellem Lernen angetrieben werden; diese wurden 2019 in Flagship-Filialen in Boston, Las Vegas und San Francisco eingeführt . Kund:innen scannen Kleidungsstücke über iOS-Geräte, wodurch CV‑Algorithmen die Artikel identifizieren und ML‑Modelle — trainiert auf Kaufhistorie und Google Cloud‑Daten — optimale Größen, Farben und Outfit‑Ergänzungen vorschlagen, zugeschnitten auf inferierte Stilpräferenzen . Integriert mit den ML-Funktionen von Google Cloud ermöglicht das System Echtzeit-Empfehlungen, Benachrichtigungen an Mitarbeitende und nahtlose Bestandsabfragen und entwickelte sich von Beacon‑Gimmicks zu einem vollwertigen smarten Assistenten . Dieser experimentelle Ansatz, gefördert vom CMO Craig Brommers, fördert eine KI‑Kultur für Personalisierung im großen Maßstab .

Ergebnisse

  • Zweistellige Conversion-Steigerungen durch KI‑Personalisierung
  • 11% Wachstum der vergleichbaren Verkäufe für die Marke Aerie im Q3 2025
  • 4% Anstieg der gesamten vergleichbaren Verkäufe im Q3 2025
  • 29% EPS‑Wachstum auf $0,53 im Q3 2025
  • Verdoppelte Anprobewahrscheinlichkeit in Ankleidekabinen durch frühe Technik
  • Rekordumsatz im Q3 von $1,36 Mrd.
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Erstellen Sie ein standardisiertes Klassifizierungsschema für ChatGPT

Bevor Sie den ersten Prompt schreiben, sollten Sie sich auf ein standardisiertes Klassifizierungsschema einigen, dem ChatGPT folgen muss. Dazu gehören Ihr Kontenplan, Kostenstellen, Projektcodes, Steuerkennzeichen (falls relevant) und zulässige Ausgabenkategorien pro Mitarbeitergruppe oder Land. Bringen Sie dieses Schema in eine prägnante, maschinenlesbare Form (z. B. JSON oder eine strukturierte Tabelle), die in Prompts eingebettet oder über eine interne API abgerufen werden kann.

So könnten Sie die zulässigen Ausgaben in einem Prompt darstellen:

Erlaubte_GL_Konten = [
  {"code": "6100", "name": "Reisekosten - Transport"},
  {"code": "6110", "name": "Reisekosten - Unterkunft"},
  {"code": "6120", "name": "Reisekosten - Verpflegung & Bewirtung"},
  {"code": "6400", "name": "Software-Abonnements"},
  {"code": "6500", "name": "Büromaterial"}
]

Erlaubte_Kostenstellen = ["100-Marketing", "200-Vertrieb", "300-IT", "400-Operations"]

Indem Sie ChatGPT auf dieses Schema begrenzen, verringern Sie die Varianz im Output und erleichtern die Integration in Ihr ERP- oder Spesensystem erheblich.

Verwenden Sie strukturierte Prompts, um Kategorie, Kostenstelle und Richtlinienverstöße abzuleiten

Für operative Verlässlichkeit sollten Ihre Prompts ChatGPT anweisen, einen strukturierten JSON-Output mit spezifischen Feldern zurückzugeben: vorgeschlagenes GL-Konto, Kostenstelle, Projekt, Kennzeichen für Richtlinienkonformität und eine kurze Erklärung. Dadurch lässt sich das Ergebnis einfach parsen und in Ihre Finanzsysteme einspeisen. Binden Sie die Rohbeschreibung, den Namen des Händlers, den Betrag, das Datum und alle vorhandenen Metadaten aus Ihrem Spesentool ein.

Ein Beispiel für einen Klassifikations-Prompt könnte so aussehen:

Sie sind ein KI-Assistent, der einem Corporate-Finance-Team hilft, Mitarbeiterausgaben zu klassifizieren.

Aufgaben:
1) Schlagen Sie das wahrscheinlichste GL-Konto aus Erlaubte_GL_Konten vor.
2) Schlagen Sie anhand der Beschreibung die plausibelste Kostenstelle aus Erlaubte_Kostenstellen vor.
3) Prüfen Sie, ob die Ausgabe gegen Unternehmensrichtlinien verstößt.
4) Erläutern Sie Ihre Begründung kurz.

Unternehmensrichtlinie für Ausgaben (Zusammenfassung):
- Alkohol wird nicht erstattet.
- First-Class-Reisen werden nicht erstattet.
- Softwarekäufe müssen auf GL 6400 und Kostenstelle 300-IT gebucht werden, es sei denn, es handelt sich eindeutig um Marketing-Tools.

Geben Sie NUR gültiges JSON in diesem Format zurück:
{
  "gl_account": "Code aus Erlaubte_GL_Konten",
  "cost_center": "Wert aus Erlaubte_Kostenstellen",
  "policy_violation": true/false,
  "violation_reason": "Text oder leer",
  "explanation": "kurze Erklärung für das Finanzteam"
}

Erlaubte_GL_Konten: <Schema hier einfügen>
Erlaubte_Kostenstellen: <Schema hier einfügen>

Zu klassifizierende Ausgabe:
Beschreibung: "Uber zum Kundentermin in Berlin"
Händler: "Uber"
Betrag: 32.50 EUR
Land: Deutschland

Dieses Maß an Struktur macht den Output von ChatGPT zu einem verlässlichen Baustein für Automatisierung, statt zu einem bloßen Freitextvorschlag.

Integration über API in Ihren bestehenden Spesen- oder ERP-Workflow

Um echten Mehrwert zu erzielen, sollten Sie ChatGPT per API direkt in die Tools einbetten, die Ihr Team bereits nutzt – sei es Ihr Spesenmanagement-System, Ihre Kartenplattform oder Ihr ERP-Workflow. Wenn eine neue Ausgabe eingereicht oder importiert wird, kann Ihr Middleware-Service die ChatGPT-API mit den relevanten Daten aufrufen und anschließend die vorgeschlagenen Codes und Erklärungen zurückschreiben.

Eine typische technische Abfolge sieht so aus:

1) Eine Ausgabe wird in Ihrem Spesentool erstellt → 2) Ein Webhook löst einen kleinen Integrationsservice aus → 3) Der Service reichert die Daten an (z. B. Zuordnung des Händlers zu bekannten Lieferantenkategorien) und ruft ChatGPT mit Ihrem Standardprompt auf → 4) ChatGPT liefert strukturiertes JSON mit Klassifikation und Flags → 5) Der Service schreibt Vorschläge und Erklärung zurück in den Ausgabeneintrag zur Prüfung durch Nutzende oder Finance.

So sehen Prüfer die KI-Vorschläge direkt in ihrem gewohnten Freigabebildschirm – ohne Kontextwechsel oder manuelles Copy-Paste.

Konfigurieren Sie Konfidenzschwellen und Routing-Regeln

Nicht jeder KI-Vorschlag sollte automatisch freigegeben werden. Implementieren Sie Konfidenzschwellen und Routing-Regeln, die entscheiden, welche Ausgaben automatisch gebucht und welche zur manuellen Prüfung weitergeleitet werden. Sie können die Konfidenz von ChatGPT abschätzen, indem Sie es eine eigene Einschätzung (0–100) zurückgeben lassen oder eine einfache Heuristik nutzen (z. B. ob die Erklärung Unsicherheitsformulierungen enthält).

Beispielmuster in Ihrem Prompt:

Schätzen Sie zusätzlich einen Konfidenz-Score von 0 bis 100 ein.
- 90-100: Sehr eindeutige Klassifizierung (bekannter Händler, typischer Betrag, entspricht der Richtlinie).
- 60-89: Plausible Klassifizierung, sollte aber überprüft werden.
- <60: Unklare Klassifizierung, muss geprüft werden.

Fügen Sie dieses Feld als "confidence" zum JSON-Output hinzu.

In Ihrer Integration könnten Sie Ausgaben mit Konfidenz ≥ 90 automatisch buchen, 60–89 in eine Schnellspur zur menschlichen Prüfung leiten und <60 oder jeden Fall mit policy_violation = true an das Senior-Finance-Team routen. So halten Sie das Risiko unter Kontrolle und erreichen trotzdem hohe Automatisierungsquoten.

Protokollieren Sie alle KI-Entscheidungen für Auditierbarkeit und kontinuierliche Verbesserung

Für Finanz- und Audit-Teams ist es entscheidend, eine transparente Historie darüber zu besitzen, wie KI-Klassifizierungen zustande gekommen sind. Speichern Sie jede ChatGPT-Antwort – inklusive der vorgeschlagenen Codes, Konfidenz und Erklärung – zusammen mit der finalen menschlichen Entscheidung. So können Sie Prüfern nachweisen, wie Klassifizierungen abgeleitet wurden, und analysieren, wo die KI typischerweise korrigiert wird.

Exportieren Sie dieses Protokoll regelmäßig, um die Performance zu bewerten: Messen Sie die Übereinstimmungsrate zwischen KI- und menschlichen Entscheidungen, typische Fehlerbilder und welche Richtlinien am häufigsten verletzt oder missverstanden werden. Nutzen Sie dieses Feedback, um Prompts zu verfeinern, das erlaubte Schema zu aktualisieren oder zusätzliche Beispiele für schwierige Kategorien hinzuzufügen (z. B. gemischte private/geschäftliche Abos oder vielseitig einsetzbare SaaS-Tools).

Liefern Sie klare, menschenlesbare Erklärungen, um Vertrauen aufzubauen

Geben Sie nicht nur Codes zurück – fügen Sie immer eine kurze, menschenlesbare Erklärung hinzu, aus der klar hervorgeht, warum ChatGPT eine bestimmte Kategorie gewählt hat. Das hilft Prüfern, Einträge schneller zu verarbeiten und stärkt das Vertrauen in das System. Zudem dient es als Dokumentation für künftige Audits oder interne Reviews.

Beispiel für den Erklärungsstil:

"explanation": "Klassifiziert als 6100 Reisekosten - Transport, da der Händler Uber ist,
der Betrag typisch für eine lokale Fahrt ist und die Beschreibung einen Kundentermin erwähnt."

Mit der Zeit werden Sie feststellen, dass sich Finanzprüfer zunehmend auf diese Erklärungen stützen und weniger auf manuelle Detailprüfung – was direkt in weniger manuellen Eingriffen pro Transaktion und kürzere Abschlusszyklen übersetzt.

Sorgfältig umgesetzt können diese Praktiken die manuelle Arbeit bei der Ausgabenkategorisierung realistisch um 40–70 % reduzieren, Tage aus dem Monatsabschluss herausschneiden und die Transparenz der Ausgaben nach Kostenstelle und Projekt deutlich verbessern. Die konkreten Kennzahlen hängen von der Reife Ihres aktuellen Prozesses und der Datenqualität ab, aber selbst konservative Implementierungen von ChatGPT für Ausgabenkategorisierung amortisieren sich in der Regel innerhalb weniger Abschlusszyklen – durch eingesparte Stunden und klarere Kostensteuerung.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Die Genauigkeit hängt davon ab, wie gut Sie Prompts, Einschränkungen und Trainingsbeispiele konfigurieren. Nach unserer Erfahrung kann ChatGPT bei klar bereitgestelltem Kontenplan, Kostenstellenliste und Richtlinienübersicht bei Routineausgaben wie Reisen, Verpflegung und gängigen Abonnements eine Genauigkeit auf oder über menschlichem Niveau erreichen.

Der beste Ansatz ist, die Genauigkeit in einem Pilotprojekt zu messen: Lassen Sie ChatGPT historische Ausgaben klassifizieren, vergleichen Sie die Vorschläge mit den final gebuchten Einträgen und verfolgen Sie die Übereinstimmungsquoten. Mit sauberem Setup und Human-in-the-Loop-Review für Fälle mit niedriger Konfidenz erreichen viele Organisationen beim ersten Durchlauf 85–95 % Übereinstimmung und verbessern diese Werte weiter, während sie Prompts und Regeln verfeinern.

Sie müssen Ihren Finanzstack nicht neu aufbauen. Typischerweise benötigen Sie:

  • Einen Integrationspunkt (API oder Webhook) aus Ihrem Spesentool oder ERP, wenn eine neue Ausgabe erstellt oder geändert wird.
  • Einen kleinen Middleware-Service, der die Daten formatiert, die ChatGPT-API mit Ihren Standardprompts aufruft und die JSON-Antwort parst.
  • Konfigurationsarbeit in Ihren Finanztools, um vorgeschlagene GL-Codes, Kostenstellen und Erklärungen zu speichern und Einträge basierend auf Konfidenz oder Richtlinien-Flags zu routen.

Von den benötigten Fähigkeiten her reicht in der Regel ein Entwickler mit API-Erfahrung und eine Finanzverantwortliche oder ein Finanzverantwortlicher, der die Regeln spezifiziert und die Ergebnisse testet. Reruption baut diese Schicht häufig gemeinsam mit Kunden auf, sodass Finance nicht ausschließlich von IT-Backlogs abhängig ist.

Ein gut zugeschnittener Pilot kann in Wochen statt Monaten konzipiert und implementiert werden. Mit unserem Ansatz für einen KI Proof of Concept bringen wir in der Regel innerhalb weniger Tage einen lauffähigen Prototypen mit Echtdaten zum Einsatz und verbringen dann weitere 1–3 Wochen mit der Validierung der Genauigkeit, der Verfeinerung der Prompts und der Integration in einen begrenzten Teil Ihres Workflows (z. B. Reisekosten für eine Business Unit).

Messbare Ergebnisse – wie weniger manuelle Eingriffe pro Ausgabe, schnellere Freigaben und weniger unklassifizierte Einträge – zeigen sich meist innerhalb des ersten oder zweiten Abschlusszyklus nach dem Go-live. Der vollständige Rollout auf alle Ausgabenkategorien und Gesellschaften dauert länger, erfolgt aber schrittweise, sobald das Grundmuster bewiesen ist.

Der ROI stammt aus drei Hauptbereichen: Zeitersparnis, verbesserte Ausgabentransparenz und Risikoreduktion. Die Automatisierung der Klassifizierung kann insbesondere für Finanzteams mit hohen Volumen an Kleinstbeträgen erhebliche Stunden im Monatsabschluss und im laufenden Betrieb freisetzen. Diese Zeit kann für Analysen und Business Partnering genutzt werden.

Bessere Kategorisierung verbessert Ihre Fähigkeit, Reise-, SaaS- und Beschaffungskosten in Echtzeit zu steuern, was häufig zu konkreten Einsparungen führt (z. B. Erkennen doppelter Tools, Ausgaben außerhalb der Richtlinie oder nicht gerechtfertigter Reisen). Schließlich reduziert die konsistente Anwendung von Richtlinien und eine bessere Anomalieerkennung Compliance- und Betrugsrisiken. Zusammengenommen zahlt sich die Investition in eine ChatGPT-basierte Lösung oft innerhalb weniger Quartale aus – in Umgebungen mit hohem Volumen manchmal deutlich schneller.

Reruption verbindet strategisches Finanzverständnis mit tiefem KI-Engineering. Typischerweise starten wir mit einem 9.900€ KI-PoC, in dem wir den Use Case (Ausgabenkategorien, Richtlinien, Systeme) definieren, einen funktionsfähigen Prototypen bauen, der Ihre realen Ausgaben via ChatGPT klassifiziert, und die Performance in Bezug auf Genauigkeit, Geschwindigkeit und Kosten pro Lauf messen.

Darauf aufbauend wenden wir unseren Co-Preneur-Ansatz an: Wir arbeiten eng mit Ihrem Team zusammen, teilen Verantwortung für Ergebnisse und entwickeln den Weg vom Prototyp zu produktionsreifen Workflows. Wir unterstützen bei Prompt-Design, API-Integration in Ihre bestehenden Tools, Sicherheits- und Compliance-Fragen sowie beim Change Management für Ihre Finanzorganisation. Ziel ist nicht nur ein Demo-Case, sondern ein konkretes, wartbares System, das Ihren Monatsabschluss tatsächlich beschleunigt und Ihre Ausgabendaten verlässlicher macht.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media