Die Herausforderung: Langsame Verarbeitung von Rechnungen und Belegen

Finanzteams ertrinken weiterhin in manueller Arbeit rund um Rechnungen und Belege. Kreditorenbuchhalter tippen Kopf- und Positionsdaten per Hand ein, vergleichen PDFs mit Bestellungen und laufen Kollegen wegen fehlender Freigaben hinterher. Jede Ausnahme verlangsamt den Prozess zusätzlich. Das Ergebnis ist ein permanenter Rückstau, in dem Rechnungen und Spesenbelege Tage oder Wochen warten, bevor sie überhaupt in Ihr System gelangen.

Traditionelle Ansätze wie einfache OCR-Tools, gemeinsame Postfächer und ausgelagerte Datenerfassung reichen nicht mehr aus. OCR liest Felder häufig falsch oder ignoriert Positionsdetails, sodass Menschen trotzdem alles doppelt prüfen müssen. Regeln in ERP-Systemen sind starr und fragil und brechen, sobald Lieferanten Layouts ändern oder Mitarbeitende nicht standardisierte Belege einreichen. Mehr Menschen in den Prozess zu setzen, skaliert nur die Kosten, nicht Qualität oder Geschwindigkeit.

Die Auswirkungen auf das Unternehmen sind erheblich. Langsame Rechnungsverarbeitung erhöht das Risiko von Mahngebühren, verpassten Skonti und belasteten Lieferantenbeziehungen. Der Monatsabschluss wird zum Kraftakt, weil ein großer Teil der tatsächlichen Ausgaben noch in E-Mail-Postfächern und Papierstapeln steckt. Führungskräften fehlt der Echtzeitblick auf Kostentreiber, was es erschwert, Spesenrichtlinien durchzusetzen, Liquidität zu steuern oder bessere Konditionen bei Reisen, Beschaffung und Abonnements zu verhandeln.

Trotz all dem ist das Problem sehr gut lösbar. Moderne KI-Systeme wie ChatGPT können Rechnungen und Belege in ihren vielen Formaten lesen, relevante Details extrahieren und sogar Buchungsvorschläge oder Freigabe-E-Mails formulieren. Bei Reruption sehen wir, wie KI-gestützte Dokumenten-Workflows einen langsamen, manuellen Kreditorenprozess in einen nahezu Echtzeit-, ausnahmegetriebenen Ablauf verwandeln können. In den folgenden Abschnitten finden Sie konkrete Hinweise, wie Sie ChatGPT nutzen, um die Verarbeitung von Rechnungen und Belegen zu beschleunigen, ohne Kontrolle oder Compliance zu verlieren.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruption’s Arbeit beim Aufbau von KI-gestützten Dokumenten-Workflows und internen Tools wissen wir, dass ChatGPT grundlegend verändern kann, wie Finanzteams mit Rechnungen und Belegen umgehen. Anstatt alles durch starre Regeln und manuelle Kontrollen zu zwingen, können Sie ein KI-Modell die Dokumente lesen, die Daten strukturieren und nur die Ausnahmen hervorheben lassen, die ein Mensch wirklich sehen muss. Entscheidend ist, dies nicht als schnelles Plugin zu betrachten, sondern als bewusste Neugestaltung Ihrer Kreditorenprozesse (Accounts Payable) und Ihres Reise- und Spesenmanagements.

Rechnungsautomatisierung als Prozess-Redesign sehen, nicht als Gadget

Die wichtigste strategische Veränderung besteht darin, ChatGPT-Rechnungsverarbeitung als Chance zu sehen, Ihre Kreditoren- und Spesen-Workflows neu zu gestalten – nicht nur ein weiteres Tool anzuflanschen. Starten Sie damit, zu kartieren, wie Rechnungen und Belege heute durch Ihre Organisation laufen: Eingangskanäle, Prüfschritte, Freigaberegeln und Verbuchung in Ihrem ERP. Identifizieren Sie, wo Menschen echte Beurteilung leisten und wo sie nur kopieren, vergleichen oder weiterleiten.

Mit dieser Prozesslandkarte können Sie bewusst entscheiden, welche Schritte von KI, welche von Menschen und wo hybride Kontrollen nötig sind. Beispielsweise kann KI Rechnungen lesen und klassifizieren, Steuerbeträge extrahieren und mit Lieferantenstammdaten abgleichen, während Menschen nur Richtlinienausnahmen oder Hochrisiko-Lieferanten bearbeiten. Diese Denkweise vermeidet eine häufige Falle: einzelne Teilschritte isoliert zu automatisieren, ohne den Gesamtprozess zu verändern – wodurch der Großteil von Verzögerung und Komplexität bestehen bleibt.

Auf Ausnahmen und Risiken designen, nicht auf perfekte Vollautomatisierung

Strategisch ist das Ziel nicht eine zu 100 % automatisierte Rechnungs- und Belegpipeline. Das Ziel ist ein System, in dem Routinefälle Ende-zu-Ende von KI abgewickelt werden und Menschen sich auf Anomalien, hochvolumige Transaktionen und compliance-kritische Fälle konzentrieren. Das bedeutet, von Anfang an klare Schwellenwerte, Risikokategorien und Eskalationspfade zu definieren.

Definieren Sie, welche Rechnungen automatisch freigegeben werden können (z. B. geringer Betrag, wiederkehrend, vertrauenswürdiger Lieferant, innerhalb der Bestelltoleranz), welche einen kurzen menschlichen Blick benötigen und welche immer durch eine vollständige Freigabe laufen müssen. Konfigurieren Sie ChatGPT-basierte Klassifizierer, um Risikotags zu vergeben und Dokumente entsprechend zu routen. Dieses risikobasierte Design ist der Weg, Kontrolle und Compliance zu bewahren und dennoch erhebliche Geschwindigkeitsgewinne zu erzielen.

Ihr Finanzteam darauf vorbereiten, mit KI zu arbeiten – nicht darum herum

Viele Finanzteams sind skeptisch, kritische Daten an ein KI-Modell zu übergeben. Gehen Sie dies früh an, indem Sie zentrale Kreditoren- und Controlling-Mitarbeitende in die Konzeption und das Testen Ihrer ChatGPT-Workflows einbeziehen. Lassen Sie sie manuelle Erfassung und KI-Extraktionsqualität direkt vergleichen und beteiligen Sie sie an der Definition von Ausnahme-Kriterien und Prüfschritten.

Strategisch möchten Sie, dass Ihr Team sich vom „Datenerfasser“ zum „Ausnahme-Manager“ entwickelt. Das erfordert etwas Schulung: wie man KI-Konfidenzwerte liest, wie man Fehler so korrigiert, dass sich Prompts oder Konfigurationen verbessern, und wie man ungewöhnliche Muster eskaliert. Ein kleines, vertrauenswürdiges Kernteam von „KI-Champions“ im Finanzbereich kann dann helfen, die neuen Workflows auszurollen und Vertrauen in der gesamten Abteilung aufzubauen.

Rund um Ihr ERP und Ihre Spesentools bauen, nicht parallel dazu

ChatGPT sollte Ihren bestehenden Finanzstack erweitern, nicht ersetzen. Strategisch wollen Sie eine Architektur, in der KI zwischen Ihren Eingangskanälen (E-Mail, Portale, Mobile Apps) und Ihren Kernsystemen (ERP, AP-Automatisierung, Travel-&-Expense) sitzt und Dokumentenverständnis und Spesenkategorisierung übernimmt, bevor Daten ins führende System geschrieben werden.

Gestalten Sie Ihre Lösung so, dass die Ausgaben von ChatGPT genau so strukturiert sind, wie Ihr ERP- oder Spesentool es erwartet: Kreditoren-IDs, Sachkonten, Kostenstellen, Steuerschlüssel, Projekttags. Das reduziert Integrationsaufwand und verhindert den Shadow-IT-Ansatz, bei dem KI in einer separaten Umgebung läuft und jemand die Lücke manuell überbrücken muss.

Governance, Sicherheit und Compliance von Tag eins an adressieren

Finanzdaten sind sensibel, und jede KI für Rechnungsverarbeitung muss strengen Compliance-Anforderungen genügen. Definieren Sie strategisch klare Richtlinien, welche Daten an welche KI-Services gesendet werden dürfen, wie lange sie aufbewahrt werden und wie der Zugriff gesteuert wird. Arbeiten Sie mit IT und Informationssicherheit zusammen, um ein Enterprise-Setup zu wählen (zum Beispiel über Azure OpenAI oder eine sichere API-Integration), das Ihre Daten schützt und prüfbar macht.

Entscheiden Sie außerdem, wie Sie Kontrollen gegenüber Prüfern nachweisen: Protokollieren Sie, welche Dokumente von KI verarbeitet wurden, welche Felder extrahiert wurden, welche Konfidenzwerte vergeben wurden und welcher Nutzer sie letztlich freigegeben hat. Governance von Anfang an mitzudenken verhindert, dass Sie später eine „Black Box“ verteidigen müssen, wenn Prüfer oder Aufsichtsbehörden fragen, wie Ihre KI-gestützte Spesenverarbeitung tatsächlich funktioniert.

Bewusst eingesetzt kann ChatGPT langsame, manuelle Rechnungs- und Belegverarbeitung in einen schnellen, ausnahmegetriebenen Workflow verwandeln, der weiterhin den Ansprüchen Ihres Finanzteams an Kontrolle und Compliance gerecht wird. Es geht weniger darum, einen Chatbot anzustecken, sondern darum, neu zu gestalten, wie Dokumente in Ihr ERP fließen und wie Menschen mit ihnen interagieren. Reruption verbindet tiefe KI-Engineering-Expertise mit praktischer Prozessarbeit in finanzintensiven Umgebungen. So können wir Ihnen helfen, eine Lösung zu definieren, zu prototypisieren und zu härten, die zu Ihrem Stack und Ihrem Risikoprofil passt. Wenn Sie erkunden möchten, wie ein ChatGPT-gestützter Kreditorenprozess in Ihrer Organisation aussehen könnte, ist ein erstes Gespräch oder ein fokussierter PoC oft der effizienteste nächste Schritt.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Nachrichtenmedien: Erfahren Sie, wie Unternehmen ChatGPT erfolgreich einsetzen.

AstraZeneca

Gesundheitswesen

In der stark regulierten pharmazeutischen Industrie stand AstraZeneca unter erheblichem Druck, die Wirkstoffforschung und klinischen Studien zu beschleunigen, die traditionell 10–15 Jahre dauern und Milliarden kosten, bei geringen Erfolgsraten von unter 10 %. Datensilos, strenge Compliance-Anforderungen (z. B. FDA-Regularien) und manuelle Wissensarbeit behinderten die Effizienz in F&E und Geschäftsbereichen. Forschende hatten Schwierigkeiten, riesige Datensets aus 3D-Bildgebung, Literaturauswertungen und Protokollentwürfen zu analysieren, was zu Verzögerungen bei der Therapiefindung für Patienten führte. Die Skalierung von KI wurde durch Datenschutz-Bedenken, Integration in Altsysteme und die Sicherstellung verlässlicher KI-Ergebnisse in einem hochkritischen Umfeld erschwert. Ohne schnelle Adoption riskierte AstraZeneca, gegenüber Wettbewerbern zurückzufallen, die KI für schnellere Innovationen zur Erreichung der 2030-Ziele nutzten.

Lösung

AstraZeneca startete eine unternehmensweite Strategie für generative KI und setzte ChatGPT Enterprise ein, maßgeschneidert für Pharma-Workflows. Dazu gehörten KI-Assistenten für die Analyse 3D-molekularer Bildgebung, automatische Entwürfe von Protokollen für klinische Studien und die Synthese von Wissen aus wissenschaftlicher Literatur. Sie gingen Partnerschaften mit OpenAI für sichere, skalierbare LLMs ein und investierten in Schulungen: Rund 12.000 Mitarbeitende aus F&E und anderen Funktionen schlossen bis Mitte 2025 GenAI-Programme ab. Infrastruktur-Upgrades wie AMD Instinct MI300X GPUs optimierten das Modelltraining. Governance-Rahmen stellten Compliance sicher, mit menschlicher Validierung in kritischen Aufgaben. Der Rollout erfolgte phasenweise von Pilotprojekten in 2023–2024 bis zur vollständigen Skalierung 2025, mit Schwerpunkt auf der Beschleunigung der F&E durch GenAI für Moleküldesign und Real-World-Evidence-Analysen.

Ergebnisse

  • ~12.000 Mitarbeitende bis Mitte 2025 in generativer KI geschult
  • 85–93 % der Mitarbeitenden berichteten von Produktivitätssteigerungen
  • 80 % der Medical Writer fanden KI-Protokollentwürfe nützlich
  • Signifikante Reduktion der Trainingszeit für Life-Sciences-Modelle durch MI300X-GPUs
  • Hohe AI-Maturity-Bewertung laut IMD-Index (weltweit oben)
  • GenAI ermöglicht schnellere Studienplanung und Dosiswahl
Fallstudie lesen →

AT&T

Telekommunikation

Als führender Netzbetreiber verwaltet AT&T eines der weltweit größten und komplexesten Netzwerke, das Millionen von Funkzellen, Glasfasern und 5G-Infrastruktur umfasst. Die zentralen Herausforderungen umfassten ineffiziente Netzplanung und -optimierung, etwa die Festlegung optimaler Standorte für Funkzellen und die Frequenzakquisition vor dem Hintergrund explodierender Datenanforderungen durch den 5G-Rollout und das Wachstum des IoT. Traditionelle Methoden beruhten auf manueller Analyse, was zu suboptimaler Ressourcenzuteilung und höheren Kapitalaufwendungen führte. Zusätzlich verursachte die reaktive Netzwartung häufige Ausfälle, da die Anomalieerkennung nicht mit den Echtzeitanforderungen Schritt hielt. Probleme proaktiv zu erkennen und zu beheben war entscheidend, um Ausfallzeiten zu minimieren, doch die enormen Datenmengen aus Netzwerksensoren überforderten die Altsysteme. Dies führte zu erhöhten Betriebskosten, Kundenunzufriedenheit und verzögerter 5G-Bereitstellung. AT&T benötigte skalierbare KI, um Ausfälle vorherzusagen, Selbstheilung zu automatisieren und die Nachfrage präzise zu prognostizieren.

Lösung

AT&T integrierte Maschinelles Lernen und Vorhersageanalytik über seine AT&T Labs und entwickelte Modelle für das Netzwerkdesign, einschließlich Spektrum-Refarming und Optimierung von Funkzellenstandorten. KI-Algorithmen analysieren Geodaten, Verkehrsprofile und historische Leistungsdaten, um ideale Standorte für Sendemasten zu empfehlen und so Baukosten zu reduzieren. Für den Betrieb nutzen Systeme zur Anomalieerkennung und Selbstheilung prädiktive Modelle auf NFV (Network Function Virtualization), um Ausfälle vorherzusagen und automatisierte Behebungen durchzuführen, etwa durch Umleitung von Traffic. Kausale KI geht über Korrelationen hinaus und liefert Ursachenanalysen bei Abwanderung und Netzproblemen. Die Implementierung umfasste Edge-to-Edge-Intelligenz und die Bereitstellung von KI in den Arbeitsabläufen von über 100.000 Ingenieurinnen und Ingenieuren.

Ergebnisse

  • Milliarden von Dollar an Einsparungen bei Netzwerkkosten
  • 20–30% Verbesserung der Netzauslastung und Effizienz
  • Signifikante Reduktion von Vor-Ort-Einsätzen (Truck Rolls) und manuellen Eingriffen
  • Proaktive Erkennung von Anomalien, die größere Ausfälle verhindert
  • Optimierte Standortwahl für Funkzellen, die CapEx um Millionen reduziert
  • Bis zu 40% bessere Genauigkeit bei 5G-Nachfrageprognosen
Fallstudie lesen →

Airbus

Luft- und Raumfahrt

In der Flugzeugentwicklung sind Computational Fluid Dynamics (CFD)-Simulationen essenziell, um den Luftstrom um Tragflächen, Rümpfe und neuartige Konfigurationen vorherzusagen — entscheidend für Treibstoffeffizienz und Emissionsreduzierung. Herkömmliche hochgenaue RANS-Solver benötigen jedoch Stunden bis Tage pro Lauf auf Supercomputern, wodurch Ingenieure nur wenige Dutzend Iterationen pro Designzyklus durchführen können und die Innovationsfähigkeit für nächste Generationen wie das hydrogenbetriebene ZEROe eingeschränkt wird. Dieses Rechenengpassproblem war besonders akut im Kontext von Airbus' Vorstoß zur Dekarbonisierung der Luftfahrt bis 2035, bei dem komplexe Geometrien eine umfassende Exploration erfordern, um Auftriebs-Widerstands-Verhältnisse zu optimieren und gleichzeitig Gewicht zu minimieren. Kooperationen mit DLR und ONERA zeigten den Bedarf an schnelleren Werkzeugen auf, da manuelle Abstimmungen nicht skalieren, um die Tausenden Varianten zu testen, die für laminares Strömungsverhalten oder Blended-Wing-Body-Konzepte nötig sind.

Lösung

Maschinelle Lern-Surrogatmodelle, einschließlich physik-informierter neuronaler Netze (PINNs), wurden auf umfangreichen CFD-Datensätzen trainiert, um komplette Simulationen in Millisekunden zu emulieren. Airbus integrierte diese in eine generative Design-Pipeline, in der KI Druckfelder, Geschwindigkeiten und Kräfte vorhersagt und dabei die Navier-Stokes-Physik über hybride Verlustfunktionen zur Genauigkeit erzwingt. Die Entwicklung umfasste die Aufbereitung von Millionen von Simulations-Snapshots aus Legacy-Läufen, GPU-beschleunigtes Training und iterative Feinabstimmung mit experimentellen Windkanaldaten. Dadurch wurden schnelle Iterationen möglich: Die KI sichtet Designs, während hochauflösende CFD nur die besten Kandidaten verifiziert, wodurch der Gesamtaufwand um Größenordnungen reduziert wird und gleichzeitig ein <5% Fehler bei Schlüsselmetriken gehalten wird.

Ergebnisse

  • Simulationszeit: 1 Stunde → 30 ms (120.000x Beschleunigung)
  • Design-Iterationen: +10.000 pro Zyklus im gleichen Zeitraum
  • Vorhersagegenauigkeit: 95%+ für Auftriebs-/Widerstandskoeffizienten
  • 50% Verkürzung der Designphasenlaufzeit
  • 30–40% weniger hochauflösende CFD-Läufe erforderlich
  • Treibstoffverbrauchsoptimierung: bis zu 5% Verbesserung in Vorhersagen
Fallstudie lesen →

Amazon

Einzelhandel

In der weiten E‑Commerce‑Landschaft stehen Online‑Käufer vor erheblichen Hürden bei der Produktsuche und Entscheidungsfindung. Bei Millionen von Produkten fällt es Kund:innen häufig schwer, Artikel zu finden, die genau ihren Anforderungen entsprechen, Optionen zu vergleichen oder schnelle Antworten auf nuancierte Fragen zu Funktionen, Kompatibilität und Nutzung zu erhalten. Traditionelle Suchleisten und statische Auflistungen stoßen an ihre Grenzen, was zu Warenkorbabbrüchen von branchenweit bis zu 70 % und verlängerten Entscheidungszeiträumen führt, die Nutzer:innen frustrieren. Amazon, das über 300 Millionen aktive Kund:innen bedient, sah sich besonders während Spitzenereignissen wie dem Prime Day mit stark steigenden Anfragevolumina konfrontiert. Käufer:innen verlangten personalisierte, konversationelle Unterstützung ähnlich der Hilfe im Laden, doch die Skalierung menschlicher Unterstützung war nicht möglich. Zu den Problemen gehörten die Bewältigung komplexer Multi‑Turn‑Anfragen, die Einbindung von Echtzeit‑Bestands‑ und Preisangaben sowie die Sicherstellung, dass Empfehlungen Sicherheits‑ und Genauigkeitsstandards erfüllen vor einem Katalog von über $500B.

Lösung

Amazon entwickelte Rufus, einen generativen, KI‑gestützten konversationellen Einkaufsassistenten, der in die Amazon Shopping‑App und die Desktop‑Version integriert ist. Rufus nutzt ein maßgeschneidertes Large Language Model (LLM), das auf Amazons Produktkatalog, Kundenbewertungen und Webdaten feinabgestimmt wurde, um natürliche, mehrstufige Gespräche zu führen, Fragen zu beantworten, Produkte zu vergleichen und maßgeschneiderte Empfehlungen zu geben. Angetrieben von Amazon Bedrock für Skalierbarkeit und AWS Trainium/Inferentia‑Chips für effiziente Inferenz, skaliert Rufus zu Millionen von Sitzungen ohne spürbare Latenz. Es integriert agentische Fähigkeiten für Aufgaben wie Warenkorb‑Hinzufügen, Preisverfolgung und Deal‑Suche und überwindet frühere Personalisierungsgrenzen durch sicheren Zugriff auf Nutzungsverlauf und Präferenzen. Die Implementierung erfolgte iterativ: Beginnend mit einer Beta im Februar 2024, Ausweitung auf alle US‑Nutzer bis September und anschließende globale Rollouts, wobei Halluzinationsrisiken durch Grounding‑Techniken und Mensch‑in‑der‑Schleife‑Sicherungen adressiert wurden.

Ergebnisse

  • 60 % höhere Kaufabschlussrate bei Rufus‑Nutzer:innen
  • Prognostizierte zusätzliche Umsätze von $10B durch Rufus
  • 250M+ Kund:innen nutzten Rufus im Jahr 2025
  • Monatlich aktive Nutzer:innen +140 % YoY
  • Interaktionen stiegen um 210 % YoY
  • Black‑Friday‑Verkaufssitzungen +100 % mit Rufus
  • Kürzlicher Anstieg der Rufus‑Nutzer:innen um 149 %
Fallstudie lesen →

American Eagle Outfitters

Bekleidungs-Einzelhandel

In der wettbewerbsintensiven Bekleidungs-Einzelhandel-Landschaft stand American Eagle Outfitters vor erheblichen Herausforderungen in den Ankleidekabinen, wo Kund:innen nach Styling-Beratung, präziser Größenempfehlung und ergänzenden Artikelvorschlägen verlangen, ohne auf überlastete Mitarbeitende warten zu müssen . Während Stoßzeiten führten Personalknappheiten häufig dazu, dass frustrierte Käufer:innen Waren zurückließen, die Anprobefrequenz sanken und Konversionschancen verpasst wurden, da traditionelle In-Store-Erfahrungen hinter der personalisierten E‑Commerce-Welt zurückblieben . Frühe Ansätze wie Beacon-Technologie im Jahr 2014 verdoppelten zwar die Wahrscheinlichkeit des Betretens der Umkleide, fehlte es ihnen jedoch an Tiefe für Echtzeit-Personalisierung . Hinzu kamen Daten-Silos zwischen Online und Offline, die einheitliche Kundenkenntnisse erschwerten und es schwierig machten, Artikel dynamisch an individuelle Stilpräferenzen, Körpertypen oder sogar Hauttöne anzupassen. American Eagle benötigte eine skalierbare Lösung, um Engagement und Kundentreue in Flagship-Stores zu steigern und gleichzeitig mit KI breiter zu experimentieren .

Lösung

American Eagle ging eine Partnerschaft mit Aila Technologies ein, um interaktive Ankleidekabinen-Kioske einzusetzen, die von Computervision und Maschinellem Lernen angetrieben werden; diese wurden 2019 in Flagship-Filialen in Boston, Las Vegas und San Francisco eingeführt . Kund:innen scannen Kleidungsstücke über iOS-Geräte, wodurch CV‑Algorithmen die Artikel identifizieren und ML‑Modelle — trainiert auf Kaufhistorie und Google Cloud‑Daten — optimale Größen, Farben und Outfit‑Ergänzungen vorschlagen, zugeschnitten auf inferierte Stilpräferenzen . Integriert mit den ML-Funktionen von Google Cloud ermöglicht das System Echtzeit-Empfehlungen, Benachrichtigungen an Mitarbeitende und nahtlose Bestandsabfragen und entwickelte sich von Beacon‑Gimmicks zu einem vollwertigen smarten Assistenten . Dieser experimentelle Ansatz, gefördert vom CMO Craig Brommers, fördert eine KI‑Kultur für Personalisierung im großen Maßstab .

Ergebnisse

  • Zweistellige Conversion-Steigerungen durch KI‑Personalisierung
  • 11% Wachstum der vergleichbaren Verkäufe für die Marke Aerie im Q3 2025
  • 4% Anstieg der gesamten vergleichbaren Verkäufe im Q3 2025
  • 29% EPS‑Wachstum auf $0,53 im Q3 2025
  • Verdoppelte Anprobewahrscheinlichkeit in Ankleidekabinen durch frühe Technik
  • Rekordumsatz im Q3 von $1,36 Mrd.
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Eine ChatGPT-Pipeline einrichten, um zentrale Rechnungs- und Belegfelder zu extrahieren

Die Grundlage schnellerer Rechnungs- und Belegverarbeitung ist eine verlässliche Datenextraktion. Definieren Sie zunächst genau, welche Felder Sie für Ihr ERP oder Spesentool benötigen: Lieferantenname, Rechnungsnummer, Datum, Netto- und Bruttobeträge, Mehrwertsteuer, Währung, Bestellnummer, Hinweise auf Sachkonten, Kostenstelle und Projektcode. Machen Sie dasselbe für Belege (Händler, Datum, Kategorie, Betrag, MwSt., Zahlungsmethode).

Konfigurieren Sie dann Ihre ChatGPT-Integration (über API oder einen Custom GPT) so, dass PDFs, Bilder oder E-Mail-Texte gelesen und ein strukturiertes JSON-Objekt zurückgegeben wird. Verwenden Sie klare, deterministische Prompts, die das Schema und den Umgang mit fehlenden Daten spezifizieren.

Beispiel-Prompt für Rechnungsextraktion:
Sie sind ein KI-Assistent für die Finanzabteilung.
Extrahieren Sie strukturierte Daten aus der folgenden Rechnung.
Geben Sie ausschließlich gültiges JSON mit diesen Feldern zurück:
- supplier_name
- supplier_vat_id
- invoice_number
- invoice_date (YYYY-MM-DD)
- due_date (YYYY-MM-DD oder null)
- currency
- net_amount
- tax_amount
- gross_amount
- po_number
- payment_terms
- inferred_gl_account (Textbeschreibung)
- confidence_score (0-1)

Wenn ein Feld nicht vorhanden ist, setzen Sie es auf null.
Rechnungstext:
{{INVOICE_TEXT}}

Verbinden Sie diesen Extraktionsschritt mit Ihrem Dokumenteneingang (E-Mail-Postfach, Upload-Portal, Scanner) und leiten Sie das JSON an Ihr Kreditorensystem oder eine Staging-Datenbank weiter. Allein das kann einen großen Teil des manuellen Tippaufwands eliminieren.

Ausgaben automatisch klassifizieren und Sachkonten sowie Kostenstellen vorschlagen

Sobald Sie strukturierte Daten haben, nutzen Sie ChatGPT für Spesenkategorisierung. Verfeinern Sie Prompts (oder einen Custom GPT), um Händler, Rechnungsbeschreibungen und Positionen auf Ihren Kontenplan, Kostenstellen und Projekte abzubilden. Starten Sie mit einem Teilbereich, in dem Sie klare Regeln haben (z. B. Software-Abonnements, Reisen, Bürobedarf), und erweitern Sie schrittweise.

Beispiel-Prompt für Sachkonto- & Kostenstellenvorschläge:
Sie sind ein Buchhaltungsassistent für ein mittelständisches Unternehmen.
Nutzen Sie den untenstehenden Kontenplan und die Kostenstellen,
um das wahrscheinlichste Sachkonto und die passende Kostenstelle
für diese Rechnung zuzuweisen.

Kontenplan (Auszug):
- 6400: Bürobedarf
- 6420: Software-Abonnements
- 6600: Reisekosten
- 6620: Hotels
- 6630: Flüge
- 6800: Beratungsleistungen

Kostenstellen (Auszug):
- 100: Vertrieb
- 200: Marketing
- 300: IT
- 400: Operations

Rechnungsdaten (JSON):
{{INVOICE_JSON}}

Geben Sie JSON zurück:
{
  "gl_account": "",
  "cost_centre": "",
  "reasoning": "",
  "confidence_score": 0-1
}

Speisen Sie die Modellausgaben als Vorschläge in Ihren Kreditoren-Workflow ein, die Genehmigende annehmen oder überschreiben können. Erfassen Sie Überschreibungen, um Prompts zu verfeinern oder bei Bedarf kleine Lookup-Regeln aufzubauen.

Richtlinienprüfungen und Verstöße in der KI-Schicht implementieren

Nutzen Sie ChatGPT, um Spesenrichtlinien automatisch durchzusetzen, bevor Rechnungen und Belege zu Genehmigenden gelangen. Kodieren Sie Ihre Reise- und Spesenrichtlinien im Prompt: tägliche Hotelobergrenzen, Pauschalregelsätze, Reiseklasse, Freigabeschwellen, erforderliche Anhänge und gesperrte Anbieter. Lassen Sie das Modell die extrahierten Dokumentdaten mit diesen Regeln vergleichen und einen Status vergeben: konform, Warnung oder Verstoß.

Beispiel-Prompt für Richtlinienprüfungen bei Belegen:
Sie sind ein Prüfer für Spesenrichtlinien.
Wenden Sie die folgenden Regeln auf die untenstehende Ausgabe an:
- Maximale Hotelkosten pro Nacht: 150 EUR
- Flüge über 4 Stunden: nur Economy
- Keine Erstattung von Alkohol
- Taxiquittungen müssen Datum, Betrag und Start/Ziel enthalten

Spesendaten (JSON):
{{RECEIPT_JSON}}

Geben Sie JSON zurück:
{
  "status": "compliant" | "warning" | "violation",
  "issues": ["..."],
  "recommended_action": "accept" | "clarify_with_employee" | "reject"
}

Integrieren Sie diesen Status in Ihre Freigabeoberfläche oder -E-Mails, sodass Führungskräfte sofort sehen, warum etwas markiert wurde und welche Aktion empfohlen ist. Mit der Zeit reduziert dies Rückfragen und erhöht die Richtlinieneinhaltung, ohne Mitarbeitende auszubremsen.

ChatGPT nutzen, um Freigabe-E-Mails und Ausnahmesummaries zu verfassen

Um Durchlaufzeiten wirklich zu verkürzen, lassen Sie ChatGPT Freigabekommunikation und Ausnahmesummaries automatisch erzeugen. Wenn eine Rechnung nicht zur Bestellung passt oder ein Beleg die Richtlinien verletzt, kann die KI die relevanten Fakten zusammenstellen und eine prägnante E-Mail an Budgetverantwortliche oder Mitarbeitende mit einer Klärungsanfrage vorschlagen.

Beispiel-Prompt für Freigabe-/Klärungs-E-Mails:
Sie sind ein Assistent für die Finanzabteilung.
Formulieren Sie eine kurze, klare E-Mail an die verantwortliche Führungskraft
zu einer Rechnungsabweichung.

Kontext:
- Lieferant: {{SUPPLIER_NAME}}
- Rechnungsnummer: {{INVOICE_NUMBER}}
- Betrag: {{GROSS_AMOUNT}} {{CURRENCY}}
- Thema: {{POLICY_OR_MATCHING_ISSUE}}
- Benötigte Informationen: {{REQUESTED_INFO}}

Ton: professionell, prägnant, nicht vorwurfsvoll.
Bitte einschließen:
- Einen Ein-Satz-Überblick über das Thema
- Eine Stichpunktliste mit Kerndetails
- Eine klare Frage oder Bitte zum nächsten Schritt

Versenden Sie diese Entwürfe über Ihre bestehende E-Mail-Infrastruktur oder Ihr Freigabetool, mit der Option für einen Menschen, sie vor dem Versand zu bearbeiten. Das reduziert die kognitive Last für das Finanzteam und hält Ausnahmen in Bewegung, anstatt sie auf To-do-Listen festzuhalten.

Den KI-Workflow über APIs mit Ihrem ERP und Spesentools verbinden

Die größten Performancegewinne entstehen, wenn Ihr ChatGPT-Rechnungs-Workflow eng mit Ihrem ERP (z. B. SAP, Microsoft Dynamics, Datev) und Ihrer Spesenlösung integriert ist. Nutzen Sie APIs, Middleware oder iPaaS-Tools, um von der KI extrahierte und klassifizierte Daten in die richtigen Module zu übertragen: offene Posten, Kreditorenkonten oder Spesenabrechnungen.

Definieren Sie klare Übergabepunkte: Beispielsweise werden Rechnungen unterhalb eines bestimmten Risikowerts und Betrags als vorab genehmigte Buchungen angelegt; höher riskante Posten werden als „geparkte“ Belege zur Prüfung erstellt. Protokollieren Sie KI-Entscheidungen (einschließlich Prompt-Versionen und Konfidenzwerten) so, dass sie prüfbar sind. Arbeiten Sie eng mit der IT zusammen, um Authentifizierung, Ratenlimits und Fehlerbehandlung zu steuern, damit fehlgeschlagene KI-Aufrufe nicht den gesamten Kreditorenprozess blockieren.

KPIs verfolgen: Durchlaufzeit, Touchless-Rate und Fehlerquote

Um Ihren KI-gestützten Kreditorenprozess zu steuern, definieren Sie einen kleinen Satz an KPIs und messen diese vor und nach der Implementierung. Typische Kennzahlen sind: durchschnittliche Rechnungsverarbeitungszeit (vom Eingang bis zur Buchung), Anteil der „touchless“ verarbeiteten Rechnungen (ohne menschlichen Eingriff), Fehlerquote in extrahierten Feldern, Anzahl erkannter Richtlinienverstöße pro Monat sowie Anteil der Rechnungen, die innerhalb von Skontofristen freigegeben werden.

Nutzen Sie Dashboards, um diese Kennzahlen zu überwachen und nach Lieferant, Kategorie und Region zu segmentieren. Für viele Organisationen sind nach einer soliden Implementierung realistische Ergebnisse: 40–70 % Reduktion der Durchlaufzeit für Standardrechnungen, 50 %+ der Rechnungen mit minimalem menschlichen Aufwand verarbeitet und eine spürbare Reduktion von Mahngebühren und manueller Korrekturarbeit. Darauf aufbauend können Sie Prompts, Risikoschwellen und Integrationsflüsse iterativ verfeinern, um diese Werte weiter zu verbessern.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

ChatGPT beschleunigt die Verarbeitung von Rechnungen und Belegen, indem es die Schritte übernimmt, die den Großteil der Zeit Ihres Teams binden: Dokumente lesen, Felder extrahieren, Ausgaben klassifizieren und Kommunikationsentwürfe erstellen. Anstatt Kopf- und Positionsdaten manuell zu erfassen, prüfen Mitarbeitende von der KI erzeugte Einträge und greifen nur ein, wenn die Konfidenz niedrig ist oder Regeln verletzt werden.

In der Praxis bedeutet das, dass Rechnungen und Belege deutlich schneller durch Ihren Workflow laufen. Standardfälle können nahezu in Echtzeit verarbeitet werden, während Menschen sich auf Ausnahmen, Streitfälle und komplexe Vorgänge fokussieren. Das Ergebnis sind kürzere Durchlaufzeiten, weniger Rückstau und eine frühere Sichtbarkeit der tatsächlichen Ausgaben in Ihren Finanzsystemen.

Sie benötigen kein großes Data-Science-Team, aber drei Fähigkeiten sind wichtig: Finance-Prozessverantwortliche, die Anforderungen und Freigaberegeln definieren, technische Integrationskompetenz (API-Integration, Scripting oder Workflow-Tools), um ChatGPT mit Ihrem ERP und Ihren Dokumentenquellen zu verbinden, sowie jemanden, der Sicherheits- und Compliance-Themen verantwortet.

Für viele Unternehmen ist dies ein kleines, funktionsübergreifendes Squad: eine Kreditoren- oder Controlling-Leitung, ein IT-/Integrationsingenieur und ein Security-/IT-Architekt. Reruption schließt häufig Lücken beim Engineering und bei der KI-Architektur, während Ihr Finanzteam die Prozesslogik und Validierung treibt. Dieses Setup hält das Projekt fokussiert und schnell, ohne interne Teams zu überlasten.

Mit einem klar abgegrenzten Scope können Sie innerhalb weniger Wochen spürbare Verbesserungen bei der Geschwindigkeit der Rechnungsverarbeitung sehen. Ein typischer Zeitplan ist: 1–2 Wochen, um den Use Case zu definieren, aktuelle Kreditorenprozesse zu kartieren und Prompts zu entwerfen; 2–3 Wochen, um einen Prototyp zu bauen und zu integrieren, der Daten für einen Teil der Rechnungen extrahiert und Klassifikationsvorschläge macht; und weitere 2–4 Wochen, um zu verfeinern, die Abdeckung zu erweitern und den Workflow zu stabilisieren.

Die meisten Organisationen starten mit ein oder zwei Dokumenttypen (z. B. Standardlieferantenrechnungen und Reisebelege) und rollen dann auf weitere Formate und Länder aus. Sie müssen nicht auf einen großen, allumfassenden Rollout warten, um Vorteile zu sehen; selbst eine begrenzte Einführung kann Rückstände und manuellen Aufwand schnell reduzieren.

Der ROI ergibt sich aus einer Kombination von Arbeitszeiteinsparungen, weni­ger Fehlern und besserem Liquiditätsmanagement. Die Automatisierung von Datenerfassung und Basisprüfungen kann einen erheblichen Anteil der Zeit Ihres Kreditorenteams freisetzen, sodass Sie mehr Volumen ohne zusätzliche FTE bewältigen. Weniger Fehler bedeuten weniger Korrekturen und weniger Nacharbeit im Controlling und in Prüfungen.

Auf der Liquiditätsseite reduziert schnellere Durchlaufzeit Mahngebühren und erhöht Ihre Fähigkeit, Skonti zu nutzen. Echtzeit-Transparenz über Ausgaben verbessert zudem Budgetierung und Lieferantenverhandlungen. Die konkreten Zahlen hängen von Volumen und Gehaltsniveaus ab, aber viele Unternehmen können einen Pilot allein über die eingesparte Zeit bei manueller Erfassung und Nachverfolgung rechtfertigen – mit den zusätzlichen finanziellen Effekten als positiver Nebeneffekt.

Reruption arbeitet als Co-Preneur in Ihrer Organisation: Wir beraten nicht nur zu KI, sondern helfen Ihnen, funktionierende Lösungen zu bauen und in den Betrieb zu bringen. Für Rechnungs- und Belegautomatisierung mit ChatGPT starten wir typischerweise mit unserem KI-PoC-Angebot für 9.900 €. In einem kurzen, fokussierten Engagement definieren wir den konkreten Use Case (z. B. bestimmte Rechnungs- und Belegtypen), bauen einen Prototypen, der echte Dokumente liest, und verbinden ihn mit einer Testumgebung Ihres Finanzstacks.

Der PoC liefert einen funktionsfähigen Prototyp, Leistungskennzahlen (Genauigkeit, Geschwindigkeit, Kosten pro Lauf) sowie einen Produktionsplan, der auf Ihre IT- und Compliance-Anforderungen zugeschnitten ist. Wenn die Ergebnisse Ihren Erwartungen entsprechen, unterstützen wir Sie anschließend bei Härtung, Integration und Rollout – stets in enger Zusammenarbeit mit Ihren Finanz- und IT-Teams, damit die Lösung zu Ihren Prozessen passt und nach der Implementierung intern verantwortet werden kann.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media