Die Herausforderung: Nicht zugeordnete Aufwandsbuchungen

In vielen Organisationen sind nicht zugeordnete Aufwandsbuchungen zu einem dauerhaften Ärgernis für den Finanzbereich geworden. Mitarbeitende reichen Spesen mit vagen Beschreibungen, fehlenden Kostenstellen ein oder wählen einfach „Sonstiges“, um ihre Belege durchzubekommen. Finanzteams verbringen dann Tage damit, fehlende Informationen hinterherzulaufen, Belege zu entschlüsseln und Kontenrahmen-Konten sowie Projektcodes manuell zuzuweisen. Monatsabschlüsse ziehen sich in die Länge, und niemand vertraut den Ausgabenberichten wirklich.

Traditionelle Ansätze – Richtlinien-PDFs, Schulungen und manuelle Prüfungen – reichen nicht mehr aus. Mit steigenden Transaktionsvolumina in Reise, Einkauf und Abonnements kann der Finanzbereich die Belegflut nicht allein durch zusätzliche Köpfe bewältigen. ERP- und Spesentools helfen, einige Regeln durchzusetzen, haben aber Schwierigkeiten mit Freitextbeschreibungen, mehrsprachigen Einträgen und unsauberen Belegfotos. Starre regelbasierte Engines brechen zusammen, sobald Lieferanten Formate ändern oder Mitarbeitende kreativ bei den Beschreibungen werden.

Die geschäftlichen Auswirkungen sind erheblich. Falsch gebuchte Kosten verzerren Margen nach Produkt, Kunde und Projekt. Budgetverantwortliche sehen Ausgabendaten zu spät, um zu reagieren. Controller verlieren produktive Tage mit wenig wertschöpfender Klassifizierungsarbeit statt mit Analyse. Schlechte Ausgabentransparenz untergräbt die Ausgabenkontrolle, verschleiert Richtlinienverstöße und verlangsamt Entscheidungen – besonders kritisch, wenn Liquidität und Profitabilität unter Druck stehen.

Die gute Nachricht: Dieses Problem lässt sich mit heutiger KI sehr gut lösen. Durch die Kombination von Geminis multimodaler Verarbeitung (Text + Bilder) mit Ihrer finanziellen Kontierungslogik können Sie nicht zugeordnete Buchungen und manuelle Eingriffe deutlich reduzieren. Bei Reruption haben wir Organisationen dabei unterstützt, KI-first-Workflows rund um komplexe Dokumenten- und Datenverarbeitung aufzubauen. Im Folgenden zeigen wir praxisnahe, finance-taugliche Wege, wie Sie Gemini für die Aufwandsklassifizierung einsetzen können – ohne Ihre zentrale ERP-Landschaft zu stören.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions Arbeit beim Aufbau von KI-gestützten Dokumenten- und Daten-Workflows wissen wir: Nicht zugeordnete Aufwendungen sind fast nie nur ein Tooling-Thema – sie sind ein Prozess- und Design-Thema. Gemini ist ein leistungsstarker Motor, um Händlernamen, Texte und Belegbilder zu interpretieren, aber seinen echten Wert entfaltet er erst, wenn Sie ihn in eine klare Ausgabenkontroll-Strategie einbetten – mit den richtigen Leitplanken rund um Kontenlogik, Kostenstellen und Genehmigungsflüsse.

Verankern Sie Gemini in Ihrem Finance-Datenmodell, nicht nur im Spesentool

Bevor Sie Belege an Gemini schicken, braucht der Finanzbereich ein klares, dokumentiertes Datenmodell: Welche Kontenrahmen-Konten (GL-Konten) sind für welche Kostenstellen und Projekte zulässig, wie typische Ausgabenmuster aussehen und welche Kategorien aus Richtliniensicht „risikoreich“ sind. Ohne dieses Rückgrat wird selbst ein starkes KI-Modell uneinheitliche Klassifizierungen liefern.

Behandeln Sie Gemini als Dolmetscher zwischen unstrukturierten Realwelt-Eingaben und Ihrem strukturierten Kontenrahmen. Definieren Sie explizite Zuordnungen, Prioritäten und Übersteuerungsregeln, die widerspiegeln, wie Ihre Controller bereits denken. So bleiben KI-Ergebnisse im Einklang mit Ihrer Buchhaltungslogik und der Widerstand von Prüfern und lokalen Finanzteams wird reduziert.

Starten Sie mit einem engen, volumenstarken Use Case

Statt „KI für alle Aufwendungen“ starten Sie mit einem klar abgegrenzten, aber volumenstarken Bereich: zum Beispiel Reisespesen (Flüge, Hotels, Taxis) oder Software-Abonnements. In diesen Domänen sind Händlerstrukturen und Beschreibungen relativ konsistent, was es Gemini leichter macht zu lernen – und dem Finanzbereich, Ergebnisse zu validieren.

Dieser Fokus erlaubt Ihnen klare Erfolgskennzahlen zu setzen (z. B. „nicht zugeordnete Reiseaufwendungen in drei Monaten von 25 % auf <5 % senken“) und Feedback von einer kleineren Gruppe an Mitarbeitenden und Genehmigenden zu sammeln. Sobald der Pilot stabil und akzeptiert ist, übertragen Sie dieselben Muster auf weitere Ausgabentypen.

Gestalten Sie von Beginn an Human-in-the-Loop statt Vollautomatisierung

Für Finanzverantwortliche ist das größte Risiko nicht, dass Gemini einmal eine Taxifahrt falsch klassifiziert – sondern die Kontrolle über den Prozess zu verlieren. Um Akzeptanz und Risiko zu steuern, entwerfen Sie zunächst einen Human-in-the-Loop-Workflow: Gemini schlägt Kategorien, Kostenstellen und Richtlinien-Flags vor; der Finanzbereich (oder Führungskräfte) prüft und akzeptiert, ändert oder lehnt ab.

Dieser Ansatz baut Vertrauen auf und liefert Ihnen gelabelte Feedbackdaten, um Geminis Prompts und Fine-Tuning zu verbessern. Im Zeitverlauf können Sie Konfidenzschwellen definieren – z. B. automatische Übernahme bei Konfidenz > 0,9, Weiterleitung zur Prüfung zwischen 0,6–0,9 und Blockieren oder Eskalieren unter 0,6 – sodass die Automatisierung dort wächst, wo sich das Modell als zuverlässig erwiesen hat.

Bereiten Sie Ihr Team und Ihre Richtlinien auf KI-gestütztes Spesenmanagement vor

Die Einführung einer KI-gesteuerten Aufwandsklassifizierung verändert die Aufgabenteilung im Prozess. Controller verbringen weniger Zeit mit der Kontierung von Spesen und mehr mit der Definition von Regeln, dem Testen von Stichproben und dem Monitoring von Auffälligkeiten. Mitarbeitende erhalten schnelleres Feedback zu Richtlinienverstößen. Um Widerstände zu vermeiden, machen Sie diese Verschiebungen explizit.

Aktualisieren Sie Ihre Spesenrichtlinie um einen kurzen Abschnitt zu KI-Unterstützung: Was Gemini tut, wie Kategorien vorgeschlagen werden, welche Übersteuerungen zulässig sind und wie Daten genutzt werden. Schulen Sie Finanzmitarbeitende darin, KI-Ergebnisse zu lesen, Konfidenzwerte zu verstehen und Grenzfälle zu interpretieren. Je vertrauter sie damit sind, desto schneller werden sie Automatisierung nutzen statt sie zu umgehen.

Bauen Sie Auditierbarkeit, Nachvollziehbarkeit und Compliance von Anfang an ein

Für den Finanzbereich ist ein leistungsstarkes Modell wertlos, wenn es eine Blackbox ist. Stellen Sie von Beginn an sicher, dass Ihre Gemini-Integration die Eingaben (wo nötig pseudonymisiert), die vorgeschlagene Klassifizierung, die Begründung (wo technisch über Prompts möglich), den Konfidenzwert und die finale menschliche Entscheidung speichert.

Diese Nachvollziehbarkeit gibt Prüfern Sicherheit und ermöglicht regelmäßiges Backtesting: Wie oft entspricht Gemini der finalen Buchung? In welchen Kategorien tut sich das Modell schwer? In Kombination mit klaren Datenschutz- und Zugriffskontrollen hilft Ihnen dies, Anforderungen an interne Kontrollen, Compliance und Betriebsrat zu erfüllen – und gleichzeitig Effizienzgewinne zu realisieren.

Bewusst eingesetzt kann Gemini nicht zugeordnete Aufwandsbuchungen von einem chronischen Ärgernis in einen weitgehend automatisierten, prüfbaren Workflow verwandeln. Entscheidend ist nicht nur, eine API aufzurufen, sondern das Modell mit Ihrem Kontenrahmen, Ihren Richtlinien und Ihren Menschen in Einklang zu bringen. Bei Reruption sind wir darauf spezialisiert, solche KI-first-Finance-Prozesse End-to-End aufzubauen – von der Proof-of-Concept-Phase bis hin zu produktionsreifen Integrationen. Wenn Sie sehen möchten, was Gemini mit Ihren realen Spesendaten leisten kann, unterstützen wir Sie gerne dabei, es fokussiert und risikoarm zu testen.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Automobilindustrie: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Kaiser Permanente

Gesundheitswesen

In Krankenhäusern erfahren erwachsene Patienten auf Allgemeinstationen häufig eine , ohne dass rechtzeitig ausreichend Warnzeichen erkannt werden. Das führt zu Notfallverlegungen auf Intensivstationen, erhöhter Sterblichkeit und vermeidbaren Wiederaufnahmen. Kaiser Permanente Northern California stand vor diesem Problem in seinem Netzwerk, in dem subtile Veränderungen bei Vitalparametern und Laborwerten bei hohem Patientenvolumen und anspruchsvollen Arbeitsabläufen leicht übersehen wurden. Das resultierte in erhöhten negativen Ergebnissen, darunter vermeidbar hohe Sterberaten und 30-Tage-Wiederaufnahmen . Traditionelle Frühwarnscores wie MEWS (Modified Early Warning Score) waren durch manuelle Erfassung und unzureichende Vorhersagegenauigkeit für Verschlechterungen innerhalb von 12 Stunden limitiert und nutzten nicht das volle Potenzial elektronischer Patientenakten (EHR). Die Herausforderung wurde durch Alarmmüdigkeit durch weniger präzise Systeme verschärft und erforderte eine skalierbare Lösung für 21 Krankenhäuser, die Millionen von Patienten versorgen .

Lösung

Kaiser Permanente entwickelte den Advance Alert Monitor (AAM), ein KI-gestütztes Frühwarnsystem, das prädiktive Analytik einsetzt, um Echtzeit-EHR-Daten — einschließlich Vitalzeichen, Laborwerte und Demografie — zu analysieren und Patienten mit hohem Risiko einer Verschlechterung innerhalb der nächsten 12 Stunden zu identifizieren. Das Modell erzeugt eine Risikobewertung und automatisierte Alarme, die in die klinischen Arbeitsabläufe integriert werden und zeitnahe Interventionen wie ärztliche Überprüfungen oder den Einsatz von Rapid Response Teams auslösen . Seit der Einführung in 2013 in Nordkalifornien verwendet AAM Machine-Learning-Algorithmen, die auf historischen Daten trainiert wurden und traditionelle Scores übertreffen, wobei erklärbare Vorhersagen das Vertrauen der Mitarbeitenden stärken. Die Einführung erfolgte stationsweit, Integrationsprobleme wurden über Epic-EHR-Kompatibilität und Schulungen für Klinikpersonal adressiert, um Alarmmüdigkeit zu minimieren .

Ergebnisse

  • 16 % geringere Sterblichkeitsrate in der AAM-Interventionskohorte
  • Über 500 Todesfälle jährlich im Netzwerk verhindert
  • 10 % Reduktion bei 30-Tage-Wiederaufnahmen
  • Identifiziert Verschlechterungsrisiken innerhalb von 12 Stunden mit hoher Zuverlässigkeit
  • Eingesetzt in 21 Krankenhäusern in Nordkalifornien
Fallstudie lesen →

Morgan Stanley

Bankwesen

Finanzberater bei Morgan Stanley hatten Schwierigkeiten, schnell auf die umfangreiche proprietäre Forschungsdatenbank des Unternehmens zuzugreifen, die über 350.000 Dokumente und Jahrzehnte institutionellen Wissens umfasst. Manuelle Recherchen in diesem riesigen Archiv waren zeitraubend und dauerten oft 30 Minuten oder länger pro Anfrage, was die Fähigkeit der Berater einschränkte, während Kundengesprächen zeitnahe, personalisierte Beratung zu liefern . Dieser Engpass begrenzte die Skalierbarkeit in der Vermögensverwaltung, in der vermögende Kunden sofort datenbasierte Einblicke in volatilen Märkten erwarten. Zudem erschwerte das schiere Volumen unstrukturierter Daten — 40 Millionen Wörter an Forschungsberichten — die schnelle Synthese relevanter Informationen, was suboptimale Empfehlungen und geringere Kundenzufriedenheit zur Folge haben konnte. Die Berater benötigten eine Lösung, um den Zugang zu dieser Wissensquelle zu demokratisieren, ohne umfangreiche Schulungen oder technische Vorkenntnisse .

Lösung

Morgan Stanley arbeitete mit OpenAI zusammen, um AI @ Morgan Stanley Debrief zu entwickeln, einen auf GPT-4 basierenden generativen KI-Chatbot, der speziell für Vermögensverwaltungsberater zugeschnitten ist. Das Tool verwendet retrieval-augmented generation (RAG), um sicher und kontextbewusst Abfragen in der proprietären Forschungsdatenbank durchzuführen und sofortige, quellenbasierte Antworten zu liefern . Als konversationeller Assistent implementiert, ermöglicht Debrief Beratern, natürliche Fragen wie ‚Was sind die Risiken bei Investitionen in AI-Aktien?‘ zu stellen und synthetisierte Antworten mit Zitaten zu erhalten — ohne manuelle Suche. Strenge KI-Evaluationen und menschliche Aufsicht sorgen für Genauigkeit; das Modell wurde zudem feingetunt, um sich an Morgan Stanleys institutionelles Wissen anzupassen . Dieser Ansatz löste Datensilos auf und ermöglichte eine nahtlose Integration in die Arbeitsabläufe der Berater.

Ergebnisse

  • 98% Akzeptanzrate bei Vermögensverwaltungsberatern
  • Zugriff für nahezu 50% der gesamten Mitarbeitenden von Morgan Stanley
  • Anfragen werden in Sekunden statt in über 30 Minuten beantwortet
  • Mehr als 350.000 proprietäre Forschungsdokumente indexiert
  • 60% Mitarbeiterzugriff bei Wettbewerbern wie JPMorgan zum Vergleich
  • Signifikante Produktivitätssteigerungen laut Chief Administrative Officer
Fallstudie lesen →

NatWest

Bankwesen

NatWest Group, eine führende britische Bank, die über 19 Millionen Kunden bedient, sah sich zunehmenden Anforderungen an den digitalen Kundenservice gegenüber. Traditionelle Systeme wie der ursprüngliche Cora-Chatbot bewältigten Routineanfragen zwar zuverlässig, hatten jedoch Schwierigkeiten mit komplexen, nuancierten Interaktionen und eskalierten häufig 80–90 % der Fälle an menschliche Mitarbeitende. Das führte zu Verzögerungen, höheren Betriebskosten und Risiken für die Kundenzufriedenheit, während die Erwartungen an sofortige, personalisierte Unterstützung stiegen . Gleichzeitig stellte der Anstieg von Finanzbetrug eine kritische Bedrohung dar, die nahtloses Betrugsreporting und Erkennung innerhalb von Chat-Oberflächen erforderte, ohne Sicherheit oder Vertrauen der Nutzer zu gefährden. Regulatorische Vorgaben, Datenschutz nach UK GDPR und ethische KI-Einsätze erhöhten die Komplexität, da die Bank Support skalieren wollte und gleichzeitig Fehler in risikoreichen Bankprozessen minimieren musste . Die Balance zwischen Innovation und Zuverlässigkeit war entscheidend; mangelhafte KI-Leistungen könnten in einem Sektor, in dem die Kundenzufriedenheit direkt Kundenbindung und Umsatz beeinflusst, Vertrauen untergraben .

Lösung

Mit der Einführung von Cora+ im Juni 2024 führte NatWest sein erstes umfassendes Upgrade mit generativer KI ein, um proaktive, intuitive Antworten auf komplexe Anfragen zu ermöglichen, Eskalationen zu reduzieren und die Selbstbedienung zu verbessern . Dies baute auf der etablierten Cora-Plattform auf, die bereits Millionen von Interaktionen pro Monat verwaltete. In einem wegweisenden Schritt ging NatWest im März 2025 eine Partnerschaft mit OpenAI ein und wurde damit die erste in Großbritannien ansässige Bank, die dies tat. LLMs wurden sowohl in das kundenorientierte Cora als auch in das interne Tool Ask Archie integriert. Dadurch wurden natürliche Sprachverarbeitung für Betrugsmeldungen, personalisierte Beratung und Prozessvereinfachung möglich, während zugleich Schutzmaßnahmen für Compliance und Bias-Minderung implementiert wurden . Der Ansatz legte starken Wert auf ethische KI, mit rigorosen Tests, menschlicher Aufsicht und kontinuierlichem Monitoring, um sichere und präzise Interaktionen bei Betrugserkennung und Serviceleistungen zu gewährleisten .

Ergebnisse

  • 150 % Anstieg der Cora-Kundenzufriedenheitswerte (2024)
  • Proaktive Auflösung komplexer Anfragen ohne menschliches Eingreifen
  • Erste OpenAI-Partnerschaft einer UK-Bank, beschleunigt KI-Einführung
  • Verbesserte Betrugserkennung durch Echtzeit-Chat-Analyse
  • Millionen monatlicher Interaktionen, die autonom verarbeitet werden
  • Deutliche Reduktion der Eskalationsraten an Agenten
Fallstudie lesen →

Mastercard

Zahlungsverkehr

In der hochbrisanten Welt der digitalen Zahlungen stellten sich Card-Testing-Angriffe als kritische Bedrohung für das Mastercard-Ökosystem heraus. Betrüger setzen automatisierte Bots ein, um gestohlene Kartendaten mittels Mikrotransaktionen bei Tausenden von Händlern zu testen und damit Zugang für größere Betrugsschemata zu validieren. Traditionelle regelbasierte und klassische Machine-Learning-Systeme erkannten diese Angriffe häufig erst, nachdem erste Tests Erfolg hatten, was zu jährlichen Verlusten in Milliardenhöhe führte und legitimen Handel störte. Die Subtilität dieser Angriffe – geringwertige, hochfrequente Tests, die normales Verhalten imitieren – überforderte Legacy-Modelle, verstärkt durch den Einsatz von KI durch Betrüger, um Erkennungsmuster zu umgehen. Als die Transaktionsvolumina nach der Pandemie explodierten, stand Mastercard unter steigendem Druck, von reaktiver zu proaktiver Betrugsprävention überzugehen. Fehlalarme durch überharte Warnungen führten zu abgelehnten legitimen Transaktionen und damit zu Vertrauensverlust bei Kunden, während ausgeklügelte Methoden wie Card-Testing in Echtzeit der Erkennung entgingen. Das Unternehmen benötigte eine Lösung, die kompromittierte Karten präventiv identifizieren kann und dabei riesige Netze miteinander verbundener Transaktionen analysiert, ohne Geschwindigkeit oder Genauigkeit zu opfern.

Lösung

Mastercards Decision Intelligence (DI)-Plattform integrierte generative KI mit graphbasiertem Machine Learning, um die Betrugserkennung zu revolutionieren. Generative KI simuliert Betrugsszenarien und erzeugt synthetische Transaktionsdaten, was das Modelltraining und die Anomalieerkennung beschleunigt, indem seltene Angriffsvarianten nachgebildet werden, die in echten Daten fehlen. Die Graph-Technologie bildet Entitäten wie Karten, Händler, IP-Adressen und Geräte als miteinander verbundene Knoten ab und macht verborgene Betrugsringe sowie Ausbreitungspfade in Transaktionsgraphen sichtbar. Dieser hybride Ansatz verarbeitet Signale in bislang ungekanntem Umfang, nutzt die generative KI zur Priorisierung risikoreicher Muster und Graphen, um Beziehungen zu kontextualisieren. Über Mastercards AI Garage implementiert, ermöglicht er die Echtzeit-Bewertung des Kompromittierungsrisikos von Karten und alarmiert ausgebende Institute, bevor Betrug eskaliert. Das System bekämpft Card-Testing, indem es anomale Testcluster frühzeitig markiert. Die Einführung erfolgte mit iterativen Tests bei Finanzinstituten, wobei Mastercards globales Netzwerk für robuste Validierung genutzt wurde, gleichzeitig wurde auf Erklärbarkeit geachtet, um das Vertrauen der Emittenten zu stärken.

Ergebnisse

  • 2x schnellere Erkennung potenziell kompromittierter Karten
  • Bis zu 300% Steigerung der Effektivität der Betrugserkennung
  • Verdopplung der Rate proaktiver Benachrichtigungen über kompromittierte Karten
  • Deutliche Reduktion betrügerischer Transaktionen nach Erkennung
  • Minimierung falsch abgelehnter legitimer Transaktionen
  • Echtzeit-Verarbeitung von Milliarden von Transaktionen
Fallstudie lesen →

Walmart (Marketplace)

Einzelhandel

Im umkämpften Umfeld des Walmart Marketplace konkurrieren Drittanbieter‑Verkäufer hart um die Buy Box, die den Großteil der Verkaufsabschlüsse ausmacht . Diese Verkäufer verwalten umfangreiche Bestände, haben aber mit manuellen Preisänderungen zu kämpfen, die zu langsam sind, um mit sich schnell ändernden Wettbewerberpreisen, Nachfrageschwankungen und Markttrends Schritt zu halten. Das führt häufig zum Verlust der Buy Box, verpassten Verkaufschancen und geschwächten Gewinnmargen auf einer Plattform, auf der Preis das wichtigste Schlachtfeld ist . Zusätzlich sehen sich Verkäufer einer Datenflut gegenüber, wenn sie Tausende von SKUs überwachen, optimale Preisniveaus prognostizieren und Wettbewerbsfähigkeit gegen Profitabilität abwägen müssen. Traditionelle statische Preisstrategien versagen in diesem dynamischen E‑Commerce‑Umfeld, was zu suboptimaler Leistung und übermäßigem manuellen Aufwand führt – oft Stunden pro Tag und Verkäufer . Walmart erkannte den Bedarf an einer automatisierten Lösung, um Verkäufer zu stärken und das Plattformwachstum voranzutreiben.

Lösung

Walmart führte den Repricer ein, ein kostenloses KI‑gesteuertes automatisiertes Preiswerkzeug, das in Seller Center integriert ist und generative KI zur Entscheidungsunterstützung neben Machine‑Learning‑Modellen wie sequentieller Entscheidungsintelligenz nutzt, um Preise in Echtzeit dynamisch anzupassen . Das Tool analysiert Wettbewerberpreise, historische Verkaufsdaten, Nachfrageindikatoren und Marktbedingungen, um optimale Preise zu empfehlen und umzusetzen, die die Buy‑Box‑Berechtigung und die Verkaufsgeschwindigkeit maximieren . Ergänzend dazu liefert das Pricing Insights‑Dashboard Kontoebenen‑Metriken und KI‑generierte Empfehlungen, einschließlich vorgeschlagener Preise für Aktionen, sodass Verkäufer Chancen ohne manuelle Analyse erkennen können . Für fortgeschrittene Nutzer erweitern Drittanbietertools wie Biviar's AI repricer – im Auftrag von Walmart entwickelt – dies durch Reinforcement Learning zur profitmaximierenden täglichen Preisfindung . Dieses Ökosystem verschiebt Verkäufer von reaktiven zu proaktiven Preisstrategien.

Ergebnisse

  • 25% Steigerung der Conversion‑Raten durch dynamische KI‑Preisgestaltung
  • Höhere Buy‑Box‑Gewinnraten durch Echtzeit‑Wettbewerbsanalyse
  • Maximierte Verkaufsgeschwindigkeit für Drittanbieter im Marketplace
  • 850 Millionen Katalognachdatenverbesserungen durch GenAI (breitere Wirkung)
  • Potenzial für über 40% Conversion‑Steigerung durch KI‑gesteuerte Angebote
  • Reduzierung der manuellen Preisfindung um täglich mehrere Stunden pro Verkäufer
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Multimodale Eingaben nutzen: Händler, Text und Belegbilder kombinieren

Geminis Stärke im Finanzbereich ist die Fähigkeit, mehrere Eingabetypen gemeinsam zu interpretieren. Senden Sie für jede Aufwandszeile den Händlernamen, den Transaktionsbetrag, die Währung, die Freitextbeschreibung des Mitarbeitenden und ein Belegbild (sofern vorhanden). So kann Gemini zum Beispiel zwischen Restaurant- und Zimmerkosten eines Hotels unterscheiden oder zwischen privaten und geschäftlichen Positionen auf demselben Beleg.

Strukturieren Sie Ihre API-Payload so, dass finanzielle Metadaten von Rohtext klar getrennt sind, damit Prompts explizit darauf verweisen können. Wenn Ihr Spesentool bereits OCR-Daten aus Belegen extrahiert, übergeben Sie sowohl das Originalbild als auch den OCR-Text, damit Gemini diese korrigieren oder anreichern kann.

Beispiel-Gemini-Promptvorlage (konzeptionell):
Sie sind ein Assistent für Aufwandsklassifizierung für die Finanzabteilung.
Sie erhalten: Händler, Betrag, Datum, Beschreibung des Mitarbeitenden und ein Belegbild.

Aufgaben:
1. Schlagen Sie die wahrscheinlichste Aufwandskategorie (GL-Konto) aus dieser Liste vor: [...].
2. Schlagen Sie Kostenstelle und Projekt vor, sofern eindeutig ableitbar.
3. Markieren Sie potenzielle Richtlinienverstöße (z. B. Ausgaben am Wochenende, First-Class-Reisen).
4. Geben Sie ein JSON-Objekt mit folgenden Feldern zurück: category_code, cost_center, project,
   policy_flags[], confidence_score, reasoning.

Klassifizieren Sie nun die folgende Ausgabe:
MERCHANT (HÄNDLER): {{merchant}}
AMOUNT (BETRAG): {{amount}} {{currency}}
DATE (DATUM): {{date}}
DESCRIPTION (BESCHREIBUNG): {{description}}
RECEIPT_IMAGE (BELEGBILD): <Binärdaten oder URL>

Ausgaben mit JSON-Schemas und Konfidenzschwellen standardisieren

Für eine verlässliche Weiterverarbeitung definieren Sie ein striktes JSON-Schema für Gemini-Antworten. Legen Sie Pflichtfelder fest (z. B. category_code, confidence_score), zulässige Werte (z. B. Liste von GL-Konten) und Standardverhalten, wenn das Modell unsicher ist.

Implementieren Sie auf der konsumierenden Seite (Ihr Middleware-Layer oder Spesentool) Konfidenzschwellen. Wenn zum Beispiel confidence_score >= 0.9, wenden Sie die Klassifizierung automatisch an; bei 0.7–0.9 leiten Sie die Buchung mit der von Gemini vorbefüllten Begründung in eine Prüfwarteschlange für Controller; bei < 0.7 bleibt die Zeile „nicht zugeordnet“, aber der Vorschlag wird zur schnelleren manuellen Bearbeitung angehängt.

Erwartete Struktur der Gemini-Antwort:
{
  "category_code": "6130_TRAVEL_HOTEL",
  "cost_center": "CC_102_MKT_DE",
  "project": "PRJ_4567_CAMPAIGN_Q4",
  "policy_flags": ["WEEKEND", "NO_APPROVAL_FOUND"],
  "confidence_score": 0.92,
  "reasoning": "Händler ist eine Hotelkette, Datum passt zur Konferenz…"
}

Gemini in bestehende Spesen- und ERP-Workflows integrieren

Statt ein separates Tool zu bauen, betten Sie die Gemini-Klassifizierung in die Workflows ein, die Ihre Mitarbeitenden und Controller ohnehin nutzen. Typische Muster sind ein Middleware-Service zwischen Spesen-App und ERP oder eine API-Erweiterung innerhalb des Spesenmanagement-Systems.

Die Umsetzung könnte beispielsweise so aussehen: (1) Mitarbeitende reichen eine Spesenabrechnung wie gewohnt ein; (2) ein Webhook löst einen Gemini-API-Call mit allen Eingaben aus; (3) Middleware schreibt vorgeschlagene Kategorie, Kostenstelle und Flags in benutzerdefinierte Felder zurück; (4) Genehmigende oder Controller sehen die vorbefüllten Vorschläge und können sie annehmen oder anpassen; (5) Die finalen Daten werden ins ERP gebucht. Das minimiert Change-Management-Aufwand und beschleunigt die Einführung.

Prompts kontinuierlich mit Feedback aus dem Finanzbereich verbessern

Richten Sie einen einfachen Kreislauf ein, in dem Feedback aus dem Finanzbereich die Gemini-Performance direkt verbessert. Immer wenn ein Controller Kategorie oder Kostenstelle übersteuert, protokollieren Sie sowohl Geminis Vorschlag als auch die finale Entscheidung. Ziehen Sie diese Übersteuerungen regelmäßig als Stichprobe heran und aktualisieren Sie Ihre Prompt-Instruktionen (z. B. „Für <Händler> in Deutschland Kostenstelle X bevorzugen, außer die Beschreibung erwähnt Y“).

Selbst ohne Modell-Fine-Tuning kann iterative Prompt-Optimierung die Genauigkeit von „grob hilfreich“ auf „ausreichend gut, um die meisten Fälle zu automatisieren“ steigern. Planen Sie monatliche Prompt-Reviews mit dem Finanzbereich und Ihrem Technikteam, um Regeln zu justieren, neue Händlermuster hinzuzufügen und Richtlinienprüfungen zu verfeinern.

Snippet zur Prompt-Optimierung:
Bisherige Fehler: Taxifahrten für Kundenbesuche wurden als "interne Dienstreisen" gebucht.
Aktualisierte Anweisung:
- Wenn die Beschreibung Wörter wie "Kunde", "Customer", "Meeting" enthält
  und der Händlertyp Taxi/Fahrdienst ist, klassifizieren Sie unter
  6145_CLIENT_VISIT_TRAVEL statt 6140_INTERNAL_TRAVEL.

Gemini für Richtlinienprüfung und Anomalieerkennung nutzen

Neben der Basiskategorisierung können Sie Gemini nutzen, um Richtlinienverstöße und Anomalien in Echtzeit zu markieren. Erkennen Sie zum Beispiel First- oder Business-Class-Tarife anhand des Ticketbilds, Ausgaben an Wochenenden oder Feiertagen oder doppelt eingereichte Belege in unterschiedlichen Abrechnungen.

Gestalten Sie Prompts so, dass Gemini explizit aufgefordert wird, über Kontext zu „reasonen“: Tageszeit, Ort vs. Bürostandort des Mitarbeitenden, ungewöhnliche Beträge im Vergleich zu typischen Ausgaben für diesen Händler. Leiten Sie markierte Positionen in eine spezielle Warteschlange mit klaren Labels, damit Controller schnell entscheiden können, ob sie genehmigen, ablehnen oder weitere Informationen anfordern.

Beispiel-Snippet für Richtlinienprüfung:
Zusätzlich zur Klassifizierung prüfen Sie:
- Reiseklasse (Economy vs. Business/First) aus Ticket oder Beleg.
- Wochenend- oder Feiertagsdaten.
- Mehrere ähnliche Belege in einem kurzen Zeitraum.
Geben Sie ein "policy_flags"-Array mit Gründen zurück, z. B. [
  "BUSINESS_CLASS_FLIGHT",
  "WEEKEND_EXPENSE"
]

Kennzahlen und Dashboards zur Erfolgsmessung definieren

Um den Mehrwert zu belegen, verfolgen Sie eine kleine Auswahl an Automatisierungs-KPIs für Aufwände vor und nach der Gemini-Einführung. Gängige Kennzahlen sind: Anteil nicht zugeordneter Zeilen, durchschnittliche Zeit von Einreichung bis Buchung, manuelle Touch-Rate pro Aufwand sowie Reklassifizierungsquote nach Monatsabschluss.

Visualisieren Sie diese KPIs in Ihrem bestehenden BI- oder ERP-Reporting, idealerweise nach Fachbereich und Land. So erkennen Sie, wo das Modell gut performt, wo zusätzliches Training nötig ist und wo Prozessprobleme (nicht die KI) Verzögerungen verursachen. Nutzen Sie diese Erkenntnisse, um weitere Verbesserungen zu priorisieren und zusätzliche Investitionen in KI-gestützte Finance-Workflows zu begründen.

Pragmatisch umgesetzt sehen Finanzteams typischerweise innerhalb der ersten 2–3 Monate 30–60 % weniger nicht zugeordnete Buchungen, eine 20–40 % geringere manuelle Kontierungsarbeit und deutlich schnellere Transparenz über Ausgaben nach Kostenstelle und Projekt – genug, um einen spürbaren Unterschied bei Monatsabschluss und Budgetsteuerung zu machen.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini kombiniert Text- und Bildverständnis, um zu interpretieren, wofür eine Ausgabe tatsächlich steht. Es liest Händlernamen, Beschreibungen der Mitarbeitenden, Transaktionsbeträge und sogar Belegfotos und ordnet diese dann Ihren vordefinierten Aufwandskategorien, Kostenstellen und Projekten zu.

Statt dass Mitarbeitende eine Kategorie raten oder „Sonstiges“ wählen, schlägt Gemini in Echtzeit ein konkretes GL-Konto und eine Kontierung vor. Der Finanzbereich kann diese Vorschläge prüfen und anpassen; mit der Zeit können Sie Fälle mit hoher Konfidenz automatisiert buchen und so die Zahl der nicht zugeordneten Zeilen, die bei den Controllern landen, drastisch reduzieren.

In der Regel benötigen Sie drei Kompetenzen: (1) eine Finance-Verantwortliche oder einen Finance-Verantwortlichen, der bzw. die Ihren Kontenrahmen und Ihre Spesenrichtlinien genau kennt, (2) eine technische Ansprechperson, die mit APIs oder der Integrationsschicht Ihres Spesentools arbeiten kann, und (3) jemanden, der sich um Sicherheit, Datenschutz und Zugriffskontrolle kümmert.

Sie brauchen kein großes Data-Science-Team für den Einstieg. Ein kleines, cross-funktionales Team – Finance, IT und eine technische Person – kann in wenigen Wochen einen ersten Gemini-basierten Klassifizierungs-Piloten aufsetzen, insbesondere wenn Sie bestehende Middleware- oder iPaaS-Tools als Integrationsrückgrat nutzen.

Für einen klar abgegrenzten Use Case (z. B. Reiseaufwände) sehen Organisationen üblicherweise innerhalb von 4–8 Wochen spürbare Ergebnisse. In den ersten Wochen konfigurieren Sie Prompts, binden die API an und lassen Gemini im reinen Empfehlungsmodus parallel zu Ihrem aktuellen Prozess laufen.

Sobald der Finanzbereich mit der Qualität der Vorschläge zufrieden ist, können Sie damit beginnen, Klassifizierungen mit hoher Konfidenz automatisch zu übernehmen. Ab diesem Zeitpunkt sollten Sie eine deutliche Reduktion von nicht zugeordneten Buchungen und manueller Kontierungszeit sehen. Die Ausweitung auf weitere Ausgabenkategorien geht in der Regel schneller, da Sie das technische Fundament wiederverwenden und lediglich die finanzielle Logik anpassen.

Die Kosten haben zwei Komponenten: (1) Gemini-Nutzungskosten (API-Calls, die pro Transaktion typischerweise gering sind) und (2) Ihren einmaligen Integrations- und Change-Aufwand. Für die meisten mittelgroßen und großen Organisationen ist der Haupttreiber die interne oder externe Implementierungszeit, nicht die Modellnutzungskosten.

Der ROI entsteht durch weniger manuelle Klassifizierungsarbeit, schnelleren Monatsabschluss, weniger Reklassifizierungen und bessere Transparenz über Ausgaben (die konkrete Einsparmaßnahmen bei Reise, Einkauf und Abonnements ermöglicht). In der Praxis übersteigt bereits eine moderate Reduktion um einige FTE-Tage pro Monat, kombiniert mit vermiedenen Fehlbuchungen und besserer Ausgabensteuerung, in der Regel die laufenden Kosten für den Betrieb von Gemini.

Reruption begleitet Sie End-to-End – von der Idee bis zur funktionierenden Lösung. Mit unserem KI-PoC-Angebot (9.900 €) validieren wir zunächst, ob Gemini Ihre realen Spesendaten zuverlässig klassifizieren kann: Wir definieren den Use Case, bauen einen Prototypen, der sich mit Beispielbelegen und Buchungsdaten verbindet, und messen Genauigkeit, Geschwindigkeit und Kosten pro Lauf.

Über den PoC hinaus bedeutet unser Co-Preneur-Ansatz, dass wir eng mit Ihren Finance- und IT-Teams zusammenarbeiten, den Ziel-Workflow designen, die Gemini-Integration implementieren und bei der Einrichtung von KPIs, Monitoring und Governance unterstützen. Wir bleiben nicht bei Folien stehen – wir bauen und liefern die tatsächliche Automatisierung in Ihrer GuV, sodass nicht zugeordnete Aufwände zur Ausnahme statt zur Regel werden.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media