Die Herausforderung: Manuelle Working-Capital-Annahmen

Die meisten Finanzteams stützen ihre Cash-Flow-Prognosen immer noch auf einige wenige manuell gesetzte Annahmen: Days Sales Outstanding (DSO), Days Payables Outstanding (DPO) und Lagerumschlag. Diese Kennzahlen stehen meist in einem einzigen Tabellenblatt, werden bestenfalls einmal im Quartal aktualisiert und beeinflussen dann Entscheidungen über Millionenbeträge in Finanzierung, Investitionen und Liquidität. Das Problem: Tatsächliches Zahlungsverhalten, Lieferantenkonditionen und Lagerdynamik verändern sich wöchentlich, nicht jährlich.

Traditionelle Ansätze wurden für Stabilität gebaut, nicht für die Volatilität und Komplexität der heutigen Märkte. Tabellen mit hart codierten Working-Capital-Treibern können mit sich verändernden Kundenkohorten, Promotions, Störungen in der Lieferkette oder angepassten Skontopolitiken nicht Schritt halten. Selbst wenn Finance mehr Detailtiefe hinzufügt, resultiert dies in einer Explosion manueller Pflege, VLOOKUPs und fehleranfälliger Overrides. ERP-Reports helfen etwas, sind aber rückwärtsgewandte Momentaufnahmen und keine vorausschauenden Modelle tatsächlicher Cash-Bewegungen.

Die Auswirkungen sind erheblich. Statische DSO/DPO/Bestandsannahmen überschätzen oder unterschätzen systematisch künftige Cashflows, was zu schwacher Liquiditätsplanung, unnötigen Kreditlinien, verspäteten Reaktionen auf Liquiditätsengpässe und verpassten Investitionschancen führt. Treasury hält vorsorglich konservative Puffer vor, das operative Geschäft erhält widersprüchliche Signale zu Working-Capital-Zielen, und der CFO verbringt zu viel Zeit damit, Abweichungen in den Prognosen zu erklären, statt das Geschäft zu steuern. Wettbewerber, die schneller auf Cash-Signale reagieren, gewinnen bei Preissetzungsspielräumen, M&A-Bereitschaft und Widerstandsfähigkeit in Abschwüngen.

Diese Herausforderung ist sehr real, aber auch gut lösbar. Mit heutiger KI, insbesondere Modellen wie Gemini, integriert in Sheets und BigQuery, können Finanzteams aktuelle Zahlungspfade direkt aus Transaktionsdaten ableiten, Working‑Capital-Annahmen automatisieren und Cash-Flow-Prognosen kontinuierlich aktualisieren. Bei Reruption sehen wir, wie das Einbetten von KI in zentrale Finanz-Workflows Entscheidungs­geschwindigkeit und -qualität transformiert. In den folgenden Abschnitten finden Sie praxisnahe Hinweise, wie Sie dorthin gelangen – Schritt für Schritt, mit einem klaren Weg von Ihren heutigen Tabellen zu KI-gestützten Cash-Flow-Prognosen.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions Sicht besteht die eigentliche Chance nicht in einem glänzenden neuen Forecasting-Tool, sondern darin, Gemini auf Ihrer bestehenden Finance-Datenplattform zu nutzen, um Working‑Capital-Treiber kontinuierlich zu lernen und zu aktualisieren. Da sich Gemini nahtlos in Google Sheets und BigQuery integriert, kann es dort arbeiten, wo Ihr Finanzteam bereits aktiv ist, dynamische DSO-, DPO- und Bestandsmuster aus realen Transaktionen ableiten und diese direkt in Ihr Cash-Flow-Prognosemodell zurückspielen. Unsere praktische Erfahrung in der Entwicklung von KI-Lösungen zeigt, dass genau diese Kombination aus eingebetteter KI und Ownership durch Finance statische Annahmen in ein lebendiges, datengetriebenes System verwandelt.

Auf Business-Fragen fokussieren, nicht auf den Algorithmus

Bevor Sie über Modelle und Prompts nachdenken, definieren Sie die zentralen Entscheidungen, die Ihre Cash-Flow-Prognosen unterstützen müssen. Geht es primär darum, die Abhängigkeit von kurzfristigen Krediten zu verringern, Investitionen mit mehr Sicherheit zu planen oder Covenant-Verstöße zu vermeiden? Jedes Ziel impliziert eine andere Granularität: Eine Banken-Covenant-Sicht fokussiert vielleicht auf wöchentliche Netto-Cash-Positionen, während Investitionsplanung Szenariosimulationen über Quartale hinweg benötigt. Diese Klarheit im Vorfeld verhindert, dass Sie eine technisch beeindruckende, aber operativ irrelevante KI-Lösung bauen.

Mit Gemini ist es verlockend, allgemein nach „besseren Prognosen“ zu fragen. Strukturieren Sie Ihre Fragestellungen stattdessen etwa so: „Auf Basis unserer AR-Daten der letzten 18 Monate – wie sieht die Wahrscheinlichkeitsverteilung der Zahlungseingänge für Rechnungen >45 Tage nach Fälligkeit nach wesentlichen Kundensegmenten aus?“ Diese Denkweise stellt sicher, dass KI‑abgeleitete Working-Capital-Treiber direkt wesentliche Geschäftsfragen beantworten und nicht nur zusätzliche Zahlen liefern.

KI-gestützte DSO/DPO als lebende Policy, nicht als einmaliges Projekt behandeln

Statische DSO/DPO-Annahmen sind attraktiv, weil sie endgültig wirken. Ein KI‑gestützter Ansatz mit Gemini ist anders: Sie schaffen faktisch eine lebende Policy, die sich anpasst, wenn sich Kunden- und Lieferantenverhalten ändert. Strategisch bedeutet das, dass die Finanzführung akzeptieren muss, dass sich Working-Capital-Annahmen häufiger bewegen – und dass dies eine Stärke ist, kein Kontrollverlust.

Gestalten Sie Governance dafür von Tag eins an. Definieren Sie, wer größere Änderungen bei den von Modellen vorgeschlagenen DSO/DPO-Werten freigibt, wie häufig sie überprüft werden und wie Anpassungen an die Fachbereiche kommuniziert werden. Wenn KI-Updates als gesteuerte Policy-Anpassungen behandelt werden, vermeiden Sie die Wahrnehmung einer „Black Box“ und positionieren Gemini stattdessen als intelligente Assistenz innerhalb Ihres bestehenden Kontrollrahmens.

Daten-Ownership und Zusammenarbeit zwischen Finance und IT vorbereiten

Gemini kann nur dann hochwertige Zahlungspfade ableiten, wenn Ihre Transaktionshistorien, Stammdaten zu Kunden und Lieferantenkonditionen hinreichend vollständig und zugänglich sind. Strategisch erfordert das eine klare Aufgabenteilung zwischen Finance, IT- und Datenteams: Wer kuratiert AR/AP-Daten in BigQuery, wer steuert die Zugriffe, und wer trägt Verantwortung für Datenqualitätsprobleme, die Prognosen beeinflussen.

Nutzen Sie die Einführung von Gemini als Katalysator, um dieses Ownership zu definieren. Beispielsweise kann Finance die Segmentierungslogik verantworten (nach Region, Branche, Zahlungsziel), während IT die Pipelines nach BigQuery betreibt. Diese Aufteilung ermöglicht eine schnelle Bereitstellung von Gemini bei minimalem Sicherheits- und Compliancerisiko – Themen, die wir in jedem Reruption-Mandat priorisieren.

Mit fokussierten, geschäftskritischen Use Cases starten

Statt zu versuchen, Ihren gesamten Cash-Flow-Prognoseprozess auf einmal umzustellen, identifizieren Sie fokussierte Use Cases, in denen Gemini seinen Mehrwert schnell beweisen kann. Typische Kandidaten sind die Vorhersage von Zahlungseingängen für notorisch spät zahlende Kundensegmente, die Prognose von Auszahlungen für eine bestimmte Lieferantengruppe oder die dynamische Anpassung von DPO für kritische Lieferanten mit Skontoanreizen.

Dieser strategische Fokus reduziert Widerstände und hilft Ihrem Team, Vertrauen in KI-Ergebnisse aufzubauen. Sobald die Organisation sieht, dass Gemini beispielsweise die Prognosevarianz für ein bestimmtes AR-Portfolio signifikant senken kann, lässt sich der Ansatz deutlich leichter auf die gesamte Working-Capital-Bandbreite ausrollen.

Risikokontrollen und Stresstests rund um die KI aufbauen

Finanzverantwortliche sorgen sich zu Recht davor, sich blind auf Modelle zu verlassen. Strategisch sollte Gemini daher mit expliziten Maßnahmen zur Risikominderung eingeführt werden: Vergleichen Sie die vorgeschlagenen DSO/DPO-Werte mit den bisherigen Annahmen, definieren Sie Leitplanken (z. B. maximal zulässige Veränderung pro Monat) und bauen Sie Stresstests, die die KI-Basisannahmen bewusst herausfordern.

Sie können Gemini beispielsweise bitten, Cash-Effekte zu simulieren, wenn ein zentrales Kundensegment sein Zahlungsverhalten plötzlich um 15 Tage streckt oder ein wichtiger Lieferant seine Konditionen verschärft. So positionieren Sie KI nicht als alleinige Quelle der Wahrheit, sondern als starken Motor für Szenariodenken – etwas, mit dem sich Prüfer und Aufsichtsgremien wohler fühlen und das Ihre Kontrollen stärkt, statt sie zu schwächen.

Bewusst eingesetzt kann Gemini DSO, DPO und Bestände von statischen Spreadsheet-Inputs in dynamische, datengetriebene Hebel verwandeln, die die Genauigkeit Ihrer Cash-Flow-Prognosen spürbar verbessern. Der eigentliche Mehrwert entsteht, wenn Finance die Fragestellungen und Governance verantwortet, während die KI die Annahmen leise im Hintergrund pflegt. Reruptions Kombination aus technischer KI-Engineering-Exzellenz und Co‑Preneur-Mindset ermöglicht es uns, diese Fähigkeiten direkt in Ihre Sheets- und BigQuery-Umgebung einzubetten, sodass sie Teil Ihrer täglichen Arbeitsweise werden. Wenn Sie prüfen möchten, wie Gemini in Ihrem Kontext manuelle Working-Capital-Annahmen sauber ersetzen kann, sind wir bereit, gemeinsam mit Ihnen einen konkreten Ansatz zu co-designen und zu validieren.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Streaming‑Medien bis Bankwesen: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Netflix

Streaming‑Medien

Mit über 17.000 Titeln und weiter wachsendem Katalog stand Netflix vor dem klassischen Cold‑Start‑Problem und der Daten‑Sparsität bei Empfehlungen: Neue Nutzer oder wenig beachtete Inhalte hatten zu wenig Interaktionsdaten, was zu schlechter Personalisierung und höheren Abwanderungsraten führte . Zuschauer hatten oft Schwierigkeiten, aus Tausenden Optionen fesselnde Inhalte zu entdecken; dadurch verlängerten sich die Suchzeiten und es kam zu Desinteresse — Schätzungen zufolge gingen bis zu 75 % der Sitzungszeit für Suchen statt fürs Schauen verloren . Das riskierte Abonnentenverluste in einem hart umkämpften Streaming‑Markt, in dem Nutzerbindung deutlich günstiger ist als Neukundengewinnung. Skalierbarkeit war eine weitere Hürde: Die Bewältigung von 200M+ Abonnenten, die täglich Milliarden von Interaktionen erzeugen, erforderte die Verarbeitung von Petabytes an Daten in Echtzeit, während sich die Vorlieben der Zuschauer so schnell änderten, dass adaptive Modelle jenseits der traditionellen Grenzen des kollaborativen Filterns nötig waren — etwa im Umgang mit dem Popularitäts‑Bias, der Mainstream‑Hits bevorzugt . Frühe Systeme nach dem Netflix Prize (2006–2009) verbesserten zwar die Genauigkeit, hatten aber Probleme mit kontextuellen Faktoren wie Gerät, Uhrzeit und Stimmung .

Lösung

Netflix entwickelte ein hybrides Empfehlungssystem, das kollaboratives Filtern (CF) — angefangen bei FunkSVD und Probabilistic Matrix Factorization aus dem Netflix Prize — mit fortgeschrittenen Deep‑Learning-Modellen für Embeddings und Vorhersagen kombiniert . Zahlreiche Anwendungsmodell‑Silos wurden in ein einheitliches Multi‑Task‑Neurales Netzwerk überführt, was Leistung und Wartbarkeit verbesserte und gleichzeitig Suche, Startseite und Zeilenempfehlungen unterstützte . Wesentliche Innovationen sind kontextuelle Banditen für Exploration–Exploitation, umfangreiche A/B‑Tests an Thumbnails und Metadaten sowie inhaltsbasierte Features aus Computer Vision und Audio‑Analysen zur Abmilderung des Cold‑Starts . Echtzeit‑Inference auf Kubernetes-Clustern verarbeitet Hunderte Millionen Vorhersagen pro Nutzersitzung, personalisiert anhand von Seh‑Verlauf, Bewertungen, Pausen und sogar Suchanfragen . Die Entwicklung reichte von den Gewinneransätzen des Prize (2009) bis hin zu Transformer‑basierten Architekturen bis 2023 .

Ergebnisse

  • 80 % der Sehstunden stammen aus Empfehlungen
  • $1 Mrd.+ jährliche Einsparungen durch reduzierte Abwanderung
  • 75 % Reduktion der Zeit, die Nutzer mit Browsen statt Schauen verbringen
  • 10 % RMSE‑Verbesserung durch Netflix Prize CF‑Techniken
  • 93 % der Views stammen aus personalisierten Reihen
  • Verarbeitet Milliarden täglicher Interaktionen für 270M Abonnenten
Fallstudie lesen →

Tesla, Inc.

Automobilindustrie

Die Automobilindustrie steht vor der alarmierenden Tatsache, dass 94 % aller Verkehrsunfälle auf menschliches Versagen zurückzuführen sind — einschließlich Ablenkung, Ermüdung und Fehlentscheidungen — was weltweit über 1,3 Millionen Verkehrstote pro Jahr zur Folge hat. In den USA zeigen NHTSA‑Daten im Durchschnitt einen Unfall pro 670.000 Meilen, was den dringenden Bedarf an fortschrittlichen Fahrerassistenzsystemen (ADAS) zur Verbesserung der Sicherheit und Reduzierung von Todesfällen unterstreicht. Tesla stand vor spezifischen Hürden beim Skalieren einer rein visionbasierten Autonomie, indem Radar und LiDAR zugunsten kamerabasierter Systeme verworfen wurden, die auf KI angewiesen sind, um menschliche Wahrnehmung nachzubilden. Zu den Herausforderungen gehörten die variable KI‑Leistung unter unterschiedlichen Bedingungen wie Nebel, Nacht oder Baustellen, regulatorische Prüfungen wegen irreführender Level‑2‑Kennzeichnung trotz Level‑4‑ähnlicher Demos sowie die Gewährleistung robuster Fahrerüberwachung, um Überverlass zu verhindern. Frühere Vorfälle und Studien kritisierten die inkonsistente Zuverlässigkeit der Computer Vision.

Lösung

Teslas Autopilot und Full Self-Driving (FSD) Supervised setzen auf End-to-End Deep Learning‑Neuronale Netze, die auf Milliarden realer Meilen trainiert wurden und Kameradaten für Wahrnehmung, Vorhersage und Steuerung verarbeiten — ohne modulare Regeln. Der Übergang von HydraNet (Multi‑Task‑Learning für 30+ Outputs) zu reinen End‑to‑End‑Modellen brachte FSD v14 das Tür‑zu‑Tür‑Fahren mittels video‑basiertem Imitationslernen. Um die Herausforderungen zu meistern, skalierte Tesla die Datenerfassung über seine Flotte von über 6 Mio. Fahrzeugen und nutzte Dojo‑Supercomputer zum Training auf Petabytes an Videodaten. Der rein visionbasierte Ansatz senkt Kosten gegenüber LiDAR‑Konkurrenten; aktuelle Upgrades wie neue Kameras adressieren Randfälle. Regulatorisch zielt Tesla auf unüberwachtes FSD bis Ende 2025, wobei eine Zulassung in China für 2026 angepeilt ist.

Ergebnisse

  • Unfallrate Autopilot: 1 pro 6,36 Mio. Meilen (Q3 2025)
  • Sicherheitsfaktor: 9x sicherer als US‑Durchschnitt (670.000 Meilen/Unfall)
  • Flottendaten: Milliarden von Meilen für das Training
  • FSD v14: Tür‑zu‑Tür‑Autonomie erreicht
  • Q2 2025: 1 Unfall pro 6,69 Mio. Meilen
  • Rekord Q4 2024: 5,94 Mio. Meilen zwischen Unfällen
Fallstudie lesen →

Insilico Medicine

Biotechnologie

Der Wirkstoffentdeckungsprozess in der Biotechnologie ist berüchtigt dafür, lang und teuer zu sein, typischerweise 10–15 Jahre dauernd und 2–3 Milliarden USD pro zugelassenem Wirkstoff kostend, mit einer Fehlerrate von 90 % in klinischen Studien. Bei idiopathischer Lungenfibrose (IPF), einer fortschreitenden Lungenerkrankung mit begrenzten Behandlungsoptionen, sind die Herausforderungen noch größer: die Identifizierung neuartiger Targets inmitten komplexer Biologie, die Entwicklung wirksamer Moleküle sowie die Vorhersage von Eigenschaften wie Toxizität und Wirksamkeit erfordern enorme Datenmengen und aufwändiges Trial‑and‑Error‑Screening. Traditionelle Methoden stützen sich auf Hochdurchsatzscreening und medizinische Chemie, die jedoch bei seltenen Erkrankungen wie IPF ineffizient sind, da die Patientenzahl begrenzt ist und die Heterogenität der Krankheit den Fortschritt hemmt. Insilico stand vor der Herausforderung, die Zielidentifikation und Moleküldesign zu beschleunigen und gleichzeitig die präklinische Durchführbarkeit sicherzustellen — in einem Umfeld, das gegenüber der Zuverlässigkeit von KI in der realen Pharmawelt skeptisch war.

Lösung

Insilico setzte seine End‑to‑End‑Plattform Pharma.AI ein, die generative KI über Chemistry42 zur neuartigen Molekülgenerierung, PandaOmics zur Zielentdeckung (Deep Learning auf Multi‑Omics‑Daten) und InClinico für Trial‑Simulationen integriert. Deep‑Learning‑Modelle, trainiert auf riesigen Datensätzen, generierten 10.000+ neuartige Moleküle de novo und optimierten diese für IPF‑spezifische Targets wie TNIK. Diese KI‑getriebene Pipeline überwand manuelle Beschränkungen, indem sie ADMET‑Eigenschaften vorhersagte, Top‑Kandidaten per Robotik synthetisierte und in Tiermodellen validierte. Der Ansatz reduzierte Iterationen und ermöglichte den schnellen Fortschritt vom Target bis zur IND in 30 Monaten.

Ergebnisse

  • Zeit bis Phase I: 30 Monate (vs. 5+ Jahre traditionell)
  • Generierte Moleküle: 10.000+ neuartige Strukturen
  • Phase‑II‑Einschreibung: 70+ Patienten in mehreren Regionen
  • Kostensenkung: Geschätzt 70–80 % geringere Entdeckungskosten
  • Präklinischer Erfolg: Wirkstoff erfüllte alle Sicherheits‑/Wirksamkeitsmarker
  • Studiengeschwindigkeit: Phase II‑Start 2,5 Jahre nach Target‑Identifikation
Fallstudie lesen →

Airbus

Luft- und Raumfahrt

In der Flugzeugentwicklung sind Computational Fluid Dynamics (CFD)-Simulationen essenziell, um den Luftstrom um Tragflächen, Rümpfe und neuartige Konfigurationen vorherzusagen — entscheidend für Treibstoffeffizienz und Emissionsreduzierung. Herkömmliche hochgenaue RANS-Solver benötigen jedoch Stunden bis Tage pro Lauf auf Supercomputern, wodurch Ingenieure nur wenige Dutzend Iterationen pro Designzyklus durchführen können und die Innovationsfähigkeit für nächste Generationen wie das hydrogenbetriebene ZEROe eingeschränkt wird. Dieses Rechenengpassproblem war besonders akut im Kontext von Airbus' Vorstoß zur Dekarbonisierung der Luftfahrt bis 2035, bei dem komplexe Geometrien eine umfassende Exploration erfordern, um Auftriebs-Widerstands-Verhältnisse zu optimieren und gleichzeitig Gewicht zu minimieren. Kooperationen mit DLR und ONERA zeigten den Bedarf an schnelleren Werkzeugen auf, da manuelle Abstimmungen nicht skalieren, um die Tausenden Varianten zu testen, die für laminares Strömungsverhalten oder Blended-Wing-Body-Konzepte nötig sind.

Lösung

Maschinelle Lern-Surrogatmodelle, einschließlich physik-informierter neuronaler Netze (PINNs), wurden auf umfangreichen CFD-Datensätzen trainiert, um komplette Simulationen in Millisekunden zu emulieren. Airbus integrierte diese in eine generative Design-Pipeline, in der KI Druckfelder, Geschwindigkeiten und Kräfte vorhersagt und dabei die Navier-Stokes-Physik über hybride Verlustfunktionen zur Genauigkeit erzwingt. Die Entwicklung umfasste die Aufbereitung von Millionen von Simulations-Snapshots aus Legacy-Läufen, GPU-beschleunigtes Training und iterative Feinabstimmung mit experimentellen Windkanaldaten. Dadurch wurden schnelle Iterationen möglich: Die KI sichtet Designs, während hochauflösende CFD nur die besten Kandidaten verifiziert, wodurch der Gesamtaufwand um Größenordnungen reduziert wird und gleichzeitig ein <5% Fehler bei Schlüsselmetriken gehalten wird.

Ergebnisse

  • Simulationszeit: 1 Stunde → 30 ms (120.000x Beschleunigung)
  • Design-Iterationen: +10.000 pro Zyklus im gleichen Zeitraum
  • Vorhersagegenauigkeit: 95%+ für Auftriebs-/Widerstandskoeffizienten
  • 50% Verkürzung der Designphasenlaufzeit
  • 30–40% weniger hochauflösende CFD-Läufe erforderlich
  • Treibstoffverbrauchsoptimierung: bis zu 5% Verbesserung in Vorhersagen
Fallstudie lesen →

UPS

Logistik

UPS sah sich mit enormen Ineffizienzen bei der Zustellroutenplanung konfrontiert: Fahrer mussten eine astronomische Anzahl möglicher Routenvarianten berücksichtigen — weit mehr als die Nanosekunden seit der Entstehung der Erde. Traditionelle manuelle Planung führte zu längeren Fahrzeiten, höherem Kraftstoffverbrauch und steigenden Betriebskosten, verschärft durch dynamische Faktoren wie Verkehr, Paketaufkommen, Gelände und Kundenverfügbarkeit. Diese Probleme trieben nicht nur die Kosten in die Höhe, sondern trugen auch erheblich zu CO2‑Emissionen in einer Branche bei, die unter Druck steht, nachhaltiger zu werden. Zu den zentralen Herausforderungen gehörten Widerstand der Fahrer gegenüber neuer Technologie, die Integration in Altsysteme und die Gewährleistung von Echtzeitanpassungsfähigkeit, ohne den täglichen Betrieb zu stören. Pilotversuche zeigten Annahmehürden, da Fahrer, die an vertraute Routen gewöhnt waren, die Vorschläge der KI infrage stellten — ein Hinweis auf die menschliche Komponente bei Technikeinführungen. Die Skalierung auf 55.000 Fahrzeuge erforderte robuste Infrastruktur und die Verarbeitung von Milliarden von Datenpunkten täglich.

Lösung

UPS entwickelte ORION (On‑Road Integrated Optimization and Navigation), ein KI‑gestütztes System, das Operations Research für mathematische Optimierung mit Maschinellem Lernen für prädiktive Analysen zu Verkehr, Wetter und Zustellmustern kombiniert. Es berechnet Routen dynamisch in Echtzeit neu und berücksichtigt Paketziele, Fahrzeugkapazität, Effizienz von Rechts-/Linksabbiegungen und Stoppsequenzen, um Meilen und Zeit zu minimieren. Die Lösung entwickelte sich von statischer Planung zu dynamischer Routenführung weiter und integrierte agentenfähige KI für autonome Entscheidungsfindung. Das Training basierte auf umfangreichen Datensätzen aus GPS‑Telematik, wobei kontinuierliche ML‑Verbesserungen die Algorithmen verfeinerten. Um Akzeptanzbarrieren zu überwinden, wurden Fahrerschulungen und Gamification‑Anreize eingeführt; die Integration erfolgte nahtlos über Fahrzeuginnen‑Displays.

Ergebnisse

  • 100 Millionen Meilen jährlich eingespart
  • 300–400 Millionen $ Kosteneinsparung pro Jahr
  • 10 Millionen Gallonen Kraftstoff jährlich reduziert
  • 100.000 Tonnen CO2‑Emissionen eingespart
  • 2–4 Meilen kürzere Routen pro Fahrer täglich
  • 97 % Flotteneinführung bis 2021
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

BigQuery-AR/AP-Tabellen anbinden und eine saubere Historie aufbauen

Effektive Automatisierung von Working-Capital-Annahmen beginnt mit einer zuverlässigen Transaktionshistorie. Nutzen Sie Ihr Datenteam oder ein leichtgewichtiges ETL, um AR- und AP-Hauptbuchdaten in BigQuery zu laden: Rechnungs-IDs, Belegdatum, Fälligkeitsdatum, Zahlungsdatum, Beträge, Kunden-/Lieferanten-IDs, Währungen und Zahlungsbedingungen. Standardisieren Sie Feldnamen und stellen Sie sicher, dass Zeitstempel einheitlich formatiert sind. So erhält Gemini das Rohmaterial, um reale DSO/DPO aus Transaktionsdaten abzuleiten, statt sich auf statische Konditionstabellen zu stützen.

Sobald die Basistabellen in BigQuery liegen, erstellen Sie kuratierte Views: etwa einen View, der die Zahl-tage (days-to-pay) je Rechnung berechnet und diese mit Kundensegment, Geschäftseinheit und Region versieht. Gemini kann diese Views abfragen, um Muster zu erkennen wie „Kunden im Segment A mit 30-Tage-Ziel zahlen tatsächlich im Schnitt nach 42 Tagen“. Je besser Sie diese Views strukturieren, desto einfacher und wiederholbarer werden Ihre KI-Prompts und Workflows.

Gemini in Sheets nutzen, um dynamische DSO/DPO je Segment zu generieren

Ist die Historie aufgebaut, richten Sie ein Google Sheet ein, das aggregierte Daten aus BigQuery zieht (z. B. über Connected Sheets). Organisieren Sie Zeilen nach Kunden-/Lieferantensegment und Spalten mit Kennzahlen wie historischer durchschnittlicher Zahl-tage, wertgewichtet nach Rechnungsbetrag, über verschiedene Rückblickfenster (3, 6, 12 Monate). Nutzen Sie dann Gemini in Sheets, um diese Historie in dynamische DSO-/DPO-Annahmen für Ihr Prognosemodell zu übersetzen.

Sie können Gemini direkt in einer Zelle oder über einen Apps Script-Aufruf ansprechen. Zum Beispiel:

Beispielprompt für Gemini (Zellenkommentar oder Skript-Kontext):
Sie unterstützen ein Finanzteam bei der Working-Capital-Prognose.
Wir stellen historische Days-to-Pay-Daten nach Kundensegment bereit.
Aufgabe:
- Berechnen Sie einen empfohlenen DSO je Segment.
- Verwenden Sie eine 70/30-Gewichtung zwischen den letzten 3 Monaten und den vorangegangenen 9 Monaten.
- Markieren Sie alle Segmente, in denen sich das Verhalten im Vergleich zur letzten Prognose um >10 Tage verändert hat.
Geben Sie eine Tabelle mit folgenden Spalten zurück:
- Segment
- Empfohlener_DSO
- Änderung_gegenüber_vorheriger_Prognose
- Kommentar_zum_Treiber (z. B. Saisonalität, Ausreißerrechnungen, neue Konditionen)

Verknüpfen Sie die Spalte „Empfohlener_DSO“ direkt mit Ihrem Cash-Flow-Modell. So entfallen manuelle Updates, während die Logik für Controller und Prüfer transparent bleibt.

Zahlungseingänge und -abflüsse auf Tages-/Wochenbasis prognostizieren

Sobald DSO/DPO dynamisch sind, erweitern Sie Geminis Rolle auf die Prognose tatsächlicher Zahlungseingänge und -abflüsse. Nutzen Sie BigQuery, um erwartete Cash-Ereignisse zu generieren: jede offene Rechnung mit einem erwarteten Zahlungsdatum auf Basis der KI‑optimierten Days-to-Pay-Muster. Aggregieren Sie diese anschließend in tägliche oder wöchentliche Buckets. Gemini kann diese Projektion weiter verfeinern, indem es Saisonalität, bekannte Kampagnen oder bevorstehende Preisänderungen berücksichtigt.

Ein praxistaugliches Muster ist, die geplanten Cash-Buckets nach Sheets zu exportieren und Gemini um Verfeinerung und Kommentierung zu bitten:

Beispielprompt:
Sie helfen bei der Verfeinerung einer kurzfristigen Prognose der Zahlungseingänge.
Der Sheet-Bereich A2:E100 enthält:
- Bucket_Start_Datum
- Bucket_Ende_Datum
- Erwartete_Zahlungseingänge_Basis (EUR)
- Segment
- Historische_Zahlungseingangsvolatilität (Standardabweichung %)
Aufgaben:
1) Passen Sie Erwartete_Zahlungseingänge_Basis für bekannte Saisonalität der letzten 3 Jahre an.
2) Fügen Sie eine Spalte Anpassbare_Zahlungseingänge hinzu.
3) Fügen Sie eine Kommentar-Spalte hinzu, die größere Anpassungen (>5%) erläutert.
Gehen Sie davon aus:
- Starke Saisonalität im B2C-Geschäft rund um November–Dezember.
- Leichte Abschwächung im B2B-Geschäft im August.
Geben Sie die aktualisierte Tabelle zurück.

Spielen Sie die „Anpassbare_Zahlungseingänge“ zurück in Ihre Cash-Flow-Prognose, um einen realistischeren kurzfristigen Liquiditätsblick zu erhalten.

Bestandsbezogene Cash-Annahmen automatisieren

Bestände werden in Prognosemodellen häufig nur als grobe Annahme abgebildet. Nutzen Sie Gemini, um bestandsgetriebene Cashflows zu verfeinern, indem Sie Verkaufs-, Bestell- und Lagerbestandsdaten aus BigQuery kombinieren. Starten Sie mit einer Tabelle, die für jede Produktkategorie und Region historische Lagerreichweiten (Days of Inventory on Hand) und Bruttomargen zeigt. Bitten Sie dann Gemini, Sicherheitsbestände und Nachbestellmuster zu empfehlen, die Servicelevel und im Lager gebundenes Kapital ausbalancieren.

Zum Beispiel:

Beispielprompt:
Sie unterstützen die bestandsbezogene Cash-Flow-Prognose.
Wir stellen eine Tabelle mit folgenden Spalten bereit:
Kategorie, Region, Durchschnittliche_Lagertage, Stockout_Ereignisse, Bruttomarge.
Aufgaben:
1) Schlagen Sie ein Ziel für Lagertage (Target_Days_Inventory) je Kategorie/Region vor, das:
   - die aktuellen Durchschnittlichen_Lagertage um 10–20% reduziert, wenn Stockout_Ereignisse selten sind.
   - die Bestände beibehält oder erhöht, wenn Stockout_Ereignisse häufig und die Bruttomarge hoch ist.
2) Schätzen Sie den Cash-Effekt (in EUR) des Wechsels von aktuellen zu Ziel-Lagertagen,
   wobei die Kosten der Waren (COGS) in der Spalte COGS_pro_Tag angegeben sind.
3) Geben Sie eine Tabelle mit Target_Days_Inventory und Geschätzte_Cash_Freisetzung zurück.

Übersetzen Sie die „Geschätzte_Cash_Freisetzung“ in gestaffelte monatliche Effekte in Ihrer Cash-Flow-Prognose und stimmen Sie sich mit dem Operativgeschäft zu realistischen Umsetzungszeitleisten ab.

Alerts und Szenario-Buttons für Finance-User einbetten

Um über einmalige Analysen hinauszugehen, betten Sie Gemini in Ihr tägliches Cash-Monitoring ein. Erstellen Sie in Sheets einfache „Szenario“-Buttons (über Apps Script), die Gemini mit unterschiedlichen Annahmen aufrufen: zum Beispiel „Konjunkturabschwächung“, „Aggressive Collections“ oder „Verschärfung Lieferantenkonditionen“. Jeder Button löst eine Neuberechnung von DSO, DPO und Bestandsauswirkungen unter diesem Szenario aus und schreibt die Ergebnisse in eigene Spalten oder Tabs.

Lassen Sie Gemini außerdem Alarmberichte generieren, wenn sich Frühindikatoren verändern. Ein täglicher oder wöchentlicher Job kann BigQuery nach Verschiebungen bei Days-to-Pay oder überfälligen Buckets abfragen und Gemini um eine Risikozusammenfassung bitten:

Beispielprompt für eine automatisierte Alert-Zusammenfassung:
Sie erhalten aggregierte AR/AP-Kennzahlen für die letzte Woche im Vergleich zum Durchschnitt der vorangegangenen 4 Wochen.
Aufgaben:
1) Identifizieren Sie wesentliche Veränderungen im Zahlungsverhalten von Kunden (z. B. +5 Tage in einem großen Segment).
2) Identifizieren Sie Lieferanten, bei denen sich das durchschnittliche Zahlungszeitpunkt-Profil verschoben hat.
3) Fassen Sie das Cash-Risiko bzw. die Cash-Chance für die nächsten 8 Wochen zusammen.
4) Nennen Sie 3 konkrete Maßnahmen für das Finanzteam.
Geben Sie eine kurze E-Mail-ähnliche Zusammenfassung aus.

Senden Sie diese Zusammenfassung an Treasury und CFO, sodass die KI kontinuierlich aufzeigt, wo Working-Capital-Annahmen sich von der Realität entfernen.

KPIs tracken, um die KI-gestützte Prognose zu validieren und zu justieren

Damit Gemini ein vertrauenswürdiger Bestandteil Ihrer Liquiditätsplanung wird, definieren und überwachen Sie eine kleine Anzahl an KPIs. Mindestens sollten Sie messen: Prognosefehler für Netto-Cash je Woche, Prognosefehler für Zahlungseingänge nach wesentlichen Segmenten sowie die Abweichung zwischen KI‑empfohlenen und tatsächlich realisierten DSO/DPO. Nutzen Sie BigQuery, um diese KPIs automatisch zu berechnen und Zeitreihen für Trendanalysen zu speichern.

Binden Sie Gemini regelmäßig ein, um diese KPI-Reihen zu analysieren und Modellanpassungen vorzuschlagen – etwa andere Rückblickfenster, zusätzliche Kundensegmente oder den Ausschluss bekannter Einmaleffekte. Im Zeitverlauf sollten Sie sehen, dass die Prognosevarianz sinkt und der Bedarf an manuellen Overrides abnimmt. Viele Organisationen können realistisch 20–40% Verbesserung in der kurzfristigen Cash-Flow-Prognosegenauigkeit und eine deutliche Reduzierung des Aufwands zur Pflege manueller Annahmen erreichen, sobald diese Vorgehensweisen etabliert sind.

Erwartetes Ergebnis: ein reaktionsfähigerer Cash-Flow-Prozess, weniger Notfall-Liquiditätsmaßnahmen und ein Finanzteam, das weniger Zeit mit dem „Massieren“ von Annahmen und mehr Zeit mit der Nutzung früher Cash-Signale verbringt.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini verbessert DSO- und DPO-Annahmen, indem es direkt aus Ihrer Transaktionshistorie lernt, anstatt sich auf statische Durchschnittswerte zu stützen. Mithilfe von BigQuery-Daten analysiert es Rechnungsdatum, Fälligkeitsdatum, Zahlungsdatum sowie Kunden- oder Lieferantensegmente, um reale Zahlungspfade über verschiedene Zeitfenster hinweg abzuleiten. Anschließend kann es segmentspezifische DSO-/DPO-Werte empfehlen, auf zeigen, wo sich Verhalten zuletzt verändert hat, und diese Empfehlungen direkt zurück in die Google Sheets schreiben, in denen Ihr Cash-Flow-Modell lebt.

In der Praxis bedeutet dies, dass Ihre Annahmen das aktuelle Verhalten kontinuierlich widerspiegeln – etwa wenn ein wichtiges Kundensegment plötzlich 7 Tage später zahlt oder Sie systematisch Zahlungen an einen weniger kritischen Lieferanten strecken. Das Finanzteam behält die Kontrolle, aber der manuelle Tabellenaufwand und das Rätselraten entfallen weitgehend.

Sie benötigen kein großes Data-Science-Team, um Gemini im Finanzbereich sinnvoll zu nutzen, aber einige Fähigkeiten sind wichtig. Erstens brauchen Sie Zugriff auf strukturierte AR-/AP-, Verkaufs- und Lieferantenkonditionsdaten – idealerweise in BigQuery oder einem ähnlichen Data Warehouse. Zweitens benötigen Sie jemanden, der sich mit Google Sheets wohlfühlt (Controller, FP&A- oder Treasury-Analysten sind meist geeignet) und mit Connected Sheets sowie grundlegenden Formeln umgehen kann.

Ab diesem Punkt übernimmt Geminis natürliche Sprachschnittstelle einen Großteil der Arbeit. Für weitergehende Automatisierung und geplante Läufe hilft leichte Unterstützung durch IT oder einen Data Engineer – etwa für das Aufsetzen von Datenpipelines, Skripten und Zugriffskonzepten. Reruption arbeitet typischerweise direkt mit Finance und einem technischen Counterpart zusammen, um schnell eine lauffähige Lösung bereitzustellen und anschließend das Finanzteam zu befähigen, den Prozess zu übernehmen.

Die Zeit hängt von Ihrer Datenreife ab, aber viele Organisationen sehen spürbare Verbesserungen in der Genauigkeit ihrer Cash-Flow-Prognosen innerhalb von 6–10 Wochen. Die ersten 2–3 Wochen entfallen typischerweise auf das Anbinden der AR-/AP-Daten an BigQuery, das Beheben offensichtlicher Qualitätsprobleme und die Definition der für Ihr Geschäft relevanten Segmentierung (z. B. Regionen, Kundentypen, zentrale Lieferantengruppen).

Die Wochen 3–6 reichen meist aus, um Gemini in Sheets zu implementieren, KI‑gestützte DSO-/DPO-Annahmen zu generieren und diese in Ihr bestehendes Prognosemodell einzubetten. Ab dann können Sie mit dem Tracking von Abweichungen und dem Feintuning des Ansatzes beginnen. Fortgeschrittenere Use Cases – wie automatisierte Szenariosimulationen oder bestandsbezogene Cash-Modelle – lassen sich in den folgenden Monaten ergänzen, ohne den Kernprozess zu stören.

Aus Tool-Sicht sind die Kosten von Gemini im Vergleich zum finanziellen Effekt einer besseren Working-Capital-Steuerung relativ moderat. Die Hauptinvestitionen liegen in der Zeit, die für die Datenanbindung und die Neugestaltung einzelner Schritte im Forecasting-Workflow erforderlich ist. Der ROI entsteht in der Regel aus drei Bereichen: weniger Überraschungen bei der kurzfristigen Liquidität (und damit geringerer Notfall-Krediteinsatz), niedrigere Liquiditätspuffer dank verlässlicherer Prognosen und Produktivitätsgewinne durch den Wegfall manueller Annahmenpflege.

Die genauen Werte hängen von Größe und Branche Ihres Unternehmens ab, aber häufig lassen sich Prognoseabweichungen um 20–40% reduzieren und messbare Absenkungen des im Working Capital gebundenen Kapitals bereits im ersten Jahr erreichen. Wir empfehlen, die erste Implementierung als fokussierten Piloten mit klaren KPIs anzulegen, damit Sie den ROI quantifizieren können, bevor Sie breiter ausrollen.

Reruption unterstützt Sie End-to-End – von der Definition des Use Cases bis zur Auslieferung einer produktiv nutzbaren Lösung. Mit unserem AI-PoC-Angebot (9.900€) validieren wir zunächst, dass Gemini aus Ihren vorhandenen Daten DSO, DPO und zentrale Working-Capital-Treiber zuverlässig ableiten kann – einschließlich Modellauswahl, Architektur und Performancekennzahlen. Sie erhalten einen funktionsfähigen Prototypen, der auf Ihrem Google-Sheets-/BigQuery-Stack läuft, nicht nur ein Folienset.

Über den PoC hinaus bedeutet unser Co-Preneur-Ansatz, dass wir uns wie Co-Founder an Ihre Finanz- und Datenteams andocken: Wir gestalten Governance, automatisieren Workflows, richten Risikokontrollen ein und schulen Ihre Mitarbeitenden, damit sie den KI-gestützten Forecasting-Prozess selbst verantworten können. Unser Fokus liegt auf schneller Umsetzung und messbaren Ergebnissen, damit Gemini zu einer dauerhaften Fähigkeit in Ihrer Cash-Flow-Prognose wird – und nicht zu einem einmaligen Experiment.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media