Die Herausforderung: Unzuverlässige kurzfristige Prognosen

Für viele Finanzteams wird die kurzfristige Liquiditätsplanung immer noch von statischen Tabellen, manuellen Updates und groben Durchschnitten bestimmt. Das Ergebnis ist ein unscharfer Blick auf die nächsten 7–30 Tage: Sie sehen Gesamttendenzen, aber nicht die täglichen Schwankungen bei Ein- und Auszahlungen, die tatsächlich bestimmen, ob Sie Lieferanten, Gehälter oder Steuern bezahlen können, ohne in letzter Minute nach Finanzierung suchen zu müssen.

Traditionelle Ansätze scheitern daran, dass sie die Komplexität und Geschwindigkeit moderner Zahlungsströme ignorieren. Wöchentliche Tabellen können mit sich ändernden Zahlungsverhalten, Saisonalität, Ad-hoc-Inkassos und variablen Lieferantenkonditionen nicht Schritt halten. Einfache Durchschnitte erfassen Muster wie „Freitage sind starke Auszahltage“ oder „Monatsendrabatte ziehen Liquidität früher rein“ nicht. Und wenn zugrunde liegende ERP-, Bank- und Vertriebssysteme voneinander isoliert sind, verbringen Analysten ihre Zeit mit Datenabgleichen statt mit der Verbesserung des Prognosemodells.

Die geschäftlichen Auswirkungen sind deutlich spürbar. Unzuverlässige kurzfristige Prognosen führen zu Finanzierungslücken in letzter Minute, einer stärkeren Abhängigkeit von teuren Kreditlinien und einer suboptimalen Nutzung überschüssiger Liquidität. Das Treasury verliert die Möglichkeit, bessere Konditionen zu sichern, weil das Vertrauen in die prognostizierten Positionen fehlt. Operative Teams werden von Zahlungssperren überrascht. Das Management verliert das Vertrauen in die Zahlen, sodass jede größere Zahlung zur Eskalation wird und das Geschäft ausbremst. Langfristig untergräbt das sowohl Marge als auch Glaubwürdigkeit.

Die gute Nachricht: Diese Herausforderung ist real, aber sie ist lösbar. Mit der richtigen Datenbasis und KI-Modellen können Sie von statischen Tabellen zu rollierenden, szenariobasierten Liquiditätsprognosen wechseln, die sich mit neuen Informationen automatisch aktualisieren. Bei Reruption haben wir Organisationen dabei unterstützt, fragile, manuelle Workflows durch KI-first-Tools in Finance und anderen datenintensiven Domänen zu ersetzen. Im Folgenden zeigen wir, wie Sie Googles Gemini zusammen mit BigQuery und Sheets nutzen können, um Ihre kurzfristigen Prognosen zu stabilisieren und Stakeholdern klare, nachvollziehbare Einblicke statt böser Überraschungen zu liefern.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions Sicht sind unzuverlässige kurzfristige Prognosen in erster Linie ein Daten- und Workflow-Problem, nicht nur ein mathematisches Problem. Wir haben in mehreren KI-Implementierungen gesehen, dass Modelle wie Gemini eine starke Schicht aus Mustererkennung und Erklärung hinzufügen können, sobald Sie Transaktionshistorien, ERP-Daten und Vertriebspipelines in eine saubere Struktur bringen. Die Chance besteht nicht nur darin, Liquiditätspositionen genauer vorherzusagen, sondern diese Vorhersagen in umsetzbare Handlungsempfehlungen für Finanzteams innerhalb der bereits genutzten Tools wie BigQuery und Google Sheets zu übersetzen.

In Systemen denken, nicht in einzelnen Prognosedateien

Die meisten unzuverlässigen Prognosen sind Symptome eines fragmentierten Systems: verschiedene Datenquellen, inkonsistente Aktualisierungszyklen und Excel-Dateien auf persönlichen Laufwerken. Bevor Sie KI auf das Problem loslassen, definieren Sie das End-to-End-Liquiditätsprognosesystem, das Sie tatsächlich benötigen: welche Quellen es speisen, wie oft sie aktualisiert werden, wie Prognosen erzeugt werden und wie Stakeholder diese konsumieren.

Strategisch bedeutet das, von „der Tabelle, die Serge vor drei Jahren gebaut hat“ zu einer wiederholbaren Prognose-Pipeline zu wechseln. Gemini wird dann zu einer Komponente in dieser Pipeline: Es kann aggregierte Daten aus BigQuery aufnehmen, rollierende Prognosen erzeugen und Ergebnisse plus erklärende Texte in Sheets oder Dashboards schreiben. Wenn Sie zuerst das System designen, vermeiden Sie es, eine clevere KI auf unzuverlässige Eingabedaten zu setzen.

Datenfundament vorbereiten, bevor Sie KI skalieren

KI-Modelle wie Gemini benötigen strukturierte, ausreichend bereinigte Daten, um vertrauenswürdige kurzfristige Prognosen zu liefern. Das bedeutet nicht, dass Sie ein mehrjähriges Data-Lake-Projekt abschließen müssen, aber Sie brauchen eine Einigung auf grundlegende Datendisziplin: konsistente Transaktionszeitstempel, gemappte Kunden- und Lieferanten-IDs, klare Kategorisierung von Ein- und Auszahlungen und eine verlässliche Anbindung an Ihre Vertriebspipeline oder Ihren Auftragsbestand.

Aus strategischer Perspektive sollten Sie in BigQuery ein minimales, aber robustes Datenmodell definieren, das Ihre liquiditätsrelevanten Ereignisse erfasst: Banktransaktionen, AP/AR-Pläne, erwartete Zahlungseingänge und geplante Auszahlungen. Hier kommt die technische Tiefe von Reruption ins Spiel – wir helfen Kunden, schnell ein schlankes Schema und ETL-Flows zu entwerfen, die „gut genug“ für KI-Prognosen sind. Damit vermeiden Sie die häufige Falle, Gemini für Fehler verantwortlich zu machen, die in Wahrheit aus fehlenden oder inkonsistenten Quelldaten stammen.

Gemini als Copilot für Finance positionieren, nicht als Black Box

Finanzteams werden einem Modell nicht vertrauen, das einfach nur eine Zahl für „Liquiditätsbestand in 14 Tagen“ ausspuckt, ohne Kontext zu liefern. Strategisch sollten Sie Gemini-gestützte Liquiditätsprognosen als Copilot positionieren, der sowohl vorhersagt als auch erklärt. Lassen Sie das Modell Treiber hervorheben: Verschiebungen bei durchschnittlichen Zahlungszielen, ungewöhnliche Lieferantenzahlungen, saisonale Muster und Ausnahme-Transaktionen.

Dieser Mindset-Wechsel ist entscheidend für die Akzeptanz. Statt Ihr Treasury- oder FP&A-Team zu ersetzen, verstärkt Gemini deren Arbeit: Es macht Anomalien sichtbar, baut Alternativszenarien und erzeugt verständlich formulierte Erläuterungen, die Finanzverantwortliche kritisch hinterfragen, verfeinern und präsentieren können. Wenn Menschen verstehen, dass sie die Entscheidungsgewalt behalten, werden sie zu Verbündeten bei der kontinuierlichen Verbesserung des Modells.

Treasury, FP&A und IT auf klare Use Cases ausrichten

Die kurzfristige Liquiditätsprognose berührt mehrere Teams: Das Treasury verantwortet Bankpositionen, FP&A die Planungsannahmen und IT die Dateninfrastruktur. Ohne Abstimmung bleibt Ihre Gemini-Initiative in Übergaben und Governance-Diskussionen stecken. Strategisch sollten Sie mit einem klar zugeschnittenen Use Case starten, etwa „7–21-tägige rollierende Liquiditätsprognose mit täglicher Aktualisierung und Alerts bei erwarteten Unterdeckungen“.

Bringen Sie die relevanten Stakeholder zusammen, um sich auf Definitionen zu einigen (was als liquiditätsrelevant gilt), zulässige Fehlerspannen und den ersten Satz von Alerts oder Berichten, die Gemini erzeugen soll. Diese frühzeitige Abstimmung reduziert Nacharbeit, hält IT auf die wesentlichen Integrationen fokussiert und stellt sicher, dass die Prognoseergebnisse den tatsächlichen Entscheidungsbedarf treffen – etwa: „Ziehen wir nächste Woche die Kreditlinie oder nicht?“.

Risiko mit transparenten Metriken und gestuftem Rollout steuern

Jeder Wechsel von Tabellen-Durchschnitten zu KI-gestützten Liquiditätsprognosen bringt Veränderungsrisiken mit sich. Behandeln Sie dies als kontrolliertes Experiment, nicht als Big-Bang-Ablösung. In der ersten Phase lassen Sie Geminis Prognosen parallel zu Ihrem bestehenden Prozess laufen und vergleichen Genauigkeit, Stabilität und Vorwarnzeit beim Erkennen von Unterdeckungen.

Definieren Sie Transparenzmetriken, die für die Finanzleitung relevant sind: Prognosefehler nach Horizont, Anzahl der Vorwarntage vor einem Liquiditätsengpass und den Anteil der noch notwendigen manuellen Anpassungen. Nutzen Sie diese Metriken, um zu entscheiden, wann Sie den KI-Einsatz ausweiten (weitere Einheiten, Währungen, Datenquellen). Ein gestufter Rollout mit klaren KPIs hält das Risiko beherrschbar und gibt Ihrem Team Vertrauen, sich stärker auf die KI-Ergebnisse zu stützen.

Richtig eingesetzt geht es bei Gemini weniger um ausgefallene Modelle, sondern darum, ein zuverlässiges, erklärbares System für kurzfristige Liquiditätsprognosen aufzubauen, dem Finanzteams tatsächlich vertrauen. Durch die Kombination aus sauberen Transaktionsdaten in BigQuery, vertrauten Oberflächen wie Sheets und Geminis Fähigkeit, Muster zu erkennen und Erläuterungen zu generieren, können Sie Überraschungen reduzieren und Ihre Kreditlinien bewusster nutzen. Reruption arbeitet Hands-on mit Kunden zusammen, um diese Architektur zu designen, die Integrationen zu bauen und sie in die täglichen Finanz-Workflows einzubetten – wenn Sie ein solches Setup in Erwägung ziehen, sprechen wir gerne darüber, ob ein fokussiertes PoC oder Pilotprojekt für Ihr Team sinnvoll wäre.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Gesundheitswesen bis Bankwesen: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Pfizer

Gesundheitswesen

Die COVID-19-Pandemie erforderte beispiellose Geschwindigkeit in der Wirkstoffentwicklung, da traditionelle Zeiträume für antivirale Mittel von der Entdeckung bis zur Zulassung typischerweise 5–10 Jahre betrugen. Pfizer stand unter enormem Druck, potente, orale Inhibitoren gegen die SARS-CoV-2-Hauptprotease (Mpro) zu identifizieren, die für die virale Replikation entscheidend ist. Konventionelles strukturbasiertes Design beruhte auf arbeitsintensiver Kristallographie, Molekulardynamik-Simulationen und iterativer chemischer Synthese und war oft durch langsame Trefferidentifikation und Optimierungszyklen ausgebremst. Zu den zentralen Herausforderungen gehörten die Erzeugung hochwertiger Protein-Ligand-Strukturen, die genaue Vorhersage von Bindungsaffinitäten und das Design neuartiger Moleküle, die Resistenzmechanismen entgehen — und das alles unter extremen Zeitdruck. Mit weltweit stark ansteigenden Fallzahlen konnten Verzögerungen Millionen von Leben kosten, weshalb beschleunigte Rechenpipelines ohne Abstriche bei Sicherheit oder Wirksamkeit dringend nötig waren.

Lösung

Pfizer setzte Machine-Learning-(ML)-Modelle ein, die in strukturbasierte Wirkstoffdesign-Workflows integriert wurden, um diese Hürden zu überwinden. ML-Algorithmen analysierten Kryo-EM- und Röntgen-Proteinstrukturen von Mpro und ermöglichten schnelle virtuelle Screenings von Millionen von Verbindungen sowie die generative Gestaltung optimierter Inhibitoren. Ergänzt wurde dies durch KI-gestützte Molekulardynamik und Free-Energy-Perturbation-Berechnungen, die die Simulationszeiten drastisch verkürzten. Der Ansatz umfasste hybride ML-Physik-Modelle zur Vorhersage von Bindungsposen und Affinitätsbewertung, trainiert an umfangreichen Datensätzen aus Pfizers Bibliotheken. Iterative Design-Make-Test-Analyze-(DMTA)-Zyklen wurden beschleunigt, wobei KI die Priorisierung von Synthesen übernahm und experimentelle Iterationen reduzierte, indem sie sich auf Kandidaten mit hohem Potenzial konzentrierte.

Ergebnisse

  • Entwicklungszeitraum: 4 Monate von Trefferfindung bis präklinischer Kandidat
  • Beschleunigung der computergestützten Chemie: 80–90% Reduktion der Prozesszeit
  • Trefferidentifikation: Über 100 Mio. Verbindungen virtuell in Tagen gescreent
  • Erfolg in klinischen Studien: Gesamtquote 12% gesteigert durch KI-Priorisierung
  • Paxlovid-Wirksamkeit: 89% Reduktion des Risikos für Hospitalisierung/Tod
Fallstudie lesen →

Morgan Stanley

Bankwesen

Finanzberater bei Morgan Stanley hatten Schwierigkeiten, schnell auf die umfangreiche proprietäre Forschungsdatenbank des Unternehmens zuzugreifen, die über 350.000 Dokumente und Jahrzehnte institutionellen Wissens umfasst. Manuelle Recherchen in diesem riesigen Archiv waren zeitraubend und dauerten oft 30 Minuten oder länger pro Anfrage, was die Fähigkeit der Berater einschränkte, während Kundengesprächen zeitnahe, personalisierte Beratung zu liefern . Dieser Engpass begrenzte die Skalierbarkeit in der Vermögensverwaltung, in der vermögende Kunden sofort datenbasierte Einblicke in volatilen Märkten erwarten. Zudem erschwerte das schiere Volumen unstrukturierter Daten — 40 Millionen Wörter an Forschungsberichten — die schnelle Synthese relevanter Informationen, was suboptimale Empfehlungen und geringere Kundenzufriedenheit zur Folge haben konnte. Die Berater benötigten eine Lösung, um den Zugang zu dieser Wissensquelle zu demokratisieren, ohne umfangreiche Schulungen oder technische Vorkenntnisse .

Lösung

Morgan Stanley arbeitete mit OpenAI zusammen, um AI @ Morgan Stanley Debrief zu entwickeln, einen auf GPT-4 basierenden generativen KI-Chatbot, der speziell für Vermögensverwaltungsberater zugeschnitten ist. Das Tool verwendet retrieval-augmented generation (RAG), um sicher und kontextbewusst Abfragen in der proprietären Forschungsdatenbank durchzuführen und sofortige, quellenbasierte Antworten zu liefern . Als konversationeller Assistent implementiert, ermöglicht Debrief Beratern, natürliche Fragen wie ‚Was sind die Risiken bei Investitionen in AI-Aktien?‘ zu stellen und synthetisierte Antworten mit Zitaten zu erhalten — ohne manuelle Suche. Strenge KI-Evaluationen und menschliche Aufsicht sorgen für Genauigkeit; das Modell wurde zudem feingetunt, um sich an Morgan Stanleys institutionelles Wissen anzupassen . Dieser Ansatz löste Datensilos auf und ermöglichte eine nahtlose Integration in die Arbeitsabläufe der Berater.

Ergebnisse

  • 98% Akzeptanzrate bei Vermögensverwaltungsberatern
  • Zugriff für nahezu 50% der gesamten Mitarbeitenden von Morgan Stanley
  • Anfragen werden in Sekunden statt in über 30 Minuten beantwortet
  • Mehr als 350.000 proprietäre Forschungsdokumente indexiert
  • 60% Mitarbeiterzugriff bei Wettbewerbern wie JPMorgan zum Vergleich
  • Signifikante Produktivitätssteigerungen laut Chief Administrative Officer
Fallstudie lesen →

Walmart (Marketplace)

Einzelhandel

Im umkämpften Umfeld des Walmart Marketplace konkurrieren Drittanbieter‑Verkäufer hart um die Buy Box, die den Großteil der Verkaufsabschlüsse ausmacht . Diese Verkäufer verwalten umfangreiche Bestände, haben aber mit manuellen Preisänderungen zu kämpfen, die zu langsam sind, um mit sich schnell ändernden Wettbewerberpreisen, Nachfrageschwankungen und Markttrends Schritt zu halten. Das führt häufig zum Verlust der Buy Box, verpassten Verkaufschancen und geschwächten Gewinnmargen auf einer Plattform, auf der Preis das wichtigste Schlachtfeld ist . Zusätzlich sehen sich Verkäufer einer Datenflut gegenüber, wenn sie Tausende von SKUs überwachen, optimale Preisniveaus prognostizieren und Wettbewerbsfähigkeit gegen Profitabilität abwägen müssen. Traditionelle statische Preisstrategien versagen in diesem dynamischen E‑Commerce‑Umfeld, was zu suboptimaler Leistung und übermäßigem manuellen Aufwand führt – oft Stunden pro Tag und Verkäufer . Walmart erkannte den Bedarf an einer automatisierten Lösung, um Verkäufer zu stärken und das Plattformwachstum voranzutreiben.

Lösung

Walmart führte den Repricer ein, ein kostenloses KI‑gesteuertes automatisiertes Preiswerkzeug, das in Seller Center integriert ist und generative KI zur Entscheidungsunterstützung neben Machine‑Learning‑Modellen wie sequentieller Entscheidungsintelligenz nutzt, um Preise in Echtzeit dynamisch anzupassen . Das Tool analysiert Wettbewerberpreise, historische Verkaufsdaten, Nachfrageindikatoren und Marktbedingungen, um optimale Preise zu empfehlen und umzusetzen, die die Buy‑Box‑Berechtigung und die Verkaufsgeschwindigkeit maximieren . Ergänzend dazu liefert das Pricing Insights‑Dashboard Kontoebenen‑Metriken und KI‑generierte Empfehlungen, einschließlich vorgeschlagener Preise für Aktionen, sodass Verkäufer Chancen ohne manuelle Analyse erkennen können . Für fortgeschrittene Nutzer erweitern Drittanbietertools wie Biviar's AI repricer – im Auftrag von Walmart entwickelt – dies durch Reinforcement Learning zur profitmaximierenden täglichen Preisfindung . Dieses Ökosystem verschiebt Verkäufer von reaktiven zu proaktiven Preisstrategien.

Ergebnisse

  • 25% Steigerung der Conversion‑Raten durch dynamische KI‑Preisgestaltung
  • Höhere Buy‑Box‑Gewinnraten durch Echtzeit‑Wettbewerbsanalyse
  • Maximierte Verkaufsgeschwindigkeit für Drittanbieter im Marketplace
  • 850 Millionen Katalognachdatenverbesserungen durch GenAI (breitere Wirkung)
  • Potenzial für über 40% Conversion‑Steigerung durch KI‑gesteuerte Angebote
  • Reduzierung der manuellen Preisfindung um täglich mehrere Stunden pro Verkäufer
Fallstudie lesen →

PepsiCo (Frito-Lay)

Lebensmittelproduktion

Im schnelllebigen Bereich der Lebensmittelproduktion kämpfte die Frito-Lay-Sparte von PepsiCo mit ungeplanten Maschinenstillständen, die die hochvolumigen Produktionslinien für Snacks wie Lay's und Doritos störten. Diese Linien laufen rund um die Uhr, wobei bereits kurze Ausfälle Tausende Dollar pro Stunde an verlorener Kapazität kosten können — Branchenschätzungen beziffern durchschnittliche Ausfallkosten in der Fertigung auf $260.000 pro Stunde . Verderbliche Zutaten und Just-in-Time‑Lieferketten verstärkten die Verluste und führten zu hohen Wartungskosten durch reaktive Reparaturen, die 3–5‑mal teurer sind als geplante Eingriffe . Frito-Lay‑Werke hatten häufig Probleme mit kritischen Anlagen wie Kompressoren, Förderbändern und Fritteusen, bei denen Mikrostillstände und größere Ausfälle die Gesamtanlageneffektivität (OEE) schwächten. Die Erschöpfung der Mitarbeiter durch verlängerte Schichten verschärfte die Risiken, wie Berichte über anstrengende 84‑Stunden‑Wochen zeigen, was die Maschinen zusätzlich belastete . Ohne vorausschauende Einsichten stützten sich Wartungsteams auf Zeitpläne oder Ausfälle, was zu verlorener Produktionskapazität und der Unfähigkeit führte, Nachfragespitzen zu bedienen.

Lösung

PepsiCo implementierte vorausschauende Instandhaltung (Predictive Maintenance) auf Basis von Maschinellem Lernen in Frito-Lay‑Werken und nutzte dabei Sensordaten von IoT‑Geräten an Anlagen, um Ausfälle Tage bis Wochen im Voraus vorherzusagen. Modelle analysierten Schwingungen, Temperatur, Druck und Nutzungsprofile und setzten Algorithmen wie Random Forests sowie Deep Learning zur Zeitreihenprognose ein . In Partnerschaft mit Cloud‑Plattformen wie Microsoft Azure Machine Learning und AWS baute PepsiCo skalierbare Systeme, die Echtzeitdatenströme für Just‑in‑Time‑Wartungswarnungen integrierten. Dadurch verlagerte sich die Strategie von reaktiv zu proaktiv, Wartungen wurden in periodisch niedrig ausgelastete Zeiten gelegt und Unterbrechungen minimiert . Die Umsetzung begann mit Pilotversuchen in ausgewählten Werken vor dem unternehmensweiten Rollout und überwand Datensilos durch fortgeschrittene Analytik .

Ergebnisse

  • 4.000 zusätzliche Produktionsstunden pro Jahr gewonnen
  • 50 % Reduktion ungeplanter Ausfallzeiten
  • 30 % Senkung der Wartungskosten
  • 95 % Genauigkeit bei Ausfallvorhersagen
  • 20 % Steigerung der Gesamtanlageneffektivität (OEE)
  • Über 5 Mio. $ jährliche Einsparungen durch optimierte Reparaturen
Fallstudie lesen →

Ooredoo (Qatar)

Telekommunikation

Ooredoo Qatar, Qatars führender Telekommunikationsanbieter, hatte mit den Ineffizienzen manueller Optimierung und Fehlerbehebung im Radio Access Network (RAN) zu kämpfen. Mit der Beschleunigung des 5G-Ausbaus erwiesen sich traditionelle Methoden als zeitaufwendig und nicht skalierbar , sie konnten die steigenden Datenanforderungen nicht effizient bewältigen, die nahtlose Konnektivität gewährleisten oder hohe Nutzererlebnisse inmitten komplexer Netzdynamiken aufrechterhalten . Leistungsprobleme wie abgebrochene Gespräche, schwankende Datenraten und suboptimale Ressourcenallokation erforderten ständige manuelle Eingriffe, trieben die Betriebskosten (OpEx) in die Höhe und verzögerten Problemlösungen. Da Qatars nationale Digitalisierungsagenda fortgeschrittene 5G-Fähigkeiten forderte, benötigte Ooredoo einen proaktiven, intelligenten Ansatz für das RAN-Management, ohne die Netzzuverlässigkeit zu gefährden .

Lösung

Ooredoo ging eine Partnerschaft mit Ericsson ein, um die cloud-native Ericsson Cognitive Software auf Microsoft Azure bereitzustellen, die einen digitalen Zwilling des RAN mit Deep Reinforcement Learning (DRL) für KI-gesteuerte Optimierung kombiniert . Diese Lösung erstellt eine virtuelle Netzreplik, um Szenarien zu simulieren, umfangreiche RAN-Daten in Echtzeit zu analysieren und proaktive Tuning-Empfehlungen zu erzeugen . Die Suite der Ericsson Performance Optimizers wurde 2022 in einer Pilotphase getestet und entwickelte sich bis 2023 zur vollständigen Bereitstellung, wodurch automatisierte Problemlösungen und Leistungsverbesserungen ermöglicht wurden, die sich nahtlos in Ooredoos 5G-Infrastruktur integrieren ließen . Kürzliche Erweiterungen umfassen Energieeinsparungs-PoCs, die KI weiter für nachhaltigen Betrieb nutzen .

Ergebnisse

  • 15% Reduktion des Funkleistungsverbrauchs (Energy Saver PoC)
  • Proaktive RAN-Optimierung verkürzt Fehlerbehebungszeiten
  • Hohe Nutzererfahrung während der Energieeinsparungen beibehalten
  • Reduzierte Betriebskosten durch automatisierte Problemlösungen
  • Verbessertes 5G-Abonnentenerlebnis mit nahtloser Konnektivität
  • 10% Zuwachs der spektralen Effizienz (Ericsson AI RAN Benchmarks)
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Liquiditätsrelevante Daten in BigQuery zentralisieren

Bevor Sie Gemini einbinden, sollten Sie Ihre liquiditätsrelevanten Daten in einer einzigen, abfragbaren Quelle konsolidieren – typischerweise BigQuery. Laden Sie mindestens: Banktransaktions-Feeds, Fälligkeitspläne für Debitoren und Kreditoren, Payroll-Läufe, Steuerzahlungen sowie zentrale Pipeline- oder Auftragsdaten. Verwenden Sie einfache, geplante ETL-Jobs (aus Ihrem ERP, CRM und Bank-APIs), um diese Tabellen täglich oder mehrmals täglich zu aktualisieren.

Entwerfen Sie ein kompaktes Schema: eine einheitliche cash_events-Tabelle mit Spalten wie Datum, Betrag, Währung, Gegenpartei, Kategorie (z. B. customer_receipt, supplier_payment, salary) und source_system. Dadurch werden Abfragen vereinfacht, die Gemini konsumiert, und Ihre Logik bleibt für Finance und IT transparent.

Gemini mit BigQuery nutzen, um tägliche rollierende Prognosen zu erzeugen

Sobald Ihre Daten zentralisiert sind, können Sie Gemini + BigQuery nutzen, um kurzfristige Prognosen zu erstellen. Ein praxistaugliches Muster ist: BigQuery führt eine SQL-Abfrage aus, um das historische Zahlungsverhalten nach Kunde, Lieferant, Wochentag und Zahlungszielen zu aggregieren; Gemini übernimmt dann die aggregierten Ergebnisse plus anstehende Rechnungen und prognostiziert die erwarteten Zahlungsströme für die nächsten 7–30 Tage.

Sie können beispielsweise eine tägliche Cloud Function (oder einen Cloud-Run-Job) orchestrieren, die:

  • eine BigQuery-Abfrage ausführt, um alle anstehenden Ein- und Auszahlungen und deren historisches Zahlungsverhalten auszugeben.
  • das Ergebnis als strukturiertes JSON über die API an Gemini übergibt.
  • Geminis prognostizierte tägliche Liquiditätsbestände in eine BigQuery-Tabelle schreibt, die Sheets oder ein Dashboard speist.
Beispiel für einen Gemini-Systemprompt zur Prognose:
Sie sind ein Liquiditätsprognosemodell für die Finanzabteilung.
Nutzen Sie die bereitgestellten historischen Zahlungsschemata und
anstehenden Rechnungen, um eine tägliche Prognose der Zahlungs-
ströme (Ein- und Auszahlungen) für die nächsten 21 Tage zu erstellen.

Anforderungen:
- Geben Sie tägliche Summen aus (Zufluss, Abfluss, Netto, laufender Bestand)
- Modellieren Sie Wochenenden und Feiertage explizit auf Basis
  vergangener Muster
- Heben Sie Annahmen hervor (z. B. durchschnittliche Zahlungseingangstage
  pro Kundensegment)
- Geben Sie JSON mit einem 'daily_forecast'-Array und einem
  'assumptions'-Abschnitt zurück.

Dieses Setup sorgt dafür, dass sich Ihre Prognosen automatisch aktualisieren – ohne manuelle Tabellenarbeit – und Finance kann weiterhin das zugrunde liegende SQL und JSON einsehen.

Prognosen und Erklärungen direkt in Google Sheets einbetten

Die meisten Finanzteams arbeiten in Tabellen, daher sollte Google Sheets das Frontend für Ihre Gemini-gestützten Prognosen sein. Verwenden Sie den BigQuery-Connector, um die daily_forecast-Tabelle einzubinden, und nutzen Sie Apps Script oder Workspace-Add-ons, um Gemini für erklärende Texte und Szenariokommentare aufzurufen.

Sie können zum Beispiel ein „Forecast-Erklärung“-Sheet einrichten, in dem ein Script die aktuelle Prognose plus Metadaten an Gemini sendet und eine gut lesbare Zusammenfassung für das Management zurückschreibt.

Beispielprompt für eine erläuternde Zusammenfassung:
Sie unterstützen die CFO mit kurzfristigen Liquiditätseinblicken.
Auf Basis dieser 21-tägigen Liquiditätsprognose (JSON) und der
entsprechenden vorangegangenen 21-tägigen Prognose, erläutern Sie:
- Zentrale Änderungen gegenüber der letzten Prognose
- Haupttreiber (Kunden, Lieferanten, Timing-Verschiebungen)
- Risiken: Tage mit geringem Puffer im Verhältnis zu Kreditlinien
- Empfohlene Maßnahmen in klarer, nichttechnischer Sprache.

Schreiben Sie 3–5 kurze Absätze, geeignet für die Aufnahme
in einen wöchentlichen Liquiditätsbericht der CFO.

Damit wird das Modell zu einem Reporting-Assistenten, der Stunden manueller Kommentierung einspart und gleichzeitig Konsistenz und Klarheit erhöht.

Workflows für Szenario­simulation konfigurieren

Unzuverlässige Prognosen blenden „Was-wäre-wenn“-Fragen oft aus: Was, wenn ein Großkunde 10 Tage später zahlt oder Sie eine große CAPEX-Ausgabe um einen Monat vorziehen? Sie können Gemini nutzen, um szenariobasierte Liquiditätsprognosen zu erzeugen, indem Sie die Basisprognose und eine Liste hypothetischer Änderungen übergeben.

Erstellen Sie zum Beispiel ein kleines Webformular oder ein Sheet, in dem Finance die Szenariohebel angeben kann. Ein Backend-Skript nimmt die Basisdaten, wendet die Hebel an und sendet sowohl Basis- als auch Szenariodaten an Gemini, um sie neu zu berechnen und zu erläutern.

Beispielprompt für Szenariosimulation:
Sie sind eine Szenariosimulations-Engine für kurzfristige Liquidität.
Basisprognose: <JSON_BASE>
Szenarioanpassungen: <JSON_SCENARIO_LEVERS>

Aufgaben:
1) Wenden Sie die Szenariohebel an (z. B. verzögern Sie Kunde X um 10 Tage,
   ziehen Sie Zahlungen für Lieferantengruppe Y um 5 Tage vor).
2) Berechnen Sie die tägliche Liquiditätsposition über 21 Tage neu.
3) Geben Sie Folgendes zurück:
   - 'scenario_forecast' (tägliche Ansicht)
   - 'delta_vs_base' (Abweichungen pro Tag)
   - Eine prägnante Erläuterung der Auswirkungen auf das Liquiditätsrisiko.

So erhält das Treasury eine praxistaugliche Möglichkeit, Liquiditätspositionen zu Stresstests zu unterziehen, ohne für jedes Szenario eigene komplexe Modelle aufbauen zu müssen.

Alerting für erwartete Unterdeckungen und Anomalien einrichten

Prognosen sind nur dann relevant, wenn rechtzeitig gehandelt wird. Nutzen Sie Geminis Mustererkennung, um Alerts zu generieren, wenn prognostizierte Liquiditätsbestände definierte Schwellenwerte unterschreiten oder wenn das Muster von Ein- und Auszahlungen im Vergleich zur Historie ungewöhnlich aussieht.

Implementieren Sie einen täglichen Job, der:

  • die aktuelle 14–30-tägige Prognose aus BigQuery liest.
  • Tage identifiziert, an denen der erwartete Bestand unter einen konfigurierten Puffer fällt.
  • Gemini aufruft, um die Schwere einzuordnen und nächste Schritte vorzuschlagen (z. B. Forderungen beschleunigen, nichtkritische Zahlungen verschieben, Kreditlinien ziehen).
  • eine E-Mail oder Chatnachricht mit einer kompakten Zusammenfassung an Treasury-/Finanzkanäle sendet.
Beispielprompt für Alerting:
Sie überwachen das kurzfristige Liquiditätsrisiko.
Auf Basis dieser 14-tägigen Prognose und der Liquiditätspolitik
des Unternehmens (Minimalpuffer, verfügbare Kreditlinien) identifizieren Sie:
- Daten, an denen die prognostizierte Liquidität < Minimalpuffer liegt
- Wahrscheinliche Treiber (basierend auf Zu- und Abflussstruktur)
- 3 konkrete Maßnahmenoptionen für das Treasury.

Antworten Sie in Stichpunkten, geeignet für eine E-Mail-Benachrichtigung.

Damit muss Ihr Team nicht ständig Dashboards scannen, um aufkommende Probleme zu erkennen; Gemini hebt die wichtigen Fälle proaktiv hervor.

Genauigkeit verfolgen und Modell laufend verfeinern

Um Vertrauen aufzubauen, sollten Sie die Gemini-basierte Prognose wie jedes andere Modell behandeln: Verfolgen Sie ihre Prognosegenauigkeit und systematischen Bias im Zeitverlauf. Speichern Sie prognostizierte und tatsächliche tägliche Liquiditätsbestände in BigQuery. Berechnen Sie regelmäßig Kennzahlen wie die mittlere absolute prozentuale Abweichung nach Horizont (z. B. 3, 7, 14 Tage) und identifizieren Sie, wo Fehler gehäuft auftreten (bestimmte Einheiten, Währungen, Kundensegmente).

Nutzen Sie diese Kennzahlen, um Prompts zu verfeinern, Vorverarbeitungsschritte anzupassen (zum Beispiel eine bessere Modellierung von Zahlungszielen) oder das Modell zu segmentieren (z. B. separate Logiken für Enterprise- vs. KMU-Kunden). Über wenige Monate sollten Sie sehen, wie sich die Fehlerspannen verengen und weniger manuelle Anpassungen erforderlich werden. Machen Sie diese Verbesserungen für Stakeholder sichtbar – so kommen Sie von „experimenteller KI“ zu einem etablierten Bestandteil Ihres Finance-Toolkits.

Erwartetes Ergebnis: Organisationen, die diese Praktiken umsetzen, sehen typischerweise spürbare Verbesserungen bei der kurzfristigen Liquiditätstransparenz – beispielsweise 30–50 % weniger manuellen Prognoseaufwand, 5–10 Tage frühere Erkennung von Liquiditätsengpässen und eine deutliche Reduktion der ungeplanten Nutzung teurer Kreditlinien. Die exakten Zahlen hängen von Ihrer Datenqualität und -komplexität ab, aber die Richtung ist klar, sobald ein robuster, Gemini-gestützter Workflow etabliert ist.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini verbessert die kurzfristige Liquiditätsplanung, indem es Muster erkennt, die Ihre Tabellen in der Regel übersehen: Wochentagseffekte, kunden- oder lieferantenspezifisches Zahlungsverhalten, Saisonalität und das Zusammenspiel zwischen anstehenden Rechnungen und historischen Verzögerungen. Anstatt sich auf einfache Durchschnitte zu stützen, kann Gemini Transaktionshistorien, offene Debitoren/Kreditoren und Pipeline-Daten kombinieren, um vorherzusagen, wann Liquidität tatsächlich fließt.

In der Praxis definieren weiterhin Sie die Dateninputs und Geschäftsregeln (z. B. Mindestpuffer, Umgang mit Einmaleffekten), aber Gemini automatisiert die aufwändige Mustererkennung und liefert tägliche rollierende Prognosen samt Erklärungen. Das reduziert manuellen Aufwand und hilft Ihnen, Unterdeckungen früher zu erkennen als mit statischen Excel-Modellen.

Mindestens benötigen Sie drei Fähigkeiten: Data Engineering, um Ihre ERP-, Bank- und CRM-Daten nach BigQuery zu bringen; jemanden mit Finance- oder Treasury-Expertise, um den Scope zu definieren und Ergebnisse zu interpretieren; sowie grundlegende Erfahrung mit Google Cloud und Workspace, um Gemini, BigQuery und Sheets zu verbinden.

Sie brauchen kein internes KI-Forschungsteam. Ein kleines, cross-funktionales Team (Finance Lead + IT/Data Engineer) kann einen ersten Pilot umsetzen – insbesondere, wenn es mit einem Partner wie Reruption zusammenarbeitet, der erprobte Muster für Pipelines, Prompt-Design und Governance mitbringt. Darauf aufbauend können Sie mehr Personen intern schulen, um die Lösung zu betreiben und zu erweitern.

Wenn Ihre Transaktions- und Rechnungsdaten bereits zugänglich sind, dauert ein fokussierter Pilot für kurzfristige Liquiditätsprognosen mit Gemini in der Regel Wochen, nicht Monate. Ein typischer Zeitplan sind 2–4 Wochen, um BigQuery anzubinden, das Datenmodell zu definieren und einen ersten Prognose-Workflow zu bauen, und weitere 2–4 Wochen, um diesen parallel laufen zu lassen, Prompts zu justieren und die Genauigkeit gegen Ihren bestehenden Prozess zu validieren.

Sie erhalten schon in der ersten Iteration frühe Einblicke (z. B. bessere Transparenz über die nächsten 7–14 Tage, bessere Erklärung von Abweichungen), auch wenn die Prognose noch nicht perfekt ist. Entscheidend ist, mit einem engen Scope zu starten – etwa einer Rechtseinheit oder einem Bankkonto – und dann zu erweitern, wenn Vertrauen und Datenqualität zunehmen.

Die direkten Kosten für Gemini + BigQuery im Finance-Bereich sind typischerweise moderat im Verhältnis zur Wirkung. Sie zahlen für Datenspeicherung und -abfragen in BigQuery sowie für die API- oder Workspace-Nutzung von Gemini – meist ein kleiner Posten im Vergleich zum Potenzial, ungeplante Überziehungszinsen oder suboptimale Liquiditätsallokation zu reduzieren.

Auf der ROI-Seite sehen Finanzteams häufig Mehrwerte durch weniger Finanzierungslücken in letzter Minute, geringere Abhängigkeit von teuren Kreditlinien, eine bessere Nutzung von Überschussliquidität und weniger manuellen Aufwand bei der Erstellung und Erläuterung von Prognosen. Um die Business-Case-Argumentation zu untermauern, sollten Sie Kennzahlen wie eingesparte Stunden pro Zyklus, Veränderungen bei der durchschnittlichen Nutzung von Kreditlinien und die Tage im Voraus, um die Sie potenzielle Unterdeckungen nun erkennen, verfolgen.

Reruption verbindet KI-Engineering mit einem Co-Preneur-Mindset, um funktionsfähige Lösungen in Ihrer Finanzorganisation aufzubauen – nicht nur Folien. Mit unserem KI-PoC-Angebot (9.900 €) können wir schnell prüfen, ob Gemini-basierte Liquiditätsprognosen mit Ihren Echtdaten funktionieren: Use Case definieren, die Architektur rund um BigQuery und Sheets gestalten, einen funktionsfähigen Prototyp bauen und Performance sowie Robustheit messen.

Anschließend helfen wir Ihnen, diesen PoC in einen produktionsreifen Workflow zu überführen: Integrationen zu härten, Governance und Monitoring aufzusetzen und das Tool in Ihre bestehenden Treasury- und FP&A-Routinen einzubetten. Weil wir „in Ihrer GuV“ arbeiten, konzentrieren wir uns auf Ergebnisse – verlässlichere kurzfristige Prognosen, frühere Sichtbarkeit von Liquiditätsrisiken und ein praxistaugliches System, das Ihr Finanzteam tatsächlich nutzt und dem es vertraut.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media