Die Herausforderung: Unzuverlässige kurzfristige Prognosen

Für viele Finanzteams wird die kurzfristige Liquiditätsplanung immer noch von statischen Tabellen, manuellen Updates und groben Durchschnitten bestimmt. Das Ergebnis ist ein unscharfer Blick auf die nächsten 7–30 Tage: Sie sehen Gesamttendenzen, aber nicht die täglichen Schwankungen bei Ein- und Auszahlungen, die tatsächlich bestimmen, ob Sie Lieferanten, Gehälter oder Steuern bezahlen können, ohne in letzter Minute nach Finanzierung suchen zu müssen.

Traditionelle Ansätze scheitern daran, dass sie die Komplexität und Geschwindigkeit moderner Zahlungsströme ignorieren. Wöchentliche Tabellen können mit sich ändernden Zahlungsverhalten, Saisonalität, Ad-hoc-Inkassos und variablen Lieferantenkonditionen nicht Schritt halten. Einfache Durchschnitte erfassen Muster wie „Freitage sind starke Auszahltage“ oder „Monatsendrabatte ziehen Liquidität früher rein“ nicht. Und wenn zugrunde liegende ERP-, Bank- und Vertriebssysteme voneinander isoliert sind, verbringen Analysten ihre Zeit mit Datenabgleichen statt mit der Verbesserung des Prognosemodells.

Die geschäftlichen Auswirkungen sind deutlich spürbar. Unzuverlässige kurzfristige Prognosen führen zu Finanzierungslücken in letzter Minute, einer stärkeren Abhängigkeit von teuren Kreditlinien und einer suboptimalen Nutzung überschüssiger Liquidität. Das Treasury verliert die Möglichkeit, bessere Konditionen zu sichern, weil das Vertrauen in die prognostizierten Positionen fehlt. Operative Teams werden von Zahlungssperren überrascht. Das Management verliert das Vertrauen in die Zahlen, sodass jede größere Zahlung zur Eskalation wird und das Geschäft ausbremst. Langfristig untergräbt das sowohl Marge als auch Glaubwürdigkeit.

Die gute Nachricht: Diese Herausforderung ist real, aber sie ist lösbar. Mit der richtigen Datenbasis und KI-Modellen können Sie von statischen Tabellen zu rollierenden, szenariobasierten Liquiditätsprognosen wechseln, die sich mit neuen Informationen automatisch aktualisieren. Bei Reruption haben wir Organisationen dabei unterstützt, fragile, manuelle Workflows durch KI-first-Tools in Finance und anderen datenintensiven Domänen zu ersetzen. Im Folgenden zeigen wir, wie Sie Googles Gemini zusammen mit BigQuery und Sheets nutzen können, um Ihre kurzfristigen Prognosen zu stabilisieren und Stakeholdern klare, nachvollziehbare Einblicke statt böser Überraschungen zu liefern.

Brauchen Sie einen Sparring-Partner für diese Herausforderung?

Lassen Sie uns unverbindlich sprechen und brainstormen.

Innovatoren bei diesen Unternehmen vertrauen uns:

Unsere Einschätzung

Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.

Aus Reruptions Sicht sind unzuverlässige kurzfristige Prognosen in erster Linie ein Daten- und Workflow-Problem, nicht nur ein mathematisches Problem. Wir haben in mehreren KI-Implementierungen gesehen, dass Modelle wie Gemini eine starke Schicht aus Mustererkennung und Erklärung hinzufügen können, sobald Sie Transaktionshistorien, ERP-Daten und Vertriebspipelines in eine saubere Struktur bringen. Die Chance besteht nicht nur darin, Liquiditätspositionen genauer vorherzusagen, sondern diese Vorhersagen in umsetzbare Handlungsempfehlungen für Finanzteams innerhalb der bereits genutzten Tools wie BigQuery und Google Sheets zu übersetzen.

In Systemen denken, nicht in einzelnen Prognosedateien

Die meisten unzuverlässigen Prognosen sind Symptome eines fragmentierten Systems: verschiedene Datenquellen, inkonsistente Aktualisierungszyklen und Excel-Dateien auf persönlichen Laufwerken. Bevor Sie KI auf das Problem loslassen, definieren Sie das End-to-End-Liquiditätsprognosesystem, das Sie tatsächlich benötigen: welche Quellen es speisen, wie oft sie aktualisiert werden, wie Prognosen erzeugt werden und wie Stakeholder diese konsumieren.

Strategisch bedeutet das, von „der Tabelle, die Serge vor drei Jahren gebaut hat“ zu einer wiederholbaren Prognose-Pipeline zu wechseln. Gemini wird dann zu einer Komponente in dieser Pipeline: Es kann aggregierte Daten aus BigQuery aufnehmen, rollierende Prognosen erzeugen und Ergebnisse plus erklärende Texte in Sheets oder Dashboards schreiben. Wenn Sie zuerst das System designen, vermeiden Sie es, eine clevere KI auf unzuverlässige Eingabedaten zu setzen.

Datenfundament vorbereiten, bevor Sie KI skalieren

KI-Modelle wie Gemini benötigen strukturierte, ausreichend bereinigte Daten, um vertrauenswürdige kurzfristige Prognosen zu liefern. Das bedeutet nicht, dass Sie ein mehrjähriges Data-Lake-Projekt abschließen müssen, aber Sie brauchen eine Einigung auf grundlegende Datendisziplin: konsistente Transaktionszeitstempel, gemappte Kunden- und Lieferanten-IDs, klare Kategorisierung von Ein- und Auszahlungen und eine verlässliche Anbindung an Ihre Vertriebspipeline oder Ihren Auftragsbestand.

Aus strategischer Perspektive sollten Sie in BigQuery ein minimales, aber robustes Datenmodell definieren, das Ihre liquiditätsrelevanten Ereignisse erfasst: Banktransaktionen, AP/AR-Pläne, erwartete Zahlungseingänge und geplante Auszahlungen. Hier kommt die technische Tiefe von Reruption ins Spiel – wir helfen Kunden, schnell ein schlankes Schema und ETL-Flows zu entwerfen, die „gut genug“ für KI-Prognosen sind. Damit vermeiden Sie die häufige Falle, Gemini für Fehler verantwortlich zu machen, die in Wahrheit aus fehlenden oder inkonsistenten Quelldaten stammen.

Gemini als Copilot für Finance positionieren, nicht als Black Box

Finanzteams werden einem Modell nicht vertrauen, das einfach nur eine Zahl für „Liquiditätsbestand in 14 Tagen“ ausspuckt, ohne Kontext zu liefern. Strategisch sollten Sie Gemini-gestützte Liquiditätsprognosen als Copilot positionieren, der sowohl vorhersagt als auch erklärt. Lassen Sie das Modell Treiber hervorheben: Verschiebungen bei durchschnittlichen Zahlungszielen, ungewöhnliche Lieferantenzahlungen, saisonale Muster und Ausnahme-Transaktionen.

Dieser Mindset-Wechsel ist entscheidend für die Akzeptanz. Statt Ihr Treasury- oder FP&A-Team zu ersetzen, verstärkt Gemini deren Arbeit: Es macht Anomalien sichtbar, baut Alternativszenarien und erzeugt verständlich formulierte Erläuterungen, die Finanzverantwortliche kritisch hinterfragen, verfeinern und präsentieren können. Wenn Menschen verstehen, dass sie die Entscheidungsgewalt behalten, werden sie zu Verbündeten bei der kontinuierlichen Verbesserung des Modells.

Treasury, FP&A und IT auf klare Use Cases ausrichten

Die kurzfristige Liquiditätsprognose berührt mehrere Teams: Das Treasury verantwortet Bankpositionen, FP&A die Planungsannahmen und IT die Dateninfrastruktur. Ohne Abstimmung bleibt Ihre Gemini-Initiative in Übergaben und Governance-Diskussionen stecken. Strategisch sollten Sie mit einem klar zugeschnittenen Use Case starten, etwa „7–21-tägige rollierende Liquiditätsprognose mit täglicher Aktualisierung und Alerts bei erwarteten Unterdeckungen“.

Bringen Sie die relevanten Stakeholder zusammen, um sich auf Definitionen zu einigen (was als liquiditätsrelevant gilt), zulässige Fehlerspannen und den ersten Satz von Alerts oder Berichten, die Gemini erzeugen soll. Diese frühzeitige Abstimmung reduziert Nacharbeit, hält IT auf die wesentlichen Integrationen fokussiert und stellt sicher, dass die Prognoseergebnisse den tatsächlichen Entscheidungsbedarf treffen – etwa: „Ziehen wir nächste Woche die Kreditlinie oder nicht?“.

Risiko mit transparenten Metriken und gestuftem Rollout steuern

Jeder Wechsel von Tabellen-Durchschnitten zu KI-gestützten Liquiditätsprognosen bringt Veränderungsrisiken mit sich. Behandeln Sie dies als kontrolliertes Experiment, nicht als Big-Bang-Ablösung. In der ersten Phase lassen Sie Geminis Prognosen parallel zu Ihrem bestehenden Prozess laufen und vergleichen Genauigkeit, Stabilität und Vorwarnzeit beim Erkennen von Unterdeckungen.

Definieren Sie Transparenzmetriken, die für die Finanzleitung relevant sind: Prognosefehler nach Horizont, Anzahl der Vorwarntage vor einem Liquiditätsengpass und den Anteil der noch notwendigen manuellen Anpassungen. Nutzen Sie diese Metriken, um zu entscheiden, wann Sie den KI-Einsatz ausweiten (weitere Einheiten, Währungen, Datenquellen). Ein gestufter Rollout mit klaren KPIs hält das Risiko beherrschbar und gibt Ihrem Team Vertrauen, sich stärker auf die KI-Ergebnisse zu stützen.

Richtig eingesetzt geht es bei Gemini weniger um ausgefallene Modelle, sondern darum, ein zuverlässiges, erklärbares System für kurzfristige Liquiditätsprognosen aufzubauen, dem Finanzteams tatsächlich vertrauen. Durch die Kombination aus sauberen Transaktionsdaten in BigQuery, vertrauten Oberflächen wie Sheets und Geminis Fähigkeit, Muster zu erkennen und Erläuterungen zu generieren, können Sie Überraschungen reduzieren und Ihre Kreditlinien bewusster nutzen. Reruption arbeitet Hands-on mit Kunden zusammen, um diese Architektur zu designen, die Integrationen zu bauen und sie in die täglichen Finanz-Workflows einzubetten – wenn Sie ein solches Setup in Erwägung ziehen, sprechen wir gerne darüber, ob ein fokussiertes PoC oder Pilotprojekt für Ihr Team sinnvoll wäre.

Hilfe bei der Umsetzung dieser Ideen?

Nehmen Sie gerne unverbindlich Kontakt zu uns auf.

Fallbeispiele aus der Praxis

Von Fintech bis Bankwesen: Erfahren Sie, wie Unternehmen Gemini erfolgreich einsetzen.

Revolut

Fintech

Revolut sah sich einem zunehmenden Authorized Push Payment (APP)-Betrug gegenüber, bei dem Betrüger Kunden psychologisch manipulieren, damit diese Überweisungen an betrügerische Konten autorisieren – oft unter dem Vorwand von Anlageangeboten. Traditionelle regelbasierte Systeme kamen gegen ausgefeilte Social-Engineering-Taktiken kaum an, was trotz Revoluts schnellem Wachstum auf über 35 Millionen Kunden weltweit zu erheblichen finanziellen Verlusten führte. Der Anstieg digitaler Zahlungen verstärkte Verwundbarkeiten, da Betrüger Echtzeit-Überweisungen ausnutzten, die herkömmliche Kontrollen umgingen. APP-Betrügereien entzogen sich der Erkennung, indem sie legitimes Verhalten nachahmten, was weltweit zu jährlichen Milliardenverlusten führte und das Vertrauen in Fintech-Plattformen wie Revolut untergrub. Es bestand dringender Bedarf an intelligenter, adaptiver Anomalieerkennung, die eingreift, bevor Gelder freigegeben werden.

Lösung

Revolut führte eine KI-gestützte Betrugsabwehrfunktion ein, die maschinelles Lernen zur Anomalieerkennung verwendet, um Transaktionen und Nutzerverhalten in Echtzeit zu überwachen. Das System analysiert Muster, die auf Betrug hindeuten – etwa ungewöhnliche Zahlungsaufforderungen im Zusammenhang mit Anlageködern – und greift ein, indem es Nutzer warnt oder verdächtige Aktionen blockiert. Durch den Einsatz von überwachten und unüberwachten ML-Algorithmen erkennt es Abweichungen vom normalen Verhalten in risikoreichen Momenten und "bricht den Zauber" der Betrüger, bevor eine Autorisierung erfolgt. In die App integriert, verarbeitet es große Mengen an Transaktionsdaten für proaktive Betrugsprävention, ohne legitime Zahlungsflüsse zu stören.

Ergebnisse

  • 30% Reduktion der Betrugsverluste bei APP-bezogenen Kartenbetrugsfällen
  • Gezielte Bekämpfung von Anlagebetrugsversuchen
  • Echtzeit-Interventionen während der Testphase
  • Schützt 35 Millionen globale Kunden
  • Eingesetzt seit Februar 2024
Fallstudie lesen →

Khan Academy

Bildung

Khan Academy stand vor der gewaltigen Aufgabe, personalisierte Nachhilfe in großem Maßstab für ihre 100M+ jährlichen Nutzenden bereitzustellen, viele davon in unterversorgten Regionen. Traditionelle Online-Kurse, so wirksam sie auch sind, fehlte die interaktive Eins-zu-eins-Begleitung durch menschliche Tutoren, was zu hohen Abbruchraten und ungleichmäßigen Lernfortschritten führte. Lehrkräfte waren mit Planung, Bewertung und Differenzierung für heterogene Klassen überlastet. Im Jahr 2023, als KI große Fortschritte machte, kämpften Pädagogen mit Halluzinationen und Risiken einer Überabhängigkeit bei Tools wie ChatGPT, die häufig direkte Antworten statt Lernförderung lieferten. Khan Academy benötigte eine KI, die schrittweises Denken fördert, ohne zu schummeln, und gleichzeitig gleichberechtigten Zugang als Nonprofit sicherstellt. Sichere Skalierung über Fächer und Sprachen hinweg stellte technische und ethische Hürden dar.

Lösung

Khan Academy entwickelte Khanmigo, einen KI-gestützten Tutor und Lehrassistenten, der auf GPT-4 basiert, im März 2023 für Lehrkräfte pilotiert und später für Schüler ausgeweitet. Anders als generische Chatbots nutzt Khanmigo maßgeschneiderte System‑Prompts, um Lernende sokratisch zu führen — mit gezielten Fragen, Hinweisen und Feedback, ohne direkte Lösungen zu liefern — in Mathematik, Naturwissenschaften, Geisteswissenschaften und mehr. Der gemeinnützige Ansatz legte Wert auf Sicherheitsmaßnahmen, Integration in Khans Content-Bibliothek und iterative Verbesserungen durch Lehrkräfte-Feedback. Partnerschaften wie mit Microsoft ermöglichten Lehrkräften bis 2024 kostenlosen globalen Zugang, inzwischen in 34+ Sprachen. Laufende Updates, etwa 2025 zur Mathematik‑Berechnung, adressieren Genauigkeitsprobleme.

Ergebnisse

  • Nutzerwachstum: 68.000 (Pilot 2023-24) auf 700.000+ (Schuljahr 2024-25)
  • Lehrerakzeptanz: Kostenlos für Lehrkräfte in den meisten Ländern, Millionen nutzen Khan Academy-Tools
  • Unterstützte Sprachen: 34+ für Khanmigo
  • Engagement: Verbesserte Schüler-Persistenz und Lernfortschritte in Pilotprojekten
  • Zeitersparnis: Lehrkräfte sparen Stunden bei Unterrichtsplanung und -vorbereitung
  • Skalierung: Integriert in 429+ kostenlose Kurse in 43 Sprachen
Fallstudie lesen →

Shell

Energie

Ungeplante Ausfälle von Anlagen in Raffinerien und auf offshore-Bohrinseln belasteten Shell stark und führten zu erheblichen Ausfallzeiten, Sicherheitsvorfällen und teuren Reparaturen, die die Rentabilität in einer kapitalintensiven Branche beeinträchtigten. Laut einem Deloitte-Report 2024 sind 35 % der Ausfallzeiten in Raffinerien ungeplant, wobei 70 % durch fortschrittliche Analytik vermeidbar wären – ein Hinweis auf die Grenzen traditioneller geplanter Wartungsansätze, die subtile Ausfallvorzeichen an Komponenten wie Pumpen, Ventilen und Kompressoren übersahen. Shells umfangreiche globale Aktivitäten verschärften diese Probleme und erzeugten Terabytes an Sensordaten von Tausenden Anlagen, die aufgrund von Datensilos, Altsystemen und manuellen Analysebeschränkungen unzureichend genutzt wurden. Ausfälle konnten Millionen pro Stunde kosten, Umweltschäden und Personensicherheit riskieren sowie die Margen in volatilen Energiemärkten unter Druck setzen.

Lösung

Shell ging eine Partnerschaft mit C3 AI ein, um eine KI-gestützte Plattform für vorausschauende Wartung zu implementieren, die Maschinenlernmodelle nutzt, welche auf Echtzeit-IoT-Sensordaten, Wartungshistorien und Betriebskennzahlen trainiert sind, um Ausfälle vorherzusagen und Eingriffe zu optimieren. Integriert mit Microsoft Azure Machine Learning erkennt die Lösung Anomalien, sagt die restliche Nutzungsdauer (RUL) voraus und priorisiert risikoreiche Anlagen in Upstream-Bohrinseln und Downstream-Raffinerien. Die skalierbare C3 AI-Plattform ermöglichte schnelle Rollouts, beginnend mit Pilotprojekten an kritischer Ausrüstung und späterer globaler Ausweitung. Sie automatisiert predictive analytics, verwandelt reaktive in proaktive Wartung und liefert aussagekräftige Erkenntnisse über intuitive Dashboards für Ingenieure.

Ergebnisse

  • 20 % Reduktion ungeplanter Ausfallzeiten
  • 15 % Senkung der Wartungskosten
  • £1M+ jährliche Einsparungen pro Standort
  • 10.000 überwachte Anlagen weltweit
  • 35 % branchenweiter Anteil ungeplanter Ausfallzeiten angesprochen (Deloitte-Benchmark)
  • 70 % vermeidbare Ausfälle gemindert
Fallstudie lesen →

PayPal

Fintech

PayPal, als globaler Marktführer im Online-Zahlungsverkehr, sieht sich unablässigen, sich weiterentwickelnden Betrugstaktiken durch hochentwickelte Cyberkriminelle gegenüber. Mit Milliarden von Transaktionen, die monatlich verarbeitet werden—über 500 Millionen Zahlungen—muss die Plattform Anomalien in Echtzeit erkennen, um massive finanzielle Verluste und Vertrauensverluste bei Kunden zu verhindern. Traditionelle regelbasierte Systeme kämpften mit False Positives und verpassten neuartige Betrugsmuster, was pro Vorfall potenziell zu Millionenverlusten führen konnte. Der Umfang verstärkte die Herausforderungen: hochfrequente Datenströme erforderten Entscheidungen in Bruchteilen einer Sekunde, während unausgewogene Datensätze (Betrug <0.1% der Transaktionen) die Modellgenauigkeit behinderte. Regulatorischer Druck und Nutzererwartungen an nahtlose Erlebnisse verlangten eine Lösung, die Sicherheit und Geschwindigkeit ausbalanciert, da unentdeckter Betrug $2B+ pro Jahr kosten und dem Ruf schaden könnte.

Lösung

PayPal implementierte Machine-Learning-Ensembles mit Deep-Learning-Modellen zur Anomalieerkennung und bewertet jede Transaktion anhand von 250+ Signalen wie Geräte-Fingerprinting, verhaltensbiometrischen Merkmalen und Netzwerkdaten. Die Modelle werden kontinuierlich mit aktuellen Daten retrainiert, um sich an neue Bedrohungen anzupassen, wobei Plattformen wie H2O Driverless AI für automatisiertes Feature Engineering und Deployment genutzt werden. Das System integriert Echtzeit-Inferenz über fortschrittliche Hardware und markiert Hochrisiko-Transaktionen sofort zur Prüfung oder Sperrung. Hybride Ansätze kombinieren überwachtes Lernen für bekannten Betrug und unüberwachte Anomalieerkennung für Zero-Day-Angriffe, wodurch manuelle Prüfungen um 50% reduziert werden.

Ergebnisse

  • 10% Verbesserung der Betrugserkennungsgenauigkeit
  • $500 million an Betrug, vierteljährlich blockiert (~$2B jährlich)
  • 25 million Angriffe täglich verhindert
  • 50% Reduktion der manuellen Prüfungsaufwände
  • 99.99% Genehmigungsrate für legitime Zahlungen
  • Latenz für Echtzeit-Inferenz unter 50ms
Fallstudie lesen →

IBM

Technologie

In einer weltweiten Belegschaft von mehr als 280.000 Mitarbeitenden kämpfte IBM mit hohen Mitarbeiterfluktuationsraten, insbesondere bei Leistungsträgern und Schlüsselpersonal. Die Kosten für die Ersetzung einer einzelnen Fachkraft – inklusive Rekrutierung, Onboarding und Produktivitätsverlust – können $4.000–$10.000 pro Einstellung übersteigen, was in einem umkämpften Tech-Arbeitsmarkt die Verluste verstärkt. Das manuelle Erkennen gefährdeter Mitarbeitender war angesichts umfangreicher HR-Datensilos mit Informationen zu Demografie, Leistungsbeurteilungen, Vergütung, Mitarbeiterzufriedenheitsbefragungen und Work-Life-Balance nahezu unmöglich. Traditionelle HR-Ansätze stützten sich auf Austrittsgespräche und anekdotisches Feedback, die reaktiv und für Prävention ungeeignet waren. Da die Fluktuationsraten bei branchenüblichen 10–20 % pro Jahr lagen, entstanden IBM jährliche Kosten in den hunderten Millionen durch Neueinstellungen und Schulungen, ergänzt durch Wissensverluste und sinkende Moral in einem engen Arbeitsmarkt. Die Herausforderung verschärfte sich, weil die Bindung knapper KI- und Tech-Fachkräfte für IBMs Innovationsfähigkeit entscheidend war.

Lösung

IBM entwickelte ein prädiktives Fluktuations-ML-Modell auf Basis der Watson-KI-Plattform und analysierte 34+ HR-Variablen wie Alter, Gehalt, Überstunden, Stellenfunktion, Leistungsbewertungen und Entfernung vom Wohnort anhand eines anonymisierten Datensatzes von 1.470 Mitarbeitenden. Algorithmen wie logistische Regression, Entscheidungsbäume, Random Forests und Gradient Boosting wurden trainiert, um Mitarbeitende mit hoher Weggangsgefährdung zu identifizieren, und erreichten eine 95%ige Genauigkeit bei der Vorhersage, wer innerhalb von sechs Monaten das Unternehmen verlassen würde. Das Modell wurde in HR-Systeme für Echtzeit-Bewertungen integriert und löste personalisierte Maßnahmen wie Karriere-Coaching, Gehaltsanpassungen oder flexible Arbeitsoptionen aus. Dieser datengetriebene Ansatz ermöglichte es CHROs und Führungskräften, proaktiv zu handeln und vorrangig Top-Performer zu halten.

Ergebnisse

  • 95% Genauigkeit bei der Vorhersage von Mitarbeiterfluktuation
  • Verarbeitete 1.470+ Mitarbeiterdatensätze mit 34 Variablen
  • 93% Genauigkeit im optimierten Extra-Trees-Modell
  • Reduzierte Einstellungskosten durch Vermeidung wertvoller Abgänge
  • Potenzielle Jährliche Einsparungen von über $300M durch verbesserte Bindung (berichtet)
Fallstudie lesen →

Best Practices

Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.

Liquiditätsrelevante Daten in BigQuery zentralisieren

Bevor Sie Gemini einbinden, sollten Sie Ihre liquiditätsrelevanten Daten in einer einzigen, abfragbaren Quelle konsolidieren – typischerweise BigQuery. Laden Sie mindestens: Banktransaktions-Feeds, Fälligkeitspläne für Debitoren und Kreditoren, Payroll-Läufe, Steuerzahlungen sowie zentrale Pipeline- oder Auftragsdaten. Verwenden Sie einfache, geplante ETL-Jobs (aus Ihrem ERP, CRM und Bank-APIs), um diese Tabellen täglich oder mehrmals täglich zu aktualisieren.

Entwerfen Sie ein kompaktes Schema: eine einheitliche cash_events-Tabelle mit Spalten wie Datum, Betrag, Währung, Gegenpartei, Kategorie (z. B. customer_receipt, supplier_payment, salary) und source_system. Dadurch werden Abfragen vereinfacht, die Gemini konsumiert, und Ihre Logik bleibt für Finance und IT transparent.

Gemini mit BigQuery nutzen, um tägliche rollierende Prognosen zu erzeugen

Sobald Ihre Daten zentralisiert sind, können Sie Gemini + BigQuery nutzen, um kurzfristige Prognosen zu erstellen. Ein praxistaugliches Muster ist: BigQuery führt eine SQL-Abfrage aus, um das historische Zahlungsverhalten nach Kunde, Lieferant, Wochentag und Zahlungszielen zu aggregieren; Gemini übernimmt dann die aggregierten Ergebnisse plus anstehende Rechnungen und prognostiziert die erwarteten Zahlungsströme für die nächsten 7–30 Tage.

Sie können beispielsweise eine tägliche Cloud Function (oder einen Cloud-Run-Job) orchestrieren, die:

  • eine BigQuery-Abfrage ausführt, um alle anstehenden Ein- und Auszahlungen und deren historisches Zahlungsverhalten auszugeben.
  • das Ergebnis als strukturiertes JSON über die API an Gemini übergibt.
  • Geminis prognostizierte tägliche Liquiditätsbestände in eine BigQuery-Tabelle schreibt, die Sheets oder ein Dashboard speist.
Beispiel für einen Gemini-Systemprompt zur Prognose:
Sie sind ein Liquiditätsprognosemodell für die Finanzabteilung.
Nutzen Sie die bereitgestellten historischen Zahlungsschemata und
anstehenden Rechnungen, um eine tägliche Prognose der Zahlungs-
ströme (Ein- und Auszahlungen) für die nächsten 21 Tage zu erstellen.

Anforderungen:
- Geben Sie tägliche Summen aus (Zufluss, Abfluss, Netto, laufender Bestand)
- Modellieren Sie Wochenenden und Feiertage explizit auf Basis
  vergangener Muster
- Heben Sie Annahmen hervor (z. B. durchschnittliche Zahlungseingangstage
  pro Kundensegment)
- Geben Sie JSON mit einem 'daily_forecast'-Array und einem
  'assumptions'-Abschnitt zurück.

Dieses Setup sorgt dafür, dass sich Ihre Prognosen automatisch aktualisieren – ohne manuelle Tabellenarbeit – und Finance kann weiterhin das zugrunde liegende SQL und JSON einsehen.

Prognosen und Erklärungen direkt in Google Sheets einbetten

Die meisten Finanzteams arbeiten in Tabellen, daher sollte Google Sheets das Frontend für Ihre Gemini-gestützten Prognosen sein. Verwenden Sie den BigQuery-Connector, um die daily_forecast-Tabelle einzubinden, und nutzen Sie Apps Script oder Workspace-Add-ons, um Gemini für erklärende Texte und Szenariokommentare aufzurufen.

Sie können zum Beispiel ein „Forecast-Erklärung“-Sheet einrichten, in dem ein Script die aktuelle Prognose plus Metadaten an Gemini sendet und eine gut lesbare Zusammenfassung für das Management zurückschreibt.

Beispielprompt für eine erläuternde Zusammenfassung:
Sie unterstützen die CFO mit kurzfristigen Liquiditätseinblicken.
Auf Basis dieser 21-tägigen Liquiditätsprognose (JSON) und der
entsprechenden vorangegangenen 21-tägigen Prognose, erläutern Sie:
- Zentrale Änderungen gegenüber der letzten Prognose
- Haupttreiber (Kunden, Lieferanten, Timing-Verschiebungen)
- Risiken: Tage mit geringem Puffer im Verhältnis zu Kreditlinien
- Empfohlene Maßnahmen in klarer, nichttechnischer Sprache.

Schreiben Sie 3–5 kurze Absätze, geeignet für die Aufnahme
in einen wöchentlichen Liquiditätsbericht der CFO.

Damit wird das Modell zu einem Reporting-Assistenten, der Stunden manueller Kommentierung einspart und gleichzeitig Konsistenz und Klarheit erhöht.

Workflows für Szenario­simulation konfigurieren

Unzuverlässige Prognosen blenden „Was-wäre-wenn“-Fragen oft aus: Was, wenn ein Großkunde 10 Tage später zahlt oder Sie eine große CAPEX-Ausgabe um einen Monat vorziehen? Sie können Gemini nutzen, um szenariobasierte Liquiditätsprognosen zu erzeugen, indem Sie die Basisprognose und eine Liste hypothetischer Änderungen übergeben.

Erstellen Sie zum Beispiel ein kleines Webformular oder ein Sheet, in dem Finance die Szenariohebel angeben kann. Ein Backend-Skript nimmt die Basisdaten, wendet die Hebel an und sendet sowohl Basis- als auch Szenariodaten an Gemini, um sie neu zu berechnen und zu erläutern.

Beispielprompt für Szenariosimulation:
Sie sind eine Szenariosimulations-Engine für kurzfristige Liquidität.
Basisprognose: <JSON_BASE>
Szenarioanpassungen: <JSON_SCENARIO_LEVERS>

Aufgaben:
1) Wenden Sie die Szenariohebel an (z. B. verzögern Sie Kunde X um 10 Tage,
   ziehen Sie Zahlungen für Lieferantengruppe Y um 5 Tage vor).
2) Berechnen Sie die tägliche Liquiditätsposition über 21 Tage neu.
3) Geben Sie Folgendes zurück:
   - 'scenario_forecast' (tägliche Ansicht)
   - 'delta_vs_base' (Abweichungen pro Tag)
   - Eine prägnante Erläuterung der Auswirkungen auf das Liquiditätsrisiko.

So erhält das Treasury eine praxistaugliche Möglichkeit, Liquiditätspositionen zu Stresstests zu unterziehen, ohne für jedes Szenario eigene komplexe Modelle aufbauen zu müssen.

Alerting für erwartete Unterdeckungen und Anomalien einrichten

Prognosen sind nur dann relevant, wenn rechtzeitig gehandelt wird. Nutzen Sie Geminis Mustererkennung, um Alerts zu generieren, wenn prognostizierte Liquiditätsbestände definierte Schwellenwerte unterschreiten oder wenn das Muster von Ein- und Auszahlungen im Vergleich zur Historie ungewöhnlich aussieht.

Implementieren Sie einen täglichen Job, der:

  • die aktuelle 14–30-tägige Prognose aus BigQuery liest.
  • Tage identifiziert, an denen der erwartete Bestand unter einen konfigurierten Puffer fällt.
  • Gemini aufruft, um die Schwere einzuordnen und nächste Schritte vorzuschlagen (z. B. Forderungen beschleunigen, nichtkritische Zahlungen verschieben, Kreditlinien ziehen).
  • eine E-Mail oder Chatnachricht mit einer kompakten Zusammenfassung an Treasury-/Finanzkanäle sendet.
Beispielprompt für Alerting:
Sie überwachen das kurzfristige Liquiditätsrisiko.
Auf Basis dieser 14-tägigen Prognose und der Liquiditätspolitik
des Unternehmens (Minimalpuffer, verfügbare Kreditlinien) identifizieren Sie:
- Daten, an denen die prognostizierte Liquidität < Minimalpuffer liegt
- Wahrscheinliche Treiber (basierend auf Zu- und Abflussstruktur)
- 3 konkrete Maßnahmenoptionen für das Treasury.

Antworten Sie in Stichpunkten, geeignet für eine E-Mail-Benachrichtigung.

Damit muss Ihr Team nicht ständig Dashboards scannen, um aufkommende Probleme zu erkennen; Gemini hebt die wichtigen Fälle proaktiv hervor.

Genauigkeit verfolgen und Modell laufend verfeinern

Um Vertrauen aufzubauen, sollten Sie die Gemini-basierte Prognose wie jedes andere Modell behandeln: Verfolgen Sie ihre Prognosegenauigkeit und systematischen Bias im Zeitverlauf. Speichern Sie prognostizierte und tatsächliche tägliche Liquiditätsbestände in BigQuery. Berechnen Sie regelmäßig Kennzahlen wie die mittlere absolute prozentuale Abweichung nach Horizont (z. B. 3, 7, 14 Tage) und identifizieren Sie, wo Fehler gehäuft auftreten (bestimmte Einheiten, Währungen, Kundensegmente).

Nutzen Sie diese Kennzahlen, um Prompts zu verfeinern, Vorverarbeitungsschritte anzupassen (zum Beispiel eine bessere Modellierung von Zahlungszielen) oder das Modell zu segmentieren (z. B. separate Logiken für Enterprise- vs. KMU-Kunden). Über wenige Monate sollten Sie sehen, wie sich die Fehlerspannen verengen und weniger manuelle Anpassungen erforderlich werden. Machen Sie diese Verbesserungen für Stakeholder sichtbar – so kommen Sie von „experimenteller KI“ zu einem etablierten Bestandteil Ihres Finance-Toolkits.

Erwartetes Ergebnis: Organisationen, die diese Praktiken umsetzen, sehen typischerweise spürbare Verbesserungen bei der kurzfristigen Liquiditätstransparenz – beispielsweise 30–50 % weniger manuellen Prognoseaufwand, 5–10 Tage frühere Erkennung von Liquiditätsengpässen und eine deutliche Reduktion der ungeplanten Nutzung teurer Kreditlinien. Die exakten Zahlen hängen von Ihrer Datenqualität und -komplexität ab, aber die Richtung ist klar, sobald ein robuster, Gemini-gestützter Workflow etabliert ist.

Brauchen Sie jetzt Umsetzungskompetenz?

Lassen Sie uns über Ihre Ideen sprechen!

Häufig gestellte Fragen

Gemini verbessert die kurzfristige Liquiditätsplanung, indem es Muster erkennt, die Ihre Tabellen in der Regel übersehen: Wochentagseffekte, kunden- oder lieferantenspezifisches Zahlungsverhalten, Saisonalität und das Zusammenspiel zwischen anstehenden Rechnungen und historischen Verzögerungen. Anstatt sich auf einfache Durchschnitte zu stützen, kann Gemini Transaktionshistorien, offene Debitoren/Kreditoren und Pipeline-Daten kombinieren, um vorherzusagen, wann Liquidität tatsächlich fließt.

In der Praxis definieren weiterhin Sie die Dateninputs und Geschäftsregeln (z. B. Mindestpuffer, Umgang mit Einmaleffekten), aber Gemini automatisiert die aufwändige Mustererkennung und liefert tägliche rollierende Prognosen samt Erklärungen. Das reduziert manuellen Aufwand und hilft Ihnen, Unterdeckungen früher zu erkennen als mit statischen Excel-Modellen.

Mindestens benötigen Sie drei Fähigkeiten: Data Engineering, um Ihre ERP-, Bank- und CRM-Daten nach BigQuery zu bringen; jemanden mit Finance- oder Treasury-Expertise, um den Scope zu definieren und Ergebnisse zu interpretieren; sowie grundlegende Erfahrung mit Google Cloud und Workspace, um Gemini, BigQuery und Sheets zu verbinden.

Sie brauchen kein internes KI-Forschungsteam. Ein kleines, cross-funktionales Team (Finance Lead + IT/Data Engineer) kann einen ersten Pilot umsetzen – insbesondere, wenn es mit einem Partner wie Reruption zusammenarbeitet, der erprobte Muster für Pipelines, Prompt-Design und Governance mitbringt. Darauf aufbauend können Sie mehr Personen intern schulen, um die Lösung zu betreiben und zu erweitern.

Wenn Ihre Transaktions- und Rechnungsdaten bereits zugänglich sind, dauert ein fokussierter Pilot für kurzfristige Liquiditätsprognosen mit Gemini in der Regel Wochen, nicht Monate. Ein typischer Zeitplan sind 2–4 Wochen, um BigQuery anzubinden, das Datenmodell zu definieren und einen ersten Prognose-Workflow zu bauen, und weitere 2–4 Wochen, um diesen parallel laufen zu lassen, Prompts zu justieren und die Genauigkeit gegen Ihren bestehenden Prozess zu validieren.

Sie erhalten schon in der ersten Iteration frühe Einblicke (z. B. bessere Transparenz über die nächsten 7–14 Tage, bessere Erklärung von Abweichungen), auch wenn die Prognose noch nicht perfekt ist. Entscheidend ist, mit einem engen Scope zu starten – etwa einer Rechtseinheit oder einem Bankkonto – und dann zu erweitern, wenn Vertrauen und Datenqualität zunehmen.

Die direkten Kosten für Gemini + BigQuery im Finance-Bereich sind typischerweise moderat im Verhältnis zur Wirkung. Sie zahlen für Datenspeicherung und -abfragen in BigQuery sowie für die API- oder Workspace-Nutzung von Gemini – meist ein kleiner Posten im Vergleich zum Potenzial, ungeplante Überziehungszinsen oder suboptimale Liquiditätsallokation zu reduzieren.

Auf der ROI-Seite sehen Finanzteams häufig Mehrwerte durch weniger Finanzierungslücken in letzter Minute, geringere Abhängigkeit von teuren Kreditlinien, eine bessere Nutzung von Überschussliquidität und weniger manuellen Aufwand bei der Erstellung und Erläuterung von Prognosen. Um die Business-Case-Argumentation zu untermauern, sollten Sie Kennzahlen wie eingesparte Stunden pro Zyklus, Veränderungen bei der durchschnittlichen Nutzung von Kreditlinien und die Tage im Voraus, um die Sie potenzielle Unterdeckungen nun erkennen, verfolgen.

Reruption verbindet KI-Engineering mit einem Co-Preneur-Mindset, um funktionsfähige Lösungen in Ihrer Finanzorganisation aufzubauen – nicht nur Folien. Mit unserem KI-PoC-Angebot (9.900 €) können wir schnell prüfen, ob Gemini-basierte Liquiditätsprognosen mit Ihren Echtdaten funktionieren: Use Case definieren, die Architektur rund um BigQuery und Sheets gestalten, einen funktionsfähigen Prototyp bauen und Performance sowie Robustheit messen.

Anschließend helfen wir Ihnen, diesen PoC in einen produktionsreifen Workflow zu überführen: Integrationen zu härten, Governance und Monitoring aufzusetzen und das Tool in Ihre bestehenden Treasury- und FP&A-Routinen einzubetten. Weil wir „in Ihrer GuV“ arbeiten, konzentrieren wir uns auf Ergebnisse – verlässlichere kurzfristige Prognosen, frühere Sichtbarkeit von Liquiditätsrisiken und ein praxistaugliches System, das Ihr Finanzteam tatsächlich nutzt und dem es vertraut.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media