Zurück zum Blog

Warum 2025 ein Wendepunkt für den Maschinenbau im Raum Stuttgart ist

Der Maschinenbau rund um Stuttgart steht vor einer Doppelherausforderung: steigender Kostendruck und gleichzeitig die Notwendigkeit, hochkomplexe Produkte schneller, fehlerfrei und kundenorientierter zu liefern. Wir sehen 2025 nicht als Jahr der Experimente, sondern als Jahr der Umsetzung: funktionierende AI-Systeme in Produktion, nicht nur Pilotprojekte auf PowerPoint-Folien. Mit unserem Co-Preneur-Ansatz bauen wir Lösungen, die von Tag eins Wert liefern – und zwar in Produktionsumgebungen, die Zuverlässigkeit und Compliance verlangen.

In diesem Beitrag erklären wir konkret, wie **agentische Systeme**, **private LLM-Infrastruktur (z. B. auf Hetzner)**, **Python-basierte SSR-Applikationen** und **domain-spezifische Wissensmodelle** (als Alternative zu klassischen RAG-Setups) in den Bereichen Produktion, Angebotserstellung, Service und Wissensweitergabe Wirkung entfalten. Wir beziehen unsere Aussagen auf praktische Erfahrungen aus Projekten mit Herstellern wie STIHL und Eberspächer sowie auf unsere schnelle PoC-Praxis.

Agentische Systeme: Autonomie dort, wo Entscheidungen zählen

Agentische Systeme sind keine Sci-Fi-Fantasie mehr. Sie sind Kombinationen aus Orchestratoren, spezialisierten Modulen und Rückkopplungsmechanismen, die konkrete Aufgaben selbstständig abarbeiten — von der Ersatzteilbestellung bis zur Produktionsfeinplanung. Entscheidend ist, dass ein Agent nicht blind handelt, sondern in einem definierten Governance-Rahmen mit robusten Entscheidungsregeln operiert.

Für den Maschinenbau bedeutet das: autonome Workflow-Ketten können Bestellungen, Qualitätschecks und Reparaturfreigaben koordinieren, während menschliche Experten nur in Ausnahmesituationen eingreifen. Unsere Erfahrungen zeigen, dass eine modular aufgebaute Agent-Architektur die Akzeptanz in der Fertigung deutlich erhöht, weil sie lokal und erklärbar agiert.

Praxisbeispiel: Ersatzteilmanagement

In einem Projekt mit einem Fertigungsunternehmen haben wir einen Agenten entwickelt, der Lagerbestände überwacht, Lieferzeiten prognostiziert und proaktiv Bestellungen anstößt. Durch einfache, aber robuste Regeln und Transparenz in Entscheidungen konnten wir Reaktionszeiten für kritische Teile von Tagen auf Stunden reduzieren.

Private LLM-Infrastruktur auf Hetzner: Kontrolle, Kosten, Compliance

Cloud-native LLMs bringen Performance, aber für viele Mittelständler sind Datenschutz und Kosten die Hürden. Die Lösung ist eine private LLM-Infrastruktur, gehostet auf vertrauenswürdigen Colocation- oder IaaS-Providern wie Hetzner. Dort behalten Unternehmen die Datenhoheit, können Netzwerksegmente strenger kontrollieren und die Modellausführung kosteneffizient skalieren.

Wir betreiben solche Setups für Kunden, weil sie erlauben, Multi-Model Routing zu implementieren: kleinere Modelle für Routineanfragen, größere spezialisierte Modelle für komplexe Engineering-Fragestellungen. Kombiniert mit Mandantentrennung und Logging ist das eine robuste Basis für produktive Anwendungen.

Architekturkomponenten, die sich bewährt haben

  • Coolify für schnelle Deployments und einfache DevOps-Pipelines.
  • Postgres als primäres transaktionales System und Metadatenspeicher.
  • MinIO für objektbasiertes Storage sensibler technischer Dokumentation.
  • Multi-Model Routing zur dynamischen Auswahl des passenden Modells pro Anfrage.

Diese Komponenten erlauben ein reproduzierbares, wartbares und skalierbares Setup, das wir in mehreren PoCs innerhalb von Tagen aufsetzen können.

Domain-spezifische Wissensmodelle statt RAG: Mehr Determinismus in Industrieprozessen

Retrieval-Augmented Generation (RAG) ist nützlich, aber in sicherheitskritischen Industriekontexten hat es zwei handfeste Nachteile: unvorhersehbare Halluzinationen und schwer nachprüfbare Quellenpfade. Unsere Alternative sind domain-spezifische Wissensmodelle, also Modelle, die auf einem validierten, kuratierten Wissensgraphen und technischen Dokumenten trainiert und feinjustiert sind.

Das Ergebnis: höhere Vorhersagbarkeit, erklärbare Antworten und geringeres Risiko von Fehlentscheidungen. In Kombination mit strengen Validierungs-Workflows eignen sich solche Modelle hervorragend für Service-Triage, Angebotskalkulation und Fehlerdiagnosen in der Fertigung.

Wie wir Expertenwissen extrahieren

Die Extraktion beginnt mit strukturiertem Interviewing und Annotation durch Fachexperten, anschließender Normalisierung in Postgres und Anreicherung mit CAD-/BOM-Daten im MinIO-Storage. Danach folgt ein iterativer Fine-Tuning-Prozess, sodass das Modell Antworten in der Domänensprache liefert und implizites Wissen explizit macht.

Bei STIHL haben wir so Wissensmodule gebaut, die technischen Supportprozesse massiv beschleunigen: Wartungsanleitungen, Fehlermuster und Trainingsmaterial wurden in ein zuverlässig abrufbares Modell überführt.

Python-basierte SSR-Applikationen: UI/UX, die wirklich in der Werkhalle funktioniert

Die beste KI ist nutzlos ohne eine verlässliche Oberfläche. Server-Side-Rendered (SSR) Python-Applikationen haben sich als ideal für industrielle Umgebungen erwiesen, weil sie schnell laden, offline-freundlich sind und direkt mit internen Services kommunizieren können. Wir nutzen Python-SSR für Dashboards, Issue-Tracking und interaktive Troubleshooter.

Wichtig ist: Diese Applikationen müssen langlebig, testbar und sicher sein. Deshalb setzen wir auf modulare Codebases, standardisierte CI/CD-Pipelines und das frühzeitige Einbinden von Anwendern aus Produktion und Service.

Beispiel: Produktions-Cockpit

Ein Produktionsleiter erhält über eine SSR-Anwendung konsolidierte KPIs, Vorhersagen zur Produktionsauslastung und proaktive Alarme. Hinter den Kulissen läuft ein Ensemble aus LLM-Predikatoren, Regel-Engines und Agenten, die autonome Anpassungen vorschlagen – der Mensch entscheidet final.

Bereit für Ihr AI-Projekt?

Lassen Sie uns besprechen, wie wir Ihnen helfen können, Ihr AI-Projekt in Wochen statt Monaten zu realisieren.

Predictive Automation & AI-gestützte Produktionsplanung

Predictive Automation kombiniert Vorhersagefähigkeiten mit automatisierten Gegenmaßnahmen. In der Produktionsplanung heißt das: Anomalien erkennen, alternative Routen berechnen und Ressourcen neu zuweisen — in Sekunden statt Stunden. Unsere Lösungen verbinden Sensordaten, MES/ERP-Schnittstellen und domain-spezifische Wissensmodelle.

AI-gestützte Produktionsplanung nutzt Simulationen und Optimierer, um kurzfristige Planabweichungen zu kompensieren. Ein wichtiger Punkt: Wir erzwingen keine vollständige Autonomie, sondern bieten Human-in-the-Loop-Schleifen, die die Kontrolle und das Vertrauen der Produktionsverantwortlichen sichern.

Konkretes Ergebnis aus Projekten

In Zusammenarbeit mit Eberspächer haben wir Analysemodule entwickelt, die Produktionslärm und Qualitätsabweichungen vorhersagen. Durch die Kombination von Signalverarbeitung, ML-Pipelines und automatisierten Workflows konnten Ausfallzeiten reduziert und Nacharbeitsraten gesenkt werden.

Interne Engineering-Copilots: Wissensweitergabe und Effizienz

Engineering-Copilots sind interne Assistenten, die Konstrukteuren und Servicetechnikern helfen, Entscheidungen zu treffen, Routineaufgaben zu beschleunigen und Know-how zu teilen. Anders als allgemeine Chatbots sind diese Copilots auf die Prozesse, die Sprache und die Normen eines Unternehmens zugeschnitten.

Wir haben Copilots implementiert, die aus technischen Dokumenten, Change-Logs und Prüfprotokollen lernen. Das Resultat: kürzere Einarbeitungszeiten, weniger Fehler bei Reparaturen und schnellere Angebotserstellung.

Von der Idee zum produktiven Copilot

  • Schritt 1: Erfassung relevanter Datenquellen (BOM, Prüfberichte, Service-Historie).
  • Schritt 2: Aufbau eines kuratierten Wissensmodells mit Versionierung.
  • Schritt 3: Integration in bestehende Tools via API (SSRs, MES, ERP).
  • Schritt 4: Iteratives Fine-Tuning und Nutzungsmonitoring.

Sichere Mandantentrennung, Compliance und robuste Entscheidungslogik

Sicherheit und Compliance sind keine Add-ons – sie müssen Architekturprinzipien sein. Für den Mittelstand empfehlen wir eine Kombination aus Netzwerksegmentierung (VLANs), verschlüsseltem Storage (MinIO mit KMS), Rollen-basiertem Zugriff und strikter Auditierung.

Für Mandantentrennung setzen wir auf physische oder logisch isolierte Controller-Instanzen, separate Datenbanken (Postgres-Schemas) und strenge Logging-Policies. Entscheidungslogik muss versioniert und testbar sein; wir behandeln Regeln wie Softwareartefakte, mit Unit-Tests, Simulationen und Canary-Releases.

Compliance-Checkliste (Kurz)

  • Datensilos identifizieren und klassifizieren
  • Verschlüsselung in Transit und At-Rest
  • Datenminimierung: nur relevante Teildaten für Modelle verwenden
  • Audit-Logs und Explainability-Mechanismen
  • Regelmäßige Sicherheits- und DSGVO-Reviews

Wie wir PoCs in 3 Wochen liefern und warum das wichtig ist

Viele PoCs scheitern an Umfang und Komplexität. Unsere AI PoC-Offerte (9.900€) ist exakt darauf ausgerichtet: innerhalb kurzer Zeit ein valider technischer Nachweis, ein funktionierender Prototyp und ein klarer Produktionsplan. Wir arbeiten nach unserem Co-Preneur-Prinzip: wir übernehmen Verantwortung, arbeiten in der P&L des Kunden und liefern Ergebnisse statt Theorien.

In Praxiseinsätzen haben wir in wenigen Tagen AI-Module für Fehlerdiagnose, Angebotserstellung oder Wartungsplanung aufgebaut – mit klaren Metriken für Qualität, Laufzeit und Kosten pro Inferenz. Diese Geschwindigkeit macht einen entscheidenden Unterschied: frühzeitige Erkenntnisse statt monatelanger Unsicherheit.

Innovation beschleunigen?

Unser Expertenteam hilft Ihnen, Ideen in produktionsreife Lösungen zu verwandeln.

Empfohlene Architektur: Bausteine & Integration

Eine wiederverwendbare Architektur für Manufacturing-AI sieht bei uns typischerweise so aus:

  • Edge-Collector – Datensammlung von PLCs, MES und Sensoren
  • Ingest-Pipeline – ETL in Postgres & MinIO
  • Feature Store – Zeitreihen und technische Metriken
  • Model Layer – Private LLMs, klassische ML-Modelle, Multi-Model Router
  • Orchestrator / Agents – autonome Workflow-Ketten
  • SSRs & APIs – Python-Anwendungen für Nutzerinteraktion
  • Ops & Security – Coolify für Deployments, Monitoring, KMS

Diese Komponenten haben sich in mehreren Projekten als stabil und wartbar erwiesen. Sie erlauben schnelle Iteration und gleichzeitig industrielle Robustheit.

Takeaways & konkrete Handlungsempfehlungen für Entscheider

Für CTOs und Produktionschefs im Raum Stuttgart heißt das konkret:

  • Starten Sie mit einem fokussierten PoC (3 Wochen) auf einen klaren Use-Case wie Ersatzteilmanagement oder Service-Triage.
  • Setzen Sie auf private LLM-Infrastruktur (z. B. Hetzner) für Kosten- und Datenschutzkontrolle.
  • Priorisieren Sie domain-spezifische Wissensmodelle über generische RAG-Ansätze, wenn Zuverlässigkeit zählt.
  • Nutzen Sie agentische Systeme für autonome Workflows, aber behalten Sie Human-in-the-Loop.
  • Bauen Sie modulare Architekturen mit Coolify, Postgres, MinIO und Multi-Model Routing.

Wir bei Reruption unterstützen Sie dabei mit unserem Co-Preneur-Ansatz: wir bauen nicht nur Prototypen, wir liefern Produkte und die organisatorischen Fähigkeiten, um diese Lösungen nachhaltig zu betreiben.

Call to Action

Wenn Sie wissen wollen, wie ein realistischer 3-Wochen-PoC für Ihre Fertigung aussehen könnte, sprechen Sie mit uns. Wir definieren gemeinsam den Use-Case, setzen ein schlankes technisches Setup (inkl. Architektur-Skizze und Sicherheitsrahmen) auf und liefern einen funktionierenden Prototyp mit klaren Metriken. Kein Pitch, sondern ein gebautes Ergebnis.

Kontaktieren Sie Reruption – wir zeigen Ihnen, wie Sie 2025 mit AI echten Mehrwert erzeugen: schneller, sicherer und messbar.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media