Innovatoren dieser Unternehmen vertrauen uns

Herausforderung vor Ort

Berliner Logistik‑ und Mobilitätsunternehmen stehen unter massivem Druck: steigende Kundenansprüche, volatile Nachfrage und komplexe Lieferketten zwingen zu schnellerer, datengetriebener Entscheidungsfindung. Viele Versuche mit KI enden als Proof‑of‑Concepts ohne Produktionsreife — das Problem ist nicht die Idee, sondern die Umsetzung.

Warum wir die lokale Expertise haben

Reruption kommt aus Stuttgart, aber wir sind regelmäßig in Berlin vor Ort und arbeiten eng mit lokalen Teams zusammen. Wir kennen das Tempo der Startups, die Erwartungshaltung von Investorinnen und die Operationalität etablierter Player — und wir bringen die technische Tiefe mit, um schnelle Prototypen in produktionsfähige Systeme zu überführen.

Unsere Arbeitsweise ist darauf ausgerichtet, unmittelbar Wert zu liefern: Wir arbeiten wie Mitgründer, übernehmen Produkt‑ und Engineering‑Ownership und bleiben so lange im P&L‑Kontext, bis das System zuverlässig skaliert. Für Berliner Teams bedeutet das: weniger interne Reibungsverluste, schnellere Time‑to‑Market und klare technische Roadmaps.

Unsere Referenzen

Für eCommerce‑Logistik und Plattformmodelle bringen wir Erfahrung aus Projekten mit Internetstores (MEETSE, ReCamp), wo wir komplexe Geschäftsmodelle mit Produktvalidierung und Qualitätssicherung begleitet haben. Solche Erfahrungen übertragen sich direkt auf die Optimierung von Retourenprozessen, Qualitätsprüfungen und Bestandssichtbarkeit in Logistikprojekten.

Im Bereich Mobilität und Automotive haben wir mit Mercedes Benz an einem KI‑basierten Recruiting‑Chatbot gearbeitet, der NLP für 24/7‑Kommunikation und automatisierte Vorqualifizierung nutzt — eine Erfahrung, die sich auf Passagierkommunikation, Fahrerrekrutierung oder Flottenmanagement anwenden lässt. Außerdem haben wir mit Herstellern und Zulieferern wie Eberspächer und STIHL an Produktions‑ und Trainingslösungen gearbeitet, die Supply‑Chain‑Sichtbarkeit und operative Robustheit verbessern.

Über Reruption

Reruption hilft Unternehmen, sich proaktiv neu zu erfinden statt auf Disruption zu reagieren. Unsere Co‑Preneur‑Philosophie bedeutet, dass wir uns wie Mitgründer in Projekte einbringen: schnelle Entscheidungen, technisches Delivery‑Kraftwerk und unternehmerische Verantwortung — nicht nur Empfehlungen in Präsentationen.

Für Berliner Kunden kombinieren wir lokales Marktverständnis mit Produktions‑Engineering: von maßgeschneiderten LLM‑Anwendungen und Copilots bis zu selbst gehosteter Infrastruktur. Wir reisen regelmäßig nach Berlin, arbeiten vor Ort mit Ihren Teams und liefern Lösungen, die in Ihrer Umgebung funktionieren.

Interesse an einem schnellen technischen Proof of Concept?

Wir liefern einen funktionierenden Prototyp, Performance‑Metriken und einen Produktionsplan. Wir reisen regelmäßig nach Berlin und arbeiten vor Ort mit Ihrem Team.

Was unsere Kunden sagen

Hans Dohrmann

Hans Dohrmann

CEO bei internetstores GmbH 2018-2021

Das ist die systematischste und nachvollziehbarste Go-to-Market Strategie, die ich bezüglich Corporate Startups je gesehen habe.
Kai Blisch

Kai Blisch

Director Venture Development bei STIHL, 2018-2022

Extrem wertvoll ist dabei Reruptions starker Fokus auf die Nutzer*innen, deren Bedürfnisse und das kritische Hinterfragen von Vorgaben. ... und nicht zuletzt macht die Zusammenarbeit riesige Freude.
Marco Pfeiffer

Marco Pfeiffer

Head of Business Center Digital & Smart Products bei Festool, 2022-

Reruption evaluierte systematisch ein neues Geschäftsmodell mit uns: besonders beeindruckend fanden wir die Fähigkeit auch komplexe Sachverhalte nachvollziehbar darzustellen.

KI‑Engineering für Logistik, Supply Chain & Mobilität in Berlin: ein tiefer Blick

Berlin ist Deutschlands Innovationsmotor: ein dichtes Geflecht aus Startups, Logistikdienstleistern, Plattformen und Technologieanbietern. Diese Vielfalt erzeugt enorme Chancen für KI‑gestützte Automatisierung: von Nachfragevorhersage über Routenoptimierung bis zu vertraglicher Risikoanalyse. Doch die Herausforderung besteht darin, diese Ideen in nachhaltige, skalierbare Systeme zu übersetzen.

Marktanalyse und Zustand der Branche

Die Berliner Szene treibt schnelle Prototypen voran, oft mit Fokus auf Benutzererlebnisse und Wachstum. Viele Projekte erreichen jedoch keine Produktionsreife, weil Datenqualität, Infrastrukturlücken und organisatorische Silos unterschätzt werden. Gleichzeitig sind Investitionen in Logistik‑Tech und Mobilitätsdienste hoch; wer Produktions‑ML liefert, kann signifikanten Wettbewerbsvorteil erzielen.

Für Betreiber von Fulfillment‑Centern, Flottenmanagern und Plattformen gilt: kurzfristige Optimierungen (z. B. bessere Routenplanung) wirken direkt auf Kosten und Servicelevel, während langfristige Investitionen (z. B. Prognosemodelle, Vertragsanalysen) strategische Resilienz schaffen.

Spezifische Use Cases, die wirklich wirken

Planungs‑Copilots: Interaktive Assistenten, die Disponenten bei Szenarienplanung unterstützen, ermöglichen schnellere Entscheidungen bei Störungen. Ein Copilot kann historische Daten, Echtzeit‑Telematik und SLA‑Vorgaben kombinieren, um alternative Pläne vorzuschlagen und deren wirtschaftliche Folgen zu simulieren.

Routen‑ & Nachfrage‑Forecasting: Hybride Modelle, die klassische Zeitreihenverfahren mit LLM‑gestützten Kontextfeatures (Veranstaltungen, Wetter, lokale Trends) verbinden, erhöhen die Vorhersagequalität. In Berlin mit seinen saisonalen Peaks und Events ist diese Präzision besonders wertvoll.

Risiko‑Modellierung & Vertragsanalyse: NLP‑Pipelines für Vertragsprüfung und Risikobewertung automatisieren die Identifikation kritischer Klauseln, Fristen und Haftungsrisiken. In komplexen Lieferketten reduziert das juristische Überraschungen und beschleunigt Entscheidungsprozesse.

Implementierungsansatz: Von PoC zur Produktionsreife

Ein erfolgreicher Übergang beginnt mit einer klaren Use‑Case‑Definition: Input, gewünschtes Output, KPI‑Baselining und technische Constraints. Unser AI PoC‑Modul (9.900€) ist ideal, um technische Machbarkeit und initiale Performance zu validieren, bevor Ressourcen in Engineering‑Sprints fließen.

Architekturentscheidungen müssen frühzeitig getroffen werden: Welche Modelle (OpenAI, Anthropic, Groq oder self‑hosted) passen zum Datenschutz und Kostenprofil? Brauchen Sie eine no‑RAG private Chatbot‑Strategie oder eine vektorisierte Enterprise‑Knowledge‑Lösung mit Postgres + pgvector? Diese Entscheidungen beeinflussen Architektur, Betriebskosten und Compliance.

Technologie‑Stack und Infrastruktur

In Berlin bevorzugen viele Unternehmen hybride Ansätze: sensible Daten bleiben on‑premises oder in privaten Cloud‑Setups, während inferencing teilweise extern erfolgt, um Kosten zu optimieren. Wir bauen self‑hosted Infrastrukturen mit Komponenten wie Hetzner, MinIO, Traefik und Coolify, um Kontrolle, Performance und Kosten in Einklang zu bringen.

Für Datenoperationen sind belastbare ETL‑Pipelines und Observability unverzichtbar. Datenaufbereitung, Feature‑Stores und Monitoring (Kosten pro Inferenz, Latenz, Drift) sind Teil eines Produktions‑Engineering‑Setups, das produktionsreife KI‑Systeme skalierbar macht.

Erfolgsfaktoren und häufige Stolpersteine

Erfolgsfaktoren sind klar definierte KPIs, cross‑funktionale Teams (Produkt, Data Engineering, Legal, Operations) und iteratives Deployment. Häufige Stolpersteine: unklare Datenverantwortung, zu frühe Modellwahl, Vernachlässigung von Observability und fehlende Change‑Management‑Strategien für operative Nutzer.

Ein weiterer Fehler ist die Isolation von KI‑Projekten in Labs. Wir empfehlen Embedded‑Teams, die direkt mit Disponenten, Fahrern und Kundenservice arbeiten — so entstehen Lösungen, die wirklich angewendet werden.

ROI‑Betrachtung und Zeitplan

Erwartbare Effekte: Reduktion von Leerfahrten, bessere Auslastung, schnellere Reaktionszeiten bei Störungen, geringere Vertrags‑ und Compliance‑Risiken. Erste messbare Verbesserungen (z. B. bessere Routenplanung, automatisierte Vertragsauszüge) sind oft innerhalb von 8–12 Wochen sichtbar, während komplette Systemintegrationen 6–12 Monate benötigen.

ROI‑Berechnungen sollten Total Cost of Ownership einschließen: Entwicklungsaufwand, Infrastrukturkosten, laufende Modell‑Updates und Organisationsaufwand. Kleine, gezielte Automatisierungen liefern oft den höchsten kurzfristigen ROI.

Team‑ und Organisationsanforderungen

Produktionsreife KI braucht ein Team aus Produktmanager, Data Engineers, ML‑Engineers, Site‑Reliability‑Engineers und Domänenexpertinnen aus Logistik. Ein Co‑Preneur‑Einsatzmodell, bei dem wir als Teil Ihres Teams Verantwortung übernehmen, beschleunigt das Lernen und reduziert Koordinationsaufwand.

Change Management ist entscheidend: Operative Nutzer benötigen intuitive Interfaces (Copilots, Dashboards) und Schulungen, damit die KI‑Unterstützung Vertrauen aufbaut statt Skepsis zu erzeugen.

Integration, Sicherheit & Compliance

Integrationspunkte sind ERP, TMS, WMS, Telematik‑APIs und Partnerplattformen. Wir legen großen Wert auf sichere Schnittstellen, Datenverschlüsselung und Rollen‑/Rechte‑Management, um DSGVO‑ und Unternehmensanforderungen zu erfüllen. Self‑hosted Optionen sind oft die richtige Wahl für sensible Supply‑Chain‑Daten.

Regelmäßige Audits, Testdatenstrategien und Canary‑Deployments minimieren Risiken beim Rollout. Außerdem helfen Feature‑Flag‑Strategien, neue Modellversionen schrittweise live zu testen.

Langfristige Perspektive

KI‑Engineering ist kein einmaliges Projekt, sondern eine fortlaufende Capability. Unternehmen, die Pipelines, Observability und eine klare Governance etablieren, verwandeln KI in einen dauerhaften Wettbewerbsvorteil. In Berlin, wo Tempo und Innovationsexpektationen hoch sind, lohnt sich die Investition in nachhaltige Engineering‑Fundamente.

Bereit für die Produktion: nächste Schritte?

Vereinbaren Sie einen Workshop zur Use‑Case‑Priorisierung und erhalten Sie eine konkrete Roadmap für KI‑Engineering und Infrastruktur‑Aufbau.

Schlüsselbranchen in Berlin

Berlin ist historisch als Verwaltungs‑ und Kulturzentrum gewachsen, hat sich aber in den letzten zwei Jahrzehnten zur deutschen Startup‑Hauptstadt entwickelt. Die Kombination aus internationaler Talentszene, günstigen Lebenshaltungskosten im Vergleich zu anderen Metropolen und einer starken Gründungsförderung hat ein lebendiges Ökosystem geformt, in dem Logistik‑ und Mobilitätslösungen schnell auf neue Marktbedingungen reagieren müssen.

Die Tech‑ und Startups‑Szene treibt Innovationen voran: viele junge Unternehmen experimentieren mit Plattformmodellen, Micro‑Fulfillment und datengetriebenen Services. Diese Akteure sind oft frühe Anwender von KI, weil schnelle Iteration und Produkt‑Market‑Fit überlebenswichtig sind.

Fintech‑Cluster wie Berlin fördern Datennutzung und Automatisierung — wichtige Voraussetzungen, um Finanzflüsse und Abrechnungsprozesse in komplexen Lieferketten zu optimieren. Finanzpartner aus Berlin arbeiten zunehmend mit Logistikern zusammen, um Zahlungsströme und Risikobewertung zu integrieren.

E‑Commerce ist ein dominanter Treiber der Logistik in Berlin. Große Händler und Marktplätze erzeugen hohen Druck auf Liefergeschwindigkeit und Retourenmanagement. Das schafft Raum für KI‑gestützte Lösungen in Forecasting, Qualitätsprüfung und Lageroptimierung, die direkt auf die Margen durchschlagen.

Die Kreativwirtschaft beeinflusst die Nutzerzentrierung vieler Mobilitätsprodukte: Design‑fokussierte Interfaces, Kommunikationsdesign und Experience‑Engineering sind Kernkompetenzen, die KI‑Projekte erfolgreicher machen, weil sie Akzeptanz bei Endnutzern erhöhen.

Gleichzeitig steht die Branche vor Herausforderungen: Infrastrukturengpässe, Regulierungsdruck und die Notwendigkeit nachhaltiger Praktiken verlangen intelligente, datengetriebene Entscheidungen. KI kann hier helfen, Emissionen zu reduzieren, Auslastung zu optimieren und Lastspitzen zu glätten.

Für Berliner Unternehmen heißt das: Wer KI nicht nur als Proof‑of‑Concept, sondern als Produktionssystem denkt, kann Prozesskosten senken, Servicelevel steigern und neue Geschäftsmodelle entwickeln — von dynamischer Preisgestaltung bis zu automatisierten Vertragsprüfungen.

Interesse an einem schnellen technischen Proof of Concept?

Wir liefern einen funktionierenden Prototyp, Performance‑Metriken und einen Produktionsplan. Wir reisen regelmäßig nach Berlin und arbeiten vor Ort mit Ihrem Team.

Wichtige Akteure in Berlin

Berlin ist Heimat zahlreicher Unternehmen, die Logistik, Mobilität und E‑Commerce prägen. Das Zusammenspiel von Plattformen, Fintechs und Lieferdiensten formt die lokale Nachfrage nach skalierbaren KI‑Lösungen und schafft ein einzigartiges Umfeld für Produktionsteams.

Zalando hat als Mode‑Plattform nicht nur den Handel, sondern auch die Logistiklandschaft beeinflusst. Mit großen Fulfillment‑Operationen und datengetriebenen Teilen der Customer Journey ist Zalando ein Treiber für Innovationen bei Vorhersagemodellen, Retourenmanagement und Lageroptimierung.

Delivery Hero hat Lieferlogistik und Plattformökonomie in großem Maßstab umgesetzt. Die Anforderungen an Echtzeit‑Routing, Lastenausgleich und Kundenerlebnis bei Lieferdiensten prägen zahlreiche Best Practices, die sich auch in anderen Mobilitäts‑ oder Logistiklösungen übertragen lassen.

N26 und andere Fintechs haben gezeigt, wie datengetriebene Prozesse Zahlungsströme und Kreditentscheidungen automatisieren können. Für Logistikakteure sind solche Integrationen relevant, wenn es um Zahlungsabwicklungen, Factoring‑Modelle oder Risikomessung in der Lieferkette geht.

HelloFresh betreibt komplexe, zeitkritische Lieferketten mit hoher SKU‑Vielfalt und kurzen Haltbarkeiten. Die Optimierung von Nachfrageprognosen, Lagerhaltung und Distribution in solchen Modellen ist ein klares Beispiel dafür, wie KI operative Effizienz steigern kann.

Trade Republic repräsentiert die Skalierbarkeit von digitalen Plattformen und zeigt, wie robuste Backend‑Infrastrukturen und Automatisierung auch in regulierten Umgebungen funktionieren. Die Lehren hinsichtlich Compliance und skalierbarer Architektur sind für Mobilitätsplattformen relevant.

Zusammen bilden diese Akteure ein dichtes Netzwerk aus Innovation, Kapital und Talent. Für Anbieter von KI‑Engineering bedeutet das Zugang zu frühen Pilotkunden, erfahrenen Produktteams und einer Kultur, die schnelle Iteration honoriert — vorausgesetzt, die Lösungen sind industrialisierbar und sicher.

Bereit für die Produktion: nächste Schritte?

Vereinbaren Sie einen Workshop zur Use‑Case‑Priorisierung und erhalten Sie eine konkrete Roadmap für KI‑Engineering und Infrastruktur‑Aufbau.

Häufig gestellte Fragen

Die Entscheidung zwischen self‑hosted Infrastruktur und Public Cloud hängt von mehreren Faktoren ab: Daten­sensitivität, Kosten, Latenzanforderungen und langfristige Governance. In Berlin sehen wir eine Mischung: Startups mit geringer Datenhoheit nutzen meist Cloud‑APIs für schnelle Iteration, während Logistik‑ und Mobilitätsanbieter mit sensiblen Telematik‑ und Vertragsdaten oft self‑hosted‑Lösungen bevorzugen, um Kontrolle und Compliance zu sichern.

Self‑hosted Argumente sind Datenschutz, Vorhersehbarkeit der Kosten und die Möglichkeit, Modelle ohne externe Abhängigkeit zu betreiben. Technologien wie Hetzner, MinIO, Traefik und Coolify erlauben es, skalierbare, kosteneffiziente Umgebungen aufzubauen, die für Produktionslasten geeignet sind.

Cloud‑Services bieten hingegen schnellen Zugang zu neuesten Modellen und Managed Services für Inferenz und Datenverarbeitung. Für viele Berliner Unternehmen ist ein hybrider Ansatz sinnvoll: sensitive Komponenten on‑premises, nicht‑kritische Inferenz in der Cloud, oder einfallsreiche Caching‑Strategien für Kostenoptimierung.

Praktische Empfehlung: Beginnen Sie mit einem Machbarkeits‑PoC auf Cloud‑Ressourcen, um Time‑to‑Value zu beschleunigen, und planen Sie parallel die Architektur für eine spätere Migration oder Hybrid‑Betriebsform, falls Compliance oder Kosten dies erfordern.

ROI hängt stark vom gewählten Use‑Case, der Datenlage und der Organisation ab. Use‑Cases mit direktem operativen Bezug wie Routenoptimierung, Lastplanung oder automatisierte Vertragsprüfung liefern oft die schnellsten Effekte, weil sie unmittelbar Stellgrößen für Kosten und Servicelevel verändern.

In der Praxis sehen wir bei klar definierten, engen Use‑Cases oft sichtbare Verbesserungen innerhalb von 8–12 Wochen: geringere Transportkosten, reduzierte Leerfahrten oder schnellere Vertragsdurchläufe. Komplett integrierte Plattformen, die mehrere Systeme umfassen, benötigen länger — typischerweise 6–12 Monate.

Wichtig ist die Messbarkeit: Legen Sie vor Projektstart KPIs fest (z. B. Cost‑per‑Delivery, On‑Time‑Rate, Vertragsdurchlaufzeit). Ohne belastbare Baselines lassen sich Einsparungen schwer quantifizieren. Ein kleines, gut gemessenes Projekt kann mehr liefern als ein großer, schlecht gemanagter PoC.

Unser Ansatz: Wir starten mit einem technischen PoC, liefern einen klaren Produktionsplan und berechnen TCO, damit Entscheidungen auf Basis realer Zahlen getroffen werden können — nicht auf Annahmen.

Ein Planungs‑Copilot benötigt strukturierte und unstrukturierte Daten: historische Transport‑ und Auftragsdaten, Telematik‑Feeds, Lagerbestände, SLA‑Vorgaben, Kalender‑ und Eventdaten sowie manchmal vertragliche Dokumente. Häufig fehlen jedoch Datenvereinheitlichung und Metadaten, die für robuste Modelle wichtig sind.

Datenbereinigung beginnt mit der Definition von Verantwortlichkeiten: Wer ist Owner für welches Dataset? Anschließend werden Standardisierungen vorgenommen (Zeitstempel, Zeitzonen, Einheiten), fehlende Werte adressiert und Anomalien markiert. Feature‑Engineering für Copilots umfasst die Berechnung von Ladezeiten, Transferzeiten, Zeitfensterengpässen und Prioritätskennzahlen.

Ein weiterer zentraler Schritt ist die Anreicherung mit externen Kontextdaten (Wetter, Events, Baustellen), die in Städten wie Berlin großen Einfluss auf Kapazitätsplanung haben können. Diese Features verbessern die Vorhersagequalität erheblich.

Praktisch arbeiten wir iterativ: zuerst Minimaldatensatz für PoC, dann inkrementell zusätzliche Features und Observability‑Metriken einführen, um Modellperformance im realen Betrieb zu messen und zu verbessern.

Integration beginnt mit der Kartierung der Datenflüsse und Schnittstellen: Welche Systeme liefern Auftragsdaten, Telematik, Lagerstände und Kundendaten? Auf Basis dieser Analyse definieren wir API‑Schichten, Event‑Driven‑Pipelines oder Batch‑Jobs für Datenlieferung. Die Integration sollte modular und stabil sein, damit einzelne Komponenten ausgetauscht werden können.

Technisch empfehlen wir eine API‑first‑Strategie: Modelle werden über standardisierte Endpunkte verfügbar gemacht, sodass TMS/WMS die Ergebnisse (z. B. optimierte Routen oder Prioritäten) konsumieren können. Message‑Queues oder Webhooks sind oft hilfreich, um Latenz und Lastspitzen zu managen.

Ein kritischer Aspekt ist das Monitoring: Im produktiven Betrieb müssen Input‑Verteilungen, Modell‑Drift, Latenz und Erfolgsraten beobachtbar sein. Nur so kann ein integratives System zuverlässig betrieben werden. Dazu gehört auch das Versionieren von Modellen und die Möglichkeit zum Rollback.

Organisatorisch sind Change‑Windows und enge Abstimmung mit Operations und IT entscheidend. Pilotierung in einem klar begrenzten Geschäftsbereich reduziert Risiken und schafft Erfahrungswerte vor unternehmensweiter Rollout.

LLMs haben sich als leistungsfähige Werkzeuge für Vertragsanalyse etabliert, weil sie unstrukturierte Sprache verstehen und extrahierte Informationen in strukturierte Form überführen können. In Supply‑Chain‑Szenarien helfen sie, Fristen, Haftungsbedingungen, Kündigungsklauseln und Preismechanismen schnell zu identifizieren.

Wichtig ist, LLMs nicht als alleinige Jurorinnen zu sehen: Sie sollten Teil eines hybriden Workflows sein, der automatisierte Extraktion, Regelprüfung und menschliche Review kombiniert. Dadurch steigert man Geschwindigkeit ohne nennenswerten Qualitätsverlust.

Datenschutz und Nachvollziehbarkeit sind zentrale Punkte: Versionierte Pipelines, Audit‑Logs und explainability‑Mechanismen sind notwendig, damit extrahierte Vertragsdaten rechtssicher genutzt werden können. Für manche Unternehmen ist eine no‑RAG‑Strategie oder private, vektorisierte Knowledge‑Bases die richtige Wahl.

In der Praxis liefern wir Beispiele und Templates, die Vertragsklauseln standardisieren und Prioritäten für menschliche Prüfungen setzen, wodurch Durchlaufzeiten und rechtliches Risiko reduziert werden.

Anwenderakzeptanz ist oft der limitierende Faktor für den Erfolg von KI‑Projekten. Technologie allein reicht nicht: Empfehlungen müssen vertrauenswürdig, nachvollziehbar und leicht konsumierbar sein. Copilots und Dashboards sollten in die bestehenden Arbeitsabläufe eingebettet werden, nicht daneben existieren.

Transparenz hilft: Erklären Sie, warum eine Empfehlung kommt (z. B. wichtigste Einflussfaktoren), und bieten Sie einfache Feedback‑Mechanismen, damit Nutzer Korrekturen melden können. Solche Rückkopplungen verbessern Modelle und erhöhen das Vertrauen in die Lösung.

Schulung und Change Management sind unverzichtbar. Kurze, rollenspezifische Trainings, begleitende On‑the‑job‑Coachings und klare Success Stories aus der eigenen Organisation fördern die Akzeptanz. Außerdem sollten Leistungskennzahlen angepasst werden, damit Teams von Effizienzgewinnen profitieren.

Operative Piloten in kleinen, repräsentativen Teams liefern schnelle Erfolgsbeispiele. Wenn diese Erfolge sichtbar sind, skaliert die Nutzung organisch — vorausgesetzt, die Lösung ist robust und lässt sich in Tagesgeschäftssituationen sicher nutzen.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media