Wie hilft professionelles KI-Engineering Berliner Unternehmen der Energie- & Umwelttechnologie, resilient und produktionsfähig zu werden?
Innovatoren dieser Unternehmen vertrauen uns
Lokale Herausforderung: Komplexität trifft Regulierung
Berliner Anbieter in Energie- und Umwelttechnologie stehen unter dem Druck, komplexe Vorhersagen, regulatorische Anforderungen und umfangreiche Dokumentationen zuverlässig zu handhaben. Viele Prototypen scheitern beim Übergang in Produktion, weil Data-Pipelines, Compliance-Anforderungen und Betriebssicherheit nicht von Anfang an mitgedacht wurden.
Warum wir die lokale Expertise haben
Reruption reist regelmäßig nach Berlin und arbeitet vor Ort mit Kunden: Wir verstehen das Tempo der Hauptstadt, die Nähe zu Startups, Forschungseinrichtungen und Investoren sowie die besondere Erwartung an schnelle, belastbare Ergebnisse. Unsere Co-Preneur-Mentalität bedeutet, dass wir nicht nur beraten, sondern Verantwortung übernehmen und gemeinsam mit Ihrem Team reale Systeme ausliefern.
Berlin ist ein Talent-Magnet mit einer eigenen Mischung aus jungen Tech-Teams und etablierten Unternehmen. Diese Heterogenität verlangt für KI-Engineering pragmatische Lösungen, die sowohl in Cloud- als auch in privaten, selbst-gehosteten Umgebungen funktionieren — eine Stärke unserer technischen Teams.
Unsere Referenzen
Für Projekte mit starkem Umwelt- und Technologiebezug bringen wir Erfahrung aus der Zusammenarbeit mit Unternehmen wie TDK, bei dem technologische Lösungen zur Schadstoffbeseitigung und spin-off-getriebene Produktentwicklung im Mittelpunkt standen. Unser Verständnis für komplexe, regulierte Tech-Produkte ist daraus direkt übertragbar auf Energie- und Umwelttechnologie-Projekte.
Im Bereich nachhaltiger Geschäftsmodelle und der digitalen Neuausrichtung haben wir mit Greenprofi strategisch gearbeitet, Prozesse digitalisiert und Wachstumspfade in nachhaltig orientierten Märkten gestaltet — Experience, die sich nahtlos auf Use-Cases wie Demand-Forecasting und Dokumentationssysteme übertragen lässt.
Über Reruption
Reruption wurde gegründet, um Unternehmen nicht nur zu beraten, sondern sie zu «rerupt» — also proaktiv neu auszurichten, bevor Marktdruck es verlangt. Wir kombinieren strategische Klarheit mit schneller Engineering-Umsetzung und bauen Produktionstaugliches statt PowerPoint-Pläne.
Unsere Co-Preneur-Methodik verankert uns direkt in der Organisation: Wir arbeiten in Ihrem P&L, führen Experimente, bauen Prototypen und skalieren Lösungen so, dass sie in den täglichen Betrieb passen. In Berlin agieren wir als externe, aber tief eingebundene Partner, die vor Ort umsetzen.
Möchten Sie einen PoC für Demand-Forecasting oder einen Regulatory Copilot starten?
Wir kommen gern nach Berlin, scopen den Use-Case vor Ort und liefern binnen Tagen einen funktionierenden Proof of Concept inklusive technischer Bewertung und Roadmap.
Was unsere Kunden sagen
KI-Engineering für Energie- & Umwelttechnologie in Berlin — ein pragmatischer Leitfaden
Die Kombination aus schnell wachsenden Startup-Ökosystemen und einem regulativen Umfeld macht Berlin zu einem spannenden, aber anspruchsvollen Markt für KI-Lösungen in der Energie- und Umwelttechnologie. Technologie allein reicht nicht: Produktionstauglichkeit, Datenschutz, Nachvollziehbarkeit und Betriebskonzepte sind entscheidend.
Marktanalyse und strategische Chancen
Der Markt für Energie- und Umwelttechnologie in Berlin wächst entlang mehrerer Achsen: dezentrale Energiesysteme, Smart-Grids, Wasser- und Luftqualitätssensorik sowie industrielle Emissionskontrolle. Diese Bereiche erzeugen große Mengen heterogener Daten, die mit geeigneten KI-Pipelines in Wert transformiert werden können. Für Berliner Unternehmen bedeutet das eine Chance, datengetriebene Geschäftsmodelle zu entwickeln, die sich schnell skalieren lassen.
Investoren in Berlin suchen Lösungen, die regulatorische Hürden adressieren und gleichzeitig skalierbar sind. KI-Engineering-Projekte müssen deshalb frühzeitig Architekturentscheidungen treffen, die Compliance, Nachvollziehbarkeit und Kostenkontrolle erlauben. Modelle, die in der Cloud schneller iteriert werden, sollten parallel auf Self-Hosted-Optionen getestet werden, um Datenschutz- und Ausfallszenarien zu adressieren.
Ein realistisches Marktbild verlangt auch, typische Käuferzyklen zu beachten: öffentliche Auftraggeber und Energieversorger haben längere Prüfprozesse, während Startups und Mittelstand schneller experimentieren. Ein gestaffelter Roadmap-Ansatz, der PoC, Pilot und Produktion mit klaren Metriken verbindet, passt besonders gut zu Berlin.
Spezifische Use-Cases und ihre Umsetzung
Demand-Forecasting ist ein Paradebeispiel: KI-Modelle kombinieren historische Verbrauchsdaten, Wetterprognosen, Netzzustände und Marktpreise. Entscheidend ist nicht nur das Modell, sondern ein robustes Data-Engineering: ETL-Pipelines, Feature Stores, Zeitreihenmanagement und Canary-Deployments. Unsere Arbeit konzentriert sich darauf, diese Komponenten als wiederverwendbare, production-grade-Elemente zu liefern.
Regulatory Copilots entlasten Compliance-Teams, indem sie Vorschriften strukturieren, relevante Dokumente automatisch klassifizieren und Handlungsempfehlungen formulieren. Solche Systeme müssen erklärbar und revisionssicher sein; hier liefern wir hybride Architekturen, die klassische Regeln mit LLM-basierten Assistenzsystemen kombinieren und Audit-Trails sicherstellen.
Dokumentationssysteme sind ein dritter Bereich: Viele Firmen kämpfen mit heterogenen technischen Handbüchern, Zulassungsunterlagen und Prüfberichten. Eine production-ready Lösung verbindet semantische Suchsysteme auf Basis von Enterprise Knowledge Systems (Postgres + pgvector) mit Versionierung, Zugriffskontrolle und Integrationen in bestehende PLM- oder DMS-Systeme.
Implementationsansatz: von PoC zu Produktion
Unser Standardpfad beginnt mit einem klar definierten PoC: Use-Case-Scoping, machbarkeitsorientierte Modellwahl, schnelles Prototyping und eine Performance-Evaluation. Ein PoC für Berliner Energieprojekte beinhaltet typischerweise Datenanbindung an Sensoren, erste Forecast-Modelle und eine einfache Nutzeroberfläche für Fachanwender.
Nach dem PoC folgt ein technischer Roadmap-Plan, der Infrastruktur, Kosten pro Lauf, SLAs und Betriebskonzepte umfasst. Für Kunden in Berlin empfehlen wir oft hybride Deployments: Kernservices in geprüften Clouds plus Self-Hosted-Komponenten (z. B. Hetzner, MinIO, Traefik) für besonders schützenswerte Daten oder für Szenarien mit strengen Latenzanforderungen.
Wichtig ist die Automatisierung von Tests und Deployments: CI/CD-Pipelines für Modelle, Monitoring für Concept Drift, Prometheus-ähnliche Metriken für Performance und Alerting-Systeme, die Fachteams benachrichtigen. Ohne diese Produktionsdisziplin bleiben Projekte instabil und teuer.
Erfolgsfaktoren, Risiken und typische Stolperfallen
Ein zentraler Erfolgsfaktor ist die frühe Einbindung von Fachexperten und Compliance-Teams. KI-Ingenieure, Dateningenieure und Domänenexpert:innen müssen gemeinsam die Metriken definieren, an denen Erfolg gemessen wird. Fehlende Akzeptanz entsteht oft aus fehlender Transparenz der Modelle oder wenn der Nutzen für die operativen Anwender nicht klar ist.
Typische Risiken sind Datenqualität, fehlende Daten-Governance und unrealistische Erwartungen an sofortige Automatisierung. Wir begegnen dem mit iterativen Deliverables: kleine, sichtbare Verbesserungen statt großer, unsicherer Big-Bang-Projekte.
Ein weiterer häufiger Fehler ist die Vernachlässigung des Betriebs. Modelle brauchen regelmäßige Retrainings, Datenpipelines müssen resilient gegen Ausfälle sein, und Sicherheitsprüfungen müssen in den Lebenszyklus integriert werden. Nur so werden LLM-Anwendungen, Copilots oder Forecasting-Systeme belastbar.
ROI, Zeitpläne und Team-Anforderungen
ROI-Betrachtungen in der Energie- und Umwelttechnik sollten neben direkten Einsparungen (z. B. durch bessere Prognosen) auch Reduktion von Compliance-Risiken, schnellere Markteinführung und verbesserte Service-Level berücksichtigen. PoCs liefern innerhalb von Tagen bis wenigen Wochen belastbare Metriken; ein tragfähiger Produkt-MVP ist meist in 3–6 Monaten erreichbar, produktive Systeme in 6–12 Monaten bei klarer Priorisierung.
Das erforderliche Team kombiniert Data Engineers, ML Engineers, Backend-Entwickler, DevOps/Infra-Spezialisten und Domänenexpert:innen aus Energie/Umwelt. Unsere Co-Preneur-Teams fügen sich in bestehende Strukturen ein und können Lücken kurzfristig schließen — ein Vorteil, wenn Berliner Unternehmen agil vorgehen wollen.
Technologie-Stack und Integrationsfragen
Für produktionsfähige Systeme nutzen wir eine Mischung aus Open-Source- und proprietären Komponenten: Postgres + pgvector für semantische Suche, vertrauenswürdige LLM-APIs oder self-hosted Modelle, ETL-Frameworks für Datenpipelines, Observability-Stacks für Monitoring und Tools wie Coolify oder Traefik für Deployment-Management. In Berlin sind Betreiber oft offen für Self-Hosted-Ansätze auf Hetzner, die Kostenkontrolle und Datenschutz vereinen.
Integrationen in bestehende Backend-Systeme, SCADA-Umgebungen oder ERP/PLM sind praktisch immer erforderlich. Wir entwerfen API-First-Architekturen, die sichere Datenflüsse, Rollenrechte und Nachvollziehbarkeit gewährleisten. Besonders in regulierten Umfeldern ist die Dokumentation aller Datenflüsse und Modellentscheidungen unverzichtbar.
Change Management und Adoption
Technik allein reicht nicht: Die Einführung produktionsfähiger KI-Lösungen verlangt kulturelle Anpassungen. Teams müssen lernen, mit assistiven Systemen zu arbeiten und Entscheidungen mit AI-Unterstützung nachzuvollziehen. Wir begleiten Schulungen, Onboarding von Copilots und rollenbasierte Trainings, damit Lösungen tatsächlich genutzt werden.
Ein pragmatischer Weg ist, erste Automatisierungen als Assistenzfunktionen zu positionieren, Verantwortung beim Menschen zu belassen und Effizienzgewinne nachzuweisen. So entstehen Vertrauen und Akzeptanz, die dann den Weg zu weitergehender Automatisierung eröffnen.
Bereit, Ihre KI-Lösung produktionsfähig zu machen?
Kontaktieren Sie uns für ein unverbindliches Erstgespräch — wir besprechen Zeitplan, Teambedarf und erste Architekturideen mit klaren nächsten Schritten.
Schlüsselbranchen in Berlin
Berlin hat sich in den letzten zwei Jahrzehnten von einer kreativen Gründerstadt zu einem breiten Technologiezentrum entwickelt. Ursprünglich geprägt von der Kreativwirtschaft und Startups, hat sich die Stadt in den Bereichen digitale Infrastruktur, Fintech und E‑Commerce positioniert — Strukturen, die heute auch für Energie- und Umwelttechnologie relevant sind. Die Nähe zu Forschungsinstituten und Universitäten liefert frische Ideen, die in die Entwicklung neuer Energie- und Umweltlösungen einfließen.
Die Tech- und Startup-Szene macht Berlin besonders agil. Kleine Teams experimentieren schnell mit neuen Geschäftsmodellen — von Mikronetzen bis zu datengetriebenen Services für Emissionsmonitoring. Dieser Innovationsgeist erzeugt ein fruchtbares Umfeld für KI-Anwendungen, weil Prototypen früh getestet und iteriert werden können.
Fintech- und E‑Commerce-Kluster haben in Berlin robuste Lösungen für Dateninfrastruktur, Skalierung und Nutzerorientierung hervorgebracht. Diese Expertise ist übertragbar: Forecasting-Modelle aus dem Handel lassen sich auf Energieverbrauch und Netzlast adaptieren, während Zahlungs- und Marktmechanismen aus Fintech neue Geschäftsmodelle für Energiehandel ermöglichen.
Die Kreativwirtschaft liefert wertvolle Kompetenzen in UX, Kommunikation und gesellschaftlicher Akzeptanz — ein nicht zu unterschätzender Faktor bei der Einführung von Umwelttechnologien. Wenn Anwender Green-Tech-Lösungen nicht verstehen oder nicht vertrauen, scheitert die Adaption trotz guter Technik.
Herausforderungen bleiben: Berliner Unternehmen sehen sich regulatorischen Anforderungen, fragmentierten Datenlandschaften und Fachkräftemangel gegenüber. Insbesondere im Bereich Energie- und Umwelttechnik sind Daten oft in proprietären SCADA-Systemen oder Papierakten gebunden — genau hier bieten KI-Engineering-Projekte schnellen Hebel zur Effizienzsteigerung.
AI-Chancen bestehen in der Automatisierung von Dokumentationsprozessen, in Predictive Maintenance, im Demand-Forecasting und in Tools, die regulatorische Komplexität beherrschbar machen. Wer diese Chancen nutzt, kann in Berlin nicht nur lokal wachsen, sondern auch Lösungen exportieren — ein natürlicher Pfad in eine internationale Skalierung.
Möchten Sie einen PoC für Demand-Forecasting oder einen Regulatory Copilot starten?
Wir kommen gern nach Berlin, scopen den Use-Case vor Ort und liefern binnen Tagen einen funktionierenden Proof of Concept inklusive technischer Bewertung und Roadmap.
Wichtige Akteure in Berlin
Berlin ist Sitz vieler Firmen, die als Innovationsmotoren fungieren und ein Ökosystem bereitstellen, in dem auch Energie- und Umwelttechnologie gedeihen kann. Diese Akteure sind sowohl direkte Arbeitgeber als auch Kunden und Partner für KI-Projekte.
Zalando begann als E‑Commerce-Pionier und hat sich zu einem technischen Arbeitgeber mit großen Daten- und Infrastrukturteams entwickelt. Die Erfahrung von Zalando in skalierbaren Datenpipelines und ML-gestützten Nutzerlösungen setzt Standards, von denen auch Umwelttechnologieprojekte profitieren — etwa bei der Skalierung von Demand-Forecasting-Lösungen.
Delivery Hero ist ein Beispiel für extrem datengetriebene Logistiksysteme in Berlin. Die dort entwickelten Optimierungs- und Routing-Ansätze liefern wertvolle Impulse für Energie-Logistik, etwa beim Verteilen von Ladung in lokalen Energiesystemen oder bei der Optimierung von Ladestationen.
N26 hat mit seiner API-First-Strategie und klaren Infrastrukturentscheidungen gezeigt, wie Finanzprodukte schnell und regulatorisch konform gebaut werden. Für Regulatory Copilots und Audit-Funktionen in der Umwelttechnik sind Finanz- und Compliance-Erfahrungen aus Unternehmen wie N26 instructive.
HelloFresh verbindet Supply-Chain-Optimierung mit Verbrauchsprognosen — ein direkt übertragbares Muster für Demand-Forecasting in Energieanwendungen. Methoden zur Verknüpfung von externen Signalen (Wetter, Events) mit internen Konsummustern sind in beiden Welten nützlich.
Trade Republic ist ein Beispiel für schlanke Produktentwicklung in regulierten Märkten. Die Art, wie Trade Republic Nutzeroberflächen für komplexe Entscheidungen vereinfacht, ist ein Vorbild für die Gestaltung von Copilots, die technische Nutzer in der Energie- und Umwelttechnologie unterstützen sollen.
Bereit, Ihre KI-Lösung produktionsfähig zu machen?
Kontaktieren Sie uns für ein unverbindliches Erstgespräch — wir besprechen Zeitplan, Teambedarf und erste Architekturideen mit klaren nächsten Schritten.
Häufig gestellte Fragen
Die Dauer variiert stark nach Umfang, Datenlage und Integrationsbedarf. Ein fokussierter PoC, der Machbarkeit demonstriert und erste Metriken liefert, ist bei uns typischerweise in wenigen Tagen bis wenigen Wochen realisierbar. Solche PoCs konzentrieren sich auf konkrete Hypothesen — zum Beispiel: Verbessert ein Forecast-Modell die Vorhersagegenauigkeit um X Prozent?
Auf dem Pfad zum MVP braucht es meist 3–6 Monate. In dieser Phase bauen wir robuste Datenpipelines, führen Modelloptimierungen durch, implementieren Nutzeroberflächen und beginnen mit Monitoring und Tests. Wichtige Meilensteine sind sauber definierte Schnittstellen, Sicherheitsprüfungen und erste Nutzerakzeptanztests.
Die Produktivsetzung kann 6–12 Monate dauern, abhängig von Integrationen in bestehende Betriebsumgebungen, regulatorischen Prüfungen und dem Umfang der notwendigen Infrastruktur (z. B. Self-Hosted vs. Cloud). Für kritische Systeme, etwa Regulatory Copilots, sind oft zusätzliche Audits und Nachweise nötig.
Für Berliner Unternehmen ist Geschwindigkeit wichtig, aber gleichrangig ist die Frage nach Robustheit: Wir empfehlen daher gestaffelte Roadmaps mit klaren Nutzengarantien nach jeder Phase, sodass Investitionen kalkulierbar bleiben und Risiken minimiert werden.
Eine hybride Architektur ist in vielen Fällen sinnvoll: Kern-APIs und nicht-sensible Dienste können in geprüften Clouds betrieben werden, während besonders schützenswerte Daten oder latenzkritische Komponenten in selbst-gehosteten Umgebungen laufen. Technologien wie Hetzner, MinIO und Traefik sind häufige Bausteine für kosteneffiziente Self‑Hosted-Lösungen.
Für semantische Suche und Wissenssysteme empfehlen wir Postgres + pgvector als verlässliche, skalierbare Basis. Diese Kombination erlaubt eine kontrollierbare, nachvollziehbare Speicherung semantischer Repräsentationen, die für Regulatory Copilots und Dokumentationssysteme zentral ist.
Bei LLM-Integration setzen wir auf modell-agnostische Schichten: Eine Abstraktionsschicht erlaubt, verschiedene Provider (OpenAI, Anthropic, lokale Modelle) je nach Kosten, Datenschutz und Performance auszutauschen. API-/Backend-Design mit klaren Contracts und Retry-Mechanismen ist entscheidend für Produktionsstabilität.
Schließlich ist Observability unverzichtbar: Monitoring für Daten-Pipelines, Model-Performance (inkl. Concept Drift), Infrastrukturmetriken und Business-Metriken müssen zusammen betrachtet werden, um zuverlässigen Betrieb sicherzustellen.
Datenschutz und Compliance sind von Anfang an integraler Bestandteil unseres Engineering-Prozesses. Das beginnt bei der Datenminimalisierung: nur die Daten sammeln und speichern, die für das Modell notwendig sind, und anonymisieren, wo es möglich ist. Bei sensiblen Daten planen wir Self-Hosted-Optionen und strenge Zugriffskontrollen.
Regulatory Copilots müssen nachvollziehbar sein. Deshalb bauen wir Audit-Trails, Versionierung von Modellen und Entscheidungen sowie nachvollziehbare Feature-Engineering-Pipelines. Diese Nachvollziehbarkeit ist nicht nur für Audits relevant, sondern erhöht auch das Vertrauen der Fachanwender.
Technisch unterstützen wir Verschlüsselung in Ruhe und Transit, rollenbasierte Zugriffssysteme und regelmäßige Security Reviews. Zusätzlich empfehlen wir Penetrationstests und Compliance-Checks, die an die speziellen Anforderungen von Energie- und Umweltbehörden angepasst sind.
Organisatorisch arbeiten wir eng mit Ihren Compliance- und Rechtsabteilungen zusammen, um regulatorische Views in die Roadmap einzubetten. So vermeiden wir teure Nachbesserungen und beschleunigen den Weg in den produktiven Betrieb.
Self-Hosted-Infrastrukturen sind besonders attraktiv, wenn Datenschutz, Kostenkontrolle oder regulatorische Vorgaben im Vordergrund stehen. In Berlin, wo viele Unternehmen Wert auf Datensouveränität legen, bieten Optionen wie Hetzner oder eigene Rechenzentren einen klaren Vorteil gegenüber rein cloudbasierten Lösungen.
Praktisch bedeutet Self-Hosting aber mehr Betriebsaufwand: Deployments, Monitoring, Backups und Security müssen inhouse oder über Managed-Services organisiert werden. Wir unterstützen bei Aufbau und Automatisierung dieser Betriebsprozesse, damit Self-Hosting nicht zur Belastung wird.
Ein hybrider Ansatz kombiniert Vorteile: Modelle und Training können kurzfristig in der Cloud erfolgen, während inference-kritische oder sensible Workloads lokal laufen. Diese Flexibilität ist oft der pragmatischste Weg in Berliner Projekten, die kostenbewusst und gleichzeitig compliance-orientiert sind.
Unsere Erfahrung zeigt, dass Self-Hosted-Strategien besonders dann erfolgreich sind, wenn sie von klaren SLAs, Automatisierung und regelmäßigem Security-Governance begleitet werden. Ohne diese Disziplinen sind Self-Hosted-Landschaften schwer zu betreiben.
Kleine und mittlere Unternehmen profitieren besonders von gezielten, wertorientierten PoCs. Statt große Plattformen aufzubauen, empfiehlt sich ein enger Fokus auf einen Geschäftsbereich mit messbarem Nutzen — zum Beispiel bessere Verbrauchsprognosen oder automatisierte Dokumentenklassifikation. Ein schlanker PoC kann rasch Einsparpotenziale oder Umsatzchancen aufzeigen.
Unsere Co-Preneur-Methode hilft KMUs, weil wir operative Verantwortung übernehmen und direkt umsetzen. Das reduziert die Notwendigkeit, sofort ganz große Teams aufzubauen. Nach erfolgreichem PoC helfen wir beim Aufbau von wiederverwendbaren Komponenten, damit zukünftige Projekte schneller laufen.
Technisch setzen wir auf modulare, kosteneffiziente Stacks: Open-Source-Tools, Postgres + pgvector für Knowledge Systems, und modell-agnostische Schichten, die teure Abhängigkeiten vermeiden. So bleibt die Lösung skalierbar, ohne initial hohe Kosten zu verursachen.
Wichtig ist die Priorisierung: Wir helfen, Use-Cases nach Hebelwirkung zu bewerten, damit KMUs gezielt Ressourcen einsetzen und schnelle, sichtbare Ergebnisse erzielen, die weiteres Investment rechtfertigen.
Langfristiger Betrieb erfordert Prozesse, nicht nur Technologie. Wir implementieren CI/CD für Daten und Modelle, automatisierte Tests, Canary-Releases und Monitoring für Model-Drift. Diese Infrastruktur macht es möglich, Modelle regelmäßig zu prüfen, nachzutrainieren und kontrolliert auszurollen.
Ein wichtiger Baustein ist das Monitoring von Business-Metriken neben technischen KPIs: Ein Modell kann „gut“ aussehen, aber trotzdem geschäftlich versagen. Deshalb verbinden wir technische Telemetrie mit KPIs wie Prognoseabweichungen, Service-Level-Änderungen oder Einsparungen.
Wir empfehlen klare Ownership-Modelle: Ein verantwortliches Team muss definiert sein, das SLA, Updates und Incident-Management übernimmt. Unsere Co-Preneur-Teams können diese Verantwortung bauen und an Ihr Team übergeben, inklusive Wissensübergabe und Trainings.
Schließlich ist regelmäßige Governance wichtig: Security-Reviews, Datenqualitäts-Audits und Dokumentationsprüfungen sollten in den Lebenszyklus integriert sein. Nur so bleibt ein KI-System über Jahre verlässlich und compliant.
Kontaktieren Sie uns!
Direkt Kontaktieren
Philipp M. W. Hoffmann
Founder & Partner
Adresse
Reruption GmbH
Falkertstraße 2
70176 Stuttgart
Kontakt
Telefon