ChatGPT nutzen, um repetitive Support-Anfragen in großem Umfang abzufangen
Kundenservice-Teams werden von repetitiven, einfachen Fragen überflutet, die keinen Mehrwert schaffen, aber enorme Agentenkapazitäten binden. Diese Seite zeigt, wie Sie ChatGPT einsetzen, um solche Anfragen mit KI-gestütztem Self-Service abzufangen – ohne Kompromisse bei Qualität oder Kundenzufriedenheit. Sie erhalten einen strategischen Überblick, konkrete Implementierungsmuster und praxisnahe Prompts, die Sie sofort anwenden können.
Inhalt
Die Herausforderung: Repetitive, einfache Anfragen
In den meisten Kundenservice-Organisationen besteht ein unverhältnismäßig großer Anteil der Tickets aus einfachen, repetitiven Fragen: Öffnungszeiten, grundlegende Preise, Passwort-Resets, Versandstatus oder einfache How-tos. Sie sind leicht zu beantworten, verbrauchen aber in der Summe tausende Agentenstunden, verstopfen Warteschlangen und verzögern die Bearbeitung von Kunden mit wirklich komplexen Problemen. Den Agenten ist bewusst, dass ihre Zeit besser eingesetzt werden könnte, aber der Strom grundlegender Anfragen reißt nie ab.
Traditionelle Ansätze zur Abfederung – statische FAQs, einfache Keyword-Chatbots, IVR-Menüs – passen nicht mehr dazu, wie Kunden heute kommunizieren. Menschen schreiben in natürlicher Sprache, erwarten dialogorientierte Antworten und wollen kontextbezogene Unterstützung, statt sich durch dichte Hilfeartikel zu klicken. Statische Inhalte veralten schnell, regelbasierte Bots scheitern schon an leicht ungewohnter Formulierung, und Kunden weichen wieder auf E-Mail oder Telefon aus – womit das Volumen direkt zurück bei Ihrem Team landet.
Die geschäftlichen Auswirkungen sind erheblich. Die Bearbeitung repetitiver, einfacher Anfragen erhöht den Bedarf an Support-Mitarbeitern, treibt die Kosten pro Kontakt nach oben und erschwert das Einhalten von SLAs bei hochpriorisierten Tickets. Rückstände in den Warteschlangen schaden der Kundenzufriedenheit und dem NPS. Gleichzeitig verlieren Agenten an Engagement, wenn sie große Teile ihres Tages damit verbringen, immer wieder dieselben Antworten zu kopieren und einzufügen, statt sinnvolle Probleme zu lösen oder zur Prozessverbesserung beizutragen. Wettbewerber, die diese Ebene automatisieren, können schnelleren Service zu geringeren Kosten anbieten.
Diese Herausforderung ist real, aber sehr gut lösbar. Moderne konversationelle KI wie ChatGPT kann heute einen großen Teil dieser repetitiven Anfragen mit menschenähnlicher Qualität bearbeiten – vorausgesetzt, sie wird richtig konzipiert und implementiert. Bei Reruption haben wir Organisationen dabei unterstützt, KI-gesteuerte Kundenkommunikations-Flows und intelligente Chatbots aufzubauen, die repetitive Fragen in automatisierte, konsistente Antworten verwandeln. Im weiteren Verlauf dieses Leitfadens erhalten Sie praxisnahe Hinweise, wie Sie ChatGPT nutzen können, um einfache Anfragen abzufangen, Agentenzeit zu schützen und das gesamte Service-Erlebnis zu verbessern.
Brauchen Sie einen Sparring-Partner für diese Herausforderung?
Lassen Sie uns unverbindlich sprechen und brainstormen.
Innovatoren bei diesen Unternehmen vertrauen uns:
Unsere Einschätzung
Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.
Aus Reruptions praktischer Arbeit beim Aufbau von KI-gestützten Kundenservice-Lösungen und intelligenten Chatbots wissen wir: Das Potenzial von ChatGPT für repetitive, einfache Anfragen ist enorm – aber nur, wenn Sie es als strategische Fähigkeit und nicht als schnelle Widget-Lösung verstehen. Ziel ist es nicht, einfach einen Chatbot anzuflanschen; Ziel ist es, Ihren Support-Funnel bewusst so neu zu gestalten, dass KI-Self-Service zum Standard-Einstiegspunkt für einfache Fragen wird, während Ihre Agenten in der Wertschöpfungskette nach oben rücken.
Deflection als kundenorientierten Self-Service neu denken
Viele Teams verstehen „Deflection“ noch als das Wegdrücken von Kunden aus den Agentenkanälen. Diese Denkweise führt zu defensiven Erlebnissen: Bots, die Kontaktmöglichkeiten verstecken und Nutzer frustrieren. Ein besserer Ansatz ist, ChatGPT-basierten Self-Service als den schnellsten und bequemsten Weg für Kunden zu sehen, ihr Ziel zu erreichen – und die Experience konsequent auf Geschwindigkeit und Klarheit statt nur auf Kostensenkung auszurichten.
Strategisch bedeutet das, zu kartieren, welche repetitiven, einfachen Anfragen Kunden tatsächlich lieber selbst lösen (z. B. „Wie ändere ich meine Adresse?“) und sicherzustellen, dass diese Journeys über KI reibungsloser sind als über menschliche Kanäle. Wenn Self-Service tatsächlich besser ist, entsteht Deflection quasi von selbst – und die Akzeptanz ist deutlich höher.
Use Cases segmentieren und klare Automatisierungsgrenzen festlegen
Nicht jedes Ticket sollte von ChatGPT bearbeitet werden. Bevor Sie starten, kategorisieren Sie Ihre Kontaktgründe nach Komplexität, Risiko und emotionaler Sensitivität. Einfache, sachliche Fragen (FAQs, How-tos, Richtlinienklärungen) sind ideale Kandidaten für KI-Automatisierung im Kundenservice. Sensible Themen (Kündigungen mit hohem Churn-Risiko, juristische Fragestellungen, Eskalationen) brauchen klare Übergaberegeln.
Auf strategischer Ebene definieren Sie, welche Segmente immer an einen Menschen gehen müssen, welche bevorzugt durch KI bearbeitet werden sollten und welche hybrid laufen können (KI-Entwurf + Agentenfreigabe). Diese Grenzziehung reduziert Risiko, schafft Klarheit für Ihr Team und hält Compliance und Kundenschutz im Vordergrund, während Sie dennoch den Großteil der Zeiteinsparungen erschließen.
Rund um Ihre Wissensbasis designen, nicht nur rund um das Modell
ChatGPT ist nur so gut wie die Informationen, auf die es verlässlich zugreifen kann. Ein häufiger strategischer Fehler ist es, einen Chatbot auf einer fragmentierten oder veralteten Wissensbasis zu starten. Das Ergebnis: inkonsistente Antworten, Misstrauen bei Agenten und ein schneller Verlust an Rückhalt bei Stakeholdern. Behandeln Sie Wissensmanagement für KI als eigenständigen Kern-Workstream.
Investieren Sie frühzeitig in die Konsolidierung und Strukturierung von FAQs, Richtlinien und How-to-Inhalten, die den Bot versorgen. Definieren Sie Verantwortlichkeiten: Wer hält Inhalte aktuell, wer genehmigt sensible Themen und wie fließen Änderungen in das KI-System ein? Reruptions KI-first-Perspektive zeigt häufig, dass die Bereinigung und Stabilisierung der Wissensschicht zusätzliche Vorteile über ChatGPT hinaus bringt – etwa bessere Dokumentation für Agenten.
Ihr Kundenservice-Team als Co-Designer einbinden, nicht nur als Endnutzer
Frontline-Agenten verstehen repetitive Fragen besser als jeder andere – und sie spüren den Schmerz am stärksten. Strategisch ist der schnellste Weg zu einem nützlichen ChatGPT-Kundenservice-Bot, Agenten von Anfang an in den Design-Prozess einzubinden. Sie können reale Formulierungen, Edge Cases und definieren, wie eine „gute“ Antwort für ihre Kunden aussieht.
Dafür braucht es einen Mindset-Wechsel: Der Bot ist kein externes IT-Tool, sondern Teil des Teams. Binden Sie Agenten in die Definition von Intents, die Überprüfung von KI-Antworten und die Festlegung von Eskalationsregeln ein. Das erhöht die Lösungsqualität und reduziert gleichzeitig Widerstände, weil Agenten den Bot als Entlastung von geringer wertigen Aufgaben sehen – nicht als Bedrohung ihrer Rolle.
Risiken mit Leitplanken, Monitoring und schrittweisem Roll-out steuern
Strategisch liegen die Hauptrisiken beim Einsatz von ChatGPT im Kundenservice in falschen Antworten, uneinheitlichem Ton oder dem falschen Umgang mit sensiblen Themen. Diese lassen sich durch klare Leitplanken entschärfen: eingeschränkte Wissensdomänen, richtlinienbasierte Prompts und strikte Eskalation bei Unklarheiten oder Signalen für Kundenfrustration.
Planen Sie einen gestaffelten Roll-out: Starten Sie mit einem begrenzten Umfang (z. B. FAQs in einer Sprache), überwachen Sie Performance und Kundenfeedback und erweitern Sie die Abdeckung, wenn das Vertrauen wächst. Definieren Sie KPIs vor dem Launch – etwa automatisierte Lösungsquote, Containment-Rate und CSAT – und legen Sie Schwellenwerte fest, ab denen eine manuelle Überprüfung oder Intervention erforderlich ist. Mit der richtigen Governance können Sie Automatisierung skalieren, ohne Vertrauen zu gefährden.
Durchdacht eingesetzt kann ChatGPT einen großen Anteil repetitiver, einfacher Anfragen übernehmen und die Zeit Ihrer Agenten zu einer knappen Ressource machen, die komplexen, geschäftskritischen Fällen vorbehalten ist. Entscheidend ist, dies nicht als Chatbot-Nebenprojekt zu betrachten, sondern als Neugestaltung Ihres Support-Funnels – mit klaren Grenzen, einer starken Wissensbasis und aktiver Einbindung Ihres Service-Teams. Reruption verbindet tiefgehende Engineering-Expertise mit einem Co-Preneur-Mindset, um Organisationen schnell und sicher von der Idee zu einer funktionierenden KI-Support-Schicht zu führen. Wenn Sie diesen Schritt erwägen und einen pragmatischen Partner zur Validierung und Umsetzung suchen, sind wir bereit, ihn gemeinsam mit Ihnen zu bauen.
Hilfe bei der Umsetzung dieser Ideen?
Nehmen Sie gerne unverbindlich Kontakt zu uns auf.
Fallbeispiele aus der Praxis
Von Gesundheitswesen bis Nachrichtenmedien: Erfahren Sie, wie Unternehmen ChatGPT erfolgreich einsetzen.
Best Practices
Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.
Ihre wichtigsten Typen repetitiver Anfragen erfassen und priorisieren
Starten Sie mit Daten, nicht mit Annahmen. Exportieren Sie 3–6 Monate Ticketdaten aus Ihrem Helpdesk und clustern Sie sie nach Themen (z. B. Abrechnungsfragen, Lieferstatus, Konto-Probleme, grundlegende Konfiguration). Identifizieren Sie die 20–30 häufigsten Anfragetypen, die einfach, repetitiv und risikoarm sind. Diese werden zu den primären Kandidaten für ChatGPT-basierte Automatisierung.
Dokumentieren Sie für jedes Thema: typische Kundenformulierungen, die kanonische Antwort, etwaige Varianten (nach Produkt, Region oder Kundensegment) und was als erfolgreiche Lösung gilt. Das liefert Ihnen das Rohmaterial, um gezielte Prompts zu entwerfen, Antworten zu bewerten und Ihrem Team zu vermitteln, was der Bot übernehmen darf – und was nicht.
Einen robusten System-Prompt für Ihren Support-Bot entwerfen
Im System-Prompt definieren Sie Verhalten, Grenzen und Tonalität Ihres ChatGPT-basierten Kundenservice-Assistenten. Er sollte klar festlegen, welche Fragen der Bot beantworten darf, wie er antworten soll und wann er an einen Menschen eskalieren muss.
Beispiel-System-Prompt für repetitive, einfache Anfragen:
Sie sind ein KI-Kundenservice-Assistent für <UNTERNEHMEN>.
Ihre Ziele:
- Einfache, repetitive Kundenfragen sofort lösen.
- Knapp und schrittweise antworten.
- Komplexe, emotionale oder risikoreiche Themen an einen menschlichen Agenten eskalieren.
Regeln:
- Beantworten Sie Fragen ausschließlich mit den Informationen aus der bereitgestellten <WISSENSBASIS>.
- Wenn die Antwort nicht in der Wissensbasis enthalten ist, sagen Sie, dass Sie es nicht wissen, und bieten Sie an, einen Agenten zu verbinden.
- Verwenden Sie einen freundlichen, professionellen Ton.
- Halten Sie Antworten unter 5 kurzen Absätzen.
- Geben Sie bei How-to-Fragen immer nummerierte Schritte an.
- Wenn der Kunde Ärger, Frustration oder rechtliche Themen äußert, bieten Sie sofort die Übergabe an einen Menschen an.
Wenn Sie an einen Agenten weiterleiten, fassen Sie das Gespräch in 3 Stichpunkten zusammen.
Iterieren Sie diesen Prompt auf Basis von Pilotfeedback. Kleine Anpassungen in den Anweisungen können Konsistenz, Eskalationsverhalten und Kundenzufriedenheit deutlich verbessern.
ChatGPT sicher mit Ihrer FAQ- und Wissensbasis verbinden
Um Halluzinationen zu vermeiden und die Genauigkeit zu wahren, sollte Ihr ChatGPT-Support-Bot Antworten aus einer kuratierten Wissensbasis abrufen, statt sich auf generisches Modellwissen zu stützen. Praktisch bedeutet das, einen indexierten FAQ-Korpus zu erstellen (z. B. über eine Vektordatenbank oder Such-API) und Retrieval-Augmented Generation (RAG) zu nutzen: Das System findet relevante Artikel und übergibt sie ChatGPT als Kontext für jede Antwort.
Typische Implementierungsschritte sehen so aus:
- Export vorhandener FAQs, Helpcenter-Artikel, Makrovorlagen und interner Leitfäden.
- Bereinigung und Normalisierung der Inhalte (Duplikate entfernen, Terminologie vereinheitlichen, Metadaten wie Sprache, Produkt und Region ergänzen).
- Indexierung dieser Inhalte in einem Such- oder Vektorspeicher mit geeigneten Zugriffskontrollen.
- Aufbau eines Middleware-Services, der: die Nutzerfrage entgegennimmt, relevante Inhalte abruft und sie als <WISSENSBASIS>-Kontext in den ChatGPT-Prompt einbettet.
- Protokollierung, welche Dokumente genutzt wurden, damit Sie jede falsche Antwort auf ihre Quelle zurückführen können.
Diese Architektur verschafft Ihnen Kontrolle: Aktualisieren Sie die Wissensbasis – und die Antworten des Bots aktualisieren sich automatisch, ohne dass ein Modell neu trainiert werden muss.
ChatGPT an zentralen Kontaktpunkten einbetten: Web, App und im Produkt
Deflection funktioniert nur, wenn Kunden dem KI-Assistenten natürlicherweise begegnen, bevor sie ein Ticket erstellen. Identifizieren Sie Ihre meistfrequentierten Einstiegspunkte: Supportseiten, Kundenportale, mobile Apps und „Hilfe“-Bereiche im Produkt. Betten Sie dort ein ChatGPT-gestütztes Chat-Widget oder einen geführten Assistenten ein, damit Kunden genau im Moment des Bedarfs sofort Antworten erhalten.
Praktischer Workflow:
- Platzieren Sie auf der zentralen Supportseite den KI-Assistenten oberhalb klassischer Kontaktoptionen und kennzeichnen Sie ihn klar als schnellsten Weg zur Hilfe.
- Lösen Sie in der App oder im Produktkontext kontextabhängige Hilfe aus – basierend auf dem Bildschirm, den der Nutzer gerade sieht (z. B. „Probleme mit der Abrechnung? Fragen Sie unseren Assistenten.“).
- Fügen Sie in Formularen wie „Anfrage einreichen“ einen Schritt ein, in dem Kunden ihre Frage eingeben und KI-basierte Antwortvorschläge sehen, bevor ein Ticket erstellt wird.
Jede dieser Platzierungen sollte mit Analytics ausgestattet sein, damit Sie messen können, wie viele Anfragen gelöst werden, ohne dass ein Ticket entsteht.
ChatGPT nutzen, um Antworten für verbleibende einfache Tickets zu entwerfen
Selbst mit starkem Self-Service werden einige einfache Anfragen bei Agenten landen. Hier kann ChatGPT als Co-Pilot für Agenten weiterhin Zeit sparen und Konsistenz erhöhen, indem Antworten entworfen werden, die die Agenten anschließend prüfen und versenden.
Beispiel für einen internen Prompt für Agenten:
Sie unterstützen einen Kundenservice-Agenten.
Aufgabe:
- Lesen Sie das folgende Ticket und die internen Notizen.
- Formulieren Sie eine klare, freundliche Antwort.
- Verwenden Sie unsere Standard-Grußformel und versprechen Sie keine Maßnahmen, die nicht in den Notizen stehen.
Ticket:
<KUNDENNACHRICHT>
Relevante Auszüge aus der Wissensbasis:
<KB_AUSZUEGE>
Interne Notizen aus früheren Interaktionen (falls vorhanden):
<INTERNE_NOTIZEN>
Bitte antworten Sie in der Sprache des Kunden und halten Sie die Antwort unter 3 kurzen Absätzen.
Integrieren Sie dies in Ihre Helpdesk-Oberfläche (z. B. über ein Seitenpanel oder einen Makro-Button), sodass Agenten Antworten in Sekunden generieren, anpassen und versenden können – bei voller Kontrolle über die finale Nachricht.
KPIs definieren und einen Feedback-Loop für kontinuierliche Verbesserung etablieren
Um Ihre ChatGPT-Einführung im Kundenservice effektiv zu steuern, definieren Sie Erfolgskennzahlen von Beginn an und richten Sie sie auf geschäftliche Ziele aus. Typische KPIs sind: automatisierte Lösungsquote (Containment), Reduktion des Ticketvolumens in den Zielkategorien, Bearbeitungszeit für verbleibende einfache Tickets, CSAT für Bot-Konversationen sowie Time-to-First-Response für komplexe Fälle (sollte sich verbessern, wenn Deflection steigt).
Richten Sie einen kontinuierlichen Verbesserungszyklus ein:
- Sammeln Sie Daumen-hoch/-runter oder kurze Bewertungen nach Bot-Interaktionen.
- Stichprobenartige Analyse gescheiterter Konversationen (wöchentlich) und Klassifizierung der Ursachen (fehlende Inhalte, Missverständnisse, falsche Grenzen).
- Aktualisierung der Wissensbasis und Prompts auf Basis dieser Erkenntnisse.
- Regelmäßige Review der Metriken mit Kundenservice-Führungskräften und Frontline-Agenten und gemeinsame Festlegung der nächsten Ausbaustufen.
Gut umgesetzt sind die erwartbaren Ergebnisse realistisch und messbar: Viele Organisationen erreichen innerhalb der ersten 3–6 Monate eine Deflection von 20–40 % bei repetitiven, einfachen Anfragen, 10–30 % kürzere durchschnittliche Bearbeitungszeiten für verbleibende Tickets durch KI-Entwürfe und spürbare Verbesserungen der Agentenzufriedenheit, da geringwertige Aufgaben automatisiert werden.
Brauchen Sie jetzt Umsetzungskompetenz?
Lassen Sie uns über Ihre Ideen sprechen!
Häufig gestellte Fragen
ChatGPT eignet sich besonders gut für sachliche, risikoarme, repetitive Fragen, die klaren Regeln folgen und aus Ihrer Wissensbasis beantwortet werden können. Beispiele sind Öffnungszeiten, Lieferzeiten, grundlegende Preisinformationen, Passwort- oder Kontohinweise, Schritt-für-Schritt-Produktanleitungen, Links zu Dokumentation oder Erläuterungen von Richtlinien (z. B. Kündigungsregeln).
Wichtig ist, den Geltungsbereich klar zu definieren und das Modell mit aktuellen FAQs und interner Dokumentation zu verbinden. Für emotional sensible oder geschäftskritische Szenarien (z. B. Rechtsstreitigkeiten, größere Ausfälle, komplexe Abrechnungsstreitigkeiten) sollten Sie das System so konfigurieren, dass es schnell an einen menschlichen Agenten eskaliert, statt eine vollständige Automatisierung zu versuchen.
Die Implementierungsdauer hängt von Ihrem Ausgangspunkt und Ihrem Ambitionsniveau ab, aber ein fokussierter Initial-Roll-out ist oft in 4–8 Wochen machbar. Der kritische Pfad ist in der Regel nicht das KI-Modell selbst, sondern die Arbeit darum herum: Use Cases klären, Wissensbasis bereinigen, Eskalationsregeln definieren und die Integration mit Ihrem bestehenden Helpdesk oder Ihrer Website.
Reruptions KI-PoC für 9.900 € ist darauf ausgelegt, die technische Machbarkeit innerhalb weniger Wochen zu validieren: Wir schärfen den Use Case, bauen einen funktionierenden Prototypen, der reale Kundenfragen mit Ihren Daten beantwortet, evaluieren die Performance und definieren einen Produktionsplan. Nach einem erfolgreichen PoC kann ein produktiver Roll-out typischerweise in nachfolgenden Sprints erfolgen.
Sie benötigen kein großes KI-Forschungsteam, aber einige klar definierte Rollen. Auf der Business-Seite brauchen Sie einen Owner im Kundenservice, der Ticketflüsse und Prioritäten versteht, sowie ein bis zwei erfahrene Agenten, die FAQs kuratieren, KI-Antworten überprüfen und Feedback geben. Auf der technischen Seite benötigen Sie Zugriff auf jemanden, der Integrationen umsetzen kann (z. B. Anbindung Ihrer Wissensbasis, Website oder Ihres Helpdesks via APIs).
Langfristig sollten Sie außerdem einen Verantwortlichen für das Wissensmanagement benennen (Aktualisierung der Inhalte) sowie für das Monitoring von KPIs wie Deflection-Rate und CSAT. Reruption schließt häufig in der Anfangsphase die Lücke bei KI-Engineering und Architektur und baut gleichzeitig Kompetenzen in Ihrem Team auf, damit Sie die Lösung selbstsicher weiterentwickeln können.
Bei sauberem Zuschnitt und guter Implementierung sehen viele Organisationen, dass 20–40 % der repetitiven, einfachen Anfragen vollständig durch KI bearbeitet werden – und das bereits in den ersten Monaten. Mit zunehmender Abdeckung sind höhere Werte möglich. Diese Deflection führt zu geringeren Kosten pro Kontakt, schnelleren Reaktionszeiten bei komplexen Themen und mehr verfügbarer Agentenkapazität für wertschöpfende Interaktionen.
Der ROI speist sich aus mehreren Quellen: weniger Tickets in den Zielkategorien, kürzere Bearbeitungszeiten für verbleibende einfache Tickets (durch KI-entworfene Antworten), höhere Kundenzufriedenheit durch schnellere Antworten und geringere Agentenfluktuation durch ein interessanteres Aufgabenprofil. Wichtig ist, diese Effekte explizit zu messen, damit Sie die KI-Investition klar mit konkreten Geschäftsergebnissen verknüpfen können – statt sie nur über generische „Innovations“-Metriken zu bewerten.
Reruption arbeitet mit einem Co-Preneur-Ansatz: Wir integrieren uns in Ihr Team und übernehmen unternehmerische Verantwortung dafür, dass die Lösung in Ihrer realen Umgebung funktioniert – nicht nur auf Folien. Wir beginnen mit unserem KI-PoC-Angebot (9.900 €), um zu validieren, dass ChatGPT Ihre repetitiven Anfragen mit Ihren tatsächlichen FAQs und Daten präzise bearbeiten kann. Dazu gehören Use-Case-Scoping, Rapid Prototyping, Performance-Evaluierung und eine konkrete Roadmap für die Produktion.
Über den PoC hinaus liefern wir praktisches KI-Engineering, Integration und Enablement: Design von Prompts und Leitplanken, Anbindung an Ihre Wissensbasis und Support-Tools, Einrichtung von Monitoring und Training Ihres Kundenservice-Teams für die effektive Zusammenarbeit mit der KI. Weil wir auf KI-first-Fähigkeiten fokussiert sind, helfen wir Ihnen, einen internen Support-Stack aufzubauen, der nicht nur optimiert, sondern bereit ist, veraltete Workflows zu ersetzen, bevor der Markt Sie dazu zwingt.
Kontaktieren Sie uns!
Direkt Kontaktieren
Philipp M. W. Hoffmann
Founder & Partner
Adresse
Reruption GmbH
Falkertstraße 2
70176 Stuttgart
Kontakt
Telefon