Generische Skripte durch personalisierten Support mit ChatGPT ersetzen
Kundinnen und Kunden merken sofort, wenn eine Service-Antwort geskriptet und generisch ist. Diese Seite zeigt, wie Sie ChatGPT nutzen können, um starre Kundendienst-Skripte in kontextbezogene Gespräche zu verwandeln, die sich an der Historie, Tonalität und Absicht jedes einzelnen Kunden orientieren – ohne die Kontrolle über Compliance oder Markenstimme zu verlieren.
Inhalt
Die Herausforderung: Generische, geskriptete Antworten
Die meisten Kundenservice-Teams verlassen sich nach wie vor auf starre Skripte und statische Vorlagen. Von Agenten wird erwartet, vordefinierten Abläufen zu folgen, die kaum berücksichtigen, wer der Kunde ist, was er zuvor getan hat oder wie er sich gerade fühlt. Das Ergebnis ist vorhersehbar: Kundinnen und Kunden erleben die Interaktion als roboterhaft und transaktional statt als hilfreich und menschlich.
Traditionelle Ansätze für Skripte wurden für Skalierung und nicht für Relevanz entwickelt. Wissensartikel werden in lange Makros, FAQ-Blöcke und Standardantworten umgewandelt, die in jedes Gespräch gedrückt werden. Selbst wenn Agenten sich anpassen möchten, sind die umgebenden Tools nicht für personalisierte Kundeninteraktionen konzipiert – sie sind darauf ausgelegt, Varianz zu reduzieren. In einer Welt, in der Kundinnen und Kunden an hyperpersonalisierte digitale Erlebnisse gewöhnt sind, wirken generische Support-Antworten zunehmend aus der Zeit gefallen.
Die geschäftlichen Auswirkungen sind erheblich. Generische, geskriptete Antworten drücken CSAT und NPS, erhöhen Eskalationsraten und verlängern die Bearbeitungszeit, weil Kundinnen und Kunden ihre Situation immer wieder neu erklären müssen. Agenten halten sich entweder strikt ans Skript und frustrieren damit Kunden oder sie improvisieren unter Zeitdruck – mit höherem Fehlerrisiko und mehr Compliance-Verstößen. Chancen für gezielte Cross-Selling- oder Retention-Angebote bleiben ungenutzt, weil das System blind ist für individuelle Intention, Stimmung und Historie.
Die gute Nachricht: Dieses Problem lässt sich lösen. Mit modernem KI-Kundenservice können Sie die notwendigen Leitplanken und Richtlinien beibehalten und gleichzeitig zulassen, dass Antworten sich dynamisch an jeden Kunden und jede Situation anpassen. Bei Reruption haben wir Teams dabei unterstützt, von starren Skripten zu KI-gestützten, kontextbewussten Interaktionen zu wechseln, die dennoch zu Marke und Compliance-Anforderungen passen. Der Rest dieser Seite zeigt, wie Sie ChatGPT auf strukturierte und risikoarme Weise dafür einsetzen können.
Brauchen Sie einen Sparring-Partner für diese Herausforderung?
Lassen Sie uns unverbindlich sprechen und brainstormen.
Innovatoren bei diesen Unternehmen vertrauen uns:
Unsere Einschätzung
Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.
Aus unserer praktischen Arbeit bei der Implementierung von ChatGPT im Kundenservice sehen wir immer wieder dasselbe Muster: Der eigentliche Mehrwert entsteht nicht dadurch, Agenten zu ersetzen, sondern indem generische, geskriptete Antworten durch KI-generierte Antworten ersetzt werden, die in Ihrem CRM, vergangenen Interaktionen und Richtlinien verankert sind. Richtig umgesetzt wird ChatGPT zu einer kontrollierten Schicht, die Ihr Wissen, Ihre Regeln und Ihre Daten in personalisierte Antworten im großen Maßstab übersetzt.
In Leitplanken denken, nicht in Skripten
Um über generische, geskriptete Antworten hinauszukommen, sollten Sie den Fokus vom Schreiben vollständiger Skripte auf die Definition von Leitplanken und Zielen verlagern. Statt Agenten exakt vorzuschreiben, was sie sagen sollen, definieren Sie, was immer enthalten sein muss (z. B. rechtliche Hinweise, Tonalität, verpflichtende Prüfungen) und was niemals gesagt werden darf. ChatGPT kann dann auf Basis dieser Grenzen personalisierte Antworten erzeugen, die die Kundenhistorie und den aktuellen Kontext berücksichtigen.
Strategisch bedeutet das, in eine robuste Definition Ihrer Markenstimme, Compliance-Regeln und Eskalationskriterien zu investieren. Diese werden zu den Rahmenbedingungen, innerhalb derer das Modell agiert. Je besser Ihre Leitplanken, desto mehr Freiheit können Sie der KI gefahrlos geben, die Botschaften je nach Kunde und Kanal anzupassen.
Das Design um Kontext statt um Kanäle herum aufbauen
Die meisten Kundenservice-Organisationen sind kanalorientiert strukturiert: E-Mail-Team, Chat-Team, Telefon-Team. Für KI-gestützte Personalisierung müssen Sie jedoch kontextorientiert designen: Kundenprofil, Historie, aktuelle Intention und Stimmung. ChatGPT liefert den größten Mehrwert, wenn ein einheitlicher Blick auf Kundin bzw. Kunde und Vorgang möglich ist – nicht nur auf eine einzelne Nachricht.
Strategisch heißt das, Integrationen mit Ihrem CRM, Ticketsystem und Ihrer Wissensdatenbank frühzeitig zu planen. Entscheiden Sie, welche kontextuellen Daten für Personalisierung nötig sind (frühere Bestellungen, Vertragsstufe, vergangene Tickets, Zufriedenheitshistorie, genutzte Produkte) und wie viel davon sicher an die KI-Schicht übergeben werden kann. Datenschutz und Zugriffskontrolle sollten Teil des initialen Designs sein, nicht ein späterer Zusatz.
Mit erweiterten Agenten starten, bevor Sie voll automatisieren
Vollautomatisierte Chatbots sind verlockend, doch die meisten Organisationen erzielen schneller und sicherer Wirkung, wenn sie ChatGPT zunächst als Assistenz für menschliche Agenten einsetzen. In diesem Setup entwirft die KI personalisierte Antworten, schlägt nächste beste Aktionen vor und empfiehlt maßgeschneiderte Angebote, während Agenten die Kontrolle behalten und Antworten freigeben oder bearbeiten.
Dieser Ansatz erfüllt mehrere strategische Ziele: Er baut Vertrauen bei den Agenten auf, ermöglicht es, Prompts und Richtlinien anhand realer Interaktionen zu verfeinern, und reduziert das Risiko unangemessener, automatisch versendeter Antworten. Mit der Zeit können die zuverlässigsten Abläufe auf eine teilweise oder vollständige Automatisierung umgestellt werden – gestützt auf echte Leistungsdaten statt auf Annahmen.
Ihr Team auf eine neue Arbeitsweise vorbereiten
Die Einführung von KI-gestützter Personalisierung im Kundenservice ist ebenso sehr ein organisatorischer Wandel wie ein technisches Projekt. Agenten müssen verstehen, dass ChatGPT ihre Leistung nicht bewertet, sondern die wiederholte Formulierung von Standardantworten übernimmt, damit sie sich auf Urteilsvermögen, Empathie und komplexe Problemlösung konzentrieren können. Führungskräfte benötigen neue Fähigkeiten in den Bereichen Prompt-Governance, Aktualisierung von Richtlinien und Qualitätsüberwachung der KI-Ausgaben.
Strategisch sollten Sie Enablement planen: kurze Trainings dazu, wie mit KI-Vorschlägen gearbeitet wird, klare Leitlinien, wann Ausgaben übersteuert werden sollen, und einen Feedback-Loop, in dem Agenten Prompts oder Verhaltensweisen melden können, die angepasst werden müssen. Die Erfahrung von Reruption zeigt, dass die frühzeitige Einbindung von Mitarbeitenden an der Front Widerstände reduziert und zu besser gestalteten KI-Kundenservice-Workflows führt.
Risiken mit klaren KPIs und Human-in-the-Loop-Kontrollen managen
Personalisierung erhöht Wirkung und Risiko zugleich. Eine strategische Implementierung von ChatGPT im Kundenservice beinhaltet explizite Schwellenwerte, die festlegen, wann KI-Vorschläge ausreichend sind und wann sie eskaliert werden müssen. Niedrigrisikoreiche, hochvolumige Anfragen (Bestellstatus, einfache How-tos) können zum Beispiel voll automatisiert werden, während alles, was Kündigungen, rechtliche Themen oder sehr wertvolle Accounts betrifft, menschlich geprüft bleibt.
Definieren Sie KPIs, die sowohl Effizienz als auch Qualität abbilden: CSAT/NPS für KI-unterstützte Gespräche, First-Contact-Resolution für KI-vorgeschlagene Antworten, Bearbeitungszeit sowie Fehler- und Beschwerderaten im Zusammenhang mit KI-Nutzung. Nutzen Sie diese Kennzahlen, um zu entscheiden, wo Sie Automatisierung skalieren und wo Sie bremsen. So wird aus KI eine kontrollierte, kontinuierlich optimierte Fähigkeit statt einer Blackbox.
Wenn Sie Agenten und Kundinnen bzw. Kunden nicht länger durch generische, geskriptete Antworten zwingen, sondern ChatGPT nutzen, um kontextbezogene Antworten zu generieren, können Sie Konsistenz mit echter Personalisierung verbinden. Entscheidend ist, KI als gesteuerte Schicht über Ihrem CRM und Ihren Richtlinien zu betrachten – nicht als frei schwebenden Chatbot. Reruption hat genau solche KI-gestützten Workflows aufgebaut und kann Sie dabei unterstützen, Leitplanken zu definieren, Systeme zu integrieren und einen risikoarmen PoC durchzuführen, bevor Sie skalieren. Wenn Sie sehen möchten, wie das mit Ihren Daten und Tools funktionieren könnte, ist ein strukturiertes Gespräch oder ein fokussierter KI-PoC oft der wirkungsvollste nächste Schritt.
Hilfe bei der Umsetzung dieser Ideen?
Nehmen Sie gerne unverbindlich Kontakt zu uns auf.
Fallbeispiele aus der Praxis
Von Gesundheitswesen bis Nachrichtenmedien: Erfahren Sie, wie Unternehmen ChatGPT erfolgreich einsetzen.
Best Practices
Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.
Einen System-Prompt entwerfen, der Marke, Richtlinien und Ziele abbildet
Der System-Prompt (oder die Instruktionsschicht) ist der Ort, an dem Sie ChatGPT von einem generischen Modell in einen Kundenservice-Assistenten in Ihrer Markenstimme verwandeln. Hier legen Sie Tonalität, Verhalten und harte Rahmenbedingungen fest, die in jeder Antwort eingehalten werden müssen.
Erarbeiten Sie diesen Prompt gemeinsam mit Kundenservice-, Rechts- und Markenverantwortlichen. Enthalten sein sollten: Tonleitlinien, verbotene Verhaltensweisen, Eskalationsregeln und der Umgang mit Kundenkontext. Hier ein Beispiel, das Sie anpassen können:
System-Prompt für ChatGPT-basierten Kundenservice-Assistenten:
Sie sind ein Kundenservice-Assistent für <Unternehmen>.
Ziele:
- Geben Sie präzise, korrekte und freundliche Antworten.
- Personalisieren Sie Antworten mithilfe von Kundenprofil, Historie und Stimmung.
- Halten Sie sich stets an Unternehmensrichtlinien und dokumentiertes Wissen.
Ton & Stil:
- Professionell, empathisch und ruhig.
- Vermeiden Sie Slang und Fachjargon. Verwenden Sie einfache Sprache.
- Sprechen Sie die Kundin / den Kunden mit Namen an, falls verfügbar.
Feste Regeln:
- Wenn Sie sich auf Basis des bereitgestellten Wissens nicht sicher sind, sagen Sie, dass Sie den Fall an eine:n menschliche:n Agent:in weiterleiten.
- Erfinden Sie niemals Richtlinien, Preise oder technische Spezifikationen.
- Bei Kündigungs- oder rechtlich relevanten Themen empfehlen Sie die Eskalation an eine:n menschliche:n Agent:in.
Nutzung von Kontext:
- Berücksichtigen Sie frühere Tickets, Kaufhistorie und Account-Tier bei der Formulierung Ihrer Antwort.
- Passen Sie den Ton leicht an die Stimmung der Kundin / des Kunden an (mehr Zuspruch bei Frustration).
In Ihrer Produktivumgebung würde dieser Prompt programmatisch eingespeist und mit abgerufenen Daten aus Ihrem CRM und Ihrer Wissensdatenbank kombiniert.
ChatGPT an CRM- und Ticket-Daten anbinden für echte Personalisierung
Um generische Antworten zu vermeiden, muss ChatGPT mehr sehen als nur die letzte Nachricht. Implementieren Sie eine Retrieval-Schicht, die Kundenprofil, Interaktionshistorie und Fallkontext abruft und dem Modell strukturiert übergibt. Typischerweise bedeutet das:
- Identifikation von Kundin/Kunde und Ticket in Ihrem CRM-/Ticketsystem.
- Abruf relevanter Attribute (z. B. Segment, Produkt, letzte Bestellungen, offene Fälle).
- Abruf der letzten Gesprächsverläufe und relevanter Wissensartikel.
- Formatierung dieser Informationen in einen kompakten Kontextblock für das Modell.
Ein Beispiel, wie Sie den Kontext in einem Prompt strukturieren können:
Kontext für den Assistenten:
Kundenprofil:
- Name: Sarah Klein
- Account-Tier: Premium
- Produkte: "SmartHome Hub X", "Security Pack"
- Kundin seit: 2019
Aktuelle Historie:
- Ticket #12831 (vor 2 Wochen): Installationsproblem, gelöst.
- CSAT letztes Ticket: 3/5, Kommentar: "Es hat zu lange gedauert, bis ich eine Antwort bekommen habe."
Aktuelle Anfrage:
- Kanal: E-Mail
- Betreff: "Security Pack funktioniert schon wieder nicht"
- Nachricht: "Hallo, dies ist das zweite Mal in diesem Monat, dass mein Alarm nicht reagiert..."
Wissensdatenbank-Ausschnitte:
- Artikel 5421: "Behebung von Verbindungsproblemen mit SmartHome Hub X"
- Artikel 8765: "Service-Level-Zusagen für Premium-Kunden"
Geben Sie diesen Kontext zusammen mit dem System-Prompt und der neuesten Nachricht des Kunden an ChatGPT, um eine Antwort zu generieren, die in realen Daten verankert ist.
ChatGPT als Entwurfs-Schicht im Agenten-Desktop nutzen
Beginnen Sie damit, ChatGPT direkt in die Tools zu integrieren, die Ihre Agenten täglich nutzen (z. B. CRM, Helpdesk). Statt Antworten automatisch an Kunden zu senden, verwenden Sie das Modell, um personalisierte Antwortentwürfe zu generieren, die Agenten prüfen und versenden können. So erhalten Sie sofortige Produktivitätsgewinne bei geringem Risiko.
In der Praxis kann der Workflow so aussehen:
- Agent öffnet ein Ticket; das System ruft Kontext ab (Kundendaten, Historie, Wissen).
- Agent klickt auf „Antwort generieren“.
- ChatGPT erstellt einen personalisierten Entwurf, inklusive relevanter Lösungsschritte oder Angebote.
- Agent prüft, bearbeitet bei Bedarf und sendet.
Ein Beispiel für eine Anweisung zur Generierung solcher Entwürfe:
Assistenten-Anweisung für Ticket-Antwort:
Erstellen Sie auf Basis des obigen Kontexts und der neuesten Kunden-Nachricht einen Antwortentwurf, der:
- Die Historie und Frustration der Kundin / des Kunden anerkennt.
- Bis zu 3 konkrete nächste Schritte auf Basis der Wissensdatenbank bietet.
- Den Premium-Status und verfügbare Vorteile der Kundin / des Kunden erwähnt, falls relevant.
- Unter 180 Wörtern bleibt und leicht zu überfliegen ist.
Beobachten Sie, wie oft Agenten den Entwurf mit minimalen Änderungen übernehmen; dies wird zu einer zentralen Qualitätskennzahl.
Nächste beste Aktionen hinzufügen – nicht nur Text
Textliche Personalisierung ist stark, aber Sie können den Effekt erhöhen, indem Sie ChatGPT zusätzlich next-best-action-Vorschläge generieren lassen: Sollte die Agentin / der Agent ein kostenloses Upgrade anbieten, ein Tutorial vorschlagen, einen Rückruf planen oder einen Austausch auslösen? Diese Vorschläge können als strukturierte Optionen neben dem Antwortentwurf angezeigt werden.
Erweitern Sie dazu Ihre Prompts um die Anforderung nach strukturiertem Output:
Assistenten-Anweisung für nächste beste Aktion:
Erstellen Sie basierend auf dem Kontext und der aktuellen Nachricht:
1. Eine kurze Antwort-E-Mail gemäß Stilrichtlinien.
2. Bis zu 2 Vorschläge für nächste beste Aktionen als JSON mit folgendem Schema:
{
"actions": [
{
"type": "offer" | "education" | "escalation" | "retention",
"label": "Kurze Bezeichnung, die der Agent sieht",
"reason": "Warum diese Aktion passend ist"
}
]
}
Ihre Anwendung kann diese Aktionen dann als anklickbare Buttons darstellen. So verknüpfen Sie KI-Personalisierung mit konkreten operativen Entscheidungen.
Moderations- und Eskalationsregeln implementieren
Um sicher von generischen Skripten zu KI-generierten Antworten zu wechseln, benötigen Sie robuste Moderation und Eskalation. Definieren Sie Regeln, die festlegen, wann eine ChatGPT-Antwort direkt versendet werden kann und wann sie von einem Agenten geprüft werden muss. Typische Kriterien:
- Themenkategorie (Abrechnung, Recht, Kündigungen → immer prüfen).
- Kundenwert (hochwertige Accounts → KI-Vorschlag, menschliche Freigabe).
- Sentiment (sehr negative Stimmung → immer menschliche Prüfung).
Technisch können Sie:
- Integrierte oder eigene Klassifizierer nutzen, um sensible Themen oder Stimmungen zu erkennen.
- Jede KI-generierte Antwort mit einem Konfidenzwert oder Risikoflag versehen.
- Hochrisiko-Antworten in eine Review-Queue leiten.
Kombinieren Sie dies mit einem einfachen Feedback-Tool, in dem Agenten KI-Ausgaben als „hilfreich“, „verbesserungsbedürftig“ oder „unsicher“ markieren können; diese Daten fließen in die Verfeinerung von Prompts und Richtlinien ein.
Die richtigen KPIs messen und schnell iterieren
Um den Wert nachzuweisen und Ihr Setup zu verfeinern, definieren Sie vor dem Rollout klare KPIs. Für personalisierte Kundeninteraktionen mit ChatGPT sollten Sie sich konzentrieren auf:
- Veränderung von CSAT/NPS bei KI-unterstützten Gesprächen vs. Kontrollgruppe.
- Durchschnittliche Reduktion der Bearbeitungszeit für Tickets mit KI-Entwürfen.
- First-Contact-Resolution-Rate bei KI-unterstützten vs. nicht unterstützten Tickets.
- Agenten-Adoption: Anteil der Konversationen mit Nutzung von KI-Entwürfen.
- Fehler-/Beschwerderate im Zusammenhang mit KI-Nutzung.
Führen Sie 4–6-wöchige Iterationen durch, in denen Sie Prompts, Leitplanken und Datenquellen anpassen und anschließend die Kennzahlen vergleichen. Bei realistischer Umsetzung sehen Unternehmen häufig 20–40 % schnellere Bearbeitungszeiten bei gezielten Use Cases, messbare CSAT-Steigerungen bei standardisierten Interaktionen und eine deutliche Entlastung der Agenten bei repetitiven Anfragen.
Brauchen Sie jetzt Umsetzungskompetenz?
Lassen Sie uns über Ihre Ideen sprechen!
Häufig gestellte Fragen
ChatGPT reduziert generische, geskriptete Antworten, indem es Antworten dynamisch auf Basis von Kundenkontext, Historie und Stimmung generiert, anstatt allen dieselbe Vorlage zu schicken. Durch die Integration mit Ihrem CRM und Ihrer Wissensdatenbank erhält das Modell strukturierte Informationen darüber, wer die Kundin oder der Kunde ist, was bisher passiert ist und welche Richtlinien gelten. Anschließend formuliert es eine Antwort, die Ihre Markenstimme und Regeln respektiert, sich aber auf die konkrete Situation zugeschnitten anfühlt.
In der Praxis löschen Sie Ihre Skripte nicht, sondern wandeln sie in Leitplanken, Beispiele und Wissensbausteine um, die die KI zur Personalisierung jeder Interaktion im großen Maßstab nutzt.
Eine praxistaugliche Implementierung hat drei Hauptkomponenten: Prompt- und Richtliniendesign, Systemintegration und Change Management. Technisch müssen Sie ChatGPT mit Ihrem CRM- oder Ticketsystem verbinden, definieren, welcher Kontext übergeben wird (Profil, Historie, Wissen), und ein Agenten-Interface aufbauen, in dem KI-Entwürfe und Vorschläge für nächste beste Aktionen angezeigt werden.
Auf organisatorischer Ebene benötigen Sie klare Regeln, wann KI eingesetzt werden darf, Schulungen für Agenten im Umgang mit Vorschlägen sowie einen Prozess zur Überprüfung und Verfeinerung von Prompts und Richtlinien. Mit einem fokussierten Scope (z. B. 1–2 Use Cases, ein Kanal) können viele Teams innerhalb weniger Wochen eine erste Version in Betrieb nehmen.
Für einen gut abgegrenzten Piloten sehen Sie in der Regel innerhalb von 4–8 Wochen erste Ergebnisse, insbesondere wenn Sie mit KI-unterstützten Antworten für Agenten starten. Typische frühe Effekte sind reduzierte Bearbeitungszeiten für repetitive Tickets, konsistentere Tonalität über Agenten hinweg und weniger von Kundinnen und Kunden als „robotisch“ empfundene Antworten.
Realistischerweise erreichen viele Organisationen 20–40 % schnellere Antwortentwürfe bei gezielten Use Cases, einen Anstieg von CSAT bei standardisierten Interaktionen und eine bessere Nutzung erfahrener Agenten, die von Routineformulierungen entlastet werden. Eine vollständige Automatisierung ausgewählter Abläufe kann folgen, sobald Daten Qualität und Sicherheit belegen.
Die direkten Modellnutzungskosten für ChatGPT sind typischerweise niedrig im Vergleich zu Personalkosten; die Hauptinvestitionen liegen in Integration, Design und Change Management. Der ROI ergibt sich in der Regel aus einer Kombination von reduzierter Bearbeitungszeit, höherer First-Contact-Resolution, verbesserter CSAT/Retention und besserer Cross-Sell-Conversion durch personalisierte Angebote.
Ein pragmatischer Ansatz ist, mit einer ROI-Hypothese für 1–2 hochvolumige Use Cases zu starten (z. B. Bestellstatus, einfache Fehlerbehebung), mögliche Zeitersparnisse und Qualitätsverbesserungen zu schätzen und diese in einem PoC zu validieren. So bleibt das finanzielle Risiko begrenzt, während Sie belastbare Daten für einen breiteren Rollout gewinnen.
Reruption verbindet tiefgehende Engineering-Expertise mit einem Co-Preneur-Ansatz: Wir beraten nicht nur, sondern arbeiten eingebettet in Ihrem Team und bauen funktionierende Lösungen. Unser KI-PoC-Angebot (9.900 €) ist genau für Fragestellungen wie Ihre konzipiert – wir definieren und schneiden einen konkreten Use Case zu (z. B. KI-unterstützte E-Mail-Antworten für eine bestimmte Queue), prototypisieren eine ChatGPT-basierte Lösung, die mit Ihren Daten integriert ist, und messen die Performance hinsichtlich Geschwindigkeit, Qualität und Kosten.
Darauf aufbauend helfen wir Ihnen, die Architektur zu härten, Prompts und Leitplanken zu verfeinern und den Rollout auf weitere Kanäle oder Regionen zu erweitern. Da wir innerhalb Ihrer P&L und nicht in Foliensätzen arbeiten, liegt der Fokus immer auf Ergebnissen: weniger robotische Antworten, mehr personalisierte Interaktionen und ein klarer Pfad vom Piloten in die Produktion.
Kontaktieren Sie uns!
Direkt Kontaktieren
Philipp M. W. Hoffmann
Founder & Partner
Adresse
Reruption GmbH
Falkertstraße 2
70176 Stuttgart
Kontakt
Telefon