Beheben Sie inkonsistente Service-QS-Bewertungen mit Claude KI
Wenn Supervisoren Anrufe und Chats unterschiedlich bewerten, erhalten Agents widersprüchliche Signale und Qualitätsprogramme verlieren an Glaubwürdigkeit. Dieser Leitfaden zeigt, wie Sie Claude nutzen, um QS-Bewertungen zu standardisieren, Scores transparent zu erklären und jede Interaktion in eine konsistente Coaching-Gelegenheit zu verwandeln.
Inhalt
Die Herausforderung: Inkonsistente Qualitätsbewertungen
Führungskräfte im Kundenservice investieren viel in QS-Frameworks, Scorecards und Coaching, und dennoch erhalten Agents widersprüchliches Feedback dazu, wie „guter“ Service aussieht. Ein Supervisor legt den Schwerpunkt auf Empathie, ein anderer auf Geschwindigkeit, ein dritter auf strikte Richtlinientreue. Das Ergebnis: inkonsistente Qualitätsbewertungen über Anrufe, Chats und E-Mails hinweg – und ein Frontline-Team, das dem QS-Prozess nicht mehr vertraut.
Traditionelle Ansätze stützen sich auf manuelle Stichproben und menschliches Urteil. Supervisoren hören nur einen winzigen Bruchteil der Anrufe, bewerten sie anhand einer Checkliste und versuchen, die Ausrichtung über Kalibrierungsmeetings aufrechtzuerhalten. Doch bei steigenden Kontaktvolumina, mehreren Standorten und 24/7-Schichten ist es für Menschen unmöglich, mehr als eine kleine Stichprobe zu prüfen. Verzerrungen, persönliche Vorlieben und Ermüdung schleichen sich ein, und selbst gut gestaltete Scorecards werden von Person zu Person unterschiedlich angewendet.
Die geschäftlichen Auswirkungen sind erheblich. Inkonsistente QS-Bewertungen erschweren die Durchsetzung eines klaren Servicestandards, untergraben Coaching und verlangsamen das Onboarding neuer Mitarbeitender. Agents optimieren für die Präferenzen derjenigen Supervisoren, die sie am häufigsten bewerten, statt sich auf den Kunden zu konzentrieren. Leadership-Dashboards erzählen nur einen unvollständigen Teil der Wahrheit, weil sie auf 2–5 % der Interaktionen basieren. Das führt zu versteckten Compliance-Risiken, verpassten Trainingschancen und einem unzuverlässigen Bild von Kundenzufriedenheit und Lösungsqualität.
Diese Herausforderung ist real, aber lösbar. Mit dem richtigen Einsatz von KI für die Qualitätssicherung im Kundenservice können Sie dieselbe QS-Logik auf 100 % der Interaktionen anwenden, jeden Score erklären und Ihre Bewertungsraster kontinuierlich anhand transparenter Feedbackschleifen verfeinern. Bei Reruption haben wir erlebt, wie KI-first-Ansätze fragile manuelle Prozesse durch robuste Systeme ersetzen können. Im weiteren Verlauf dieses Artikels finden Sie konkrete Anleitungen, wie Sie Claude nutzen, um Konsistenz, Klarheit und Skalierung in Ihr QS-Programm zu bringen.
Brauchen Sie einen Sparring-Partner für diese Herausforderung?
Lassen Sie uns unverbindlich sprechen und brainstormen.
Innovatoren bei diesen Unternehmen vertrauen uns:
Unsere Einschätzung
Eine strategische Einschätzung der Herausforderung und High-Level-Tipps, wie Sie sie angehen können.
Aus Reruptions praktischer Arbeit beim Aufbau von KI-Lösungen für den Kundenservice sehen wir Claude als sehr gut geeignet, um inkonsistente Qualitätsbewertungen anzugehen. Da Claude mit Ihrem bestehenden QS-Framework angesteuert werden kann und seine Begründungen in verständlicher Sprache erklärt, wird es zu einem leistungsstarken Motor zur Standardisierung der QS im Kundenservice, während Menschen die Kontrolle über Regeln und Schwellenwerte behalten.
Definieren Sie, was „gut“ ist, bevor Sie automatisieren
Claude wird nur so konsistent sein wie das QS-Raster, das Sie bereitstellen. Bevor Sie KI-basierte Qualitätsüberwachung im Kundenservice skalieren, sollten sich Führung, QS und Operations auf eine klare Definition von Qualität einigen: Tonalität, Lösungsverhalten, Richtlinientreue, Compliance-Formulierungen, Dokumentationsstandards. Das bedeutet, über vage Begriffe wie „Empathie zeigen“ hinauszugehen hin zu konkreten, beobachtbaren Verhaltensweisen.
Investieren Sie Zeit, um diese Definition in ein strukturiertes Framework zu überführen: Kategorien, Score-Spannen und Beispiele für gute, akzeptable und schlechte Interaktionen. Claude ist hervorragend darin, expliziten Anweisungen zu folgen und fein abgestufte Kriterien in großem Umfang anzuwenden – braucht dafür aber die Struktur im Vorfeld. Je klarer Ihr Framework, desto mehr Wert ziehen Sie aus der KI-basierten Bewertung.
Nutzen Sie Claude als Konsistenzschicht, nicht als Ersatz für QS-Leads
Ein strategischer Fehler besteht darin, Claude als Ersatz für Supervisoren zu sehen. Behandeln Sie es stattdessen als Konsistenzschicht, die Ihre QS-Regeln kanal- und zeitzonenübergreifend einheitlich anwendet. Supervisoren und QS-Analysten behalten die Verantwortung für Raster, Schwellenwerte und Coaching-Strategie, während Claude die Schwerarbeit der Analyse und Bewertung jeder Interaktion übernimmt.
Dieser Ansatz sichert die Akzeptanz bei Führungskräften und Frontline-Teams. Supervisoren entscheiden weiterhin, was wichtig ist; Claude stellt nur sicher, dass diese Entscheidungen konsistent umgesetzt werden. Mit der Zeit können QS-Leads das Framework anhand von Claudes erklärenden Begründungen und Mustern in den Daten verfeinern, statt ihre Zeit mit repetitiver manueller Bewertung zu verbringen.
Starten Sie mit einer Shadow-Phase, um Vertrauen aufzubauen und zu kalibrieren
Um Bedenken in Bezug auf Fairness und Genauigkeit zu adressieren, planen Sie eine „Shadow“-Phase, in der Claude dieselben Anrufe und Chats bewertet wie die Supervisoren – ohne Einfluss auf offizielle Ergebnisse. So können Sie KI-QS-Scores mit menschlichen Bewertungen vergleichen, Fehlanpassungen identifizieren und Prompts, Gewichtungen und Schwellenwerte anpassen.
Führen Sie Kalibrierungssitzungen durch, in denen QS-Leads Abweichungen gemeinsam mit Claudes Begründungen auf dem Bildschirm prüfen. So wird KI als transparenter Partner statt als Black Box positioniert. Sobald die Abweichung zwischen Claude und Ihren Goldstandard-QS-Scores in einem akzeptablen Bereich liegt, können Sie schrittweise mehr Bewertungsverantwortung an die KI übergeben, während Menschen sich auf Sonderfälle konzentrieren.
Planen Sie Change Management für Agents und Supervisoren
Die Einführung von KI-gesteuerter QS verändert, wie Agents und Supervisoren Performance-Management erleben. Ohne klare Narrative riskieren Sie Widerstand: „Der Bot bewertet mich“ oder „Meine Expertise wird ersetzt.“ Machen Sie Kommunikation und Enablement von Tag eins an zu einem festen Bestandteil Ihrer Strategie.
Positionieren Sie Claude als Weg zu mehr Fairness und Transparenz in der QS: Alle werden nach denselben Regeln gemessen, jeder Score hat eine Begründung, und jeder Agent erhält mehr Coaching-Feedback, nicht weniger. Beziehen Sie Frontline-Supervisoren in die Gestaltung von Oberflächen und Reports ein, damit die KI-Ergebnisse in ihren täglichen Workflow passen, statt nur ein weiteres Dashboard zu sein, das nie geöffnet wird.
Denken Sie End-to-End: Von Scores zu Coaching und Prozessänderungen
Der strategische Wert KI-basierter Servicequalitätsüberwachung liegt nicht nur in mehr Scores, sondern in besseren Entscheidungen. Planen Sie, wie Claudes Output in Coaching, Training und Prozessverbesserungen einfließt. Beispielsweise können Trends auf Themenebene Hinweise geben, welche Gesprächsleitfäden zu aktualisieren sind, welche Makros verfeinert werden sollten oder wo Ihre Wissensdatenbank unklar ist.
Gestalten Sie Ihr Betriebsmodell so, dass QS-Insights Aktionen auslösen: wöchentliche Coaching-Pläne, monatliche Skript-Reviews, vierteljährliche Richtlinienanpassungen. Claudes Konsistenz und Abdeckung liefern eine deutlich stärkere Datenbasis – Ihre Organisation braucht die Prozesse, um auf diese Daten schnell zu reagieren.
Durch den Einsatz von Claude für die QS im Kundenservice ersetzen Sie subjektive Bewertungen kleiner Stichproben durch ein konsistentes, erklärbares System, das 100 % der Interaktionen abdeckt. Entscheidend sind ein klares Bewertungsraster, eine durchdachte Kalibrierungsphase und ein Betriebsmodell, das KI-generierte Insights in besseres Coaching und optimierte Prozesse übersetzt. Reruption ist darauf spezialisiert, Ideen wie diese schnell in funktionierende Lösungen zu überführen – von der Gestaltung des QS-Frameworks, das Claude nutzt, bis zur Integration in Ihre bestehenden Tools. Wenn Sie erkunden möchten, wie das in Ihrer Organisation aussehen könnte, stehen wir bereit, als Co-Builder an Ihrer Seite zu arbeiten, nicht nur als Berater.
Hilfe bei der Umsetzung dieser Ideen?
Nehmen Sie gerne unverbindlich Kontakt zu uns auf.
Fallbeispiele aus der Praxis
Von Bankwesen bis Investmentbanking: Erfahren Sie, wie Unternehmen Claude erfolgreich einsetzen.
Best Practices
Erfolgreiche Implementierungen folgen bewährten Mustern. Werfen Sie einen Blick auf unsere taktischen Ratschläge für den Einstieg.
Machen Sie aus Ihrer QS-Scorecard ein maschinenlesbares Bewertungsraster
Der erste taktische Schritt besteht darin, Ihre bestehende QS-Checkliste in ein strukturiertes Format zu überführen, das Claude zuverlässig anwenden kann. Zerlegen Sie die Scorecard in klare Dimensionen (z. B. Begrüßung, Verifizierung, Problemdiagnose, Lösung, Compliance, Gesprächsabschluss, Soft Skills) und definieren Sie, wie eine 1, 3 und 5 für jede Dimension aussieht.
Nehmen Sie explizite Beispiele für gutes und schlechtes Verhalten in den Prompt auf. Claude kann dann Muster in Anruftranskripten, Chats oder E-Mails mit Ihrem Raster abgleichen, statt seinen eigenen Standard zu improvisieren.
Systemanweisung an Claude:
Sie sind ein QA-Bewerter im Kundenservice. Bewerten Sie die folgende Interaktion anhand dieses Rasters:
Dimensionen (jede Dimension mit 1–5 bewerten):
1. Begrüßung & Vorstellung
- 5: Freundliche Begrüßung, stellt sich selbst und das Unternehmen vor, setzt Erwartungen.
- 3: Einfache Begrüßung, teilweise Vorstellung, keine Erwartungssteuerung.
- 1: Keine Begrüßung oder unhöflich/abrupt.
2. Problemdiagnose
- 5: Stellt klärende Fragen, fasst das Anliegen zusammen, prüft das Verständnis.
- 3: Stellt einige Fragen, verpasst aber wichtige Details.
- 1: Trifft Annahmen, keine echte Diagnose.
[...für alle Dimensionen fortsetzen...]
Geben Sie für jede Dimension an:
- Score (1–5)
- Kurze Erklärung (1–2 Sätze)
- Relevante Zitate aus dem Transkript.
Geben Sie am Ende einen Gesamtscore (1–100) und 3 konkrete Coaching-Tipps an.
Diese Struktur stellt sicher, dass Claudes QS-Bewertungen transparent, wiederholbar und mit Ihren bestehenden Trainingsunterlagen abgestimmt sind.
Transkriptaufnahme und Bewertungs-Workflow automatisieren
Für echten Mehrwert muss die Bewertung in Ihren täglichen Workflow integriert sein. Richten Sie eine Pipeline ein, in der Anrufaufzeichnungen transkribiert werden (mit Ihrem bevorzugten Speech-to-Text-Tool) und Chat-/E-Mail-Logs automatisch gebündelt und zur Auswertung an Claude gesendet werden. Dies kann je nach Technologie-Stack über Backendskripte oder Low-Code-Tools orchestriert werden.
Fügen Sie jeder Interaktion Metadaten wie Agent-ID, Kanal, Team und Kundensegment hinzu. Claudes Output (Dimensionsscores, Begründungen, Coaching-Tipps) sollte in Ihr QS- oder Performance-System zurückgeschrieben werden, damit Supervisoren die Ergebnisse direkt in den Tools sehen, die sie bereits verwenden.
Typischer Ablauf:
1) Anruf endet → Aufzeichnung wird gespeichert
2) Transkriptionsservice erstellt Texttranskript
3) Skript sendet Transkript + Metadaten mit Ihrem QS-Prompt an Claude
4) Claude gibt JSON-ähnliche Scores und Kommentare zurück
5) Ergebnisse werden im QS- oder BI-Tool gespeichert
6) Dashboards werden für Teamleads und QS täglich aktualisiert
Diese End-to-End-Automatisierung macht aus Claude einen verlässlichen Motor für Servicequalitätsüberwachung statt nur ein Experiment.
Dual-Scoring zur Kalibrierung von KI vs. menschlicher QS nutzen
Bevor Sie KI-Scores vollständig vertrauen, führen Sie eine Kalibrierungsphase durch, in der ein Teil der Interaktionen sowohl von Claude als auch von Ihren besten QS-Spezialistinnen und -Spezialisten bewertet wird. Nutzen Sie ein einfaches Skript oder ein BI-Dashboard, um Scores nach Dimension und insgesamt zu vergleichen.
Wo Sie systematische Unterschiede sehen, verfeinern Sie den Prompt: Passen Sie Definitionen an, fügen Sie mehr Beispiele hinzu oder ändern Sie, wie stark bestimmte Verhaltensweisen gewichtet werden. Sie können Claude sogar anweisen, sich mithilfe der menschlichen Bewertungen selbst zu kalibrieren.
Kalibrierungs-Prompt-Muster:
Sie verbessern Ihre QS-Bewertung, um besser mit unserer Senior-QS-Analystin / unserem Senior-QS-Analysten übereinzustimmen.
Hier sind Score und Kommentare der Analystin / des Analysten:
[Mensches-QS-Formular einfügen]
Hier sind Ihr bisheriger Score und Ihre Begründung:
[früheres Claude-Output einfügen]
Aktualisieren Sie Ihr internes Verständnis des Rasters, damit zukünftige Bewertungen besser mit dem Ansatz der Analystin / des Analysten übereinstimmen. Bewerten Sie dann die Interaktion erneut und erklären Sie, was Sie geändert haben.
Über mehrere Iterationen hinweg erhöht dieser Prozess die Übereinstimmung und schafft Vertrauen bei Stakeholdern, dass Claudes QS-Scores den Standards Ihrer Organisation entsprechen.
Agentengerechtes Feedback und Coaching-Snippets erzeugen
Rohdaten in Form von Scores reichen nicht aus; Agents brauchen klares, umsetzbares Feedback. Konfigurieren Sie Claude so, dass es zu jeder bewerteten Interaktion kurze, agentenfreundliche Zusammenfassungen und Coaching-Tipps erstellt. Diese können Sie in Ihr LMS, Ihr Performance-Tool oder sogar in tägliche E-Mail-Übersichten einspielen.
Nutzen Sie Prompts, die konstruktive Sprache und Konkretheit betonen und allgemeine Ratschläge wie „Seien Sie empathischer“ vermeiden.
Beispiel-Prompt für Feedback:
Erstellen Sie basierend auf Ihrer obenstehenden QS-Bewertung Feedback, das direkt an die Agentin / den Agenten gerichtet ist.
Richtlinien:
- Maximal 150 Wörter
- Starten Sie mit 1–2 positiven Beobachtungen
- Listen Sie anschließend bis zu 3 Verbesserungsbereiche auf
- Fügen Sie für jeden Verbesserungsbereich ein Beispiel für eine Formulierung hinzu, die sie/er beim nächsten Mal nutzen könnte
- Vermeiden Sie Fachjargon, halten Sie den Ton ermutigend und praxisnah
So wird Claude zu einem skalierbaren Coaching-Assistenten, der hilft, die Art und Weise, wie Feedback über Supervisoren und Schichten hinweg gegeben wird, zu standardisieren.
QS-Trends überwachen und systemische Probleme sichtbar machen
Sobald Claude ein hohes Volumen an Interaktionen bewertet, können Sie den strukturierten Output nutzen, um Trends über Teams, Produkte und Kontaktgründe hinweg zu überwachen. Speichern Sie Scores pro Dimension und führen Sie regelmäßige Analysen durch: In welchen Bereichen zeigen sich wiederkehrende Schwächen? Welche Themen korrelieren mit niedriger Kundenzufriedenheit oder geringer Lösungsqualität?
Sie können Claude auch direkt bitten, Muster aus aktuellen QS-Ergebnissen zusammenzufassen, insbesondere für qualitative Insights.
Beispiel-Prompt für Analysen:
Sie sind ein QS-Insights-Analyst. Analysieren Sie die folgenden 200 QS-Bewertungen der letzten Woche.
Für jede Dimension:
- Identifizieren Sie die 3 häufigsten Stärken
- Identifizieren Sie die 3 häufigsten Schwächen
- Schlagen Sie 2–3 konkrete Coaching- oder Prozessänderungen vor, die diese Schwächen in großem Maßstab adressieren würden.
Erstellen Sie einen kompakten Bericht für die Leitung Kundenservice.
So entwickeln Sie sich von isolierten Scores hin zu kontinuierlicher Verbesserung – basierend auf Daten aus 100 % der Interaktionen statt nur aus einer kleinen Stichprobe.
Realistische KPIs und Leitplanken etablieren
Führen Sie KI-basierte QS-Bewertungen mit klaren, realistischen Erwartungen ein. Definieren Sie KPIs wie den Anteil bewerteter Interaktionen, die Abweichung zwischen Claude- und menschlichen QS-Scores, eingesparte Zeit pro Supervisor sowie Auswirkungen auf Bearbeitungszeit oder Kundenzufriedenheit im Zeitverlauf. Vermeiden Sie es, KI-Scores in der Anfangsphase als alleinige Grundlage für disziplinarische Maßnahmen zu nutzen.
Implementieren Sie Leitplanken: Begrenzen Sie zunächst das Gewicht von KI-Scores in Performance-Reviews, kennzeichnen Sie Bewertungen mit niedriger Konfidenz zur manuellen Prüfung und halten Sie einen Mechanismus bereit, über den Agents Scores mit Belegen anfechten können. Prüfen Sie regelmäßig eine Zufallsstichprobe von Claudes Bewertungen, um eine hohe Qualität sicherzustellen.
Typische Ergebnisse einer gut implementierten Lösung sind: 70–90 % weniger manueller QS-Aufwand, eine Steigerung der Abdeckung von 2–5 % der Interaktionen auf 80–100 % sowie eine messbare Verbesserung der Konsistenz der Scores über Supervisoren und Standorte hinweg innerhalb weniger Monate. Die größten Effekte zeigen sich häufig in schnellerem, zielgerichteterem Coaching und einem gestärkten Vertrauen in den QS-Prozess.
Brauchen Sie jetzt Umsetzungskompetenz?
Lassen Sie uns über Ihre Ideen sprechen!
Häufig gestellte Fragen
Claude kann eine Genauigkeit erreichen, die mit Ihren besten QS-Spezialistinnen und -Spezialisten vergleichbar ist, wenn Sie ein klares Bewertungsraster bereitstellen und eine Kalibrierungsphase durchführen. In der Praxis zielen Teams meist darauf ab, dass Claudes Scores in einem vereinbarten Toleranzbereich liegen (zum Beispiel ±0,5 auf einer Skala von 1–5) im Vergleich zu den Scores der Senior-QS in den meisten Dimensionen.
Entscheidend ist, nicht ab Tag eins Perfektion zu erwarten. Starten Sie mit Dual-Scoring (KI + Mensch) für eine Stichprobe von Interaktionen, vergleichen Sie die Ergebnisse und verfeinern Sie Prompts und Beispiele, bis die Abweichung akzeptabel ist. Einmal kalibriert, liegt Claudes Hauptvorteil in der Konsistenz: Es wendet dieselben Regeln um 03:00 Uhr genauso an wie um 15:00 Uhr und wird nie müde oder abgelenkt.
Um Claude für die Qualitätsüberwachung im Kundenservice einzusetzen, benötigen Sie drei zentrale Bausteine: Zugang zu Interaktionsdaten (Anruftranskripte, Chat- und E-Mail-Logs), ein hinreichend klar definiertes QS-Framework und eine Möglichkeit, Claude per API oder Workflow-Tools in Ihre bestehenden Systeme zu integrieren.
Auf der menschlichen Seite brauchen Sie eine kleine, funktionsübergreifende Gruppe: eine Person, die das QS-Raster verantwortet, eine technische Verantwortliche / einen technischen Verantwortlichen (Engineering oder IT), die/der Integration und Datenflüsse umsetzt, und eine Operations-Leitung, die sicherstellt, dass die Ergebnisse in Coaching- und Reporting-Workflows passen. Reruption unterstützt Kundinnen und Kunden typischerweise dabei, in wenigen Wochen – nicht Monaten – vom initialen Design zu einem funktionierenden Prototyp zu kommen.
Die meisten Organisationen sehen innerhalb von 4–8 Wochen greifbare Ergebnisse aus Claude-gestützter QS, abhängig von Datenverfügbarkeit und Integrationskomplexität. In den ersten 2–3 Wochen definieren oder verfeinern Sie das QS-Raster, erstellen erste Prompts und richten eine Shadow-Bewertungsphase ein. Die darauffolgenden Wochen konzentrieren sich auf Kalibrierung, Workflow-Integration und die Sichtbarmachung der Scores für Supervisoren und Agents.
Effizienzgewinne (weniger manuelle Bewertung, höhere Abdeckung) treten in der Regel unmittelbar auf, sobald die Automatisierung aktiv ist. Verbesserungen bei Konsistenz und Coaching-Qualität folgen, wenn Supervisoren beginnen, Claudes strukturierte Feedbacks zu nutzen. Kundenseitige Effekte wie höhere Zufriedenheit oder bessere Erstlösungsquoten werden üblicherweise nach ein bis zwei Coaching-Zyklen sichtbar, die auf den neuen Insights basieren.
Die direkten Kosten für den Einsatz von Claude in der QS hängen hauptsächlich von Ihrem Interaktionsvolumen und der verarbeiteten Textmenge ab. Da Sie manuelle, arbeitsintensive Bewertungen durch automatisierte QS-Auswertungen ersetzen, wird der ROI häufig durch eingesparte Supervisor-Stunden und die Möglichkeit, effektiver zu coachen, getrieben.
Typische Effekte sind: 50–80 % Zeitersparnis bei QS-Analystinnen und -Analysten durch Wegfall repetitiver Bewertungsarbeit, eine Erhöhung der Abdeckung von kleinen Stichproben hin zu nahezu allen Interaktionen und eine verbesserte Konsistenz, die Nacharbeit und Eskalationen reduziert. In Kombination mit gezieltem Coaching sehen viele Organisationen sinkende durchschnittliche Bearbeitungszeiten und steigende Kundenzufriedenheit – mit klar messbarem finanziellen Impact. Reruption unterstützt Sie in einem PoC dabei, diese Wirtschaftlichkeit zu modellieren, sodass Sie eine fundierte Investitionsentscheidung treffen können.
Reruption unterstützt Sie End-to-End beim Aufbau einer Claude-basierten QS-Lösung, die in Ihrer realen Umgebung funktioniert. Mit unserem 9.900 € KI-PoC validieren wir den Use Case mit einem funktionierenden Prototyp: Definition des QS-Rasters für die KI, Auswahl der passenden Architektur, Integration von Transkripten oder Chat-Logs und Messung der Performance an realen Interaktionen.
Über den PoC hinaus bedeutet unser Co-Preneur-Ansatz, dass wir uns als hands-on Builder in Ihr Team einbetten, nicht nur als Beraterinnen und Berater auftreten. Wir helfen bei der Gestaltung von Prompts und Bewertungslogik, beim Aufbau von Datenpipelines, bei der Integration der Outputs in Ihre QS- und Coaching-Workflows und bei der Etablierung von Governance und Leitplanken für langfristigen Erfolg. Ziel ist kein Foliensatz, sondern ein Live-System, das Ihre Supervisoren und Agents tatsächlich nutzen.
Kontaktieren Sie uns!
Direkt Kontaktieren
Philipp M. W. Hoffmann
Founder & Partner
Adresse
Reruption GmbH
Falkertstraße 2
70176 Stuttgart
Kontakt
Telefon