Implementierungsdetails
Technologie-Stack und Kernkomponenten
Zalandos virtuelle Anprobe basiert auf einer ausgeklügelten generativen Computer Vision-Pipeline, die auf ihrer proprietären Machine-Learning-Plattform (MLOps) aufgebaut ist und End-to-End-Workflows von der Datenaufnahme bis zur Bereitstellung steuert [6]. Zu den Schlüsseltechnologien gehören Pose-Estimation-Modelle (z. B. auf Basis von OpenPose-Derivaten) zur Erkennung von Körper-Keypoints in hochgeladenen Nutzerbildern, Segmentierungsnetzwerke wie Mask R-CNN zur Isolierung von Bekleidungsbereichen und generative adversariale Netzwerke (GANs) für realistische Verformung und Texturübertragung von Kleidungsstücken [4]. Diese Modelle verarbeiten 3D-Körperscans und Produktpläne, um fotorealistische Anproben in Echtzeit zu erzeugen.
Das Backend integriert sich in Zalandos Kubernetes-orchestrierte Infrastruktur und ermöglicht skalierbare Inferenz über GPU-Cluster. Datenpipelines aggregieren Petabytes anonymisierter Kundenbilder, Kaufhistorien und markenspezifische Größeninformationen; das Training stützt sich auf Open-Source-Beiträge von Zalando Research, etwa Fashion-Landmark-Detektoren aus ihren GitHub-Repositories [5].
Entwicklungszeitplan und Vorgehen
Die Entwicklung begann etwa 2020–2021 mit internen Pilotprojekten für Kleider und Oberteile und baute auf früheren Größenempfehlungs-KI-Systemen auf, die bereits Falschgrößen‑Retouren um 21 % reduzierten [4]. Bis 2022 wurden die generativen Fähigkeiten mit Diffusionsmodellen für bessere Drapierungssimulationen erweitert. Die Online-Version startete in ausgewählten Märkten Ende 2022, wobei innerhalb weniger Wochen über 30.000 Nutzer das Tool nutzten [2]. Im April 2023 erfolgte die Ausweitung auf alle 50+ physischen Outlets für Jeans, mit In-Store-Kiosks und 3D-Avataren, die via Schnellvermessung kalibriert wurden [5].
Der agile Ansatz umfasste funktionsübergreifende Teams aus Zalando Research, Engineering und Produkt, die via A/B-Tests an Conversion-Verbesserung und Retourenmetriken arbeiteten. Ethische KI-Praktiken sorgten für Bias‑Mitigation in der Darstellung von Körperformen und die Einhaltung von EU‑Datenschutzvorgaben.
Überwundene Herausforderungen
Wesentliche Hürden waren die Rechenanforderungen für Echtzeit-Rendering, die durch Modelloptimierungen (z. B. Quantisierung mit einer Reduktion der Latenz um 50 %) und Edge‑Deployments adressiert wurden [6]. Die Vielfalt an Körperformen und Hauttönen zeigte Lücken in den Trainingsdaten, die durch synthetische Datengenerierung und Partnerschaften für inklusive Datensätze geschlossen wurden [3]. Die Integration mit über 2.000 Marken erforderte standardisierte 3D-Assets, was mittels eines KI-gestützten Onboarding-Copiloten erreicht wurde, der Attribute aus Bildern extrahiert [1].
Die Skalierbarkeit für Spitzenlasten (z. B. Black-Friday-Surges) wurde durch Auto-Scaling-ML-Services gelöst, während der Datenschutz der Nutzer:innen durch föderierte Lernproxies priorisiert wurde. Nach dem Launch verfeinerten Feedback-Loops die Genauigkeit der Passprognosen von 75 % auf 90 %.
Bereitstellung und aktueller Stand
Heute ist das Tool in die Zalando-App und die Website eingebettet und unterstützt Millionen von Sessions pro Monat, wobei die Outlet‑Erweiterungen Offline-Daten sammeln, um hybride Modelle zu trainieren [7]. Zukünftige Fahrpläne sehen die Integration von AR‑Brillen und vollkörpergenerative Anproben vor, angetrieben durch fortlaufende F&E in Zalando Research.