Implementierungsdetails
Technologie-Stack und Architektur
Der Sprachassistent von Lunar basiert auf OpenAI's GPT-4 als Kern-Large-Language-Model und kombiniert state-of-the-art Voice-AI-Technologien für nahtlose Telefonie-Integration.[1] Er nutzt fortschrittliche Spracherkennung (ASR) und Natural Language Understanding (NLU), um Akzente und Dialekte im Dänischen zu interpretieren und hohe Genauigkeit im lokalen Markt sicherzustellen. Text-to-Speech (TTS) erzeugt menschlich klingende Antworten, mit Modellen ähnlich denen von ElevenLabs oder vergleichbaren Anbietern, feinabgestimmt auf Bankenterminologie.
Das System integriert sich über sichere APIs mit Lunars Backend für Echtzeit-Datenzugriff (z. B. Kontostände, Transaktionen) und entspricht PSD2- und GDPR-Regularien.[3] Agentische KI-Elemente ermöglichen Multi-Turn-Konversationen, Kontextbeibehaltung und Eskalation an menschliche Agenten via Handoff-Protokolle.
Implementierungszeitplan
Die Entwicklung begann Anfang 2024, mit einem Pilot in Q3, der OpenAIs API für Rapid Prototyping nutzte. Beta-Tests mit ausgewählten Kunden fanden im September 2024 statt, wobei anfängliche Latenzprobleme (reduziert auf <2s Reaktionszeit) und Halluzinationsrisiken durch Prompt-Engineering und RAG (Retrieval-Augmented Generation) adressiert wurden.[1] Der vollständige Launch erfolgte am 24. Oktober 2024 und markierte Lunar als erste europäische Bank mit nativer GenAI-Stimme.[4] Nach dem Start flossen iterative Updates basierend auf Nutzerfeedback ein, wodurch v1.1 bis Q1 2025 mit verbesserter Mehrsprachigkeit erreicht wurde.
Wesentliche Herausforderungen und Lösungen
Regulatorische Compliance im Fintech-Bereich stellte Hürden dar; Lunar meisterte diese mit prüfbaren KI-Logs, Bias-Tests und menschlichen Aufsichtsmechanismen.[5] Die Sprachgenauigkeit in lauten Umgebungen wurde durch Rauschunterdrückungs-ASR und domänenspezifisches Fine-Tuning an Bankdialogen gelöst. Skalierbarkeitsanforderungen erfüllte man durch cloudbasierte Bereitstellung auf AWS oder Azure, die Spitzenlasten von Tausenden gleichzeitiger Anrufe bewältigt.
Training umfasste synthetische Datengenerierung und echte anonymisierte Gesprächstranskripte, was eine 95%+-Intent-Erkennung für gängige Anfragen sicherstellte. Die Integration mit Telefonieanbietern wie Twilio ermöglichte nahtlosen Inbound-/Outbound-Betrieb.
Rollout-Ansatz
Gestaffelter Rollout: interne Alpha, Kunden-Beta, volle Produktion. Monitoring erfolgt über Metrik-Dashboards, die CSAT, Lösungsraten und Eskalationshäufigkeiten verfolgen. Kontinuierliches Lernen via Feedbackschleifen verfeinert das Modell, mit A/B-Tests gegen menschliche Agenten.[2] Bis Mitte 2025 wurde das System für proaktive Outbound-Anrufe bei Alerts ausgeweitet.