Implementierungsdetails
Hintergrund und Entwicklung von Cora
Der digitale Assistent Cora von NatWest wurde vor Jahren gestartet, um Kundeninteraktionen zu vereinfachen. Bis 2024 bestand jedoch Bedarf an Weiterentwicklung, um den wachsenden Anforderungen gerecht zu werden. Die Bank identifizierte Einschränkungen bei der Bewältigung von komplexen Anfragen, wie personalisierte Finanzberatung oder umfangreiche Betrugsberichte, und entwickelte daraufhin Cora+.[2] Dieses Upgrade brachte generative KI-Funktionen, die natürlichere Konversationen und proaktive Vorschläge ermöglichten.
Ergänzend zu Cora wurde der interne Assistent Ask Archie verbessert, um Mitarbeitende zu unterstützen, interne Antwortzeiten zu verkürzen und Ressourcen für kundenorientierte Verbesserungen frei zu machen.
Strategische Partnerschaft mit OpenAI
Am 20. März 2025 kündigte NatWest die Zusammenarbeit mit OpenAI an – ein Meilenstein, der die Bank zur ersten in Großbritannien mit Hauptsitz machte, die direkt mit dem KI-Anbieter kooperiert. Die Initiative zielt darauf ab, OpenAIs LLMs (Large Language Models) zur Unterstützung digitaler Assistenten, zur Verbesserung des Kundensupports und zur Förderung von bankweiten Vereinfachungen einzusetzen.[1][3] Zu den zentralen Zielen gehört der Kampf gegen Finanzbetrug mittels intelligenter Chat-Analyse und die Bereitstellung hochgradig personalisierter Services.
Die Partnerschaft geht über Chatbots hinaus und integriert KI in breitere Prozesse wie Betrugsprävention und operative Effizienz, im Einklang mit NatWests strategischen KI-Forschungsaktivitäten.[6]
Technische Integration und Architektur
Die Implementierung umfasste das Feinabstimmen von OpenAI-Modellen auf NatWests umfangreichen Datensatz anonymisierter Interaktionen, um domänenspezifische Genauigkeit für Bankterminologie, regulatorische Anforderungen und Kundenverhalten sicherzustellen. Techniken wie Retrieval-Augmented Generation (RAG) wurden eingesetzt, um Antworten auf verifizierte Daten zu stützen und Halluzinationen zu minimieren. Sicherheitslayer beinhalteten Prompt-Engineering für Compliance, Echtzeit-Überwachung und menschliche Eskalationspfade bei sensiblen Themen wie Betrug.[4]
Für die Betrugserkennung analysiert das LLM konversationelle Hinweise (z. B. Dringlichkeit, Inkonsistenzen), um Risiken zu markieren und Nutzer nahtlos durch das Meldeverfahren zu führen. Intern unterstützt Ask Archie Mitarbeitende mit ähnlicher Technologie, um Betrugsmeldungen schneller zu verifizieren. Das System verarbeitet Millionen von Interaktionen pro Monat, wobei die KI die Ersttriage übernimmt.[5]
Implementierungszeitplan und Vorgehen
Der Rollout begann mit einem Cora+-Pilot Anfang 2024, bei dem Feedback gesammelt wurde, bevor die vollständige Einführung im Juni erfolgte. Nach der Partnerschaft wurde die OpenAI-Integration phasenweise ausgerollt: Q2 2025 für Tests, Q3 für eine Kunden-Beta und Produktionsbetrieb bis Q4. NatWest setzte eine agile Methodik mit funktionsübergreifenden Teams (Data Scientists, Compliance-Experten, UX-Designer) ein und führte A/B-Tests zur Messung der Steigerung durch.[1]
Herausforderungen wie Modellbias und Latenzzeiten wurden durch ethische KI-Rahmenwerke, kontinuierliches Retraining und Partnerschaften für spezialisierte Banking-LLMs behoben. Schulungsprogramme für Mitarbeitende sicherten die reibungslose Einführung von Ask Archie.
Sicherheit, Ethik und fortlaufende Optimierung
NatWest priorisiert verantwortungsvolle KI mit Richtlinien ihres Chief Data & Analytics Officer, die Transparenz und Fairness betonen. Regelmäßige Audits, Kunden-Feedback-Loops und adversariales Testing schützen vor Missbrauch in Betrugsszenarien.[7] Getrackte Kennzahlen umfassen CSAT, Lösungsquoten und Genauigkeit der Betrugserkennung; iterative Updates erfolgen auf Basis von Echtzeitdaten.[6] Bis Ende 2025 entwickelt sich das System weiter und positioniert NatWest als KI-Vorreiter im britischen Bankwesen.