Implementierungsdetails
Technologie-Stack und Entwicklung
Goldman Sachs entwickelte seinen generativen KI-Assistenten auf Basis eines speziell trainierten Large Language Model (LLM), das auf umfangreichen internen Datensätzen wie E-Mails, Code-Repositorien und Finanzdokumenten feinabgestimmt wurde. Im Gegensatz zu öffentlichen Modellen läuft dieses proprietäre System in einer luftgetrennten, sicheren Cloud, um Bankvorschriften wie GDPR und SEC-Regeln einzuhalten. Partnerschaften mit KI-Anbietern flossen in den Stack ein, die Kernentwicklung erfolgte jedoch intern über das KI-Labor der Firma.[1][4]
Umsetzungszeitplan
Die Reise begann Anfang 2023 mit Proof-of-Concepts (PoCs) unter der Leitung von CIO Marco Argenti, die genAI für Coding-Unterstützung in einem Pilotprojekt mit 500 Entwicklern testeten. Bis Mitte 2024 wurde nach rigoroser Validierung auf 10.000 Mitarbeiter in Engineering-, Research- und Investmentbanking-Teams ausgeweitet. Der vollständige unternehmensweite Rollout beschleunigte sich im Januar 2025 und wurde in Tools wie E-Mail-Clients und IDEs integriert. Laufende Iterationen berücksichtigen Feedback, eine Version 2 ist für 2026 geplant.[3][2]
Rollout-Strategie und Schulung
Die Einführung folgte einem phasenweisen Train-the-Trainer-Modell: Anfangsnutzer (Tech-Teams) wurden zu Fürsprechern und führten Workshops für über 45.000 Mitarbeiter durch. Die Integration per Single Sign-On gewährleistete nahtlosen Zugriff, während Nutzungsanalysen die Adoption verfolgten. Guardrails wie Query-Logging und menschliche Prüfung bei risikoreichen Ausgaben minderten Halluzinationen. Herausforderungen wie Modellgenauigkeit wurden durch Retrieval-Augmented Generation (RAG) und kontinuierliches Fine-Tuning gelöst, wodurch in Pilotprojekten eine Aufgaben-Zufriedenheit von über 90 % erreicht wurde.[5]
Überwundene Herausforderungen
Zentrale Hürden waren Datenschutz im Finanzbereich und die KI-Zuverlässigkeit für Code und Dokumente. Goldman reagierte mit Zero-Trust-Architektur, dem Verbot externer APIs und maßgeschneiderten Benchmarks, die in fachspezifischen Aufgaben besser abschnitten als GPT-4. Mitarbeiterskepsis wurde durch Demos adressiert, die 30 % schnellere Code-Reviews zeigten. Kostenfragen wurden anhand interner Berichte zur KI-ROI geprüft, doch die Pilotprojekte belegten den Wert.[6][1] Dieser strukturierte Ansatz ermöglichte eine skalierbare Einführung inmitten der KI-Welle an der Wall Street.