Eckdaten

  • Unternehmen: Cruise (GM)
  • Unternehmensgröße: ~2.000 Mitarbeiter (vor den Entlassungen 2024); GM als Mutter: 164.000 Mitarbeiter
  • Standort: San Francisco, Kalifornien
  • Eingesetzte KI‑Tools: Computervision (CNNs, Transformers), verstärkendes Lernen
  • Ergebnis: <strong>über 1 Mio. Meilen</strong> vollständig autonom bis 2023; Technologie auf GMs persönliche Fahrzeuge umgestellt

Möchten Sie ähnliche Ergebnisse mit KI erzielen?

Lassen Sie uns gemeinsam die richtigen KI-Lösungen für Ihr Unternehmen identifizieren und implementieren.

Die Herausforderung

Die Entwicklung eines selbstfahrenden Taxi‑Dienstes in dicht besiedelten urbanen Umgebungen stellte Cruise vor immense Herausforderungen. Komplexe Situationen wie unberechenbare Fußgänger, erratische Radfahrer, Baustellen und widrige Wetterbedingungen erforderten nahezu perfekte Wahrnehmung und Entscheidungsfindung in Echtzeit.[1] Sicherheit hatte oberste Priorität, da jeder Fehler zu Unfällen, behördlicher Prüfung oder öffentlicher Empörung führen konnte. Frühe Tests zeigten Lücken bei der Handhabung von Randfällen, etwa Einsatzfahrzeuge oder verdeckte Objekte, und verlangten eine robuste KI, die die Leistung menschlicher Fahrer übertreffen sollte.

Ein entscheidender Sicherheitsvorfall im Oktober 2023 verschärfte diese Probleme: Ein Cruise‑Fahrzeug erfasste eine Fußgängerin, die von einem Unfallfahrer in seinen Weg gedrängt worden war, und schleifte sie, als das Fahrzeug den Unfallort verließ, was zur Aussetzung der Betriebsführungen landesweit führte. Dies legte Schwachstellen im Nach‑Kollisions‑Verhalten, in der Sensorfusion unter chaotischen Bedingungen und in der regulatorischen Compliance offen. Die Skalierung zu kommerziellen Robotaxi‑Flotten bei gleichzeitiger Erreichung von Null schuldhaften Vorfällen erwies sich angesichts von $10 Mrd.+ Investitionen seitens GM als schwer realisierbar.[2][3]

Die Lösung

Cruise begegnete diesen Herausforderungen mit einem integrierten KI‑Stack, der Computervision für die Wahrnehmung und verstärkendes Lernen für die Planung nutzte. Lidar, Radar und mehr als 30 Kameras speisten CNNs und Transformers für Objekterkennung, semantische Segmentierung und Szenenvorhersage, wodurch 360°‑Ansichten mit hoher Detailtreue selbst bei schwachem Licht oder Regen verarbeitet wurden.[6]

Verstärkendes Lernen optimierte Trajektorienplanung und Verhaltensentscheidungen, trainiert auf Millionen simulierten Meilen, um seltene Ereignisse zu bewältigen. End‑to‑end‑Neuronale Netze verfeinerten die Bewegungsprognose, während Simulationsframeworks die Iteration ohne reales Risiko beschleunigten. Nach dem Vorfall verstärkte Cruise die Sicherheitsprotokolle und nahm 2024 mit verbesserten Disengagement‑Raten wieder beaufsichtigte Tests auf.[3] GMs Strategiewechsel integrierte diese Technologie in die Weiterentwicklung von Super Cruise für Privatfahrzeuge.

Quantitative Ergebnisse

  • <strong>1.000.000+ Meilen</strong> vollständig autonom gefahren bis 2023
  • <strong>5 Millionen fahrerlose Meilen</strong> für das KI‑Modelltraining verwendet
  • <strong>$10 Mrd.+ kumulative Investition</strong> von GM in Cruise (2016–2024)
  • <strong>30.000+ Meilen pro Eingriff</strong> in frühen unbeaufsichtigten Tests
  • <strong>Betrieb ausgesetzt Okt 2023</strong>; im Mai 2024 mit beaufsichtigten Tests wieder aufgenommen
  • <strong>Keine kommerziellen Robotaxi‑Einnahmen</strong>; Strategiewechsel Dez 2024

Bereit, Ihr Unternehmen mit KI zu transformieren?

Buchen Sie eine kostenlose Beratung, um zu erfahren, wie KI Ihre spezifischen Herausforderungen lösen kann.

Implementierungsdetails

Entwicklungs‑ und Einsatzzeitachse

Cruise wurde 2013 gegründet und 2016 von GM für 1 Mrd. $ übernommen, was GMs aggressiven Einstieg in autonome Fahrzeuge markierte.[1] Bis 2018 debütierten Fahrzeuge der vierten Generation ohne Lenkrad, getestet in SF und Phoenix. 2022 erfolgte die Ausweitung auf Austin und Houston mit unbeaufsichtigten Fahrten. Kommerzielle Robotaxi‑Starts fanden 2022 in SF statt, doch die Zwischenfälle 2023 stoppten den Fortschritt: Das kalifornische DMV setzte Genehmigungen nach dem Fußgänger‑Schleppvorfall aus, die NHTSA leitete Untersuchungen ein.[2][3] CEO Kyle Vogt trat im Nov. 2023 zurück. Im Mai 2024 wurden kartierte Tests wiederaufgenommen; im Aug. 2024 starteten fahrerlose Tests in Phoenix erneut. Am 10. Dez. 2024 kündigte GM das Ende der Robotaxi‑Finanzierung an und gliederte Cruise in die persönliche AV‑Entwicklung ein, mit dem Ziel, bis 2028 blick‑ und hände‑freie Systeme zu ermöglichen.[4][5]

KI‑Architektur: Wahrnehmung und Computervision

Cruises Wahrnehmungssystem verschmolz Daten von Lidar (200 m Reichweite), Radar und Kameras mittels tiefer neuronaler Netze. CNNs wie ResNet‑Varianten übernahmen die Objekterkennung (Fahrzeuge, Fußgänger mit >99% Genauigkeit), während Transformers Bird’s‑Eye‑View‑Mapping für 3D‑Belegungsmodelle ermöglichten.[6] Semantische Segmentierung via U‑Net separierte Fahrspuren und Bordsteine. Herausforderungen wie Nacht‑/Regen‑Okklusionen wurden durch multimodale Fusion und temporale Konsistenz (RNNs/LSTMs) gemildert, mit <1% falsch positive in Benchmarks.

Entscheidungsfindung mit Verstärkendem Lernen

Planung und Kontrolle basierten auf RL‑Agenten, die in hochrealistischen Simulationen urbanes Chaos nachstellten. RL‑Policies optimierten Belohnungsfunktionen für Sicherheit, Effizienz und Komfort und simulierten Milliarden von Meilen. Imitation Learning diente als Initialisierung durch Experten‑Daten und ging in RL über, um Exploration zu erlauben. Die Bewegungsprognose nutzte Graph‑Neuronale Netze für Vorhersagen über Zeitspannen von 8 s. Nach 2023 wurden regelbasierte Sicherheitsbarrieren über RL gelegt, um ungültige Aktionen zu verhindern und die Eingriffsraten in Tests auf <1 pro 10.000 Meilen zu senken.[3]

Trainings‑ und Simulationspipeline

5M+ reale fahrerlose Meilen speisten Datensätze für Training, ergänzt durch CARLA/NuPlan‑Simulationen. Flottendaten liefen per Shadow Mode zurück, um Vorhersagen offline zu validieren. Die Rechenleistung skalierte auf GPUs/TPUs, mit wöchentlichen Iterationen. Edge‑Case‑Mining priorisierte Anomalien und steigerte die Robustheit für seltene Ereignisse (z. B. plötzliches Überqueren) um das 30‑fache.

Überwundene Herausforderungen und Strategiewechsel

Sicherheitszwischenfälle führten zu Hardware‑Upgrades (neue Sensoren) und zusätzlichen Software‑Veto‑Schichten. Regulatorische Hürden erforderten umfangreiche DMV/NHTSA‑Berichterstattung. GMs Entscheidung 2024 begründete den Wechsel mit der kapitalintensiven Natur von Robotaxis gegenüber skalierbaren persönlichen AV‑Systemen wie Super Cruise 2.0, die nun von Cruises KI‑Modellen für blick‑ und hände‑freie Funktionen profitieren sollen.[7][8]

Interesse an KI für Ihre Branche?

Entdecken Sie, wie wir Ihnen bei der Implementierung ähnlicher Lösungen helfen können.

Ergebnisse

Die KI von Cruise erzielte bahnbrechende Erfolge: Sie verzeichnete über 1 Million Meilen vollständig fahrerlos auf öffentlichen Straßen bis 2023, wobei frühe Kennzahlen 1 Eingriff pro 30.000 Meilen auswiesen — und damit die menschlichen Benchmarks deutlich übertrafen.[3] Dies ermöglichte Passagierfahrten in SF und bestätigte die Praxistauglichkeit von Computervision und verstärkendem Lernen in chaotischen Umgebungen. Simulationen wurden auf 5 Millionen Meilen ausgeweitet und lieferten in virtuellen Tests Modelle, die 10× sicherer waren.[6] Die Rückschläge 2023 verringerten diese Erfolge jedoch erheblich: Der Vorfall im Oktober löste eine vollständige Aussetzung aus, führte zu Entlassungen von über 900 Mitarbeitenden und hinterließ $10 Mrd.+ versenkte Kosten ohne entsprechende Einnahmen.[2] Die 2024 wiederaufgenommenen Tests zeigten verbesserte Sicherheitskennzahlen, doch kommerzielle Robotaxis skalierten aufgrund regulatorischer und operativer Hürden nie profitabel. GMs Strategiewechsel im Dez. 2024 markierte das Ende der Cruise‑Robotaxis und leitete die Umleitung des KI‑Stacks — einschließlich Wahrnehmungs‑Transformern und RL‑Planern — in perso nen‑ bezogene Fahrzeuge ein. Das treibt die Weiterentwicklung von Super Cruise voran, mit dem Ziel, bis 2028 Level‑4‑Autonomie in Konsumentenfahrzeugen zu ermöglichen und potenziell Millionen von Nutzern über GMs jährliche Verkäufe zu erreichen.[4][7] Vermächtnis: Beschleunigte Branchenstandards für autonomes Fahren und umfangreiche Datensätze, die Wettbewerbern zugutekommen — trotz fehlender Robotaxi‑Dominanz.

Kontaktieren Sie uns!

0/10 min.

Direkt Kontaktieren

Your Contact

Philipp M. W. Hoffmann

Founder & Partner

Adresse

Reruption GmbH

Falkertstraße 2

70176 Stuttgart

Kontakt

Social Media