Implementierungsdetails
Überblick über den Waymo Driver Stack
Der Waymo Driver ist ein umfassendes autonomes System, das durch Deep Learning in den Bereichen Wahrnehmung, Prognose, Planung und Steuerung angetrieben wird. Es verarbeitet Daten von 29 Kameras, 5 Lidar-Sensoren, 6 Radaren und Audioarrays in Echtzeit und erzielt eine 360°-Wahrnehmung bis zu 500 m. Die Hardware umfasst maßgeschneiderte Jaguar-Compute-Einheiten mit NVIDIA-GPUs für Inferenz [1][8].
Wahrnehmung: Multi-modales Deep Learning
Wahrnehmung nutzt transformer-basierte Modelle wie VideoPrism und BEVFormer für Bird’s-Eye-View-(BEV)-Repräsentationen und fusioniert Modalitäten, um über 100 Objektklassen (Fußgänger, Radfahrende, Fahrzeuge) mit 99%+ Präzision unter verschiedensten Bedingungen zu erkennen. Neuronale Strahlungsfelder und Belegungsnetzwerke sagen die Szenengeometrie jenseits der Sensorreichweite voraus. Trainiert auf dem Waymo Open Dataset (2000+ Stunden Video) meistert das System Wetterbedingungen mittels Domänenanpassung [1][3].
Prognose und Planung: Skalierung von ML-Modellen
Bewegungsprognose verwendet temporale Graphnetze und Diffusionsmodelle, um die Trajektorien von 100+ Akteuren über 11 Sekunden vorherzusagen; verbessert durch Skalierungsgesetze: 10x mehr Daten/Compute führt zu 20–30% weniger Fehlern. Die Planung erzeugt sichere Trajektorien mittels Imitationslernen + Such-Hybriden und ist inzwischen ML-dominiert, um nuancierte Verhaltensweisen wie Nachgeben oder Einfädeln abzubilden. Jüngste Veröffentlichungen belegen, dass sich Potenzgesetz-Skalierung auf reale AV-Leistung übertragen lässt [2][5].
Steuerung: Hybride neuronale Policies
Steuerung optimiert klassische PID-Ansätze mit neuronaler modellprädiktiver Regelung (MPC) und nutzt RL-trainierte Policies für kritische Manöver. End-to-End-Learning überbrückt Wahrnehmung und Handlung und wird in Simulationen (Milliarden virtueller Meilen) feinjustiert. Validierung erfolgt unter anderem im Shadow-Mode (paralleler Betrieb neben menschlichen Fahrern) zur Sicherstellung der Sicherheit [3].
Daten-Pipeline und Training
Waymo sammelt Petabytes an Flottendaten, annotiert mittels Active Learning und ergänzt mit HD-Karten und Simulationen. Trainingscluster skalieren auf tausende GPUs; Over-the-Air-Updates werden wöchentlich ausgerollt. Probleme wie die Erkennung von Schulbussen wurden durch gezielte Datenerweiterung behoben [10].
Zeitplan und Rollout
2009: Ursprung in Google X. 2016: Ausgründung als Waymo. 2020: kommerzieller Start in Phoenix. 2024–25: Expansionen (SF, LA, Austin, Miami); Autobahnfreigaben; 250K→450K Fahrten/Woche. 2026: Start in Washington D.C. und London geplant. Mitarbeiterfahrten zum Flughafen SFO begannen im Dez. 2025 [2][4][6].
Monitoring und Sicherheit
Redundante Systeme, Remote-Operationen (1:10K Fahrten), Ausfallraten <1/million Meilen. Das Safety Hub berichtet über 96M Meilen an Daten [5].