Die NHTSA untersucht 2.000 Waymo-Robotaxis nach Vorfällen an Schulbussen. Fokus: Einhaltung von Stoppschildern, Softwareerkennung und Vertrauen im Betrieb.
2025-10-20T17:55:41+03:00
2025-10-20T17:55:41+03:00
2025-10-20T17:55:41+03:00
Die US-Verkehrssicherheitsbehörde NHTSA hat eine Untersuchung zu rund 2.000 fahrerlosen Autos von Waymo eingeleitet, nachdem Berichte eingingen, wonach die Robotaxis sich in der Nähe von Schulbussen gefährlich verhalten haben könnten. Besonders Aufsehen erregte ein geschilderter Vorfall: Ein autonomes Fahrzeug hielt neben einem Bus, fuhr dann an, zog vor und passierte ihn – trotz ausgeklapptem Stoppschild, während Kinder ausstiegen.Die Ermittler prüfen, ob die Waymo-Software Verkehrsregeln verletzt hat und ob sie solche Situationen verlässlich erkennt. Für eine Technologie, die als sicherere Alternative zum Menschen beworben wird, kratzt so etwas rasch am Vertrauen – zumal kaum ein Szenario höhere Fehlerfreiheit verlangt als ein stehender Schulbus, vor dem Kinder auf die Fahrbahn treten. Hier zeigt sich, wie groß die Lücke zwischen Versprechen und Praxis noch sein kann.Waymo, eine Alphabet-Tochter, stand bereits früher wegen umstrittener Verhaltensweisen im öffentlichen Straßenverkehr in der Kritik; damals ging es allerdings eher um fragwürdige Manöver als um eine mögliche Gefahr für Kinder. Das Unternehmen hat sich bislang nicht geäußert und ließ erkennen, dass es seine offizielle Position später darlegen will.Solange automatisierte Systeme nicht belegen, dass sie die härtesten Grenzfälle meistern – gerade im Umfeld von Schulen –, bleibt ein breiter Einsatz ungewiss. Ohne belastbares öffentliches Vertrauen wird die Skalierung von Robotaxi-Diensten ein mühsamer Weg.
Die NHTSA untersucht 2.000 Waymo-Robotaxis nach Vorfällen an Schulbussen. Fokus: Einhaltung von Stoppschildern, Softwareerkennung und Vertrauen im Betrieb.
Michael Powers, Editor
Die US-Verkehrssicherheitsbehörde NHTSA hat eine Untersuchung zu rund 2.000 fahrerlosen Autos von Waymo eingeleitet, nachdem Berichte eingingen, wonach die Robotaxis sich in der Nähe von Schulbussen gefährlich verhalten haben könnten. Besonders Aufsehen erregte ein geschilderter Vorfall: Ein autonomes Fahrzeug hielt neben einem Bus, fuhr dann an, zog vor und passierte ihn – trotz ausgeklapptem Stoppschild, während Kinder ausstiegen.
Die Ermittler prüfen, ob die Waymo-Software Verkehrsregeln verletzt hat und ob sie solche Situationen verlässlich erkennt. Für eine Technologie, die als sicherere Alternative zum Menschen beworben wird, kratzt so etwas rasch am Vertrauen – zumal kaum ein Szenario höhere Fehlerfreiheit verlangt als ein stehender Schulbus, vor dem Kinder auf die Fahrbahn treten. Hier zeigt sich, wie groß die Lücke zwischen Versprechen und Praxis noch sein kann.
Waymo, eine Alphabet-Tochter, stand bereits früher wegen umstrittener Verhaltensweisen im öffentlichen Straßenverkehr in der Kritik; damals ging es allerdings eher um fragwürdige Manöver als um eine mögliche Gefahr für Kinder. Das Unternehmen hat sich bislang nicht geäußert und ließ erkennen, dass es seine offizielle Position später darlegen will.
Solange automatisierte Systeme nicht belegen, dass sie die härtesten Grenzfälle meistern – gerade im Umfeld von Schulen –, bleibt ein breiter Einsatz ungewiss. Ohne belastbares öffentliches Vertrauen wird die Skalierung von Robotaxi-Diensten ein mühsamer Weg.