E-Mail: [email protected]
- NHTSA indaga su circa 2.000 veicoli Waymo per violazioni sicurezza.
- Austin ISD documenta 19 casi di Waymo che supera scuolabus.
- Waymo ha percorso oltre 100 milioni di miglia a luglio 2026.
L’implementazione su larga scala della guida autonoma continua a sollevare interrogativi cruciali sulla sicurezza e l’affidabilità di queste tecnologie. Un recente sviluppo ha portato la National Highway Traffic Safety Administration (NHTSA) ad avviare un’indagine preliminare su circa 2.000 veicoli a guida autonoma Waymo, a seguito di segnalazioni riguardanti potenziali violazioni delle norme di sicurezza stradale in prossimità di scuolabus fermi.
## L’indagine della NHTSA e le accuse contro Waymo
L’indagine è stata innescata da un rapporto mediatico che descriveva un incidente in cui un veicolo autonomo Waymo non si è fermato di fronte a uno scuolabus con le luci rosse lampeggianti, il braccio di stop esteso e il controllo di attraversamento attivato. Secondo il rapporto, il veicolo Waymo si è inizialmente fermato accanto all’autobus, per poi manovrare attorno alla sua parte anteriore, superando il braccio di stop esteso e il controllo di attraversamento mentre gli studenti stavano scendendo. La NHTSA ha confermato che il veicolo coinvolto era equipaggiato con il sistema di guida automatizzata di quinta generazione di Waymo e operava senza un conducente umano di sicurezza al momento dell’incidente.

Il distretto scolastico indipendente di Austin ha documentato ben 19 casi in cui i veicoli Waymo hanno superato gli scuolabus “illegalmente e pericolosamente”. In un caso particolarmente allarmante, un veicolo Waymo ha superato un autobus fermo “solo pochi istanti dopo che uno studente ha attraversato di fronte al veicolo, e mentre lo studente era ancora sulla strada”.
## La risposta di Waymo e il richiamo volontario del software
Waymo ha dichiarato di aver “già sviluppato e implementato miglioramenti relativi alla fermata per gli scuolabus e rilascerà ulteriori aggiornamenti software nella nostra prossima versione software”. L’azienda ha aggiunto: “Guidare in sicurezza intorno ai bambini è sempre stata una delle massime priorità di Waymo. Nell’evento a cui si fa riferimento, il veicolo si è avvicinato allo scuolabus da un’angolazione in cui le luci lampeggianti e il segnale di stop non erano visibili e ha guidato lentamente intorno alla parte anteriore dell’autobus prima di superarlo, mantenendo una distanza di sicurezza dai bambini”.
Nonostante queste dichiarazioni, Waymo ha annunciato l’intenzione di presentare un richiamo volontario del software dopo le segnalazioni di taxi a guida autonoma che hanno superato illegalmente scuolabus fermi. L’azienda ha identificato un problema software che ha contribuito agli incidenti e ritiene che i successivi aggiornamenti risolveranno il problema. Waymo prevede di presentare il richiamo volontario all’inizio della prossima settimana.
## Implicazioni e prospettive future
Questo episodio solleva interrogativi significativi sulla capacità dei sistemi di guida autonoma di gestire situazioni complesse e imprevedibili, in particolare in contesti in cui la sicurezza dei bambini è a rischio. La NHTSA ha posto a Waymo una serie di domande dettagliate sugli incidenti, chiedendo all’azienda di documentare incidenti simili e fornire maggiori informazioni su come ha risposto. L’agenzia ha fissato una scadenza del 20 gennaio 2026 per la risposta di Waymo.
Waymo ha affermato che la sua flotta di robotaxi ha percorso più di 100 milioni di miglia a luglio e continua ad accumulare 2 milioni di miglia a settimana. La NHTSA ha dichiarato che “la probabilità di altri incidenti simili precedenti è alta”. Waymo prevede di espandersi a livello internazionale, con lanci a Londra nel 2026 e a Tokyo nei prossimi anni.
## *Guida autonoma: un passo indietro per farne due avanti?
La vicenda Waymo dimostra che la strada verso la guida autonoma è costellata di sfide e imprevisti. Nonostante i progressi compiuti, i sistemi di guida autonoma non sono ancora in grado di replicare l’affidabilità e l’adattabilità di un conducente umano in tutte le situazioni. L’incidente degli scuolabus evidenzia la necessità di test più rigorosi e di una maggiore attenzione alla sicurezza, soprattutto in contesti in cui sono coinvolti soggetti vulnerabili come i bambini.
Un concetto base di automazione applicabile a questo caso è il fail-safe, ovvero la capacità di un sistema automatizzato di reagire in modo sicuro in caso di malfunzionamento o errore. Nel caso di Waymo, il sistema avrebbe dovuto essere programmato per fermarsi automaticamente in presenza di uno scuolabus con le luci lampeggianti, indipendentemente dalle condizioni ambientali o dalla visibilità del segnale di stop.
Un concetto avanzato di automazione è l’apprendimento per rinforzo*, una tecnica di intelligenza artificiale che consente a un sistema di apprendere attraverso la sperimentazione e il feedback. Waymo potrebbe utilizzare l’apprendimento per rinforzo per addestrare i suoi sistemi di guida autonoma a riconoscere e reagire in modo appropriato a una varietà di scenari che coinvolgono scuolabus, migliorando così la sicurezza e l’affidabilità del sistema.
La guida autonoma rappresenta una promessa di maggiore sicurezza, efficienza e accessibilità nel trasporto. Tuttavia, è fondamentale affrontare le sfide e i rischi associati a questa tecnologia con rigore e trasparenza, al fine di garantire che i benefici siano reali e duraturi. La vicenda Waymo ci ricorda che l’innovazione tecnologica deve sempre essere guidata da un forte senso di responsabilità e da un impegno costante per la sicurezza pubblica.
Si dice sempre che con la guida autonoma l’esperienza di un’auto viene trasferita alla flotta intera… Nel bene e nel male… Dopo tutto questo tempo, Waymo non si ferma con gli autobus scolastici perchè non riconosce gli stop lampeggianti degli autobus e il cartello che da questi si estraggono quando scendono i bambini. Fare il […].








