L’impatto a breve e medio termine della guida completamente autonoma sarà limitato, per effetto di problematiche ben più complesse di quelle su cui gli ingegneri si stanno attualmente concentrando. Ma nemmeno lo sviluppo dell'intelligenza artificiale permetterà di risolvere tutti i problemi legati alla guida completamente autonoma. Lo sostengono i rapporti presentati da tre esperti del settore (Bryan Reiner del Center for Transportation and Logistics e AgeLab all'MIT di Boston; Mary Cummings della George Mason University e consulente per la sicurezza presso la National Highway Traffic Safety Administration e Rodney Brooks, che è stato a capo del Laboratorio di informatica e intelligenza artificiale dell'MIT) e che evidenziano la criticità dell'obiettivo 'guida completamente autonoma' e i limiti della tecnologia attuale.
La ricerca attuale sulla guida autonoma, ribadiscono gli esperti, si concentra su sistemi di guida autonoma di livello 4, che funzionano solo in determinate aree geolocalizzate oggi delle dimensioni di un quartiere, e in futuro di un’intera città. Le sfide ingegneristiche e le implementazioni economiche necessarie per uscire da queste zone delimitate sono però immense e il fatto che l’industria e il Governo confidino di risolvere i problemi della guida autonoma con l’intelligenza artificiale è "allarmante".
Nel ribadire questo concetto la Cummings ha detto che "le persone non capiscono che l'intelligenza artificiale che controlla i veicoli si basa sugli stessi principi di ChatGPT e di altri grandi modelli linguistici come LLM". Si tratta, spiega in un articolo pubblicato su IEE Spectrum l'esperta della National Highway Traffic Safety Administration di "sistemi di intelligenze artificiali che utilizzano il ragionamento statistico per indovinare quale dovrebbe essere la parola o frase successiva o la prossima azione che dovrà essere eseguita da un'auto autonoma". Nessuna intelligenza artificiale può però “comprendere la situazione, il contesto o qualsiasi fattore non osservato che una persona terrebbe invece in considerazione in una situazione simile".
La differenza è che, mentre un modello linguistico "può rispondere a qualcosa di stupido, un’auto autonoma può causare un incidente”. La Cummings ha formulato un elenco di cinque idee pratiche su questo tema che possono servire da guida per l’industria e le agenzie che la regolano. Il primo è che “gli errori umani nella guida vengono sostituiti da errori umani nella programmazione. "Chiunque abbia lavorato nello sviluppo di software sa che il codice è incredibilmente soggetto a errori e il problema non fa che aumentare man mano che i sistemi diventano più complessi. L’intelligenza artificiale non elimina il ruolo dell’errore umano negli incidenti stradali. Quel ruolo si è semplicemente spostato dalla fine della catena di eventi che causano un incidente".
Il secondo è che i fallimenti dell’IA sono difficili da prevedersi. Un ampio modello linguistico indovina quali parole e frasi verranno dopo consultando un file assemblato durante l'allenamento a partire da dati preesistenti. Un modulo di guida autonoma interpreta la scena e decide come evitare gli ostacoli facendo ipotesi simili, sulla base di un database di immagini fornite durante l'addestramento. Ma non è possibile conteplare tutte le possibilità. "Ad esempio, un’auto a guida autonoma può comportarsi in modo molto diverso sullo stesso tratto di strada in momenti diversi della giornata, probabilmente a causa dei diversi angoli del sole”. Il terzo è che le stime probabilistiche di un’intelligenza artificiale non funzionano bene nelle decisioni in condizioni di incertezza. In sostanza, i robot sono piuttosto buoni in bianco e nero; ma non si avvicinano agli umani quando ci sono i grigi.
“Le intelligenze artificiali non sanno come eseguire bene un’azione sulla base di informazioni imperfette e soffrono quando eseguono operazioni di base quando il mondo non corrisponde ai loro dati di addestramento. Il quarto è che aggiornare l’IA è importante quanto crearla. “Le reti neurali possono essere efficaci solo se vengono addestrate con grandi quantità di dati”. elevazioni. Ma i modelli non possono essere addestrati e poi funzionare bene per sempre. In ambienti dinamici come la guida. Devono essere costantemente aggiornati per contemplare nuovi tipi di veicoli, zone di costruzione, modifiche alla viabilità e così via. Infine, il quinto suggerimento. L’intelligenza artificiale ha implicazioni a livello di sistema che non possono essere ignorate. Ad esempio, le auto a guida autonoma sono state progettate per fermarsi di colpo quando non riescono più a ragionare o a risolvere l’incertezza. E questo può causare incidenti a chi le segue o bloccare le strade.
Leggi l'articolo completo su ANSA.it