Dare alle auto a guida autonoma non solo la vista, ma anche l’udito in modo da riconoscere oggetti e pericoli anche se non sono nel campo visivo. È questa la sfida del progetto Lisa (Listen, See and Act), coordinato dalle università di Parma e di Perugia e presentato a Automatica.it 2025, il convegno nazionale della Società Italiana Docenti e Ricercatori in Automatica in corso a Perugia.
“Il nostro obiettivo è estendere il campo di percezione delle attuali auto a guida autonoma, in altre parole vogliamo dar loro il senso dell’udito oltre a quello della vista”. Ha detto Gabriele Costante, dell’Università di Perugia e responsabile del progetto Lisa, finanziato dal fondo del PNRR. “E’ stata raccolta una grande quantità di dati nella ricerca dei dati per addestrare l’auto, ad esempio i suoni reali di quel che un’auto può incontrare”, spiega Costante.
I ricercatori hanno sviluppato un simulatore per addestrare l’auto, consentendole di “vivere” un mondo realistico e di imparare a riconoscere i suoni della vita quotidiana. Il gruppo Lisa prevede di renderlo presto disponibile pubblicamente, così da permetterne l’utilizzo anche ad altri ricercatori.
Costante spiega il futuro del progetto: “ad oggi stiamo facendo prove sperimentali su una piattaforma reale, ossia un robot su ruote in ambiente controllato, e stiamo implementando le varie strategie che gli consentiranno di percepire l’ambiente circostante e pianificare azioni di conseguenza. Intanto l’obiettivo è quello di poter coinvolgere anche altri partner, tra cui aziende automobilistiche interessate a questa nuova possibile soluzione”.
Il progetto Lisa rappresenta un passo avanti significativo verso auto autonome più sicure e consapevoli dell’ambiente circostante. Con la futura collaborazione di industrie e ricercatori, le auto del domani potrebbero davvero “vedere e sentire” il mondo come fa un guidatore umano.