E se la fotocamera potesse correggere ciò che il microfono non riesce a catturare? È questa la domanda alla base di CHEAR — e che è valsa il primo posto.
All'Hack4Innovation Bicocca, organizzato dalla Fondazione Università Bicocca e dall'Università degli Studi di Milano-Bicocca, il team dell'ISLab ha vinto la sfida di Huawei Technologies Italia, superando tre team competitivi con un'idea concreta e ben focalizzata.
L'intuizione è semplice ma efficace: mentre la tecnologia video ha fatto passi da gigante negli ultimi anni, il miglioramento dell'audio ha faticato a tenere il passo. CHEAR colma questo divario. Analizzando in tempo reale i movimenti delle labbra e i segnali visivi, questa pipeline multi-modale ispirata alle neuroscienze ricostruisce e migliora il parlato degradato — che si tratti di un vlogger alle prese con il rumore di fondo, di un lavoratore da remoto con una connessione instabile, di uno streamer in un ambiente rumoroso, o di un utente ipovedente che fa affidamento su un audio nitido.
Il team dietro a questo risultato:
- Luigi Celona, ricercatore tenure-track all'ISLab;
- Eduard I. Stan, ricercatore RTDa all'ISLab;
- Andrea Corsico, fresco laureato magistrale in Data Science dopo il tirocinio all'ISLab;
- Eduardo Mosca, studente magistrale in Data Science attualmente tirocinante all'ISLab;
- Arian Emami, studente al primo anno della magistrale in AI for Science and Technology.
Cinque persone, un'idea comune, un premio meritatissimo — e un riconoscimento di €2.000 a coronare il tutto. 🏆