Grazie a BackRep e all’Intelligenza Artificiale – e al Centro di ricerca CLACK del dip. di Ingegneria dell’Impresa “Mario Lucertini” – è più facile riconoscere i macrorifiuti nell’ambiente

Rifiuti abbandonati in natura, ricercatori di “Tor Vergata” mettono a punto un sistema per differenziare rifiuti direttamente sul posto

A cura dell’Ufficio Stampa di Ateneo

 

Si chiama “BackRep” e utilizza l’aumento dei dati per reti neurali e algoritmi per Intelligenza Artificiale

Gli studi sulla raccolta automatizzata dei rifiuti (Automated Waste Sorting) stanno contribuendo notevolmente a rendere più efficiente l’intero processo di riciclaggio. Una questione rilevante tuttavia rimane ancora irrisolta, ovvero come gestire la grande quantità di rifiuti che viene dispersa nell’ambiente invece di essere raccolta correttamente?

La ricerca condotta dall’Università degli Studi di Roma “Tor Vergata”, pubblicata sulla rivista internazionale MDPI con il titolo “Data Augmentation Using Background Replacement for Automated Sorting of Littered Waste”, ha come obiettivo principale quello di costruire sistemi di smistamento automatico dei rifiuti per identificare e classificare i rifiuti gettati in natura. I ricercatori del Dipartimento dell’Ingegneria dell’Impresa “Mario Lucertini” di “Tor Vergata”, hanno sviluppato un sistema per la classificazione automatica di immagini, chiamato “BackRep”, in grado di riconoscere i rifiuti nell’ambiente in cui sono stati abbandonati. Il modello utilizza una procedura di aumento di dati per reti neurali, in particolare, e per algoritmi di Intelligenza Artificiale, in generale.

«BackRep espande i set di dati esistenti ritagliando i rifiuti solidi in immagini scattate su uno sfondo uniforme (bianco) e sovrapponendoli a sfondi più realistici», spiega il professor Fabio Massimo Zanzotto, autore della ricerca, docente di Natural Language Processing presso l’Università degli Studi di Roma “Tor Vergata”  e coordinatore del Centro di Ricerca Interdipartimentale Artificial Intelligence Research su Linguaggio, Conoscenza e Cognizione” (CLAK)” presso il Dipartimento di Ingegneria dell’impresa ‘Mario Lucertini”.

La ricerca è stata portata avanti con la collaborazione di Arianna Patrizi, studentessa del corso di laurea magistrale in informatica a “Tor Vergata” e del Professor Giorgio Gambosi, Dipartimento di Ingegneria dell’Impresa, e ha potuto contare, in parte, su un finanziamento di INAIL, l’Istituto nazionale Assicurazione Infortuni sul Lavoro, per la realizzazione di un sistema di informazione su parchi avventura e ambienti non-wild che prevede una parte di analisi delle immagini.

«Per sperimentare la nostra procedura di aumento dei dati, abbiamo prodotto un nuovo set di dati in ambienti realistici (“Littered waste Testset”) e abbiamo osservato che i riconoscitori di rifiuti “addestrati” sui dati aumentati superano quelli addestrati sui set di dati esistenti. La procedura di aumento dei dati che abbiamo adottato sembra essere dunque un approccio praticabile per supportare lo sviluppo di riconoscitori di rifiuti per ambienti urbani e selvaggi», ha dichiarato Arianna Patrizi, tra gli autori della ricerca.

Il “Littered waste Testset” è composto da 114 immagini classificate secondo le categorie del dataset CompostNet, uno tra i primi sistemi di classificazione automatica dei rifiuti tramite immagini che utilizza una rete neurale per identificare differenti tipi di rifiuti compostabili e riciclabili. Un gruppo di volontari ha scattato le foto in contesti domestici ed esterni con diversi tipi di sfondi e luci. Il gruppo ha utilizzato la fotocamera del telefono e le immagini sono state quindi ridimensionate a 500 × 400 pixel. La distribuzione delle classi di rifiuti è stata determinata dai volontari. Questi sono rifiuti trovati nell’ambiente urbano e nelle loro case. Ai volontari è stato chiesto di produrre almeno dieci campioni per classe.

«I sistemi finora in uso sono in grado di classificare i rifiuti soltanto sullo sfondo omogeneo di nastri trasportatori. Il nostro sistema – continua Zanzotto – è in grado di classificare i rifiuti dove si trovano. Quindi, potrebbe in futuro equipaggiare robot che possono essere possono essere utilizzati per pulire boschi, foreste, coste e ambienti urbani rimuovendo i macrorifiuti.  “BackRep” è un modello generale di aumento dei dati che può essere utilizzato per diverse attività di riconoscimento delle immagini e aprire un interessante filone di ricerca».

 

A cura dell’Ufficio Stampa di Ateneo

 

Informatica quantitativa: una scienza che ci guida nello studio e progettazione di sistemi resilienti e spinge per una “cultura della qualità”

 

Gli informatici quantitativi sono presenti in molte università italiane e dal 2010 si sono uniti in una ‘comunità’ chiamata InfQ. A Ingegneria “Tor Vergata” vi affluiscono i prof Valeria Cardellini, Vittoria de Nitto Personè, Vincenzo Grassi, Francesco Lo Presti e Francesco Quaglia. Oltre al prof Salvatore Tucci, docens Turris Virgatae.

Nel 2021, dopo che le cronache hanno descritto numerosi episodi di disservizio in sistemi informatici della Pubblica Amministrazione e di aziende private, InfQ ha deciso di avviare una iniziativa di comunicazione pubblica sulla cultura della qualità dei servizi e dei sistemi informatici.

Cosa hanno in comune i disservizi del sito dell’INPS, in occasione di uno dei bonus previsti nel decreto “Cura Italia”, o quelli evidenziati in occasione del cosiddetto Click day per ottenere lo sconto sull’acquisto di biciclette e monopattini, oppure il malfunzionamento di alcuni servizi erogati da Google il 14 dicembre 2020? È possibile fare delle analisi che portino a identificare le cause/motivazioni? Esistono delle ‘lezioni’ che tali eventi insegnano? Si possono identificare delle strategie di progettazione che evitino in futuro l’occorrenza di eventi simili?
Queste sono alcune domande che hanno animato le riflessioni di un gruppo di accademici italiani che fanno parte della comunità di ricerca nazionale di Informatica quantitativa (www.infq.it).

La prof. Vittoria de Nitto Personè, docente di “Performance Modeling of computer systems and networks” nel corso di laurea di Ingegneria Informatica a “Tor Vergata”, che ha partecipato a questo gruppo di lavoro, illustra alcune considerazioni che possono essere fatte a partire dall’analisi di questi ‘fallimenti’.

 

Una caratteristica che accomuna queste applicazioni (o servizi) è la complessità. Tali applicazioni infatti, sono composte da un elevato numero di moduli software e hardware che interagiscono tra di loro per produrre i risultati attesi. A volte, la causa del degrado della qualità dei servizi offerti, o del totale disservizio, è da ricercarsi proprio nelle interazioni tra i vari moduli. Altre volte è un problema di non adeguato dimensionamento del sistema, o anche di sottostima della domanda e di mancanza di opportuni meccanismi per la gestione dei momenti di picco. L’assenza di una diffusa cultura della qualità porta a preferire al metodo scientifico-quantitativo più elementari approcci empirici.

La qualità del servizio percepita dagli utenti è la risultante di caratteristiche diverse, quali ad esempio affidabilità, efficienza, scalabilità, sicurezza, solo per citarne alcune. Queste caratteristiche sono, da sempre le direzioni che ispirano gli studi di informatica quantitativa. La formazione e il mondo della ricerca in questi ambiti, può offrire un contributo importante.

Si tratta proprio di avere un approccio al progetto meno ‘empirico’, più basato su metodologie e modelli per la pianificazione, verifica e controllo della ‘qualità’. Nel nostro corso di laurea in Ingegneria Informatica a “Tor Vergata”, sicuramente la dovuta attenzione c’è.

Il problema, nella sua complessità, ha diversi attori, dal committente al decisore, dal progettista del sistema/servizio al soggetto politico che indirizza le scelte. Purtroppo, la “cultura della qualità” e la progettazione rigorosa di sistemi e servizi non hanno lo spazio che meriterebbero. Al più ci si pone problemi di sicurezza (uno degli attributi di qualità). Su questo aspetto c’è molta attenzione, anche perché i problemi legati alla privacy varcano i confini etici e sono, in un certo senso, di un interesse comune molto più tangibile. Sulla ‘qualità del servizio’ o sui veri e propri ‘disservizi’, che potrebbero anche provocare piccole catastrofi [si veda l’articolo di WIRED di seguito in Rassegna Stampa], molta superficialità e molta meno attenzione.

 

 

 RASSEGNA STAMPA

Materiali polimerici innovativi per comporre satelliti. Il futuro dell’aerospazio passa per il Lazio (e da Ingegneria “Tor Vergata”)

(da RepTV)

Materiali polimerici altamente innovativi per realizzare parti e componenti di satelliti. Il futuro dell’aerospazio passa per il Lazio grazie al progetto Scamp, acronimo di “Smart Components mediante Additive Manufacturing Polimeric”, cofinanziato dalla Regione Lazio con fondi strutturali europei. All’iniziativa, con capofila Thales Alenia Space Italia, hanno partecipato aziende innovative locali – Se.Te.L. Servizi Tecnici Logistici e Hb-Technology – e due importanti enti di ricerca: l’Università di Roma Tor Vergata e il Cnr.

Guarda l’intervista di Repubblica TV alla prof. Francesca Nanni, responsabile scientifica del progetto SCAMP, docente di Materiali per la Produzione industriale e di Scienza dei Materiali, del Dipartimento di Ingegneria dell’Impresa “Mario Lucertini”.

TG3 ‘PERSONE’: “Nei misteri della mente” con Luigi Bianchi

NEI MISTERI DELLA MENTE – Il prof. Luigi Bianchi, bioingegnere informatico della nostra macroarea, nella puntata del 30/01/2021 di PERSONE, rubrica del TG3 ed. nazionale, ci conduce nel modo delle neuroscienze e delle applicazioni mediche dell’ingegneria per le persone gravemente disabili, persone ‘non contattabili’, nelle quali è difficile distinguere lo stato vegetativo dalla minima coscienza. La bioingegneria utilizza anche tecniche di intelligenza artificiale per arrivare a intercettare le funzioni cognitive residue, come segnali di potenziale recupero.