Informatica quantitativa: una scienza che ci guida nello studio e progettazione di sistemi resilienti e spinge per una “cultura della qualità”

 

Gli informatici quantitativi sono presenti in molte università italiane e dal 2010 si sono uniti in una ‘comunità’ chiamata InfQ. A Ingegneria “Tor Vergata” vi affluiscono i prof Valeria Cardellini, Vittoria de Nitto Personè, Vincenzo Grassi, Francesco Lo Presti e Francesco Quaglia. Oltre al prof Salvatore Tucci, docens Turris Virgatae.

Nel 2021, dopo che le cronache hanno descritto numerosi episodi di disservizio in sistemi informatici della Pubblica Amministrazione e di aziende private, InfQ ha deciso di avviare una iniziativa di comunicazione pubblica sulla cultura della qualità dei servizi e dei sistemi informatici.

Cosa hanno in comune i disservizi del sito dell’INPS, in occasione di uno dei bonus previsti nel decreto “Cura Italia”, o quelli evidenziati in occasione del cosiddetto Click day per ottenere lo sconto sull’acquisto di biciclette e monopattini, oppure il malfunzionamento di alcuni servizi erogati da Google il 14 dicembre 2020? È possibile fare delle analisi che portino a identificare le cause/motivazioni? Esistono delle ‘lezioni’ che tali eventi insegnano? Si possono identificare delle strategie di progettazione che evitino in futuro l’occorrenza di eventi simili?
Queste sono alcune domande che hanno animato le riflessioni di un gruppo di accademici italiani che fanno parte della comunità di ricerca nazionale di Informatica quantitativa (www.infq.it).

La prof. Vittoria de Nitto Personè, docente di “Performance Modeling of computer systems and networks” nel corso di laurea di Ingegneria Informatica a “Tor Vergata”, che ha partecipato a questo gruppo di lavoro, illustra alcune considerazioni che possono essere fatte a partire dall’analisi di questi ‘fallimenti’.

 

Una caratteristica che accomuna queste applicazioni (o servizi) è la complessità. Tali applicazioni infatti, sono composte da un elevato numero di moduli software e hardware che interagiscono tra di loro per produrre i risultati attesi. A volte, la causa del degrado della qualità dei servizi offerti, o del totale disservizio, è da ricercarsi proprio nelle interazioni tra i vari moduli. Altre volte è un problema di non adeguato dimensionamento del sistema, o anche di sottostima della domanda e di mancanza di opportuni meccanismi per la gestione dei momenti di picco. L’assenza di una diffusa cultura della qualità porta a preferire al metodo scientifico-quantitativo più elementari approcci empirici.

La qualità del servizio percepita dagli utenti è la risultante di caratteristiche diverse, quali ad esempio affidabilità, efficienza, scalabilità, sicurezza, solo per citarne alcune. Queste caratteristiche sono, da sempre le direzioni che ispirano gli studi di informatica quantitativa. La formazione e il mondo della ricerca in questi ambiti, può offrire un contributo importante.

Si tratta proprio di avere un approccio al progetto meno ‘empirico’, più basato su metodologie e modelli per la pianificazione, verifica e controllo della ‘qualità’. Nel nostro corso di laurea in Ingegneria Informatica a “Tor Vergata”, sicuramente la dovuta attenzione c’è.

Il problema, nella sua complessità, ha diversi attori, dal committente al decisore, dal progettista del sistema/servizio al soggetto politico che indirizza le scelte. Purtroppo, la “cultura della qualità” e la progettazione rigorosa di sistemi e servizi non hanno lo spazio che meriterebbero. Al più ci si pone problemi di sicurezza (uno degli attributi di qualità). Su questo aspetto c’è molta attenzione, anche perché i problemi legati alla privacy varcano i confini etici e sono, in un certo senso, di un interesse comune molto più tangibile. Sulla ‘qualità del servizio’ o sui veri e propri ‘disservizi’, che potrebbero anche provocare piccole catastrofi [si veda l’articolo di WIRED di seguito in Rassegna Stampa], molta superficialità e molta meno attenzione.

 

 

 RASSEGNA STAMPA