Domenico Natale, noto esperto di Data Quality, tra i protagonisti del Data Management Summit Italy
Stiamo rivelando giorno dopo giorno tutti i professionisti che parteciperanno con le loro presentazioni all’evento più importante del Data Management. Per la prima volta un forum cerca di concentrarsi sul Data Management nella sua interezza, dalla governance, attraverso la sicurezza, il cloud, il machine learning, la virtualizzazione dei dati e molto altro.
Oggi vi presentiamo Domenico Natale che sará tra i protagonisti dell’edizione italiana del Data Management Summit che si svolgerá il 7 luglio a Roma.
Parlaci un po’ di te e del tuo background professionale, Possiamo definirti uno dei papá dell’ISO sulla qualitá dei dati?
Direi di sì. Nel 2003 a Lannion in Francia, si tenne l’interim meeting annuale ISO/IEC SC7/WG6 riguardante l’Ingegneria del software, durante il quale ci si interrogò circa la mancanza di uno standard internazionale sulla qualità dei dati. Fui incaricato di occuparmene, come membro UNINFO, Ente federato all’UNI, responsabile dello sviluppo delle norme nel settore delle tecnologie informatiche. In 5 anni di lavoro si svolsero numerosi incontri nazionali e internazionali, discussioni, confronti, convergenze e proficue collaborazioni di esperti di aziende e università. Nel 2008 si raggiunse il consenso che consentì la pubblicazione dello standard ISO/IEC 25012 dal titolo “Software Engineering – Software Product Quality Requirements and Evaluation (SquaRE) – Data quality model”. Il lavoro continuò con lo standard, l’ISO/IEC 25024 riguardante la misurazione della qualità del dato, pubblicato nel 2015. Tali standard fanno parte del quadro organico della serie ISO/IEC 25000 sulla qualità del prodotto software, dati e servizi IT a cui tuttora collaboro. L’approccio seguito alla ricerca della qualità dati è derivato dalla naturale conseguenza degli studi di Scienze statistiche svolti all’Università Sapienza di Roma e dell’esperienza metodologica nell’ambito della società generale di informatica Sogei, dove ho operato per 35 anni.
Pensi che le aziende abbiano la cultura giusta per gestire la qualità dei dati in modo corretto?
Su molti fronti ci si sta muovendo. Lo dimostrano le varie Best practice realizzate in ambito privato e nella Pubblica amministrazione, volte a sostituire banche dati “verticali”, non sempre dialoganti, con banche dati “orizzontali” di interesse pubblico. Gli standard citati sono divenuti norme UNI CEI ed in particolare lo standard 25012 è stato preso a riferimento dall’AgID nella “Linea Guida nazionale per la valorizzazione del patrimonio informativo pubblico”. Un contributo alla nuova cultura proviene anche dalla Commissione Europea e dal CEN-CENELEC con specifici atti di strategia a supporto del mercato. Se da un lato le aziende agiscono in genere con un approccio sperimentato nel proprio singolo ambiente, è auspicabile una maggiore azione strutturata ed un linguaggio comune tra più realtà. In un sistema complesso la qualità dei dati infatti non si raggiunge da soli, ma insieme. Laddove si riscontra una bassa qualità dei dati occorre convergere per ridurre i costi che si manifestano per affrontare attività correttive, eccessivi ricorsi ai call center, code agli sportelli, bassa soddisfazione degli utenti, notevoli burocrazie, ecc. Un’alta qualità dei dati consente tra l’altro di procedere con le attività di Open data a beneficio dell’intera società. Alcune aziende stanno sperimentando il supporto al miglioramento dei dati che viene dall’ISO/IEC 25012 il quale suggerisce quindici caratteristiche essenziali di qualità. Ad esempio molta attenzione viene data alla coerenza tra le informazioni di diverse banche dati, la completezza, la credibilità, l’aggiornamento tempestivo, la privacy, la compliance, la disponibilità, la ripristinabilità, ecc. Con l’ISO/IEC 25024 vengono rese disponibili inoltre 63 misure quantitative che coprono tutte le caratteristiche di qualità. La cultura del dato si sta estendendo oltre il digitale anche ai dispositivi fisici di acquisizione dati, ai sensori, alle macchine elimina code, alle biglietterie automatiche, al campo della segnaletica stradale e mobilità, dove appare evidente che non si può prescindere dalla disciplina della Human Computer Interaction a favore dell’accessibilità e comprensibilità dei dati per gli utenti.
Quali sono le sfide più importanti per i CIO, CDO, CTO per il 2023?
Rivisitare gradualmente le banche dati più importanti nell’ambito del proprio Core Business, creando team di lavoro dedicati e strategie di azione. In caso di riscontro di anomalie nella qualità dei dati, gli stakeholder e le imprese possono provvedere all’adozione di metodi correttivi, rimuovendo le cause e individuando i miglioramenti dei processi o del software. In alcuni casi è possibile muoversi verso la certificazione di qualità ricorrendo ad Enti accreditati. Già alcune compagnie di grandi dimensioni, e anche piccole start up, sono impegnate in questa direzione mirando a migliorare i prodotti e raggiungendo vantaggi competitivi. Una garanzia di qualità dei dati favorisce il riuso e dell’interscambio dei dati, l’interoperabilità dei sistemi. Per coloro che sono avviati verso l’uso di soluzioni di Intelligenza Artificiale, il modello di qualità dei dati può essere utile anche per valutare e completare i dataset di training delle “Machine learning”. Nel complesso si vivrà a popolare Data Space con lo sviluppo di nuove infrastrutture e servizi.
Abbiamo la fortuna di averti nella tavola rotonda Data Quality, argomento interessante…
Ringrazio per essere stato invitato. Per me è una soddisfazione constatare che mentre nel periodo 2003-2008 di ideazione e messa a punto dello standard, il tema sembrava solo un’estensione dei concetti di qualità del software, oggi si parla in modo a sé stante ed autonomo di qualità dei dati, riscoprendo il significato originario dell’Edp – Electronic data processing, rivisto in chiave moderna. L’ideazione e l’intuizione di allora è stata premiata e fa piacere veder crescere tanto interesse in tutti i domini applicativi e tanti settori: salute, ambiente, mobilità, agricoltura, finanza, economia… I dati ci riguardano tutti, direttamente e indirettamente, essendo la rappresentazione simbolica e digitale della realtà in cui viviamo ed elementi della stessa conoscenza umana. I dati non hanno confini, evolvono ed aumentano in continuazione…vanno interpretati, utilizzati, conservati, elaborati, cancellati. In queste prospettive sono compresi sempre più i dati destrutturati (immagini, testi, voci…) ed i Big data.
Fin dall’inizio hai sostenuto l’evento Perché?
Perché finalmente si stanno chiarendo le diverse prospettive sinergiche sui dati da parte degli Stakeholder interessati dalla Governance, al Management, ai Processi, arrivando ai Prodotti (banche dati) e alla loro qualità. In questo Summit potranno svilupparsi confronti tra standard, modelli e diversi approcci utili alle possibilità operative.
Perché non puoi perderti il Data Management Summit
Il DMS è un evento esclusivo per guidare la comunità di gestione dei dati nel panorama tecnologico, un forum di discussione aperto per condividere esperienze e casi d’uso. Un summit essenziale per CIO, CTO, CDO, BI Managers, Data Governance Officers, Data Scientists che implementano tecnologie emergenti per risolvere nuove sfide tecnologiche. L’evento si svolge in differenti edizioni ed in differenti paesi. L’edizione italiana si terrá il 7 luglio a Roma presso la sede di SMI, quella LATAM é per il 20 settembre (solo online) e quella spagnola come sempre il 20 ottobre presso l’universitá Nebrija di Madrid.
Per registrarsi occorre farlo sul sito.
http://datamanagementsummit.org
I posti sono limitati, si accede solo su invito. Nel momento in cui ci si registra ci si candida come assistente, la conferma arriverá qualche giorno prima dell’evento. I posti all’evento fisico sono esauriti.