I dati sono il nuovo petrolio. Questa metafora descrive in modo calzante il valore dei dati e illustra anche dove possono annidarsi le difficoltà connesse al loro utilizzo.
I dati possono essere molto preziosi. Un esempio: prendendo come metro il valore di borsa, Google ha oramai scalzato Platzhirsche e il gruppo petrolifero Exxon Mobile dalla posizione più alta delle imprese di maggiore valore. Tuttavia il valore dei suoi dati emerge solo dopo che questi sono stati resi accessibili e raffinati. Per capire l’importanza dei dati per un’azienda in senso generale non si dovrebbe pensare subito a un gigante del settore come Google. Lo spettro delle aziende che possono beneficiarne è vasto e va da gruppi IT di scala mondiale, passando per i retailer fino alle imprese che producono a livello regionale.
Un esempio nell’industria manifatturiera: in questo settore è possibile ottimizzare i tempi di fermo macchina grazie a strumenti come la manutenzione predittiva, mentre la previsione sui volumi di vendite può aiutare a tenere sotto controllo sottoproduzioni e sovrapproduzioni. Prevedere la data di consegna, stando allo studio PAC “Predictive Analytics nell’industria manifatturiera”, è fra le mansioni più difficili per un’azienda su tre.
La quantità delle applicazioni possibili è assai vasta e gli analisti di PAC inoltre sono giunti alla conclusione che le analisi predittive hanno un ruolo chiave nel gestire le aziende in modo più efficiente e innovativo.
Per ottenere sistematicamente informazioni dai dati è necessario un processo autonomo. A tal fine, in primis i dati necessari devono essere rilevati, raccolti e analizzati insieme alle informazioni di altre fonti di dati partendo da un caso di applicazione specifico. Le informazioni così acquisite sono integrate in processi aziendali già esistenti, ad esempio per ridurre i costi, risparmiare tempo e per produrre in modo più efficiente. Sulla via dell’implementazione di tale processo le aziende devono porsi domande su diverse aree e sui rispettivi confini. Gli aspetti legali, ovvero quali dati possono essere raccolti ed elaborati e in quale forma, giocano un ruolo fondamentale in questo contesto. Le questioni legate all’infrastruttura, come la selezione della piattaforma o gli strumenti utilizzati, sono aspetti ovvi, ma sono importanti anche interrogativi come le abilità dei collaboratori oppure l’integrazione nei processi esistenti.
Quali dati dei sensori servono per prevedere il guasto di una macchina? E quale deve essere il loro formato e granularità? E al contrario, come si riconosce un dispositivo “sano”? Di norma domande come questa sono il punto di partenza per determinare un modello da potere utilizzare ad esempio per la manutenzione predittiva.
In questo contesto, l’analisi è la fase che equivale a quello che nell’industria petrolifera è la raffinazione del greggio. In questo caso le materie prime, ovvero le basi di dati rilevate, vengono trasformate in prodotti utilizzabili sotto forma di informazioni. La difficoltà consiste soprattutto nell’individuare nei dati relazioni e strutture che si basano su un nesso di causalità e che quindi consentono di fare una previsione. Ad esempio si potrebbe immaginare un sensore di vibrazioni che segnala preventivamente un difetto a un cuscinetto. Gli strumenti di scelta in questo ambito sono metodi e modelli statistici e matematici, abbinati a solide conoscenze di programmazione.
Questa combinazione per molte aziende è allo stesso tempo una sciagura: da un lato questi strumenti permettono l’astrazione necessaria per palesare all’occhio umano quelle informazioni, anche in grandi quantità di dati, prima nascoste. D’altro lato, proprio in questo campo di gioco interdisciplinare si cela l’ostacolo da superare, perché raramente queste competenze chiave si trovano insieme in un’unica persona.