Big data

Il boom dei big data ha da tempo svestito i panni della previsione per diventare un trend in atto. La continua diffusione dei dispositivi connessi, l’aumento della copertura di banda larga fissa e mobile e lo sviluppo dell’industry 4.0 hanno infatti impresso un’accelerazione importante al business degli analytics, che solo in Italia vale quasi 1 miliardo di euro (+15% fra 2015 e 2016, dati Polimi). A questa crescita, che segnala un mercato in grande fermento e dalle prospettive positive, fa però da contraltare la questione legata alla governance e in particolare alle competenze richieste ai professionisti dei dati e alle responsabilità che fanno loro capo.

Il boom dei big data ha da tempo svestito i panni della previsione per diventare un trend in atto. La continua diffusione dei dispositivi connessi, l’aumento della copertura di banda larga fissa e mobile e lo sviluppo dell’industry 4.0 hanno infatti impresso un’accelerazione importante al business degli analytics, che solo in Italia vale quasi 1 miliardo di euro (+15% fra 2015 e 2016, dati Polimi). A questa crescita, che segnala un mercato in grande fermento e dalle prospettive positive, fa però da contraltare la questione legata alla governance e in particolare alle competenze richieste ai professionisti dei dati e alle responsabilità che fanno loro capo.

Sebbene il termine big data sia relativamente nuovo, la tendenza a raggruppare e immagazzinare ampi volumi di informazioni, per un eventuale analisi futura, è molto antica. Il concetto prende piede nei primi anni 2000 quando Doug Laney, analista di settore, formula la ormai nota definizione delle tre V dei big data:

Volume. Le organizzazioni raccolgono dati da una grande varietà di sorgenti, incluse transazioni finanziarie, social media, sensori o machine-to-machine. In passato lo storage sarebbe stato un problema, ma le nuove tecnologie (qualiHadoop) ci facilitano il compito.
Velocità. I dati fluiscono ad una velocità senza precedenti e vanno perciò gestiti in maniera tempestiva. L’uso sempre più comune di Tag RFID (identificazioni a radiofrequenza), sensori e smart metering (sistemi di telelettura di contatori), stanno aumentando la necessità di gestire fiumi di dati in tempo reale o quasi.
Varietà. I dati arrivano in qualsiasi tipo di formato – da dati strutturati e numerici in database tradizionali a non strutturati come: documenti di testo, email, video, audio, dati ticker e transazioni finanziarie.

Al giorno d’oggi bisogna considerare due ulteriori dimensioni:

Variabilità. L’aumento esponenziale della velocità e della varietà dei dati va unito al fatto che i flussi possono essere altamente inconsistenti e con picchi periodici. Forse è una tendenza dei social media? Gestire i picchi di dati giornalieri, stagionali o innescati da eventi può essere una vera sfida. E, in caso di dati non strutturati, lo è ancora di più.
Complessità. Al giorno d’oggi i dati arrivano da molteplici fonti, il che rende difficile collegare, abbinare, ripulire e trasformare i dati trasversali. Tuttavia, è necessario connettere e correlare le relazioni, le gerarchie e i collegamenti se non si vuole che i dati sfuggano di mano.

L’importanza dei big data dipende solo dal loro utilizzo: aziende ed enti possono raccogliere dati da qualiasi fonte e analizzarli per trovare risposte che permettono di tagliare i costi, ridurre i tempi, sviluppare nuovi prodotti e ottimizzare l’offerta e infine prendere decisioni più consapevoli.

Quando ai big data si uniscono gli analytics è possibile:

Determinare, quasi in tempo reale, le cause di guasti, avarie o difetti.
Creare offerte nei punti vendita basate sulle abitudini dei clienti.
Ricalcolare interi portafogli di rischio in pochi minuti.
Individuare comportamenti fraudolenti prima che colpiscano la propria organizzazione.