Big data

Il boom dei big data ha da tempo svestito i panni della previsione per diventare un trend in atto. La continua diffusione dei dispositivi connessi, l’aumento della copertura di banda larga fissa e mobile e lo sviluppo dell’industry 4.0 hanno infatti impresso un’accelerazione importante al business degli analytics, che solo in Italia vale quasi 1 miliardo di euro (+15% fra 2015 e 2016, dati Polimi). A questa crescita, che segnala un mercato in grande fermento e dalle prospettive positive, fa però da contraltare la questione legata alla governance e in particolare alle competenze richieste ai professionisti dei dati e alle responsabilità che fanno loro capo.

Il boom dei big data ha da tempo svestito i panni della previsione per diventare un trend in atto. La continua diffusione dei dispositivi connessi, l’aumento della copertura di banda larga fissa e mobile e lo sviluppo dell’industry 4.0 hanno infatti impresso un’accelerazione importante al business degli analytics, che solo in Italia vale quasi 1 miliardo di euro (+15% fra 2015 e 2016, dati Polimi). A questa crescita, che segnala un mercato in grande fermento e dalle prospettive positive, fa però da contraltare la questione legata alla governance e in particolare alle competenze richieste ai professionisti dei dati e alle responsabilità che fanno loro capo.

Sebbene il termine big data sia relativamente nuovo, la tendenza a raggruppare e immagazzinare ampi volumi di informazioni, per un eventuale analisi futura, è molto antica. Il concetto prende piede nei primi anni 2000 quando Doug Laney, analista di settore, formula la ormai nota definizione delle tre V dei big data:

Volume. Le organizzazioni raccolgono dati da una grande varietà di sorgenti, incluse transazioni finanziarie, social media, sensori o machine-to-machine. In passato lo storage sarebbe stato un problema, ma le nuove tecnologie (qualiHadoop) ci facilitano il compito.
Velocità. I dati fluiscono ad una velocità senza precedenti e vanno perciò gestiti in maniera tempestiva. L’uso sempre più comune di Tag RFID (identificazioni a radiofrequenza), sensori e smart metering (sistemi di telelettura di contatori), stanno aumentando la necessità di gestire fiumi di dati in tempo reale o quasi.
Varietà. I dati arrivano in qualsiasi tipo di formato – da dati strutturati e numerici in database tradizionali a non strutturati come: documenti di testo, email, video, audio, dati ticker e transazioni finanziarie.

Al giorno d’oggi bisogna considerare due ulteriori dimensioni:

Variabilità. L’aumento esponenziale della velocità e della varietà dei dati va unito al fatto che i flussi possono essere altamente inconsistenti e con picchi periodici. Forse è una tendenza dei social media? Gestire i picchi di dati giornalieri, stagionali o innescati da eventi può essere una vera sfida. E, in caso di dati non strutturati, lo è ancora di più.
Complessità. Al giorno d’oggi i dati arrivano da molteplici fonti, il che rende difficile collegare, abbinare, ripulire e trasformare i dati trasversali. Tuttavia, è necessario connettere e correlare le relazioni, le gerarchie e i collegamenti se non si vuole che i dati sfuggano di mano.

L’importanza dei big data dipende solo dal loro utilizzo: aziende ed enti possono raccogliere dati da qualiasi fonte e analizzarli per trovare risposte che permettono di tagliare i costi, ridurre i tempi, sviluppare nuovi prodotti e ottimizzare l’offerta e infine prendere decisioni più consapevoli.

Quando ai big data si uniscono gli analytics è possibile:

Determinare, quasi in tempo reale, le cause di guasti, avarie o difetti.
Creare offerte nei punti vendita basate sulle abitudini dei clienti.
Ricalcolare interi portafogli di rischio in pochi minuti.
Individuare comportamenti fraudolenti prima che colpiscano la propria organizzazione.

29 Settembre 2017

Post Correlati

error: I contenuti sono protetti