RETI Data Lab

tra formazione e progettualità

L’evoluzione delle tecnologie, la numerosità dei dati sempre crescente e l’esigenza di avere metodologie di controllo, di decisione e di analisi migliori e più intelligenti, ci hanno portato negli ultimi anni alla necessità di utilizzare strumenti e processi in grado di migliorare la nostra conoscenza e consapevolezza delle informazioni a cui abbiamo accesso tutti i giorni in qualsiasi tipo di contesto.

Questa evoluzione culturale e tecnologica ha inaugurato un nuovo periodo per l’informatica: l’era dell’intelligenza artificiale diffusa, in cui spesso non è solamente necessario programmare le macchine, ma è determinante e importante interpretarne i risultati.

Oggigiorno è sempre più rilevante la conoscenza e la comprensione riguardo a tecnologie e strumenti di Intelligenza Artificiale che consentono di rispondere ad esigenze di mercato sempre in trasformazione, e a cui spesso non siamo preparati o di cui non conosciamo la reale portata in termini sociali e di business.

Ecco perché in Reti abbiamo pensato a un nuovo processo formativo e di innovazione chiamato Reti DataLab rivolto e tenuto dai nostri NETworker.

Reti DataLab è un laboratorio sperimentale che ha due obiettivi principali:

  • la formazione, l’apprendimento e lo studio di nuove tecnologie, strumenti e metodologie di analisi dei dati e di intelligenza artificiale;
  • la costruzione di un progetto legato ad un dominio reale, utilizzando i dati di un nostro cliente.

Il connubio tra studio, sperimentazione e realizzazione ci ha portato nel corso di questi mesi alla realizzazione di un progetto innovativo che ci ha permesso di comprendere e utilizzare nuovi strumenti, imparare nuove soluzioni e nuove metodologie legate al Machine Learning, all‘analisi di grandi flussi di dati (Big Data) e al loro impatto con il caso di business che abbiamo cercato di risolvere assieme.

Partendo dalla raccolta dei dati dai sistemi interni del nostro cliente, che si occupa principalmente della gestione dei processi legati alla micro logistica, abbiamo realizzato una soluzione end-to-end in cloud utilizzando diversi servizi Azure quali: Azure Data Factory, Azure Databricks, Azure Blob Storage.
La soluzione proposta permette di analizzare i flussi di dati, relativi ai numerosi negozi del nostro cliente, con pipeline implementate all’interno di Jupyter Notebook (ambienti di programmazione specifici) che consentono di sfruttare diversi linguaggi di programmazione contemporaneamente; nello specifico SQL, Python e Spark, confluiscono all’interno di modelli di Machine Learning dedicati che si occupano di identificare e determinare tre casi principali:

  • determinare quando un negozio, a seconda della storia di tutti i negozi precedenti e delle loro caratteristiche, possa essere definito di successo oppure no;
  • prevedere, a seconda di alcune caratteristiche definite dall’utente, se un nuovo negozio possa essere o meno di successo;
  • effettuare una previsione di fatturato su nuovi negozi a livello mensile.

Approfondendo queste tematiche e cercando di dare una soluzione ai problemi proposti, abbiamo affrontato in aula diverse lezioni legate al Machine Learning, all’analisi dati tramite gli strumenti utilizzati, a nuove tipologie di tecniche legate alla realizzazione di pipeline ETL e alla gestione di progetti di Intelligenza Artificiale.

12 giugno 2019

Post Correlati