DSS Meetup #40 – Exploratory Data Analysis

In questo evento un po’talk ed un po’ code-lab, Matteo Gentile ci guiderà in un caso pratico di Exploratory Data Analisys, seguendo un notebook in python su Google Colabs – Chi volesse portarsi il laptop, potrà seguire ed eseguire direttamente il codice.

L’appuntamento è per Giovedi 11 Gennaio a partire dalle ore 18:00 presso l’Ordine degli Ingegneri della Provincia di Genova, Piazza della Vittoria, 11/10.

Tutti noi abbiamo quotidianamente a che fare con insiemi di dati (più o meno grandi), spesso contenuti in file Excel, e vorremmo tanto “capirci qualcosa” in modo semplice, come ad esempio capire se ci sono errori evidenti, rilevare valori o eventi anomali e trovare relazioni interessanti tra le variabili.

In questo evento introduttivo, destinato a tutti, faremo una analisi esplorativa passo passo dei dati contenuti in un file Excel.

 

L’Analisi Esplorativa dei Dati (EDA, Exploratory Data Analysis) è utilizzata dai data scientist per analizzare e investigare i set di dati e riassumere le loro caratteristiche principali, spesso utilizzando metodi di visualizzazione.

Questa analisi aiuta a determinare il modo migliore per utilizzare le origini dati per ottenere le risposte di cui hai bisogno, rendendo più facile per i data scientist scoprire modelli, individuare anomalie, testare un’ipotesi o controllare i presupposti.

In sostanza, si tratta di esaminare e caratterizzare attentamente i dati al fine di trovarne le caratteristiche sottostanti, le possibili anomalie e i modelli e le relazioni nascoste.

L’analisi esplorativa dei dati viene utilizzata principalmente per vedere cosa i dati possono rivelare al di là delle attività di modellazione formale o di test delle ipotesi e fornisce una migliore comprensione delle variabili dei set di dati e delle relazioni tra loro. Può anche aiutare a determinare se le tecniche statistiche che stai prendendo in considerazione per l’analisi dei dati sono appropriate. Originariamente sviluppato dal matematico americano John Tukey negli anni ’70, le tecniche di analisi esplorativa dei dati continuano ad essere un metodo ampiamente utilizzato nel processo di rilevamento oggi.

Questa comprensione dei dati è ciò che alla fine guiderà attraverso i passaggi successivi della pipeline di machine learning, dalla preelaborazione dei dati alla creazione del modello e all’analisi dei risultati.

Il processo dell’EDA comprende fondamentalmente questi compiti principali:

  • Panoramica del set di dati e statistiche descrittive
  • Identificazione e gestione valori nulli
  • Eliminazione colonne inutili
  • Gestione valori anomali
  • Valutazione della qualità dei dati

Matteo Gentile Laureato in Ingegneria Elettronica nel 2003, ha iniziato a lavorare in alcune società come sviluppatore fino a entrare in Siemens nel 2008, in cui si è occupato di diversi ambiti del software in automazione industriale .Dal 2021 si occupa di Intelligenza Artificiale e Machine Learning per la previsione della pianificazione degli ordini e la manutenzione predittiva delle macchine negli impianti industriali.Dal 2017 Consigliere dell’Ordine degli Ingegneri di Genova.

Il meetup sarà in presenza, con talk Q&A col pubblico e rinfresco finale

L a registrazione sarà disponibile sul nostro canale YouTube

DSS Meetup #39 – Storia dell OCR e Anomaly Detection

Per il meetup di Novembre riproponiamo la formula dei primi meetup di DataScienceSeed, con 2 interventi: il primo tratterà la storia dell’OCR, il secondo l’Anomaly Detection applicata a problemi di ottimizzazione. I 2 talks saranno seguiti dal consueto spazio per domande e risposte e dall’immancabile rinfresco a base di focaccia.

L’appuntamento è per Giovedi 30 Novembre a partire dalle ore 18:00 presso l’Ordine degli Ingegneri della Provincia di Genova, Piazza della Vittoria, 11/10.

MNIST: nascita, vita e morte di un dataset pubblico. 

Nel primo talk racconteremo la storia del processo OCR (Optical Character Recognition), passato negli anni da obiettivo di ricerca a semplice commodity, attraverso il ruolo cruciale svolto dal dataset MNIST, che ha avuto un ruolo fondamentale nello sviluppo del deep learning. È stato uno dei primi dataset di immagini utilizzati per l’addestramento di reti neurali convoluzionali (CNN), un tipo di rete neurale particolarmente efficace per la classificazione di immagini.

Il racconto parte dai primi approcci di machine learning, prosegue con i risultati di Yann LeCun, che proprio su questo dataset ha dato una prima dimostrazione del potenziale delle CNN per la classificazione di immagini e quindi contribuito a una nuova ondata di interesse per il deep learning,e finisce con le moderne architetture a transformers.

Si parlerà anche del ruolo della ricerca italiana in questo percorso, con alcuni importanti successi ed alcune occasioni mancate.

Ennio Ottaviani è un fisico teorico, ricercatore industriale ed imprenditore. E’ direttore scientifico di OnAIR, dove coordina progetti di ricerca sulle applicazioni di IA in diversi settori dell’industria e dei servizi. E’ docente di Metodi Predittivi per il corso di laurea in Statistica Matematica della Università di Genova. Ennio è già stato ospite in passato di DataScienceSeed con un interessantissimo talk su Quantum Computing e Data Science.

 

Scoprire le anomalie nei big data, con l’applicazione del Machine Learning e delle Metaeuristiche

Il secondo talk della giornata tratterà tematiche riguardanti l’Anomaly Detection, l’integrazione delle Metaeuristiche nel campo Machine Learning e algoritmi di ottimizzazione.

L’Anomaly Detection è un campo dell’intelligenza artificiale che si occupa di identificare dati anomali in un set di dati. Le anomalie possono essere dovute a vari fattori, come errori di misurazione, eventi imprevisti o attacchi malevoli.  L’intervento intende fare una panoramica sulle anomalie in campi come i sistemi di controllo industriali, i sistemi di intrusione, l’analisi di eventi climatici, di traffico urbano, di fake news e tanto altro.

Le Metaeuristiche sono un tipo di algoritmo di ottimizzazione che utilizzano una strategia di esplorazione/sfruttamento per trovare una soluzione ottimale o subottimale a un problema. Sono spesso utilizzate in problemi complessi, dove gli algoritmi tradizionali possono fallire. L’integrazione delle Metaeuristiche nell’Anomaly Detection può migliorare l’accuratezza e la robustezza dei sistemi di rilevamento delle anomalie.

Claudia Cavallaro si occupa di ricerca in Informatica, nel tema dei Big Data, dell’Ottimizzazione e delle Metaeuristiche. E’ una docente dell’Università di Catania, per i corsi di laurea triennale e magistrale di Informatica in “Strutture Discrete” ed “Euristics and metaheuristics for optimizazion and learning”. Recentemente ha partecipato come speaker alle conferenze ITADATA 2023(The 2nd Italian Conference on Big Data and Data Science) e WIVACE 2023 (XVII International Workshop on Artificial Life and Evolutionary Computation). Ha iniziato a lavorare nel campo di ricerca dell’Anomaly Detection già durante il periodo di post-doc presso il CNAF-I.N.F.N. di Bologna.

DSS Meetup #38 – Pianificazione Automatica e Monitoraggio Reattivo

Nel meetup di ottobre parleremo di Intelligenza Artificiale per migliorare e ottimizzare la pianificazione e il monitoraggio di processi aziendali o sistemi automatizzati. Si tratta di un approccio ampiamente utilizzato in diversi settori, tra cui l’automazione industriale, la gestione delle risorse, la logistica, l’automazione domestica e molto altro.

Appuntamento il 25 ottobre alle ore 18:00 presso la Camera di Commercio di Genova in Via Garibaldi, 4.

Discuteremo di come l’IA possa essere utilizzata per migliorare la capacità dei sistemi automatizzati al fine di pianificare le azioni in modo intelligente e di adattarsi in tempo reale a cambiamenti nell’ambiente o a situazioni impreviste. Questo può portare a una maggiore efficienza operativa, una migliore gestione delle risorse e una riduzione degli errori in una varietà di contesti applicativi, efficientando i processi e riducendo i costi.

Luca ci illustrerà come tutto questo è stato realizzato attraverso un potente strumento di IA, lo SmartHelper. Il software proprietario Smart Helper offre soluzioni di pianificazione, analisi dei dati e automazione delle decisioni che, analizzando i dati storici relativi alle attività aziendali, i volumi di lavoro, le competenze richieste e le disponibilità orarie, suggerisce la collocazione ottimale del personale. Il sistema garantisce un utilizzo efficiente delle risorse e riducendo il tempo impiegato nella pianificazione manuale. È inoltre in grado di automatizzare una serie di processi aziendali (ad esempio selezionando i candidati per una posizione specifica), riducendo l’impiego di attività manuali che richiedono tempo e risorse umane, identificando inefficienze o sprechi di tempo e fornendo al contempo raccomandazioni per migliorarli.

Luca Calabrese, laureato con Lode in Informatica, ha da sempre lavorato in ambito IT e nel corso degli anni come Solution Architect, affinando le competenze in Postal Automation, Tracking and Tracing System e Pianificazione e Monitoraggio di sistemi/processi. Dal 2009 è Co-fondatore e Presidente di LCS Liguria Consulting Solutions, una realtà che aiuta e affianca le aziende al fine di migliorare la produttività e semplificare la gestione amministrativa.  Luca segue e dirige con successo il reparto R&D di LCS e da anni si occupa di utilizzare l’intelligenza artificiale per automatizzare i processi di pianificazione e monitoraggio.

DSS Online #15 – Explainable AI: come interpretare le predizioni di sistemi basati su AI (e non solo)

I sistemi più recenti di intelligenza artificiale, come ad esempio quelli basati su deep learning, benché solitamente molto accurati, spesso non consentono una facile compresione delle dinamiche che li portano a generare le proprie “predizioni”.

L’Explainable AI è un campo di ricerca che studia come meglio comprendere ed interpretare sistemi opachi, quali ad esempio le reti neurali, attraverso l’uso di “spiegazioni”. Tali spiegazioni consentono di identificare i meccanismi di funzionamento interni di questi sistemi e conseguentemente di capire se potervi fare affidamento per prendere decisioni.  Ad esempio una spiegazione per una predizione corretta generata da una rete neurale consente di capire se tale predizione è corretta per i motivi giusti. Oppure una spiegazione può aiutare a capire per quali ragioni un sistema basato su AI produce una predizione sbagliata e, conseguentemente, può aiutare a capire come migliorare il sistema (o i dati utilizzati per addestrarlo).

In questo intervento vedremo una panoramica sul campo dell’explainable AI, illustrando alcune delle tecniche più conosciute per la generazione di spiegazioni; a seguire verranno presentate delle tecniche di Explainable AI specifiche per sistemi che utilizzano AI per task di data management. Infine vedremo come alcune spiegazioni possono operativamente essere utilizzate per migliorare i sistemi stessi.

Tommaso Teofili è Principal Software Engineer a Red Hat e dottorando all’Università Roma Tre. Svolge attività di ricerca e sviluppo nel campo dell’Explainable AI, nonché appassionato di tematiche di NLP e Information Retrieval. Contribuisce attivamente a diversi progetti open source come membro dell’Apache Software Foundation.

DSS Online #13 – Sicurezza dei Sistemi Complessi: Si può tendere al rischio zero?

L’analisi del rischio è un insieme di metodi logici che servono ad analizzare la sicurezza di un sistema complesso. Questa prevede la stima delle probabilità di accadimento di eventi indesiderati con conseguenze avverse, e la valutazione degli effetti sul sistema. Storicamente l’analisi prende avvio dalle frequenze di guasto dei componenti del sistema, concatenate con metodi logici statici. Il rischio viene quindi espresso in termini di frequenza attesa, ed è una fotografia statica del sistema nelle peggiori condizioni possibili.

Questa stima è sempre estremamente cautelativa, e spesso inadeguata a fornire reali informazioni sulla natura del rischio e sulle strategie di prevenzione, e non tiene n considerazione le fluttuazioni nell’operatività. L’applicazione dei nuovi paradigmi di rischio basati sull’ingegneria della resilienza permettono (o meglio, promettono!) di rappresentare la sicurezza di un sistema complesso in modo dinamico, e di intercettare le deviazioni di processo prima che si avviino i percorsi verso gli incidenti.

Il Machine Learning per l’analisi del rischio

L’applicazione di opportuni algoritmi di apprendimento automatico può facilitare questo processo, e nell’intervento verranno discusse alcune idee in merito all’applicazione dell’inferenza Bayesiana all’analisi del rischio, e come queste possono rappresentare un importante passo verso l’ambizioso target di rischio zero.

Tomaso Vairo, Ingegnere chimico e PhD, svolge attività di ricerca e docenza presso l’Università degli Studi di Genova, nei campi dell’analisi del rischio e della modellistica ambientale. E’ inoltre analista di rischio presso l’Agenzia Regionale per la Protezione dell’Ambiente Ligure (ARPAL) e divulgatore scientifico.

Ecco le slide presentate da Tomaso (PDF 2M) DSS2302

Bibliografia sull’argomento

gentilmente selezionata da Tomaso:

Resilience Dynamic Assessment Based on Precursor Events: Application to Ship LNG Bunkering Operations Sustainability 2021, 13(12), 6836

Predictive model and Soft Sensors Application to Dynamic Process Operative Control CHEMICAL ENGINEERING TRANSACTIONS VOL. 86, 2021

Resilience Assessment of Bunkering Operations for A LNG Fuelled Ship Proceedings of the 30th European Safety and Reliability Conference and 15th Probabilistic Safety Assessment and Management Conference (ESREL 2020)

Accessibility for maintenance in the engine room: development and application of a prediction tool for operational costs estimation Ship Technology Research – Taylor and Francis Online 2022

A Data Driven Model for Ozone Concentration Prediction in a Coastal Urban Area CHEMICAL ENGINEERING TRANSACTIONS VOL. 82, 2020

A Dynamic Approach to Fault Tree Analysis based on Bayesian Beliefs Networks CHEMICAL ENGINEERING TRANSACTIONS VOL. 77, 2019

 

DataScienceSeed#13: Cracks and Potholes

Ultimo appuntamento dell’anno con i meetup di datascienceseed. Con la nuova formula ibrida con l’incontro in presenza aperto agli iscritti all’associazione, insieme al nostro usuale streaming sul canale youtube, ci vediamo poco prima di natale Giovedi 16 Dicembre, a partire dalle ore 18:00  per parlare di buchi e crepe.

Registrazione su eventbrite seguendo il link qui sotto: La prenotazione su eventbrite riguarda per il momento l’accesso web. Dobbiamo ancora avere le conferme finali per consentire ai soci dell’associazione DataScienceSeed di partecipare in presenza.

 

Andrea Ranieri, ricercatore del CNR-IMATI di Genova, ci descriverà una applicazione del deep-learning ad un problema ben noto a chiunque abbia percorso una strada asfaltata: la manutenzione del manto stradale.

L’infrastruttura stradale è uno dei pilastri delle moderne società: essa rende possibile il trasporto efficiente di persone e merci laddove altre modalità di trasporto non potrebbero competere in termini di costo.

Tuttavia l’asfalto stradale tende a deteriorarsi col tempo, con l’utilizzo e a causa dei fenomeni atmosferici ed ambientali. E’ proprio la capillarità dell’infrastruttura stradale, il suo maggior pregio, che la rende anche molto difficile e costosa da monitorare e manutenere – solo negli US, sia i danni agli automobilisti che per la manutenzione delle strade sono stimati in “billions USD/year”.

Ad oggi, in Italia come anche nella maggioranza dei Paesi nel mondo, il rilevamento dei danni al manto stradale avviene manualmente, con operatori specializzati in campo e costose attrezzature. Questo limita molto l’efficacia del monitoraggio da parte degli enti preposti alla manutenzione.

Il CNR di Genova ha recentemente iniziato ad applicare la Computer Vision, le Reti Neurali e l’Intelligenza Artificiale al problema della pothole e crack detection sul manto stradale. L’approccio scelto è quello di eseguire la segmentazione semantica di immagini stradali per individuare in modo molto preciso sia buche che fessurazioni.

Andrea ci racconterà come è possibile fare tutto questo, e quali sono gli scenari futuri resi possibili dall’utilizzo di self-supervised learning e telecamere RGB-D.

Andrea Ranieri è ricercatore presso il Consiglio Nazionale delle Ricerche, Istituto di Matematica Applicata e Tecnologie Informatiche (IMATI), dove si occupa di Deep Learning e AI principalmente in ambito Computer Vision. Andrea ha una laurea in Ingegneria Informatica, un Dottorato di Ricerca in Scienze ed Ingegneria dello Spazio e un background tecnologico estremamente vario che va da networking e sistemi distribuiti a robotica e perception. Usa Linux quotidianamente da più di 15 anni e Python e Fast.ai da neanche 3. I suoi interessi di ricerca vanno dalla segmentazione di immagini al self-supervised learning, passando per tecniche “context-aware” per la data augmentation.

 

DataScienceSeed #12, The Art of AI-Possible, the NVIDIA Way

Finalmente, dopo più di un anno passato pandemicamente online, i meetup DataScienceSeed tornano a svolgersi parzialmente in presenza, per il momento (per motivi di capienza dei locali) limitatamente ai soci iscritti all’associazione.

Carlo Nardone, Senior Solution Architect ad NVIDIA ci ha presentato alcuni trend dei modelli Deep Learning allo stato dell’arte e le conseguenze dal punto di vista dell’infrastruttura necessaria, con esempi concreti proposti da NVIDIA partendo dalle scale estreme fino agli strumenti software disponibili per la più ampia platea possibile di sviluppatori di applicazioni d’Intelligenza Artificiale.

Fisico di formazione, Carlo Nardone si è occupato di calcolo ad alte prestazioni (HPC) sviluppando codici di simulazione numerica su piattaforme massicciamente parallele sin dai tempi della Connection Machine ormai 30 anni fa. Oggi tutti hanno facilmente accesso a una piattaforma dello stesso tipo grazie alle GPU, mentre nel frattempo la vera “killer app” dell’HPC e del Calcolo Parallelo si è rivelata essere l’Intelligenza Artificiale grazie all’esplosione del Deep Learning. Dopo esperienze al CRS4, Quadrics (società Finmeccanica), Sun Microsystems, dieci anni fa ha puntato sull’adozione degli acceleratori NVIDIA come tecnologia innovativa per l’HPC aiutando fra l’altro una grande istituzione finanziaria italiana a portare i propri codici su CUDA. Da sette anni è in NVIDIA come Senior Solution Architect del team EMEA con focus sull’infrastruttura e sulle piattaforme dedicate all’IA: la famiglia NVIDIA DGX, DGX POD, DGX SuperPOD.

Ecco le slide presentate da Carlo Nardone  (pdf, 4M)

Demo Center NT Nuove Tecnologie per DataScienceSeed

Durante il meetup è stato presentato il demo center offerto per DataScienceSeed da NT Nuove Tecnologie, equipaggiato col supporto di NVIDIA ed ospitato nel data center di Liguria Digitale.

Presentazione Demo Center NT

 

DSS Online #11, Le sfide dell’Edge Computing

Nell’ultima edizione di DataScienceSeed Online prima della pausa estiva,  Mercoledi 21 Luglio alle 18:00 abbiamo parlato di Edge Computing, con Alberto Cabri, PhD.

Se hai partecipato o se hai visto il video (che trovi qui sotto) dacci un feedback!

La disponibilità di piattaforme integrate ad alte prestazioni consente al giorno d’oggi di eseguire algoritmi in edge con indubbi vantaggi sul consumo di banda, la sicurezza e la salvaguardia della privacy. Tuttavia la strada non è in discesa e talvolta la complessità di rendere operativo un sistema edge non è trascurabile e si deve lavorare su sistemi eterogenei con strumenti che se da un lato possono semplificare la realizzazione ed il deployment delle soluzioni (ad. es. docker) dall’altro richiedono l’acquisizione di ulteriori competenze.

Il caso d’uso  mostrato è relativo al riconoscimento real-time di componenti elettronici con deep learning, legato al progetto Ariadne, Data Driven Recovery System, di cui ci ha raccontato i sommi capi Rosario Capponi nella sessione di Q&A.

Alberto Cabri Ha conseguito il Dottorato in Computer Science and Systems Engineering presso l’Università di Genova nel 2020. E’ un socio fondatore di Vega Research Laboratories, uno spin-off dell’Università di Genova la cui mission sono la progettazione e sviluppo di soluzioni basate su tecnologie emergenti, quali AI, edge computing. Ha una Laurea in Ingegneria Elettronica ed è docente di ruolo di Informatica presso un Istituto Tecnico di Genova. E’ stato fondatore ed AD di Flashover Time S.r.l., Manager in Computer Science Corporation, Project Manager in Marconi Communications e ha ricoperto diversi ruoli tecnici in Elsag e Cap Gemini.

Ecco le slide presentate da Alberto (PDF 2M)

Questo il link al video mostrato durante la presentazione.

E qui il link alla serie di tutorial su Jetson Nano a cui si fa riferimento, che fa parte del NVIDIA Developer Program 

Infine ecco la slide sul progetto Ariadne di cui l’esempio descritto fa parte.

2021-04 Ariadne ADS

 

 

DSS Online #10 MLOps, quando si smette di giocare

Lunedi 5 luglio,abbiamo parlato  di MLOps con Simone Merello, Head of Deep AI presso Perceptolab.

Se hai seguito l’evento online o hai visto il video

 lasciaci un feedback!

 

Ogni giorno sempre più modelli vengono sviluppati per creare nuove funzionalità. Sfortunatamente non appena si ha a che fare con più modelli, dataset e data scientists le cose si complicano. Ciascun esperimento ha molte dipendenze e l’effetto  “changing anything changes everything” rende difficile tenere traccia di cosa sta accadendo. Una soluzione ML-driven richiede di tracciare come un modello è stato prodotto, scelto, distribuito e come si comporta in produzione: il modello di ML è solo un pezzo del puzzle. Simone ci mostrerà alcuni dei problemi più comuni che grosse AI companies hanno nel sviluppare soluzioni basate sul ML e come risolverli.

Simone Merello, inizia la sua carriera come ricercatore in ambito ML presso l’università NTU di Singapore. Successivamente esce dall’ambito accademico per diventare prima Research Scientist ed ora Head of Deep AI presso Perceptolab.

Hanno partecipato al dibattito a fine talk

Piero Cornice, Lead Engineer in Lilli

Andrea Panizza Senior AI Specialist at Baker Hughes

 

Qui le slide dell’incontro:  MLOps – quando si smette di giocare

ed il famoso file “Registro Merello dei 300 tools ML” in formato ODS: AI Tools and Platforms

DSS Online #9 – Rumenta Intelligente… ovvero: Economia Circolare e AI

Al prossimo meetup, venerdi 7 maggio a partire dalle ore 18:00, parleremo di un tema “green” ovvero Economia Circolare e Intelligenza Artificiale. Ne discuteremo con Giorgio Spreafico e  Daniele Bonventre di algoWatt S.p.A., green tech solution company che progetta, sviluppa e integra soluzioni per la gestione dell’energia e delle risorse naturali.

Registrati come al solito su eventbrite per ricevere il link all’evento online:

Giorgio e Daniele ci parleranno di soluzioni innovative basate su reti neurali per il supporto alle decisioni nella cosiddetta “biodigestione” di rifiuti solidi urbani.

Un biodigestore è un impianto che funziona trasformando la frazione organica di rifiuti solidi urbani (FORSU) e altre matrici organiche, i quali vengono miscelati con batteri per ottenere biogas (una miscela di diversi tipi di gas composti in prevalenza da metano ed anidride carbonica) tramite un processo di fermentazione in condizioni di assenza di ossigeno e, come residuo, producendo del compost di qualità da utilizzare in agricoltura o compost grigio per la riambientazione di emergenze ambientali

Questi impianti possono essere considerati come fonti di energia rinnovabile, riducendo l’emissione di gas serra. Il recupero energetico dalla produzione di biogas da parte di un biodigestore può arrivare a diversi GWh/anno, producendo milioni di metri cubi di biogas, facendo risparmiare ogni anno milioni tonnellate di CO2 e riducendo il consumo di suolo per lo smaltimento dei rifiuti.

In un primo intervento, Giorgio ci introdurrà l’argomento e le problematiche collegate, seguito da Daniele che invece ci racconterà qualche dettaglio in più dal punto di vista tecnico sulle soluzioni adottate.

Giorgio Spreafico Laurea magistrale in Fisica, ha pluridecennale esperienza di modellistica nei settori ambientali e industriale e di modellazione geostatistica. Attualmente è il responsabile della Divisione Prodotti di algoWatt.

Daniele Bonventre Ha una Laurea magistrale in Fisica presso l’Università degli Studi di Genova. Ha lavorato due anni presso i laboratori Smart Materials dell’Istituto Italiano di Tecnologia ed ora, in qualità di Data Scientist, si occupa dello sviluppo di prodotti basati su Intelligenza Artificiale ed algoritmi di analisi tensoriale.

algoWatt S.p.A. progetta, sviluppa e integra soluzioni per la gestione dell’energia e delle risorse naturali, in modo sostenibile e socialmente responsabile, garantendo un vantaggio competitivo. La Società fornisce sistemi di gestione e controllo che integrano dispositivi, reti, software e servizi con una chiara focalizzazione settoriale: digital energy e utilities, smart cities & enterprises e green mobility.