DSS Meetup #40 – Exploratory Data Analysis

In questo evento un po’talk ed un po’ code-lab, Matteo Gentile ci guiderà in un caso pratico di Exploratory Data Analisys, seguendo un notebook in python su Google Colabs – Chi volesse portarsi il laptop, potrà seguire ed eseguire direttamente il codice.

L’appuntamento è per Giovedi 11 Gennaio a partire dalle ore 18:00 presso l’Ordine degli Ingegneri della Provincia di Genova, Piazza della Vittoria, 11/10.

Tutti noi abbiamo quotidianamente a che fare con insiemi di dati (più o meno grandi), spesso contenuti in file Excel, e vorremmo tanto “capirci qualcosa” in modo semplice, come ad esempio capire se ci sono errori evidenti, rilevare valori o eventi anomali e trovare relazioni interessanti tra le variabili.

In questo evento introduttivo, destinato a tutti, faremo una analisi esplorativa passo passo dei dati contenuti in un file Excel.

 

L’Analisi Esplorativa dei Dati (EDA, Exploratory Data Analysis) è utilizzata dai data scientist per analizzare e investigare i set di dati e riassumere le loro caratteristiche principali, spesso utilizzando metodi di visualizzazione.

Questa analisi aiuta a determinare il modo migliore per utilizzare le origini dati per ottenere le risposte di cui hai bisogno, rendendo più facile per i data scientist scoprire modelli, individuare anomalie, testare un’ipotesi o controllare i presupposti.

In sostanza, si tratta di esaminare e caratterizzare attentamente i dati al fine di trovarne le caratteristiche sottostanti, le possibili anomalie e i modelli e le relazioni nascoste.

L’analisi esplorativa dei dati viene utilizzata principalmente per vedere cosa i dati possono rivelare al di là delle attività di modellazione formale o di test delle ipotesi e fornisce una migliore comprensione delle variabili dei set di dati e delle relazioni tra loro. Può anche aiutare a determinare se le tecniche statistiche che stai prendendo in considerazione per l’analisi dei dati sono appropriate. Originariamente sviluppato dal matematico americano John Tukey negli anni ’70, le tecniche di analisi esplorativa dei dati continuano ad essere un metodo ampiamente utilizzato nel processo di rilevamento oggi.

Questa comprensione dei dati è ciò che alla fine guiderà attraverso i passaggi successivi della pipeline di machine learning, dalla preelaborazione dei dati alla creazione del modello e all’analisi dei risultati.

Il processo dell’EDA comprende fondamentalmente questi compiti principali:

  • Panoramica del set di dati e statistiche descrittive
  • Identificazione e gestione valori nulli
  • Eliminazione colonne inutili
  • Gestione valori anomali
  • Valutazione della qualità dei dati

Matteo Gentile Laureato in Ingegneria Elettronica nel 2003, ha iniziato a lavorare in alcune società come sviluppatore fino a entrare in Siemens nel 2008, in cui si è occupato di diversi ambiti del software in automazione industriale .Dal 2021 si occupa di Intelligenza Artificiale e Machine Learning per la previsione della pianificazione degli ordini e la manutenzione predittiva delle macchine negli impianti industriali.Dal 2017 Consigliere dell’Ordine degli Ingegneri di Genova.

Il meetup sarà in presenza, con talk Q&A col pubblico e rinfresco finale

L a registrazione sarà disponibile sul nostro canale YouTube

DSS Meetup #39 – Storia dell OCR e Anomaly Detection

Per il meetup di Novembre riproponiamo la formula dei primi meetup di DataScienceSeed, con 2 interventi: il primo tratterà la storia dell’OCR, il secondo l’Anomaly Detection applicata a problemi di ottimizzazione. I 2 talks saranno seguiti dal consueto spazio per domande e risposte e dall’immancabile rinfresco a base di focaccia.

L’appuntamento è per Giovedi 30 Novembre a partire dalle ore 18:00 presso l’Ordine degli Ingegneri della Provincia di Genova, Piazza della Vittoria, 11/10.

MNIST: nascita, vita e morte di un dataset pubblico. 

Nel primo talk racconteremo la storia del processo OCR (Optical Character Recognition), passato negli anni da obiettivo di ricerca a semplice commodity, attraverso il ruolo cruciale svolto dal dataset MNIST, che ha avuto un ruolo fondamentale nello sviluppo del deep learning. È stato uno dei primi dataset di immagini utilizzati per l’addestramento di reti neurali convoluzionali (CNN), un tipo di rete neurale particolarmente efficace per la classificazione di immagini.

Il racconto parte dai primi approcci di machine learning, prosegue con i risultati di Yann LeCun, che proprio su questo dataset ha dato una prima dimostrazione del potenziale delle CNN per la classificazione di immagini e quindi contribuito a una nuova ondata di interesse per il deep learning,e finisce con le moderne architetture a transformers.

Si parlerà anche del ruolo della ricerca italiana in questo percorso, con alcuni importanti successi ed alcune occasioni mancate.

Ennio Ottaviani è un fisico teorico, ricercatore industriale ed imprenditore. E’ direttore scientifico di OnAIR, dove coordina progetti di ricerca sulle applicazioni di IA in diversi settori dell’industria e dei servizi. E’ docente di Metodi Predittivi per il corso di laurea in Statistica Matematica della Università di Genova. Ennio è già stato ospite in passato di DataScienceSeed con un interessantissimo talk su Quantum Computing e Data Science.

 

Scoprire le anomalie nei big data, con l’applicazione del Machine Learning e delle Metaeuristiche

Il secondo talk della giornata tratterà tematiche riguardanti l’Anomaly Detection, l’integrazione delle Metaeuristiche nel campo Machine Learning e algoritmi di ottimizzazione.

L’Anomaly Detection è un campo dell’intelligenza artificiale che si occupa di identificare dati anomali in un set di dati. Le anomalie possono essere dovute a vari fattori, come errori di misurazione, eventi imprevisti o attacchi malevoli.  L’intervento intende fare una panoramica sulle anomalie in campi come i sistemi di controllo industriali, i sistemi di intrusione, l’analisi di eventi climatici, di traffico urbano, di fake news e tanto altro.

Le Metaeuristiche sono un tipo di algoritmo di ottimizzazione che utilizzano una strategia di esplorazione/sfruttamento per trovare una soluzione ottimale o subottimale a un problema. Sono spesso utilizzate in problemi complessi, dove gli algoritmi tradizionali possono fallire. L’integrazione delle Metaeuristiche nell’Anomaly Detection può migliorare l’accuratezza e la robustezza dei sistemi di rilevamento delle anomalie.

Claudia Cavallaro si occupa di ricerca in Informatica, nel tema dei Big Data, dell’Ottimizzazione e delle Metaeuristiche. E’ una docente dell’Università di Catania, per i corsi di laurea triennale e magistrale di Informatica in “Strutture Discrete” ed “Euristics and metaheuristics for optimizazion and learning”. Recentemente ha partecipato come speaker alle conferenze ITADATA 2023(The 2nd Italian Conference on Big Data and Data Science) e WIVACE 2023 (XVII International Workshop on Artificial Life and Evolutionary Computation). Ha iniziato a lavorare nel campo di ricerca dell’Anomaly Detection già durante il periodo di post-doc presso il CNAF-I.N.F.N. di Bologna.

DSS Meetup #37 – AI applicata: storie avvincenti e profonde rivelazioni

Nell’ultimo meetup della stagione abbiamo parlato di intelligenza artificiale applicata con un esperto indiscusso del settore.

Andrea Pescino si occupa di AI da molto prima che tutti ne diventassimo esperti, come tutti siamo allenatori della nazionale o esperti di virologia e geopolitica.

Se passa da Genova ed accetta di venire a parlare ad un meetup, non importa se il titolo sembra vago: ne ha viste e fatte di tutti i colori, quindi mettetevi comodi: sarà un gran bel viaggio!

Andrea Pescino di Intelligenza Artificiale ne sa.

Se ne occupa dal tempo degli studi in all’Università di Genova, quando ancora il settore era nel suo secondo inverno.

Da imprenditore digitale ha fondato SoftJam e poi Digital Tree, il primo incubatore in italia completamente dedicato alla AI, che tra le altre cose ha ospitato dagli albori le iniziative di DataScienceSeed.

La sua attività da tempo è internazionale, ed è raro che stia fermo a Genova anche solo per pochi giorni.

DSS meetup#34 AI 20230626 (12M pdf)

DSS Meetup #36 – Alla scoperta dell’Intelligenza Artificiale

Se sei interessato ad aumentare l’efficienza aziendale e desideri scoprire come i dati e l’Intelligenza Artificiale possono aiutarti, non perderti il nostro prossimo meetup, organizzato in collaborazione con la Camera di Commercio di Genova.

Cominceremo parlando sulla centralità del dato come mattone fondamentale per la descrizione e l’interpretazione di oggetti, fenomeni, attività ed eventi. Mostretemo poi come ricavare la relazione tra osservazioni ed interpretazioni e come utilizzarla per interpretare osservazioni future.

Passeremo poi ad illustrare un caso pratico di progettazione e messa in opera di un sistema di raccolta dati presso un impianto di verniciatura di manufatti.

Partendo dall’analisi progettuale, vedremo il percorso fatto con il cliente, con obiettivi e risultati acquisiti, fino a indicare in che modo l’Intelligenza Artificiale potrà essere integrata nel processo per aumentarne l’efficienza complessiva.

Andrea Boero – Ingegnere elettronico con Master in Archiviazione digitale, partendo da Elsag fino a Leonardo ha maturato esperienze in ambito gestione elettronica dei documenti, automazione postale, videosorveglianza, infomobilità, lettura automatica delle targhe e difesa.

Si interessa da anni di Data Science, trova affascinante la sfida di ricondurre dati grezzi ad una forma fruibile per la loro interpretazione tramite algoritmi di machine learning a supporto delle decisioni.

Ha partecipato a Stream, iniziativa patrocinata dal Festival della Scienza per la formazione di divulgatori scientifici.

È membro del consiglio direttivo dell’associazione culturale DataScienceSeed.

Luca Oppo – Dopo aver maturato un’esperienza quindicinale nell’industria elettrotecnica, inizia ad interessarsi di gestione dei dati e fonda, nel 2015, assieme ad altri due soci, la start-up innovativa Madein.it.

L’azienda propone soluzioni su misura per la raccolta, la gestione e l’utilizzo di dati di varia natura (produttivi, commerciali), con progetti chiavi in mano che comprendono la fornitura di un mix di software e/o hardware, rivolti ai settori industriale, professionale e consumer.

Oltre a ciò, svolge dal 2013 attività di consulenza aziendale nel settore business to business, con particolare focus sulle aree marketing/commerciale, logistica e produttiva, presso clienti di dimensioni e settori diversi.

E’ appassionato di Intelligenza Artificiale e Machine Learning e socio dell’associazione culturale DataScienceSeed.

 

Presentazione CamComm 22-05-2023 (DSS#36)

DSS Meetup #35 – Per favore ChatGPT crea un titolo per questo meetup

Umano: “Per favore ChatGPT, scrivi una brevissima introduzione per una presentazione su gpt dicendo che è la tecnologia del momento”

ChatGPT: “Benvenuti al meetup su GPT, o Generative Pre-trained Transformer, la tecnologia del momento che sta rivoluzionando il campo dell’elaborazione del linguaggio naturale. GPT è un modello di intelligenza artificiale basato su una rete neurale che ha dimostrato di essere estremamente efficace nell’affrontare una vasta gamma di compiti di linguaggio, dal riconoscimento del linguaggio naturale alla generazione di testo. In questa presentazione, esploreremo come funziona GPT e come sta cambiando il modo in cui interagiamo con la tecnologia e il linguaggio.“Parleremo con Antonello Scalmato di come utilizzare le API di OpenAI e andare a deployare le proprie soluzioni con GPT, la propria versione di ChatGPT e come è cambiato lo sviluppo di un chatbot con queste tecnologie. Vedremo anche le possibilità offerte dai nuovi layer costruiti sulle API e i sistemi ad agenti basati su GPT come Semantic Kernel, Auto-GPT, Cheshire Cat e altri.

Antonello Scalmato, Ph.D. – Antonello ha un dottorato di ricerca in Robotica e Ambient Intelligence. Ha lavorato per più di 10 anni in diversi campi dell’intelligenza artificiale, con una specializzazione sulla rappresentazione della conoscenza, ed è autore di oltre 20 articoli su questi temi di ricerca. È coautore di diversi brevetti, in particolare di uno relativo al Context Awareness in Smart Home e di uno dei brevetti di Pillo Health relativi al Robot e alle sue funzionalità. Negli anni è diventato un esperto di architettura di servizi basati sul cloud. In Pillo Health è stato il Director of Cloud and AI services. Attualmente è uno dei co-fondatori di Ermit, dove ricopre il ruolo di Director of Cloud & Intelligent Services.

DSS35 – ChatBot OpenAI – pdf 4M

DSS Meetup #33 – Machine Learning ad impatto sociale

Abstract:

Il tema del talk saranno le tecnologie per l’inclusione, con l’obiettivo ambizioso di garantire pari opportunità a chiunque nei percorsi di studio e sul lavoro.

Mostreremo come l’intelligenza artificiale e la realtà virtuale, utilizzando tecniche allo stato dell’arte, come il Natural Language Processing e la Computer Vision, sono validi strumenti per raggiungere questo importante traguardo.

Questo tema viene da sempre al primo posto per Tech4All, una startup innovativa ad alto valore tecnologico, spin-off dell’Università della Tuscia, che si occupa dello sviluppo di strumenti digitali, basati su tecniche di machine learning, per rendere accessibile lo studio e il lavoro, anche a persone con disturbi specifici dell’apprendimento.

Per presentare il loro approccio e come hanno usato la tecnologia, saranno presenti Lorenzo Daidone e Andrea Zingoni, entrambi soci fondatori e amministratori di Tech4All.

Andrea Zingoni, docente di Informatica e di Intelligenza Artificiale presso l’Università della Tuscia, coglierà l’occasione per presentare alcuni progetti che lo vedono coinvolto in prima persona, per dare un’idea delle ultimissime frontiere della ricerca nel campo dell’ICT.

Andrea Zingoni

Andrea Zingoni è Ricercatore e Referente per le attività legate all’Intelligenza Artificiale presso l’Università della Tuscia. Ha conseguito la laurea magistrale in Ingegneria delle Telecomunicazioni e il dottorato di ricerca in Ingegneria dell’Informazione presso l’Università di Pisa. Nel corso della sua carriera accademica ha partecipato a numerosi progetti di ricerca, sia nazionali che internazionali, e ha collaborato con diversi partner provenienti da università, industria e pubblica amministrazione. I suoi interessi di ricerca sono caratterizzati da un approccio interdisciplinare e includono l’intelligenza artificiale, le tecnologie blockchain, l’elaborazione delle immagini, la computer vision, il telerilevamento, i sensori elettro-ottici e l’analisi del suono, applicati a diversi settori, come l’ingegneria biomedica, l’istruzione/educazione, l’ingegneria civile, il supporto alla società, la governance e la gestione. È titolare dei corsi di “Informatica” e “Fondamenti di Intelligenza Artificiale” del Corso di Laurea in Ingegneria Industriale dell’Università della Tuscia, dove insegna anche al Master di II livello in “Intelligenza Artificiale per il Business e la Cyber Security”. È inoltre socio fondatore e amministratore di due startup hi-tech, Tech4All e U-VI tech., che operano nei settori dell’istruzione e del trasferimento tecnologico.

Lorenzo Daidone

Lorenzo è co-fondatore di una startup (Estro) e di una spin-off universitaria (Tech4All) le quali sviluppano tecnologie, ad alto impatto sociale, basate su machine learning.

È uno sviluppatore appassionato di robotica, per anni ha formato docenti per cogliere le opportunità del coding applicato alla didattica e alle STEAM.

La visione di: “creare un modo dì accessibilità” si sposa pienamente con i suoi valori personali e con i valori del team con cui lavora.

Presentazione Zingoni (pptx 27M)

 

DSS Meetup #32 – Innovative sustainable clean energy

Con Massimo Rivarolo: Innovative sustainable and clean energy, usare i dati pubblici per capire dove stiamo andando

Negli ultimi quindici anni, le politiche internazionali ed europee hanno promosso una serie di interventi per favorire lo sfruttamento di fonti di energia rinnovabili e sostenibili, e lo sviluppo di sistemi di accumulo e di combustibili alternativi per promuovere la sostenibilità e la decarbonizzazione. La ricerca e l’innovazione hanno fatto enormi progressi per consentire a sempre più persone nel mondo di usufruire di elettricità e calore prodotti in modo sostenibile. Per poter però parlare di transizione ecologica sostenibile sarà necessario investire maggiormente in nuove tecnologie: quali saranno le più strategiche? Quali di queste possono considerarsi realmente sostenibili? Cosa succederà ai combustibili fossili?

Per affrontare il tema della “sostenibilità” in modo consapevole e preparare le generazioni future attraverso gli insegnamenti di oggi, è necessario un approccio “data driven”, attraverso l’analisi e l’elaborazione di dati pubblici (fonti: ARERA, EUROSTAT, TERNA).

Nel talk affronteremo i seguenti temi:

  • Le politiche ambientali ed energetiche Europee per il 2020
  • Analisi critica delle politiche: risultati ed effetti
  • Cosa aspettarci nel prossimo futuro: gli obiettivi del Piano Nazionale Energia e Clima Italiano (PNIEC) 2030 e la transizione energetica in Italia

 

 Massimo Rivarolo ha ottenuto il titolo di Dottorato Europeo nel 2013 con la tesi “Produzione di idrogeno da impianto idroelettrico di grandissima potenza (14,000 MW) e studio di sistemi di stoccaggio e utilizzo in Sud America e Europa”. È membro dal 2010 del Gruppo di ricerca multidisciplinare Thermochemical Power Group (www.tpg.unige.it ) all’interno dell’Università di Genova. Dal 2015 al 2018, ha collaborato all’interno di un programma di ricerca tra UNIGE e ARERA (Autorità di Regolazione per Energia Reti e Ambiente), nell’ambito dei mercati dell’energia, delle fonti rinnovabili e della generazione distribuita. Dal 2019 è Ricercatore presso UNIGE. Dal 2021 è responsabile scientifico del programma di training nell’ambito della Cattedra UNESCO-Unitwin “Innovative sustainable clean energy research & education”, coordinata da UNIGE (2021-2024). È inoltre responsabile scientifico UNIGE per il Progetto EU H-2020 OnePlanet (2022-2025). Attualmente è responsabile del corso di laurea Triennale “Sistemi per l’energia e l’ambiente and environment” e co-docente per il corso di laurea magistrale “Impianti per l’energia”.

 

Slde “politiche ambientali e transizione energetica” – pptx 7M

DSS Meetup #31 – Effective Altruism e Data Science

Come amplificare il proprio impatto nella propria vita e carriera nella tecnologia? con Stefania Delprete

L’Effective Altruism (Altruismo Efficace) è una comunità e movimento sociale che pone le basi sull’evidenza scientifica per priorizzare cause e progetti d’impatto e massimizzare il bene che possiamo fare ora nel mondo.

Oltre al donare a progetti ad alta efficacia, si può infatti anche dirigere la propria carriera come data scientist in organizzazioni ad alto impatto, approfondire/ricercare in tematiche come i rischi dell’intelligenza artificiale, sensibilizzare all’interno della propria azienda, o addirittura iniziare da zero un proprio progetto d’impatto. Durante il talk saranno mostrate le diverse opportunità a disposizione per persone che lavorano o studiano nella tecnologia e appassionate nel lavoro sui dati.

 Stefania Delprete gestisce il capitolo italiano di Effective Altruism (Altruismo Efficace) e il gruppo professionale di persone esperte o aspiranti nel campo della data science, machine learning ed intelligenza artificiale coinvolte in tale comunità di altruisti efficaci.

Studia fisica in Italia per poi lavorare nella programmazione nel Regno Unito e in Germania. Negli ultimi anni di è occupata di progetti e insegnamenti di Python e data science. Stefania fa parte di comunità dell’open source fra cui Python/PyCon Italia e Mozilla Italia. È appassionata di jazz, studi sulla coscienza e sogni lucidi.

E’ stata tra i relatori del primo storico meetup DataScienceSeed, nel luglio 2018

Tra le iniziative ad alto impatto sociale a cui collebora Stefania c’è Charity Entrepreneurship, incubatore di iniziative non-profit. La call for applications è aperta fino al 10 Novembre. Date un’occhiata al sito, è molto interessante!

Slide di Stefania (7M PDF)

DSS Online #13 – Sicurezza dei Sistemi Complessi: Si può tendere al rischio zero?

L’analisi del rischio è un insieme di metodi logici che servono ad analizzare la sicurezza di un sistema complesso. Questa prevede la stima delle probabilità di accadimento di eventi indesiderati con conseguenze avverse, e la valutazione degli effetti sul sistema. Storicamente l’analisi prende avvio dalle frequenze di guasto dei componenti del sistema, concatenate con metodi logici statici. Il rischio viene quindi espresso in termini di frequenza attesa, ed è una fotografia statica del sistema nelle peggiori condizioni possibili.

Questa stima è sempre estremamente cautelativa, e spesso inadeguata a fornire reali informazioni sulla natura del rischio e sulle strategie di prevenzione, e non tiene n considerazione le fluttuazioni nell’operatività. L’applicazione dei nuovi paradigmi di rischio basati sull’ingegneria della resilienza permettono (o meglio, promettono!) di rappresentare la sicurezza di un sistema complesso in modo dinamico, e di intercettare le deviazioni di processo prima che si avviino i percorsi verso gli incidenti.

Il Machine Learning per l’analisi del rischio

L’applicazione di opportuni algoritmi di apprendimento automatico può facilitare questo processo, e nell’intervento verranno discusse alcune idee in merito all’applicazione dell’inferenza Bayesiana all’analisi del rischio, e come queste possono rappresentare un importante passo verso l’ambizioso target di rischio zero.

Tomaso Vairo, Ingegnere chimico e PhD, svolge attività di ricerca e docenza presso l’Università degli Studi di Genova, nei campi dell’analisi del rischio e della modellistica ambientale. E’ inoltre analista di rischio presso l’Agenzia Regionale per la Protezione dell’Ambiente Ligure (ARPAL) e divulgatore scientifico.

Ecco le slide presentate da Tomaso (PDF 2M) DSS2302

Bibliografia sull’argomento

gentilmente selezionata da Tomaso:

Resilience Dynamic Assessment Based on Precursor Events: Application to Ship LNG Bunkering Operations Sustainability 2021, 13(12), 6836

Predictive model and Soft Sensors Application to Dynamic Process Operative Control CHEMICAL ENGINEERING TRANSACTIONS VOL. 86, 2021

Resilience Assessment of Bunkering Operations for A LNG Fuelled Ship Proceedings of the 30th European Safety and Reliability Conference and 15th Probabilistic Safety Assessment and Management Conference (ESREL 2020)

Accessibility for maintenance in the engine room: development and application of a prediction tool for operational costs estimation Ship Technology Research – Taylor and Francis Online 2022

A Data Driven Model for Ozone Concentration Prediction in a Coastal Urban Area CHEMICAL ENGINEERING TRANSACTIONS VOL. 82, 2020

A Dynamic Approach to Fault Tree Analysis based on Bayesian Beliefs Networks CHEMICAL ENGINEERING TRANSACTIONS VOL. 77, 2019

 

DataScienceSeed Online#12 – Open Source AI sulla linea di produzione

DataScienceSeed torna online Mercoledì 26 Gennaio, a partire dalle ore 18:00. Incontreremo Paolo Mascellani, presidente della cooperativa eLabor, che sta sviluppando un sistema completo ed open source che porta il deep learning sulla linea di prodizione.

ADR-Flow applica tecniche di deep learning al riconoscimento automatico dei difetti di produzione industriale, coniugandole con una infrastruttura  software robusta ed adattabile. Non propone dei risultati nuovi, ma applica risultati consolidati ad una necessità ben precisa, consentendo di concentrarsi sulle necessità specifiche perché il sistema si occupa di tutto il resto. Il tutto, Open Source.

Le prime esperienze fatte con ADR-Flow riguardano il problema della corretta cablatura degli impianti  di un motoveicolo: al di la della dimostrazione della possibilità teorica di raggiungere questo obiettivo, la sfida è architettare una struttura robusta e flessibile di raccolta e gestione dei dati.

Questo ha richiesto di affrontare problematiche architetturali da coniugare con gli stumenti di Data Science (nel nostro caso il transfer learning con Keras e Tensor Flow), affrontando i problemi tipici di avere pochi dati e sbilanciati (data augmentation, controllo dell’overfitting, pesatura dei campioni) ed usando metriche adeguate a descrivere il problema.

Molti e notevoli gli stimoli per miglioramenti ed evoluzioni future: efficienza dell’addestramento e del riconoscimento, sia dal punto di vista della dimensione dei modelli che dei tempi di elaborazione, sistemi di ausilio all’etichettatura dei campioni, modi per affrontare difetti estremamente rari, ma importanti (ad esempio riguardanti la sicurezza), uso di generative adversarial network per sintetizzare campioni realistici, difetti nelle produzioni continue, ed è solo l’inizio.

Paolo Mascellani è presidente della cooperativa eLabor, che ha fondato nel 2001 assieme ad alcuni amici con lo scopo di non far perdere alla società le energie di quanti si trovano in un periodo di difficoltà dal punto di vista lavorativo ed allo stesso tempo di fornire ad aziende, enti, cooperative, eccetera, servizi tecnologicamente avanzati, basati su software libero ed a costo sostenibile.

Convinto della sinergia tra formazione e lavoro, si è laureato dapprima in Ingegneria Elettronica, poi in Scienze dell’Informazione e successivamente ha conseguito il dottorato di ricerca in Logica Matematica ed Informatica teorica. Negli ultimi anni ha seguito con successo numerosi corsi di formazione on-line su temi come Machine Learning, Internet of Things, Big Data, Sviluppo Agile e molto altro. In tutto questo tempo non ha mai smesso di lavorare, con numerose puntate in vari paesi in via di sviluppo, di mettere in pratica quanto ha studiato e di trasmettere ai propri amici, familiari e colleghi le conoscenze acquisite e la voglia di acquisirne altre.

È questo il caso anche del rilevamento automatico dei difetti di produzione industriale.