DSS Meetup #39 – Storia dell OCR e Anomaly Detection

Per il meetup di Novembre riproponiamo la formula dei primi meetup di DataScienceSeed, con 2 interventi: il primo tratterà la storia dell’OCR, il secondo l’Anomaly Detection applicata a problemi di ottimizzazione. I 2 talks saranno seguiti dal consueto spazio per domande e risposte e dall’immancabile rinfresco a base di focaccia.

L’appuntamento è per Giovedi 30 Novembre a partire dalle ore 18:00 presso l’Ordine degli Ingegneri della Provincia di Genova, Piazza della Vittoria, 11/10.

MNIST: nascita, vita e morte di un dataset pubblico. 

Nel primo talk racconteremo la storia del processo OCR (Optical Character Recognition), passato negli anni da obiettivo di ricerca a semplice commodity, attraverso il ruolo cruciale svolto dal dataset MNIST, che ha avuto un ruolo fondamentale nello sviluppo del deep learning. È stato uno dei primi dataset di immagini utilizzati per l’addestramento di reti neurali convoluzionali (CNN), un tipo di rete neurale particolarmente efficace per la classificazione di immagini.

Il racconto parte dai primi approcci di machine learning, prosegue con i risultati di Yann LeCun, che proprio su questo dataset ha dato una prima dimostrazione del potenziale delle CNN per la classificazione di immagini e quindi contribuito a una nuova ondata di interesse per il deep learning,e finisce con le moderne architetture a transformers.

Si parlerà anche del ruolo della ricerca italiana in questo percorso, con alcuni importanti successi ed alcune occasioni mancate.

Ennio Ottaviani è un fisico teorico, ricercatore industriale ed imprenditore. E’ direttore scientifico di OnAIR, dove coordina progetti di ricerca sulle applicazioni di IA in diversi settori dell’industria e dei servizi. E’ docente di Metodi Predittivi per il corso di laurea in Statistica Matematica della Università di Genova. Ennio è già stato ospite in passato di DataScienceSeed con un interessantissimo talk su Quantum Computing e Data Science.

 

Scoprire le anomalie nei big data, con l’applicazione del Machine Learning e delle Metaeuristiche

Il secondo talk della giornata tratterà tematiche riguardanti l’Anomaly Detection, l’integrazione delle Metaeuristiche nel campo Machine Learning e algoritmi di ottimizzazione.

L’Anomaly Detection è un campo dell’intelligenza artificiale che si occupa di identificare dati anomali in un set di dati. Le anomalie possono essere dovute a vari fattori, come errori di misurazione, eventi imprevisti o attacchi malevoli.  L’intervento intende fare una panoramica sulle anomalie in campi come i sistemi di controllo industriali, i sistemi di intrusione, l’analisi di eventi climatici, di traffico urbano, di fake news e tanto altro.

Le Metaeuristiche sono un tipo di algoritmo di ottimizzazione che utilizzano una strategia di esplorazione/sfruttamento per trovare una soluzione ottimale o subottimale a un problema. Sono spesso utilizzate in problemi complessi, dove gli algoritmi tradizionali possono fallire. L’integrazione delle Metaeuristiche nell’Anomaly Detection può migliorare l’accuratezza e la robustezza dei sistemi di rilevamento delle anomalie.

Claudia Cavallaro si occupa di ricerca in Informatica, nel tema dei Big Data, dell’Ottimizzazione e delle Metaeuristiche. E’ una docente dell’Università di Catania, per i corsi di laurea triennale e magistrale di Informatica in “Strutture Discrete” ed “Euristics and metaheuristics for optimizazion and learning”. Recentemente ha partecipato come speaker alle conferenze ITADATA 2023(The 2nd Italian Conference on Big Data and Data Science) e WIVACE 2023 (XVII International Workshop on Artificial Life and Evolutionary Computation). Ha iniziato a lavorare nel campo di ricerca dell’Anomaly Detection già durante il periodo di post-doc presso il CNAF-I.N.F.N. di Bologna.

DSS Meetup #36 – Alla scoperta dell’Intelligenza Artificiale

Se sei interessato ad aumentare l’efficienza aziendale e desideri scoprire come i dati e l’Intelligenza Artificiale possono aiutarti, non perderti il nostro prossimo meetup, organizzato in collaborazione con la Camera di Commercio di Genova.

Cominceremo parlando sulla centralità del dato come mattone fondamentale per la descrizione e l’interpretazione di oggetti, fenomeni, attività ed eventi. Mostretemo poi come ricavare la relazione tra osservazioni ed interpretazioni e come utilizzarla per interpretare osservazioni future.

Passeremo poi ad illustrare un caso pratico di progettazione e messa in opera di un sistema di raccolta dati presso un impianto di verniciatura di manufatti.

Partendo dall’analisi progettuale, vedremo il percorso fatto con il cliente, con obiettivi e risultati acquisiti, fino a indicare in che modo l’Intelligenza Artificiale potrà essere integrata nel processo per aumentarne l’efficienza complessiva.

Andrea Boero – Ingegnere elettronico con Master in Archiviazione digitale, partendo da Elsag fino a Leonardo ha maturato esperienze in ambito gestione elettronica dei documenti, automazione postale, videosorveglianza, infomobilità, lettura automatica delle targhe e difesa.

Si interessa da anni di Data Science, trova affascinante la sfida di ricondurre dati grezzi ad una forma fruibile per la loro interpretazione tramite algoritmi di machine learning a supporto delle decisioni.

Ha partecipato a Stream, iniziativa patrocinata dal Festival della Scienza per la formazione di divulgatori scientifici.

È membro del consiglio direttivo dell’associazione culturale DataScienceSeed.

Luca Oppo – Dopo aver maturato un’esperienza quindicinale nell’industria elettrotecnica, inizia ad interessarsi di gestione dei dati e fonda, nel 2015, assieme ad altri due soci, la start-up innovativa Madein.it.

L’azienda propone soluzioni su misura per la raccolta, la gestione e l’utilizzo di dati di varia natura (produttivi, commerciali), con progetti chiavi in mano che comprendono la fornitura di un mix di software e/o hardware, rivolti ai settori industriale, professionale e consumer.

Oltre a ciò, svolge dal 2013 attività di consulenza aziendale nel settore business to business, con particolare focus sulle aree marketing/commerciale, logistica e produttiva, presso clienti di dimensioni e settori diversi.

E’ appassionato di Intelligenza Artificiale e Machine Learning e socio dell’associazione culturale DataScienceSeed.

 

Presentazione CamComm 22-05-2023 (DSS#36)

DataScienceSeed #11 – AI for People & Regione Liguria

Con il nuovo anno sono ripresi i meetups di DataScienceSeed! L’undicesima edizione ha visto ospiti AI for People, un’associazione che ha come obiettivo quello di capire e promuovere l’uso dell’intelligenza artificiale per il bene sociale, e l’ufficio cartografico di Regione Liguria, che ha presentato uno studio per l’estrazione di informazioni di interesse territoriale ed ambientale da immagini satellitari.

Se hai partecipato all’evento, lasciaci un feedback


Obiettivi, Rischi e contromisure nell’era dell’intelligenza artificiale

L’intelligenza artificiale (AI) ha avuto nell’ultimo decennio uno sviluppo ed un successo tale da trasformare in maniera definitiva la società in cui viviamo, rendendoci profondamente legati ad essa ed ai suoi servizi. Ma chi controlla l’intelligenza artificiale? Quali sono i rischi associati ad essa? Come possono intervenire le istituzioni per evitare che pochi individui controllino una tecnologia così fondamentale? In questo talk abbiamo esplorato i maggiori rischi tecnologici, etici e sociali associati ad uno scorretto sviluppo dell’AI, ed alcune contromisure per ridurli o evitarli. Sono stati inoltre presentati esempi e progetti in una visione di AI come tecnologia al servizio dei bisogni del cittadino.

Gabriele Graffieti  è uno studente di dottorato in Data Science and Computation all’università di Bologna, e Head of AI research ad AI for People. I suoi maggiori interessi sono modelli generativi, continual learning e bio-inspired artificial intelligence, in particolare il ruolo della capacità di generazione di informazioni durante l’apprendimento e la sua relazione con la memoria. Oltre a ciò è fortemente interessato nella filosofia e nell’etica dell’intelligenza artificiale, specialmente nell’individuazione e nella risoluzione dei rischi associati al suo sviluppo..

AI for People  è un’associazione che ha come obiettivo quello di capire e promuovere l’uso dell’intelligenza artificiale per il bene sociale. La nostra strategia è quella di condurre analisi, progetti e proposte che comprendono AI e società. Siamo un team eterogenero di persone che ha come scopo quello di creare un cambiamento positivo nella società attraverso l’uso consapevole ed etico della tecnologia.

 

 


Utilizzo di immagini satellitari gratuite per l’aggiornamento cartografico e lo studio del territorio in Regione Liguria

La costellazione europea di satelliti Sentinel ha incrementato le prospettive di ricerca nel settore del monitoraggio del territorio, dei cambiamenti climatici, dell’agricoltura, nella gestione delle emergenze e della sicurezza dei cittadini, fornendo dati gratuiti con elevata risoluzione spaziale, temporale e radiometrica. Avvalendosi di questi dati, l’ufficio cartografico di Regione Liguria (SITAR) sta sperimentando una serie di procedure per estrarre dalle immagini telerilevate informazioni di grande interesse territoriale ed ambientale, quali aree incendiate, variazioni di biomassa vegetale, evoluzione del tessuto urbanizzato. In questo ambito, lo sfruttamento delle potenzialità dell’AI potrebbe garantire un notevole miglioramento di tali procedure, incrementando sia l’estensione territoriale analizzata, che la frequenza di aggiornamento delle mappe tematiche.

Andrea De Felici è geologo e geomatico presso l’ufficio dei servizi informativi territoriali ed ambientali di Regione Liguria (SITAR) e si occupa di Sistemi Informativi Territoriali, Telerilevamento e reti GNSS. Il SITAR produce, aggiorna e distribuisce ai cittadini dati cartografici ed alfanumerici riguardanti il territorio e l’ambiente ligure, curando l’organizzazione e lo sviluppo del sistema informativo ambientale e territoriale e realizzando l’Infrastruttura per l’Informazione Geografica ligure integrata.

 


Il meetup DataScienceSeed fa parte delle iniziative dell’associazione

IAML, Italian Association for Machine Learning

DataScienceSeed#10 @C1A0 EXPO

Il decimo meetup di datascienceseed è stato ospitato nel contesto del C1A0 EXPO – Accessible Innovation, la fiera internazionale dedicata all’Intelligenza Artificiale, che si à svolta a Genova il 15-16 novembre 2019, a Palazzo San Giorgio.

Abbiamo avuto il piacere di ospitare tre relatori selezionati con call nazionale nei mesi scorsi. Il risultato è stata una carrellata approfondita tra le applicazioni principali del deep learning:
  • Natural Language Processing, con Cristiano De Nobili
  • Internet Of Things, con Emanuele Pomante
  • Computer Vision, con Alessandro Ferrari

Di seguito i video ed il materiale degli interventi!


State-of-the-art concepts in NLP and their limits

Come una macchina può comprendere il linguaggio? Quali erano e come stanno evolvendo gli algoritmi? Quali sono i successi e soprattutto i limiti? Alla base dei moderni algoritmi di deep learning per il linguaggio ci sono dei meccanismi molto semplici che hanno rivoluzionato il settore. Tra questi troviamo il concetto di Autoencoder e il meccanismo di Attenzione. Comprenderne la struttura, la base teorica che poi invoca la teoria dell’informazione classica è sia utile che interessante. L’idea è di mostrare con esempi semplici questi concetti ed enfatizzarne le applicazioni. Queste vanno dalla traduzione, alla generazione di testi fino alla diagnosi di malattie neurodegenerative. Ci sono però anche dei limiti, problemi che difficilmente una macchina è in grado di risolvere e che invece il nostro cervello comprende (quasi) al volo. E’ proprio navigando in questi limiti dell’intelligenza artificiale che comprendiamo quanto la nostra mente, oltre ad essere fonte di ispirazione per la ricerca, sia straordinaria.

Cristiano De Nobili è un fisico teorico delle particelle, con un Ph.D. in fisica statistica alla SISSA di Trieste. Partendo dalla computer vision, ora è scienziato senior di Deep Learning nel team AI che lavora attivamente sul linguaggio intelligente presso Harman, una società Samsung. Cristiano è anche istruttore di Machine / Deep Learning per Deep Learning Italia, per AINDO (Trieste) e recentemente anche per il Master in High Performance Computing (SISSA / ICTP) tenutosi a Trieste.

Slideset (2M pdf)


Applicazione su sensoristica IoT di reti neurali per la predizione

Le reti neurali possono essere utilizzate  per apprendere pattern ricorrenti su sequenze temporali di misure fisiche da sensoristica IoT. Nel caso d’uso che esamineremo, la rete neurale viene utilizzata per prevedere il consumo di energia elettrica di un edificio e monitorare il comportamento dei sensori IoT, con gli obiettivi di ottimizzare i consumi a partire dalle previsioni e di identificare la presenza di anomalie nei consumi o nel comportamento dei sensori. Le principali caratteristiche che rendono le reti neurali preferibili rispetto ad altri sistemi “classici” sono la capacità di adattarsi al compito e al contesto in cui operano e la loro velocità di esecuzione. Nell’ambito delle nuove sfide da affrontare per poter sfruttare a pieno le potenzialità offerte dall’intelligenza artificiale nel mondo dell’IoT, ci proponiamo di estendere i modelli di rete neurale a scenari più complessi (multi-edificio e multi-sensore) e implementare algoritmi “embedded” che consentano di fare inferenza direttamente sui device riducendo latenze ed instabilità di un sistema di machine learning.

Emanuele Pomante ha un dottorato in fisica all’università di Trieste, con studi focalizzati sull’analisi e sull’elaborazione di segnali spettrali molto deboli di origine astrofisica. Nel 2017 a Londra ha preso parte ad un programma intensivo di Data Science rivolto ai dottori di ricerca grazie al quale ha ottenuto il suo primo incarico in un progetto di AI presso un’azienda di Londra.
Dal 2018 è Data Scientist presso Gruppo Filippetti azienda leader in Italia per le tecnologie di smart safety, nei settori dell’ Internet of Things e dell’ Industria 4.0.

Slideset (7M pdf)


L’evoluzione della computer vision nell’era neurale: scienza & impresa

Nel corso di questo intervento esamineremo l’evoluzione del paradigma di detection, tracking e classification in computer vision: partendo dalla localizzazione di oggetti fino alla generazione di contenuti sintetici, con un excursus finale sugli “adversarial attack” anni ’90 (non “neurali”). Il caso d’uso che considereremo è CyclopEye, una Smart parking solution basata su reti neurali. CyclopEye è una soluzione personalizzabile e a basso costo per parcheggi intelligenti: consiste in un sensore video in grado di controllare lo stato occupazionale fino a sei posti auto contemporaneamente e di segnalarlo all’utente. Cyclopeye inoltre sfrutta la computer vision per fornire supporto alla gestione del parcheggio con funzionalità aggiuntive come: lettura targhe, riconoscimento oggetti abbandonati, parcheggio abusivo, riconoscimento volti, find-your-car e molti altri ancora. In altre parole una tecnologia che aiuta sia gli automobilisti che stanno cercando parcheggio, sia i responsabili dei parcheggi, che possono così monitorare lo stato della loro area controllando gli ingressi, identificando le categorie di veicoli che circolano e rilevando eventuali violazioni.

Alessandro Ferrari ha una Laurea Magistrale in Informatica e 10+ anni di esperienza in Computer Vision e del Machine Learning, con particolare attenzione a localizzazione, tracking e riconoscimento di oggetti. Nel 2016 fonda ARGO Vision (www.argo.vision), una startup innovativa che sviluppa soluzioni proprietarie AI-based per diversi mercati (AR, VR, Smart Parking, etc.).

Slideset (8M pdf)

 


Il meetup DataScienceSeed fa parte delle iniziative dell’associazione

IAML, Italian Association for Machine Learning

DataScienceSeed #10 verrà ospitato nel contesto di:

Palazzo San Giorgio, Genova
15-16 Novembre, 2019