DSS Meetup #39 – Storia dell OCR e Anomaly Detection

Per il meetup di Novembre riproponiamo la formula dei primi meetup di DataScienceSeed, con 2 interventi: il primo tratterà la storia dell’OCR, il secondo l’Anomaly Detection applicata a problemi di ottimizzazione. I 2 talks saranno seguiti dal consueto spazio per domande e risposte e dall’immancabile rinfresco a base di focaccia.

L’appuntamento è per Giovedi 30 Novembre a partire dalle ore 18:00 presso l’Ordine degli Ingegneri della Provincia di Genova, Piazza della Vittoria, 11/10.

MNIST: nascita, vita e morte di un dataset pubblico. 

Nel primo talk racconteremo la storia del processo OCR (Optical Character Recognition), passato negli anni da obiettivo di ricerca a semplice commodity, attraverso il ruolo cruciale svolto dal dataset MNIST, che ha avuto un ruolo fondamentale nello sviluppo del deep learning. È stato uno dei primi dataset di immagini utilizzati per l’addestramento di reti neurali convoluzionali (CNN), un tipo di rete neurale particolarmente efficace per la classificazione di immagini.

Il racconto parte dai primi approcci di machine learning, prosegue con i risultati di Yann LeCun, che proprio su questo dataset ha dato una prima dimostrazione del potenziale delle CNN per la classificazione di immagini e quindi contribuito a una nuova ondata di interesse per il deep learning,e finisce con le moderne architetture a transformers.

Si parlerà anche del ruolo della ricerca italiana in questo percorso, con alcuni importanti successi ed alcune occasioni mancate.

Ennio Ottaviani è un fisico teorico, ricercatore industriale ed imprenditore. E’ direttore scientifico di OnAIR, dove coordina progetti di ricerca sulle applicazioni di IA in diversi settori dell’industria e dei servizi. E’ docente di Metodi Predittivi per il corso di laurea in Statistica Matematica della Università di Genova. Ennio è già stato ospite in passato di DataScienceSeed con un interessantissimo talk su Quantum Computing e Data Science.

 

Scoprire le anomalie nei big data, con l’applicazione del Machine Learning e delle Metaeuristiche

Il secondo talk della giornata tratterà tematiche riguardanti l’Anomaly Detection, l’integrazione delle Metaeuristiche nel campo Machine Learning e algoritmi di ottimizzazione.

L’Anomaly Detection è un campo dell’intelligenza artificiale che si occupa di identificare dati anomali in un set di dati. Le anomalie possono essere dovute a vari fattori, come errori di misurazione, eventi imprevisti o attacchi malevoli.  L’intervento intende fare una panoramica sulle anomalie in campi come i sistemi di controllo industriali, i sistemi di intrusione, l’analisi di eventi climatici, di traffico urbano, di fake news e tanto altro.

Le Metaeuristiche sono un tipo di algoritmo di ottimizzazione che utilizzano una strategia di esplorazione/sfruttamento per trovare una soluzione ottimale o subottimale a un problema. Sono spesso utilizzate in problemi complessi, dove gli algoritmi tradizionali possono fallire. L’integrazione delle Metaeuristiche nell’Anomaly Detection può migliorare l’accuratezza e la robustezza dei sistemi di rilevamento delle anomalie.

Claudia Cavallaro si occupa di ricerca in Informatica, nel tema dei Big Data, dell’Ottimizzazione e delle Metaeuristiche. E’ una docente dell’Università di Catania, per i corsi di laurea triennale e magistrale di Informatica in “Strutture Discrete” ed “Euristics and metaheuristics for optimizazion and learning”. Recentemente ha partecipato come speaker alle conferenze ITADATA 2023(The 2nd Italian Conference on Big Data and Data Science) e WIVACE 2023 (XVII International Workshop on Artificial Life and Evolutionary Computation). Ha iniziato a lavorare nel campo di ricerca dell’Anomaly Detection già durante il periodo di post-doc presso il CNAF-I.N.F.N. di Bologna.

DSS Meetup #38 – Pianificazione Automatica e Monitoraggio Reattivo

Nel meetup di ottobre parleremo di Intelligenza Artificiale per migliorare e ottimizzare la pianificazione e il monitoraggio di processi aziendali o sistemi automatizzati. Si tratta di un approccio ampiamente utilizzato in diversi settori, tra cui l’automazione industriale, la gestione delle risorse, la logistica, l’automazione domestica e molto altro.

Appuntamento il 25 ottobre alle ore 18:00 presso la Camera di Commercio di Genova in Via Garibaldi, 4.

Discuteremo di come l’IA possa essere utilizzata per migliorare la capacità dei sistemi automatizzati al fine di pianificare le azioni in modo intelligente e di adattarsi in tempo reale a cambiamenti nell’ambiente o a situazioni impreviste. Questo può portare a una maggiore efficienza operativa, una migliore gestione delle risorse e una riduzione degli errori in una varietà di contesti applicativi, efficientando i processi e riducendo i costi.

Luca ci illustrerà come tutto questo è stato realizzato attraverso un potente strumento di IA, lo SmartHelper. Il software proprietario Smart Helper offre soluzioni di pianificazione, analisi dei dati e automazione delle decisioni che, analizzando i dati storici relativi alle attività aziendali, i volumi di lavoro, le competenze richieste e le disponibilità orarie, suggerisce la collocazione ottimale del personale. Il sistema garantisce un utilizzo efficiente delle risorse e riducendo il tempo impiegato nella pianificazione manuale. È inoltre in grado di automatizzare una serie di processi aziendali (ad esempio selezionando i candidati per una posizione specifica), riducendo l’impiego di attività manuali che richiedono tempo e risorse umane, identificando inefficienze o sprechi di tempo e fornendo al contempo raccomandazioni per migliorarli.

Luca Calabrese, laureato con Lode in Informatica, ha da sempre lavorato in ambito IT e nel corso degli anni come Solution Architect, affinando le competenze in Postal Automation, Tracking and Tracing System e Pianificazione e Monitoraggio di sistemi/processi. Dal 2009 è Co-fondatore e Presidente di LCS Liguria Consulting Solutions, una realtà che aiuta e affianca le aziende al fine di migliorare la produttività e semplificare la gestione amministrativa.  Luca segue e dirige con successo il reparto R&D di LCS e da anni si occupa di utilizzare l’intelligenza artificiale per automatizzare i processi di pianificazione e monitoraggio.

DSS Meetup #37 – AI applicata: storie avvincenti e profonde rivelazioni

Nell’ultimo meetup della stagione abbiamo parlato di intelligenza artificiale applicata con un esperto indiscusso del settore.

Andrea Pescino si occupa di AI da molto prima che tutti ne diventassimo esperti, come tutti siamo allenatori della nazionale o esperti di virologia e geopolitica.

Se passa da Genova ed accetta di venire a parlare ad un meetup, non importa se il titolo sembra vago: ne ha viste e fatte di tutti i colori, quindi mettetevi comodi: sarà un gran bel viaggio!

Andrea Pescino di Intelligenza Artificiale ne sa.

Se ne occupa dal tempo degli studi in all’Università di Genova, quando ancora il settore era nel suo secondo inverno.

Da imprenditore digitale ha fondato SoftJam e poi Digital Tree, il primo incubatore in italia completamente dedicato alla AI, che tra le altre cose ha ospitato dagli albori le iniziative di DataScienceSeed.

La sua attività da tempo è internazionale, ed è raro che stia fermo a Genova anche solo per pochi giorni.

DSS meetup#34 AI 20230626 (12M pdf)

DSS Meetup #36 – Alla scoperta dell’Intelligenza Artificiale

Se sei interessato ad aumentare l’efficienza aziendale e desideri scoprire come i dati e l’Intelligenza Artificiale possono aiutarti, non perderti il nostro prossimo meetup, organizzato in collaborazione con la Camera di Commercio di Genova.

Cominceremo parlando sulla centralità del dato come mattone fondamentale per la descrizione e l’interpretazione di oggetti, fenomeni, attività ed eventi. Mostretemo poi come ricavare la relazione tra osservazioni ed interpretazioni e come utilizzarla per interpretare osservazioni future.

Passeremo poi ad illustrare un caso pratico di progettazione e messa in opera di un sistema di raccolta dati presso un impianto di verniciatura di manufatti.

Partendo dall’analisi progettuale, vedremo il percorso fatto con il cliente, con obiettivi e risultati acquisiti, fino a indicare in che modo l’Intelligenza Artificiale potrà essere integrata nel processo per aumentarne l’efficienza complessiva.

Andrea Boero – Ingegnere elettronico con Master in Archiviazione digitale, partendo da Elsag fino a Leonardo ha maturato esperienze in ambito gestione elettronica dei documenti, automazione postale, videosorveglianza, infomobilità, lettura automatica delle targhe e difesa.

Si interessa da anni di Data Science, trova affascinante la sfida di ricondurre dati grezzi ad una forma fruibile per la loro interpretazione tramite algoritmi di machine learning a supporto delle decisioni.

Ha partecipato a Stream, iniziativa patrocinata dal Festival della Scienza per la formazione di divulgatori scientifici.

È membro del consiglio direttivo dell’associazione culturale DataScienceSeed.

Luca Oppo – Dopo aver maturato un’esperienza quindicinale nell’industria elettrotecnica, inizia ad interessarsi di gestione dei dati e fonda, nel 2015, assieme ad altri due soci, la start-up innovativa Madein.it.

L’azienda propone soluzioni su misura per la raccolta, la gestione e l’utilizzo di dati di varia natura (produttivi, commerciali), con progetti chiavi in mano che comprendono la fornitura di un mix di software e/o hardware, rivolti ai settori industriale, professionale e consumer.

Oltre a ciò, svolge dal 2013 attività di consulenza aziendale nel settore business to business, con particolare focus sulle aree marketing/commerciale, logistica e produttiva, presso clienti di dimensioni e settori diversi.

E’ appassionato di Intelligenza Artificiale e Machine Learning e socio dell’associazione culturale DataScienceSeed.

 

Presentazione CamComm 22-05-2023 (DSS#36)

DSS Meetup #35 – Per favore ChatGPT crea un titolo per questo meetup

Umano: “Per favore ChatGPT, scrivi una brevissima introduzione per una presentazione su gpt dicendo che è la tecnologia del momento”

ChatGPT: “Benvenuti al meetup su GPT, o Generative Pre-trained Transformer, la tecnologia del momento che sta rivoluzionando il campo dell’elaborazione del linguaggio naturale. GPT è un modello di intelligenza artificiale basato su una rete neurale che ha dimostrato di essere estremamente efficace nell’affrontare una vasta gamma di compiti di linguaggio, dal riconoscimento del linguaggio naturale alla generazione di testo. In questa presentazione, esploreremo come funziona GPT e come sta cambiando il modo in cui interagiamo con la tecnologia e il linguaggio.“Parleremo con Antonello Scalmato di come utilizzare le API di OpenAI e andare a deployare le proprie soluzioni con GPT, la propria versione di ChatGPT e come è cambiato lo sviluppo di un chatbot con queste tecnologie. Vedremo anche le possibilità offerte dai nuovi layer costruiti sulle API e i sistemi ad agenti basati su GPT come Semantic Kernel, Auto-GPT, Cheshire Cat e altri.

Antonello Scalmato, Ph.D. – Antonello ha un dottorato di ricerca in Robotica e Ambient Intelligence. Ha lavorato per più di 10 anni in diversi campi dell’intelligenza artificiale, con una specializzazione sulla rappresentazione della conoscenza, ed è autore di oltre 20 articoli su questi temi di ricerca. È coautore di diversi brevetti, in particolare di uno relativo al Context Awareness in Smart Home e di uno dei brevetti di Pillo Health relativi al Robot e alle sue funzionalità. Negli anni è diventato un esperto di architettura di servizi basati sul cloud. In Pillo Health è stato il Director of Cloud and AI services. Attualmente è uno dei co-fondatori di Ermit, dove ricopre il ruolo di Director of Cloud & Intelligent Services.

DSS35 – ChatBot OpenAI – pdf 4M

DSS Meetup #33 – Machine Learning ad impatto sociale

Abstract:

Il tema del talk saranno le tecnologie per l’inclusione, con l’obiettivo ambizioso di garantire pari opportunità a chiunque nei percorsi di studio e sul lavoro.

Mostreremo come l’intelligenza artificiale e la realtà virtuale, utilizzando tecniche allo stato dell’arte, come il Natural Language Processing e la Computer Vision, sono validi strumenti per raggiungere questo importante traguardo.

Questo tema viene da sempre al primo posto per Tech4All, una startup innovativa ad alto valore tecnologico, spin-off dell’Università della Tuscia, che si occupa dello sviluppo di strumenti digitali, basati su tecniche di machine learning, per rendere accessibile lo studio e il lavoro, anche a persone con disturbi specifici dell’apprendimento.

Per presentare il loro approccio e come hanno usato la tecnologia, saranno presenti Lorenzo Daidone e Andrea Zingoni, entrambi soci fondatori e amministratori di Tech4All.

Andrea Zingoni, docente di Informatica e di Intelligenza Artificiale presso l’Università della Tuscia, coglierà l’occasione per presentare alcuni progetti che lo vedono coinvolto in prima persona, per dare un’idea delle ultimissime frontiere della ricerca nel campo dell’ICT.

Andrea Zingoni

Andrea Zingoni è Ricercatore e Referente per le attività legate all’Intelligenza Artificiale presso l’Università della Tuscia. Ha conseguito la laurea magistrale in Ingegneria delle Telecomunicazioni e il dottorato di ricerca in Ingegneria dell’Informazione presso l’Università di Pisa. Nel corso della sua carriera accademica ha partecipato a numerosi progetti di ricerca, sia nazionali che internazionali, e ha collaborato con diversi partner provenienti da università, industria e pubblica amministrazione. I suoi interessi di ricerca sono caratterizzati da un approccio interdisciplinare e includono l’intelligenza artificiale, le tecnologie blockchain, l’elaborazione delle immagini, la computer vision, il telerilevamento, i sensori elettro-ottici e l’analisi del suono, applicati a diversi settori, come l’ingegneria biomedica, l’istruzione/educazione, l’ingegneria civile, il supporto alla società, la governance e la gestione. È titolare dei corsi di “Informatica” e “Fondamenti di Intelligenza Artificiale” del Corso di Laurea in Ingegneria Industriale dell’Università della Tuscia, dove insegna anche al Master di II livello in “Intelligenza Artificiale per il Business e la Cyber Security”. È inoltre socio fondatore e amministratore di due startup hi-tech, Tech4All e U-VI tech., che operano nei settori dell’istruzione e del trasferimento tecnologico.

Lorenzo Daidone

Lorenzo è co-fondatore di una startup (Estro) e di una spin-off universitaria (Tech4All) le quali sviluppano tecnologie, ad alto impatto sociale, basate su machine learning.

È uno sviluppatore appassionato di robotica, per anni ha formato docenti per cogliere le opportunità del coding applicato alla didattica e alle STEAM.

La visione di: “creare un modo dì accessibilità” si sposa pienamente con i suoi valori personali e con i valori del team con cui lavora.

Presentazione Zingoni (pptx 27M)

 

DSS Meetup #32 – Innovative sustainable clean energy

Con Massimo Rivarolo: Innovative sustainable and clean energy, usare i dati pubblici per capire dove stiamo andando

Negli ultimi quindici anni, le politiche internazionali ed europee hanno promosso una serie di interventi per favorire lo sfruttamento di fonti di energia rinnovabili e sostenibili, e lo sviluppo di sistemi di accumulo e di combustibili alternativi per promuovere la sostenibilità e la decarbonizzazione. La ricerca e l’innovazione hanno fatto enormi progressi per consentire a sempre più persone nel mondo di usufruire di elettricità e calore prodotti in modo sostenibile. Per poter però parlare di transizione ecologica sostenibile sarà necessario investire maggiormente in nuove tecnologie: quali saranno le più strategiche? Quali di queste possono considerarsi realmente sostenibili? Cosa succederà ai combustibili fossili?

Per affrontare il tema della “sostenibilità” in modo consapevole e preparare le generazioni future attraverso gli insegnamenti di oggi, è necessario un approccio “data driven”, attraverso l’analisi e l’elaborazione di dati pubblici (fonti: ARERA, EUROSTAT, TERNA).

Nel talk affronteremo i seguenti temi:

  • Le politiche ambientali ed energetiche Europee per il 2020
  • Analisi critica delle politiche: risultati ed effetti
  • Cosa aspettarci nel prossimo futuro: gli obiettivi del Piano Nazionale Energia e Clima Italiano (PNIEC) 2030 e la transizione energetica in Italia

 

 Massimo Rivarolo ha ottenuto il titolo di Dottorato Europeo nel 2013 con la tesi “Produzione di idrogeno da impianto idroelettrico di grandissima potenza (14,000 MW) e studio di sistemi di stoccaggio e utilizzo in Sud America e Europa”. È membro dal 2010 del Gruppo di ricerca multidisciplinare Thermochemical Power Group (www.tpg.unige.it ) all’interno dell’Università di Genova. Dal 2015 al 2018, ha collaborato all’interno di un programma di ricerca tra UNIGE e ARERA (Autorità di Regolazione per Energia Reti e Ambiente), nell’ambito dei mercati dell’energia, delle fonti rinnovabili e della generazione distribuita. Dal 2019 è Ricercatore presso UNIGE. Dal 2021 è responsabile scientifico del programma di training nell’ambito della Cattedra UNESCO-Unitwin “Innovative sustainable clean energy research & education”, coordinata da UNIGE (2021-2024). È inoltre responsabile scientifico UNIGE per il Progetto EU H-2020 OnePlanet (2022-2025). Attualmente è responsabile del corso di laurea Triennale “Sistemi per l’energia e l’ambiente and environment” e co-docente per il corso di laurea magistrale “Impianti per l’energia”.

 

Slde “politiche ambientali e transizione energetica” – pptx 7M

DSS Meetup #31 – Effective Altruism e Data Science

Come amplificare il proprio impatto nella propria vita e carriera nella tecnologia? con Stefania Delprete

L’Effective Altruism (Altruismo Efficace) è una comunità e movimento sociale che pone le basi sull’evidenza scientifica per priorizzare cause e progetti d’impatto e massimizzare il bene che possiamo fare ora nel mondo.

Oltre al donare a progetti ad alta efficacia, si può infatti anche dirigere la propria carriera come data scientist in organizzazioni ad alto impatto, approfondire/ricercare in tematiche come i rischi dell’intelligenza artificiale, sensibilizzare all’interno della propria azienda, o addirittura iniziare da zero un proprio progetto d’impatto. Durante il talk saranno mostrate le diverse opportunità a disposizione per persone che lavorano o studiano nella tecnologia e appassionate nel lavoro sui dati.

 Stefania Delprete gestisce il capitolo italiano di Effective Altruism (Altruismo Efficace) e il gruppo professionale di persone esperte o aspiranti nel campo della data science, machine learning ed intelligenza artificiale coinvolte in tale comunità di altruisti efficaci.

Studia fisica in Italia per poi lavorare nella programmazione nel Regno Unito e in Germania. Negli ultimi anni di è occupata di progetti e insegnamenti di Python e data science. Stefania fa parte di comunità dell’open source fra cui Python/PyCon Italia e Mozilla Italia. È appassionata di jazz, studi sulla coscienza e sogni lucidi.

E’ stata tra i relatori del primo storico meetup DataScienceSeed, nel luglio 2018

Tra le iniziative ad alto impatto sociale a cui collebora Stefania c’è Charity Entrepreneurship, incubatore di iniziative non-profit. La call for applications è aperta fino al 10 Novembre. Date un’occhiata al sito, è molto interessante!

Slide di Stefania (7M PDF)

DSS Meetup #30 – Quantum Computing e Data Science.

Quantum Computing e Data Science

L’intervento si propone di focalizzare l’impatto potenziale del quantum computing sulle applicazioni di data science e di presentare alcune esperienze che possano aiutare a capire se e come iniziare a prendere in considerazione gli algoritmi quantici nello sviluppo di soluzioni innovative. Una prima parte presenterà una introduzione generale al tema ed alle linee di ricerca di QC connesse in particolare alla data science, illustrandone i punti cruciali dal punto di vista computazionale. Una seconda parte si focalizzerà su alcuni esempi di applicazioni e sugli strumenti software per iniziare a lavorare con computer quantistici, almeno a livello di simulazione, nell’attesa di avere uno sulla scrivania…

Ennio Ottaviani è un fisico teorico ed imprenditore. E’ direttore scientifico di OnAIR, dove coordina progetti di ricerca sulle applicazioni di IA in diversi settori dell’industria e dei servizi. E’ docente di Metodi Predittivi nel corso di laurea in Statistica Matematica a Genova.

Francesco Rosasco è un informatico e lavora in OnAIR dalla laurea, specializzandosi sulla computer vision ed i sistemi di riconoscimento automatico. In queste applicazioni cura in particolare anche gli aspetti di parallelizzazione e di efficienza computazionale.

Slides OnAIR (4M pdf)

DSS Online #16 – Explanatory Learning: può una macchina imparare a formulare teorie?

Torniamo a parlare di Machine Learning e di Explanations, ma questa volta con un paradigma del tutto nuovo: Explanatory Learning.

Come possiamo costruire macchine capaci di formulare teorie originali e arricchire la nostra conoscenza, proprio come fanno gli scienziati?

O per essere più precisi: come facciamo a scoprire automaticamente la spiegazione simbolica che ci permetta di effettuare previsioni accurate su un nuovo fenomeno diverso da tutti quelli incontrati prima? Questo problema alla base dell’intelligenza artificiale è stato affrontato dalla Program Synthesis e, più recentemente, dall’Explanatory Learning. La differenza fondamentale tra questi due paradigmi risiede nella natura dell’interprete che dovrebbe digerire la spiegazione generata. In Program Synthesis l’interprete è un rigido compilatore progettato da un uomo, su cui in ultima analisi ricade l’onere di dare un significato alla spiegazione (programma) in output. In Explanatory Learning invece l’interprete non è dato, e deve essere appreso da una raccolta limitata di spiegazioni esistenti abbinate a osservazioni dei corrispondenti fenomeni.

Seguendo l’esempio del Reinforcement Learning con i giochi Atari, in questa chiacchierata illustreremo le sfide dell’Explanatory Learning con Odeen, un gioco che simula l’impresa scientifica in un semplice universo stile Flatlandia. Introdurremo quindi le Critical Rationalist Networks, un approccio basato sul deep learning (Transformers) che si ispira alla teoria epistemologica di Popper per risolvere problemi di EL. Infine confronteremo le CRNs con approcci neurali end-to-end e di Program Synthesis su Odeen, discutendo prestazioni, garanzie, flessibilità ed effettiva spiegabilità dei diversi metodi.

Antonio Norelli  è un dottorando di Informatica alla Sapienza di Roma nel laboratorio di ricerca GLADIA, dove lavora con il prof. Emanuele Rodolà su AI e Deep Learning. Fisico di formazione, ha conseguito la laurea magistrale in Informatica e il diploma di eccellenza della SSAS, la Scuola Superiore di Studi Avanzati della Sapienza. Ha lavorato come Research Intern a Spiketrap (startup di San Francisco, USA) e come Applied Scientist Intern ad Amazon Science (Laboratorio Lablet a Tubinga, Germania).

Repo github con i riferimenti all’articolo ed ai dataset