DSS Meetup #41 – Destrezza Robotica e Saggezza Felina

Gatti e Robot

Menù ricchissimo per il meetup di Febbraio 2024 – due talk che ci parleranno di Intelligenza Artificiale in due aspetti molto diversi ma complementari.

Nel primo talk Raffaello Camoriano ci parlerà di Reinforcement Learning applicato all’addestramento di un robot che deve affrontare lo spazio fisico, con tutta la complessità derivante dagli obiettivi di destrezza e sicurezza.

Nel secondo talk Nicola Corbellini presenterà il progetto The Cheshire Cat AI, un framework open source tutto italiano per costruire applicazioni  personalizzate e caratterizzate, basate su  Large Language Model.

I 2 talk saranno seguiti dal consueto spazio per domande e risposte e dall’immancabile rinfresco a base di focaccia.

L’appuntamento è per Venerdì 23 Febbraio a partire dalle ore 18:00 presso il Talent Garden di Genova, Giardini Baltimora.

Apprendimento strutturato e reinforcement learning per task robotici complessi

Essendo dotati di un corpo e interagendo con l’ambiente, i robot sono naturalmente soggetti alle leggi della fisica. Risulta quindi utile progettare metodi di apprendimento automatico in grado di sfruttare e rispettare le caratteristiche strutturali dei dati. Queste possono dipendere dalle proprietà fisiche e geometriche del problema da affrontare, nonché da requisiti di sicurezza. Questo talk presenta una panoramica dei possibili approcci in questo contesto, per poi approfondire alcuni lavori recenti. In particolare, vedremo come addestrare modelli di 3D learning e di apprendimento strutturato per pianificare traiettorie robotiche nello spazio, rispettando le caratteristiche geometriche degli oggetti con cui interagire. Inoltre, se le proprietà fisiche del robot stesso sono difficili da simulare, vedremo come grazie alla domain randomization sia possibile facilitare l’apprendimento di leggi di controllo più robuste, efficienti e trasferibili con metodi di reinforcement learning.
Raffaello Camoriano ha ricevuto la laurea in ingegneria informatica, la laurea magistale in ingegneria robotica e il dottorato di ricerca in machine learning e robotica umanoide presso l’Università di Genova nel 2011, 2013 e 2017. È stato Research Fellow e Postdoctoral Researcher all’Istituto Italiano di Tecnologia di Genova dal 2014 al 2022. È attualmente ricercatore presso il laboratorio VANDAL, il centro interdipartimentale AI-HUB e il dipartimento di automatica e informatica (DAIUN) del Politecnico di Torino. È autore di 20 pubblicazioni internazionali in machine learning efficiente e strutturato, apprendimento continuativo, reinforcement learning e robotica. Ha ricevuto il premio “IEEE Computational Intelligence Society Italy Section Chapter’s 2017 Best Ph.D. Thesis Award” ed è membro della rete ELLIS (European Laboratory for Learning and Intelligent Systems). Serve come editore associato su temi di machine learning e robotica presso IEEE Robotics and Automation Letters e IEEE/RSJ International Conference on Intelligent Robots and Systems ed è organizzatore di diversi workshop scientifici internazionali su machine learning e robotica.

Lo Stregatto AI – Il WordPress dell’AI è un progetto open source tutto italiano

Il fermento attorno all’ecosistema nato con la comparsa dei Large Language Model (LLM) ha dato i natali a un progetto open-source tutto italiano: il Cheshire Cat AI.
Cheshire Cat AI è un framework production-ready per sviluppare assistenti personali basati sulla Retrieval-Augemented Generation (RAG), ossia una tecnica per estendere la conoscenza e l’attendibilità degli LLM con informazioni recuperate da fonti esterne. Il framework è dotato di una memoria vettoriale a lungo termine per caricare i propri documenti; un agente con la capacità di chiamare API esterne; una webUI per amministrare l’assistente ed un sistema di plugin per hackerare e verticalizzare la propria istanza.
Nicola Corbellini, laureato in Science Cognitive e Digital Humanities, è un dottorando in Computer Science presso l’InfoMus Lab dell’Università di Genova. Nella sua attività di ricerca si occupa dell’elaborazione automatica di segnali sociali in piccoli gruppi di persone per lo sviluppo di sistemi di IA incentrati sull’utente.

DSS Meetup #38 – Pianificazione Automatica e Monitoraggio Reattivo

Nel meetup di ottobre parleremo di Intelligenza Artificiale per migliorare e ottimizzare la pianificazione e il monitoraggio di processi aziendali o sistemi automatizzati. Si tratta di un approccio ampiamente utilizzato in diversi settori, tra cui l’automazione industriale, la gestione delle risorse, la logistica, l’automazione domestica e molto altro.

Appuntamento il 25 ottobre alle ore 18:00 presso la Camera di Commercio di Genova in Via Garibaldi, 4.

Discuteremo di come l’IA possa essere utilizzata per migliorare la capacità dei sistemi automatizzati al fine di pianificare le azioni in modo intelligente e di adattarsi in tempo reale a cambiamenti nell’ambiente o a situazioni impreviste. Questo può portare a una maggiore efficienza operativa, una migliore gestione delle risorse e una riduzione degli errori in una varietà di contesti applicativi, efficientando i processi e riducendo i costi.

Luca ci illustrerà come tutto questo è stato realizzato attraverso un potente strumento di IA, lo SmartHelper. Il software proprietario Smart Helper offre soluzioni di pianificazione, analisi dei dati e automazione delle decisioni che, analizzando i dati storici relativi alle attività aziendali, i volumi di lavoro, le competenze richieste e le disponibilità orarie, suggerisce la collocazione ottimale del personale. Il sistema garantisce un utilizzo efficiente delle risorse e riducendo il tempo impiegato nella pianificazione manuale. È inoltre in grado di automatizzare una serie di processi aziendali (ad esempio selezionando i candidati per una posizione specifica), riducendo l’impiego di attività manuali che richiedono tempo e risorse umane, identificando inefficienze o sprechi di tempo e fornendo al contempo raccomandazioni per migliorarli.

Luca Calabrese, laureato con Lode in Informatica, ha da sempre lavorato in ambito IT e nel corso degli anni come Solution Architect, affinando le competenze in Postal Automation, Tracking and Tracing System e Pianificazione e Monitoraggio di sistemi/processi. Dal 2009 è Co-fondatore e Presidente di LCS Liguria Consulting Solutions, una realtà che aiuta e affianca le aziende al fine di migliorare la produttività e semplificare la gestione amministrativa.  Luca segue e dirige con successo il reparto R&D di LCS e da anni si occupa di utilizzare l’intelligenza artificiale per automatizzare i processi di pianificazione e monitoraggio.

DSS Meetup #30 – Quantum Computing e Data Science.

Quantum Computing e Data Science

L’intervento si propone di focalizzare l’impatto potenziale del quantum computing sulle applicazioni di data science e di presentare alcune esperienze che possano aiutare a capire se e come iniziare a prendere in considerazione gli algoritmi quantici nello sviluppo di soluzioni innovative. Una prima parte presenterà una introduzione generale al tema ed alle linee di ricerca di QC connesse in particolare alla data science, illustrandone i punti cruciali dal punto di vista computazionale. Una seconda parte si focalizzerà su alcuni esempi di applicazioni e sugli strumenti software per iniziare a lavorare con computer quantistici, almeno a livello di simulazione, nell’attesa di avere uno sulla scrivania…

Ennio Ottaviani è un fisico teorico ed imprenditore. E’ direttore scientifico di OnAIR, dove coordina progetti di ricerca sulle applicazioni di IA in diversi settori dell’industria e dei servizi. E’ docente di Metodi Predittivi nel corso di laurea in Statistica Matematica a Genova.

Francesco Rosasco è un informatico e lavora in OnAIR dalla laurea, specializzandosi sulla computer vision ed i sistemi di riconoscimento automatico. In queste applicazioni cura in particolare anche gli aspetti di parallelizzazione e di efficienza computazionale.

Slides OnAIR (4M pdf)

DSS Online #16 – Explanatory Learning: può una macchina imparare a formulare teorie?

Torniamo a parlare di Machine Learning e di Explanations, ma questa volta con un paradigma del tutto nuovo: Explanatory Learning.

Come possiamo costruire macchine capaci di formulare teorie originali e arricchire la nostra conoscenza, proprio come fanno gli scienziati?

O per essere più precisi: come facciamo a scoprire automaticamente la spiegazione simbolica che ci permetta di effettuare previsioni accurate su un nuovo fenomeno diverso da tutti quelli incontrati prima? Questo problema alla base dell’intelligenza artificiale è stato affrontato dalla Program Synthesis e, più recentemente, dall’Explanatory Learning. La differenza fondamentale tra questi due paradigmi risiede nella natura dell’interprete che dovrebbe digerire la spiegazione generata. In Program Synthesis l’interprete è un rigido compilatore progettato da un uomo, su cui in ultima analisi ricade l’onere di dare un significato alla spiegazione (programma) in output. In Explanatory Learning invece l’interprete non è dato, e deve essere appreso da una raccolta limitata di spiegazioni esistenti abbinate a osservazioni dei corrispondenti fenomeni.

Seguendo l’esempio del Reinforcement Learning con i giochi Atari, in questa chiacchierata illustreremo le sfide dell’Explanatory Learning con Odeen, un gioco che simula l’impresa scientifica in un semplice universo stile Flatlandia. Introdurremo quindi le Critical Rationalist Networks, un approccio basato sul deep learning (Transformers) che si ispira alla teoria epistemologica di Popper per risolvere problemi di EL. Infine confronteremo le CRNs con approcci neurali end-to-end e di Program Synthesis su Odeen, discutendo prestazioni, garanzie, flessibilità ed effettiva spiegabilità dei diversi metodi.

Antonio Norelli  è un dottorando di Informatica alla Sapienza di Roma nel laboratorio di ricerca GLADIA, dove lavora con il prof. Emanuele Rodolà su AI e Deep Learning. Fisico di formazione, ha conseguito la laurea magistrale in Informatica e il diploma di eccellenza della SSAS, la Scuola Superiore di Studi Avanzati della Sapienza. Ha lavorato come Research Intern a Spiketrap (startup di San Francisco, USA) e come Applied Scientist Intern ad Amazon Science (Laboratorio Lablet a Tubinga, Germania).

Repo github con i riferimenti all’articolo ed ai dataset

DSS Online #15 – Explainable AI: come interpretare le predizioni di sistemi basati su AI (e non solo)

I sistemi più recenti di intelligenza artificiale, come ad esempio quelli basati su deep learning, benché solitamente molto accurati, spesso non consentono una facile compresione delle dinamiche che li portano a generare le proprie “predizioni”.

L’Explainable AI è un campo di ricerca che studia come meglio comprendere ed interpretare sistemi opachi, quali ad esempio le reti neurali, attraverso l’uso di “spiegazioni”. Tali spiegazioni consentono di identificare i meccanismi di funzionamento interni di questi sistemi e conseguentemente di capire se potervi fare affidamento per prendere decisioni.  Ad esempio una spiegazione per una predizione corretta generata da una rete neurale consente di capire se tale predizione è corretta per i motivi giusti. Oppure una spiegazione può aiutare a capire per quali ragioni un sistema basato su AI produce una predizione sbagliata e, conseguentemente, può aiutare a capire come migliorare il sistema (o i dati utilizzati per addestrarlo).

In questo intervento vedremo una panoramica sul campo dell’explainable AI, illustrando alcune delle tecniche più conosciute per la generazione di spiegazioni; a seguire verranno presentate delle tecniche di Explainable AI specifiche per sistemi che utilizzano AI per task di data management. Infine vedremo come alcune spiegazioni possono operativamente essere utilizzate per migliorare i sistemi stessi.

Tommaso Teofili è Principal Software Engineer a Red Hat e dottorando all’Università Roma Tre. Svolge attività di ricerca e sviluppo nel campo dell’Explainable AI, nonché appassionato di tematiche di NLP e Information Retrieval. Contribuisce attivamente a diversi progetti open source come membro dell’Apache Software Foundation.

DSS Online #14 – Pillo: storia di un prodotto AI dall’idea al mercato.

Nel prossimo meetup DataScienceSeed parleremo di un prodotto basato su AI che è partito da Genova, per raggiungere il mercato in USA con l’acquisizione da parte di una multinazionale. Stiamo parlando di Pillo, il robot assistente alla salute, ed i nostri relatori saranno Emanuele Baglini e Antonello Scalmato, che incontreremo online il   23 Marzo a partire dalle 18:00.

Pillo è stato il primo social robot destinato alla salute al mondo. E’ un assistente vocale, in grado di erogare dosi di medicinali in maniera proattiva. Il device riconosce la persona a cui deve dispensare le medicine, erogandole al destinatario alla giusta ora. Pillo aiuta anche i familiari e caregiver a monitorare lo stato di assunzione della terapia, consentendo loro di intervenire.

Pillo Health ha raccolto nel tempo 13 milioni di dollari da diversi investitori, tra cui Stanley Venture e Samsung Venture, ed è passato da solo una idea ad un prodotto realizzato in migliaia di esemplari e commercializzato in USA.

Pillo è stato pluripremiato in diverse occasioni, tra cui alcuni dei più prestigiosi sono stati l’”Intelligent Assistant Award 2019” ad HIMSS 2019 di Orlando e l’”Innovation Award 2019” al CES di Las Vegas.

Nel corso del talk ripercorreremo la crescita di Pillo Health, dall’idea fino all’acquisto da parte di Stanley Black+Decker e passeremo in rassegna gli aspetti chiave dello sviluppo di un prodotto così complesso partendo da zero e con risorse limitate, tra cui avere il team giusto ed una precisa strategia per velocizzare lo sviluppo e utilizzare ogni possibile componente messa a disposizione dal mercato, senza reinventare la ruota.

Emanuele Baglini – Emanuele ha oltre 20 anni di esperienza nell’ingegneria (hardware, software e produzione). Dopo la laurea in ingegneria informatica, ha lavorato nel gruppo di ricerca di robotica dell’Università di Genova. Ha approfondito la conoscenza dei sistemi embedded, delle reti di sensori e, più in generale, di vari campi della robotica. Emanuele ha gestito team di ricerca e sviluppo e ha maturato una profonda esperienza nella gestione, sviluppo e produzione di prodotti complessi. È stato responsabile della gestione operativa e finanziaria di piccole imprese, per le quali ha ricoperto la carica di amministratore delegato. È coautore di articoli accademici e inventore di brevetti internazionali. Emanuele è stato CTO in Pillo Health, dove ha diretto la ricerca e lo sviluppo del prodotto, portandolo da un’idea al prodotto realizzato in migliaia di unità. Attualmente è uno dei co-fondatori di Ermit, dove ricopre il ruolo di CEO.

Antonello Scalmato, Ph.D. – Antonello ha un dottorato di ricerca in Robotica e Ambient Intelligence. Ha lavorato per più di 10 anni in diversi campi dell’intelligenza artificiale, con una specializzazione sulla rappresentazione della conoscenza, ed è autore di oltre 20 articoli su questi temi di ricerca. È coautore di diversi brevetti, in particolare di uno relativo al Context Awareness in Smart Home e di uno dei brevetti di Pillo Health relativi al Robot e alle sue funzionalità. Negli anni è diventato un esperto di architettura di servizi basati sul cloud. In Pillo Health è stato il Director of Cloud and AI services. Attualmente è uno dei co-fondatori di Ermit, dove ricopre il ruolo di Director of Cloud & Intelligent Services.

DataScienceSeed#13: Cracks and Potholes

Ultimo appuntamento dell’anno con i meetup di datascienceseed. Con la nuova formula ibrida con l’incontro in presenza aperto agli iscritti all’associazione, insieme al nostro usuale streaming sul canale youtube, ci vediamo poco prima di natale Giovedi 16 Dicembre, a partire dalle ore 18:00  per parlare di buchi e crepe.

Registrazione su eventbrite seguendo il link qui sotto: La prenotazione su eventbrite riguarda per il momento l’accesso web. Dobbiamo ancora avere le conferme finali per consentire ai soci dell’associazione DataScienceSeed di partecipare in presenza.

 

Andrea Ranieri, ricercatore del CNR-IMATI di Genova, ci descriverà una applicazione del deep-learning ad un problema ben noto a chiunque abbia percorso una strada asfaltata: la manutenzione del manto stradale.

L’infrastruttura stradale è uno dei pilastri delle moderne società: essa rende possibile il trasporto efficiente di persone e merci laddove altre modalità di trasporto non potrebbero competere in termini di costo.

Tuttavia l’asfalto stradale tende a deteriorarsi col tempo, con l’utilizzo e a causa dei fenomeni atmosferici ed ambientali. E’ proprio la capillarità dell’infrastruttura stradale, il suo maggior pregio, che la rende anche molto difficile e costosa da monitorare e manutenere – solo negli US, sia i danni agli automobilisti che per la manutenzione delle strade sono stimati in “billions USD/year”.

Ad oggi, in Italia come anche nella maggioranza dei Paesi nel mondo, il rilevamento dei danni al manto stradale avviene manualmente, con operatori specializzati in campo e costose attrezzature. Questo limita molto l’efficacia del monitoraggio da parte degli enti preposti alla manutenzione.

Il CNR di Genova ha recentemente iniziato ad applicare la Computer Vision, le Reti Neurali e l’Intelligenza Artificiale al problema della pothole e crack detection sul manto stradale. L’approccio scelto è quello di eseguire la segmentazione semantica di immagini stradali per individuare in modo molto preciso sia buche che fessurazioni.

Andrea ci racconterà come è possibile fare tutto questo, e quali sono gli scenari futuri resi possibili dall’utilizzo di self-supervised learning e telecamere RGB-D.

Andrea Ranieri è ricercatore presso il Consiglio Nazionale delle Ricerche, Istituto di Matematica Applicata e Tecnologie Informatiche (IMATI), dove si occupa di Deep Learning e AI principalmente in ambito Computer Vision. Andrea ha una laurea in Ingegneria Informatica, un Dottorato di Ricerca in Scienze ed Ingegneria dello Spazio e un background tecnologico estremamente vario che va da networking e sistemi distribuiti a robotica e perception. Usa Linux quotidianamente da più di 15 anni e Python e Fast.ai da neanche 3. I suoi interessi di ricerca vanno dalla segmentazione di immagini al self-supervised learning, passando per tecniche “context-aware” per la data augmentation.

 

DataScienceSeed #12, The Art of AI-Possible, the NVIDIA Way

Finalmente, dopo più di un anno passato pandemicamente online, i meetup DataScienceSeed tornano a svolgersi parzialmente in presenza, per il momento (per motivi di capienza dei locali) limitatamente ai soci iscritti all’associazione.

Carlo Nardone, Senior Solution Architect ad NVIDIA ci ha presentato alcuni trend dei modelli Deep Learning allo stato dell’arte e le conseguenze dal punto di vista dell’infrastruttura necessaria, con esempi concreti proposti da NVIDIA partendo dalle scale estreme fino agli strumenti software disponibili per la più ampia platea possibile di sviluppatori di applicazioni d’Intelligenza Artificiale.

Fisico di formazione, Carlo Nardone si è occupato di calcolo ad alte prestazioni (HPC) sviluppando codici di simulazione numerica su piattaforme massicciamente parallele sin dai tempi della Connection Machine ormai 30 anni fa. Oggi tutti hanno facilmente accesso a una piattaforma dello stesso tipo grazie alle GPU, mentre nel frattempo la vera “killer app” dell’HPC e del Calcolo Parallelo si è rivelata essere l’Intelligenza Artificiale grazie all’esplosione del Deep Learning. Dopo esperienze al CRS4, Quadrics (società Finmeccanica), Sun Microsystems, dieci anni fa ha puntato sull’adozione degli acceleratori NVIDIA come tecnologia innovativa per l’HPC aiutando fra l’altro una grande istituzione finanziaria italiana a portare i propri codici su CUDA. Da sette anni è in NVIDIA come Senior Solution Architect del team EMEA con focus sull’infrastruttura e sulle piattaforme dedicate all’IA: la famiglia NVIDIA DGX, DGX POD, DGX SuperPOD.

Ecco le slide presentate da Carlo Nardone  (pdf, 4M)

Demo Center NT Nuove Tecnologie per DataScienceSeed

Durante il meetup è stato presentato il demo center offerto per DataScienceSeed da NT Nuove Tecnologie, equipaggiato col supporto di NVIDIA ed ospitato nel data center di Liguria Digitale.

Presentazione Demo Center NT

 

DSS Online #10 MLOps, quando si smette di giocare

Lunedi 5 luglio,abbiamo parlato  di MLOps con Simone Merello, Head of Deep AI presso Perceptolab.

Se hai seguito l’evento online o hai visto il video

 lasciaci un feedback!

 

Ogni giorno sempre più modelli vengono sviluppati per creare nuove funzionalità. Sfortunatamente non appena si ha a che fare con più modelli, dataset e data scientists le cose si complicano. Ciascun esperimento ha molte dipendenze e l’effetto  “changing anything changes everything” rende difficile tenere traccia di cosa sta accadendo. Una soluzione ML-driven richiede di tracciare come un modello è stato prodotto, scelto, distribuito e come si comporta in produzione: il modello di ML è solo un pezzo del puzzle. Simone ci mostrerà alcuni dei problemi più comuni che grosse AI companies hanno nel sviluppare soluzioni basate sul ML e come risolverli.

Simone Merello, inizia la sua carriera come ricercatore in ambito ML presso l’università NTU di Singapore. Successivamente esce dall’ambito accademico per diventare prima Research Scientist ed ora Head of Deep AI presso Perceptolab.

Hanno partecipato al dibattito a fine talk

Piero Cornice, Lead Engineer in Lilli

Andrea Panizza Senior AI Specialist at Baker Hughes

 

Qui le slide dell’incontro:  MLOps – quando si smette di giocare

ed il famoso file “Registro Merello dei 300 tools ML” in formato ODS: AI Tools and Platforms

DSS Online #9 – Rumenta Intelligente… ovvero: Economia Circolare e AI

Al prossimo meetup, venerdi 7 maggio a partire dalle ore 18:00, parleremo di un tema “green” ovvero Economia Circolare e Intelligenza Artificiale. Ne discuteremo con Giorgio Spreafico e  Daniele Bonventre di algoWatt S.p.A., green tech solution company che progetta, sviluppa e integra soluzioni per la gestione dell’energia e delle risorse naturali.

Registrati come al solito su eventbrite per ricevere il link all’evento online:

Giorgio e Daniele ci parleranno di soluzioni innovative basate su reti neurali per il supporto alle decisioni nella cosiddetta “biodigestione” di rifiuti solidi urbani.

Un biodigestore è un impianto che funziona trasformando la frazione organica di rifiuti solidi urbani (FORSU) e altre matrici organiche, i quali vengono miscelati con batteri per ottenere biogas (una miscela di diversi tipi di gas composti in prevalenza da metano ed anidride carbonica) tramite un processo di fermentazione in condizioni di assenza di ossigeno e, come residuo, producendo del compost di qualità da utilizzare in agricoltura o compost grigio per la riambientazione di emergenze ambientali

Questi impianti possono essere considerati come fonti di energia rinnovabile, riducendo l’emissione di gas serra. Il recupero energetico dalla produzione di biogas da parte di un biodigestore può arrivare a diversi GWh/anno, producendo milioni di metri cubi di biogas, facendo risparmiare ogni anno milioni tonnellate di CO2 e riducendo il consumo di suolo per lo smaltimento dei rifiuti.

In un primo intervento, Giorgio ci introdurrà l’argomento e le problematiche collegate, seguito da Daniele che invece ci racconterà qualche dettaglio in più dal punto di vista tecnico sulle soluzioni adottate.

Giorgio Spreafico Laurea magistrale in Fisica, ha pluridecennale esperienza di modellistica nei settori ambientali e industriale e di modellazione geostatistica. Attualmente è il responsabile della Divisione Prodotti di algoWatt.

Daniele Bonventre Ha una Laurea magistrale in Fisica presso l’Università degli Studi di Genova. Ha lavorato due anni presso i laboratori Smart Materials dell’Istituto Italiano di Tecnologia ed ora, in qualità di Data Scientist, si occupa dello sviluppo di prodotti basati su Intelligenza Artificiale ed algoritmi di analisi tensoriale.

algoWatt S.p.A. progetta, sviluppa e integra soluzioni per la gestione dell’energia e delle risorse naturali, in modo sostenibile e socialmente responsabile, garantendo un vantaggio competitivo. La Società fornisce sistemi di gestione e controllo che integrano dispositivi, reti, software e servizi con una chiara focalizzazione settoriale: digital energy e utilities, smart cities & enterprises e green mobility.