DSS Online #5: AI e Machine Learning per le PMI e la PA – Organizzare il team di AI

Nicolò Annino ci racconta la sua esperienza di ingegnere ed imprenditore nel progettare sistemi di Machine Learning per le piccole e medie imprese e per la PA in Italia, vivendo sulle nuvelo del Cloud e sulla terra di confine dell’Edge.

L’evento è collegato a C1A0 Expo 2020 – La fiera internazionele dell’AI di Genova

Lascia il tuo feedback sull’evento qui!

Può una piccola azienda contribuire ad influenzare ed ispirare le modalità di sviluppo di un intero paese?

Per rispondere affrontiamo con un viaggio tra tecnologia e opportunità, dove per realizzare sistemi complessi servono competenza, rapidità ed intuizione. Tra sistemi di produzione e di fund raising parleremo di come il Machine learning può entrare nelle PMI e nella Pubblica Amministrazione anche senza “santi in paradiso”.

Nella seconda parte della chiacchierata si affronta il problema dell’organizzazione di un progetto di AI dal punto di vista del Team.
Nicolò Annino, dopo la laurea con tesi in bio-robotica ha fondato varie società tra cui la Idealarm Ltd, che oggi è attivamente impegnata nello sviluppo di sistemi di sicurezza avanzati per il contrasto alla criminalità ed al terrorismo. La società ha un focus specifico nella computer-vision e machine learning, vantando numerose invenzioni ed innovazioni che le hanno permesso di veder adottati i suoi sistemi più innovativi in ambito militare,in particolari settori di sicurezza nazionale, oltre a numerose applicazioni specifiche per le forze dell’ordine.Ha fondato la social community Machine Learning Italia,coinvolgendo oltre 3000 tra docenti, ricercatori, professionisti e studenti di Machine Learning ed Intelligenza Artificiale ed è cofondatore del guppo Machine Learning Catania che organizza seminari ed eventi di divulgazione scientifica in Sicilia orientale. E’ consulente tecnico per editori italiani nello sviluppo di sistemi di Intelligenza Artificiale applicata alla profilazione utente, analisi dati e processing del linguaggio naturale e supporta come mentor di varie startup ed aziende.


Ecco le slide di Nicolò (pdf 3.5MB)

DSS Online #4: Tech & Ethics for the Open Source AI: The Linux Foundation AI

Venerdi 23 Ottobre 2020 sempre a partire dalle 18:00, DataScienceSeed è tornato questa volta in versione internazionale, completamente in inglese, con degli ospiti di eccezione dagli U.S.!

The First internation DataScienceSeed event, in our 4th online meetup we have had the pleasure to meet the Linux Foundation AI, part of the Linux Foundation. Their mission is to build and support an open AI community, and drive open source innovation in the AI, ML and DL domains by enabling collaboration and the creation of new opportunities for all the members of the community.

Give us your feedback on the event at this link!

We started from an intro to LFAI, then we dig deeper in two of their projects, touching technical and ethical topics. Two sides of the same coin of Artificial Intelligence, now and more and more in the future.

LF AI and Open Source: Accelerating Innovation in the AI Market

Over the past two decades, open source software — and its collaborative development model — has disrupted multiple industries and technology sectors, including the Internet/web, telecom, and consumer electronics. Today, large scale open source projects in new technology sectors like blockchain and artificial intelligence are driving the next wave of disruption in an even broader span of verticals ranging from finance, energy and automotive to entertainment and government.

In this talk, Dr. Haddad provided a quick overview of the efforts of the LF AI Foundation in supporting the development, harmonization, and acceleration of open source AI projects and how to get involved.

Download Ibrahim’s slides (pdf)

The easiest way to get in touch with LFAI is to join the Slack channel

If you want to know more , you may want to have a look to the session held by Ibrahim at the AI for People summer workshop, which is where we met him the first time!

Ibrahim Haddad (Ph.D.) is the Executive Director of the LF AI Foundation. Prior to the Linux Foundation, Haddad served as Vice President of R&D and Head of the Open Source Division at Samsung Electronics. Throughout his career, Haddad has held several technology and portfolio management roles at Ericsson Research, the Open Source Development Lab, Motorola, Palm and Hewlett-Packard. He graduated with Honors from Concordia University (Montréal, Canada) with a Ph.D. in Computer Science, where he was awarded the J. W. McConnell Memorial Graduate Fellowship and the Concordia University 25th Anniversary Fellowship.

End-to-End Deep Learning Deployment with ONNX

A deep learning model is often viewed as fully self-contained, freeing practitioners from the burden of data processing and feature engineering. However, in most real-world applications of AI, these models have similarly complex requirements for data pre-processing, feature extraction and transformation as more traditional ML models.

Any non-trivial use case requires care to ensure no model skew exists between the training-time data pipeline and the inference-time data pipeline. This is not simply theoretical – small differences or errors can be difficult to detect but can have dramatic impact on the performance and efficacy of the deployed solution. Despite this, there are currently few widely accepted, standard solutions for enabling simple deployment of end-to-end deep learning pipelines to production.

Recently, the Open Neural Network Exchange (ONNX) standard has emerged for representing deep learning models in a standardized format. While this is useful for representing the core model inference phase, we need to go further to encompass deployment of the end-to-end pipeline. In this talk Nick introduced ONNX for exporting deep learning computation graphs, as well as the ONNX-ML component of the specification, for exporting both “traditional” ML models as well as common feature extraction, data transformation and post-processing steps. He covered how to use ONNX and the growing ecosystem of exporter libraries for common frameworks (including TensorFlow, PyTorch, Keras, scikit-learn and Apache SparkML) to deploy complete deep learning pipelines. Finally, I will explore best practices for working with and combining these disparate exporter toolkits, as well as highlight the gaps, issues and missing pieces to be taken into account and still to be addressed.

Nick Pentreath (Open Source Developer, Developer Advocate) – Principal Engineer, IBM CODAIT – Nick is a Principal Engineer at IBM. He is an Apache Spark committer and PMC member and author of Machine Learning with Spark. Previously, he co-founded Graphflow, a startup focused on recommendations and customer intelligence. He has worked at Goldman Sachs, Cognitive Match, and led the Data Science team at Mxit, Africa’s largest social network. He is passionate about combining commercial focus with machine learning and cutting-edge technology to build intelligent systems that learn from data to add business value.

Download Nick’s slides (pdf)

AI Fairness 360 – an open source toolkit to mitigate discrimination and bias in machine learning models

Machine learning models are increasingly used to inform high-stakes decisions. Discrimination by machine learning becomes objectionable when it places certain privileged groups at the systematic advantage and certain unprivileged groups at a systematic disadvantage. Bias in training data, due to prejudice in labels and under -or oversampling, yields models with unwanted bias. The AIF360 R package is a R interface to AI Fairness 360 – a comprehensive toolkit that provides metrics to check for unwanted bias in datasets and machine learning models and state-of-the-art algorithms to mitigate such bias. This session explored the metrics and algorithms provided in AI Fairness 360 toolkit, as well as a hands-on lab in R.

AIF360 is a sub-project of Trusted AI

Saishruthi Swaminathan (Developer Advocate, Open Source Developer) is a developer advocate and data scientist in the IBM CODAIT team whose main focus is to democratize data and AI through open source technologies. She has a Masters in Electrical Engineering specializing in Data Science and a Bachelor degree in Electronics and Instrumentation. Her passion is to dive deep into the ocean of data, extract insights and use AI for social good. Previously, she was working as a Software Developer. On a mission to spread the knowledge and experience, she acquired in her learning process. She also leads education for rural children initiative and organizing meetups focussing women empowerment.

Download Saishruthi’s slides

Useful links:

Trusted AI WIki 

Trusted AI Projects

DSS Online #3: Data Science vs Data Engineering: il lato robusto dell’AI

Venerdi 2 Ottobre 2020, Piero Cornice di Signal AI ci ha raccontato da Londra la sua esperienza da Software Engineer incaricato di mettere in produzione in real time i modelli di NLP realizzati dal team di Data Scientists dell’azienda. La sfida è tecnica ma anche umana.

Lasciaci un feedback sull’evento, a questo link!

Piero Cornice è Technical Lead a Signal AI , un’azienda britannica che si occupa di aumentare il potere decisionale dei propri clienti estraendo informazioni da notizie in tempo reale. Ingegnere informatico con un background in sistemi embedded e media streaming, negli ultimi anni ha lavorato su sistemi di raccomandazione e Natural Language Processing.

La Data Platform di Signal AI processa oltre 4 milioni di documenti al giorno, analizzando in tempo reale entità, argomenti, sentimenti, e altri fattori. Allo stesso tempo tale infrastruttura consente di sviluppare e sperimentare agilmente nuovi modelli di machine learning.

Estrarre informazioni automaticamente da un grande volume di testi in tempo reale presenta sfide su più livelli. In Signal AI abbiamo individuato due aspetti fondamentali per affrontarle: le scelte tecnologiche e la collaborazione tra ingegneria e ricerca.

Le scelte tecnologiche richiedono di bilanciare l’adozione di soluzioni off-the-shelf con lo sviluppo di tool specializzati. La collaborazione tra ricercatori e ingegneri gioca un ruolo vitale per l’innovazione e la velocità con cui temi di ricerca possono trovare uno sbocco applicativo. Tuttavia non è facile trovare un punto d’incontro tra i processi della ricerca e quelli della messa in produzione.

Questo intervento descrive le principali soluzioni tecniche e organizzative che hanno permesso al team di raggiungere tali risultati, con l’obiettivo di condividere le lezioni imparate lungo il percorso.

Slide di Piero Cornice (8.7M pdf)

DSSOnline #1 – Data Science e Domanda Turistica post Covid-19

In attesa di poterci vedere nuovamente di persona quando finalmente sarà passato questo brutto periodo di emergenza, DataScienceSeed ritorna con la sua prima edizione Online!

Ovviamente si parla di Datascience & COVID, anche se vogliamo farlo da un punto di vista particolare, pensando agli effetti che l’epidemia potrà avere sull’industria del turismo. Ce ne ha parlato Anna Codispoti, Data Science Manager in Costa Crociere. Per approfondire alcuni temi  e stimolare la discussione tra i relatori e con il pubblico, abbiamo previsto gli niterventi di Francesco Cricchio, CEO di Brain e Riccardo Beltramo, dell’Università degli Studi di Torino. A loro si è aggiunto un interessantissimo intervento fuori programma di Lara Congiu.

Se avete partecipato, dateci un feedback!

Data Science e Domanda Turistica post Covid-19

Viaggiare ha un ruolo importante nella vita di tutti noi. Ci aiuta ad ampliare i nostri orizzonti ed a soddisfare il nostro istinto primario di scoperta e esplorazione. E’ questo probabilmente il motivo per cui l’industria del turismo è riuscita negli anni ad affrontare diverse sfide e crisi globali, quali attacchi terroristici, epidemie e disastri naturali. Anche nella situazione attuale, che sta vendendo l’intera economia globale vivere una crisi profonda, il settore turistico sarà probabilmente uno di quelli che porterà i segni lasciati dal Covid-19 più a lungo. Nonostante la situazione senza precedenti renda difficile fare stime affidabili, analizzando modellizzazioni di eventi passati, dati di trend e survey sull’attuale consumer sentiment, è possibile scomporre la “travelling anxiety” nei suoi elementi essenziali e cercare di misurare in questo modo l’impatto che l’attuale pandemia avrà sulla domanda turistica, separando impatti a breve e a lungo termine.

Anna Codispoti è Data Science Manager in Costa Crociere S.p.A., con un Ph.D. in Matematica e Applicazioni conseguito presso l’Università degli studi di Genova ed un G.M.P. conseguito presso la ESCP Business School. I progetti curati dal team di Data Science che coordina coinvolgono diverse aree aziendali, come ad esempio il pricing dei prodotti di bordo, lo sviluppo di sistemi di ottimizzazione e forecasting o sistemi di raccomandazione su piattaforme web. Le sue principali aree di interesse sono la Modellazione Matematica, il Machine Learning e Big Data come strumenti di Business Decision Making e Customer Engagement.

Slide presentate da Anna (PDF 1.7M)

Ed ecco i link degli articoli di Anna su Medium:

Covid-19 and touristic demand

When will we start dreaming our next trip again?

Francesco Cricchio e’ il CEO di Brain, un’azienda di ricerca che crea set di dati e algoritmi proprietari per strategie di investimento, combinando competenze in Finanza con competenze in Statistica, Machine Learning e Natural Language Processing. L’intervento sarà focalizzato sull’applicazione di queste tecniche per monitorare le conseguenze dell’epidemia sui mercati finanziari e su settori specifici.

Slide presentate da Francesco (PDF 2M)

Riccardo Beltramo è Professore Ordinario all’Università degli Studi di Torino, Dipartimento di Management. Svolge ricerche nel campo del turismo sostenibile prevalentemente in ambito montano. Lavora nel campo dell’Ecologia industriale e svolge ricerche sui sistemi di gestione integrati, applicati ad attività manifatturiere e di servizi ed alle aree industriali. Attualmente insegna Environmental Management Systems, Tourism Eco-Management ed Ecologia industriale presso la Scuola di Management ed Economia.

Purtroppo il collegamento con Riccardo è saltato prima che potesse iniziare l’intervento in diretta, quindi ha registrato il suo contributo  successivamente.

Slide di Riccardo (17M PDF)

Agli interventi previsti si è aggiunto un interessantissimo fuori programma della gentilissima Lara Congiu,  che lavora presso la Commissione Europea di Bruxelles proprio all’intersezione tra turismo, sostenibilità e data science.

Ecco il folder di documenti a cui fa riferimento Lara nel suo intervento. Una miniera di informazioni e link.

Zip file 19M


Il meetup DataScienceSeed fa parte delle iniziative dell’associazione

IAML, Italian Association for Machine Learning

DataScienceSeed #12 – Prevenzione Incidenti Industriali e Borsa Di Studio DSS

ATTENZIONE: vista la recente ordinanza di Regione Liguria in materia di prevenzione relativamente all’emergenza COVID-19, la quale include la sospensione nei prossimi giorni di manifestazioni pubbliche di qualsiasi natura, abbiamo deciso di rimandare il meetup#12 di DataScienceSeed. Comunicheremo la nuova data non appena la situazione generale si sarà chiarita.


Il DataScienceSeed torna questa volta agli Erzelli, ospite dell’auditorium di Liguria Digitale per la dodicesima edizione del nostro meetup. L’evento si svolgerà Lunedi 2 Marzo come al solito dalle 18:00 alle 20:30. Vi aspettiamo numerosi!

Di seguito il Programma:


Il Machine Learning per la prevenzione degli incidenti industriali

Continua il filone di interventi legati all’utilizzo dell’intelligenza artificiale per l’utilità sociale con un intervento sull’applicazione di tecniche di machine learning alla prevenzione di incidenti industriali. Tomaso Vairo, analista di rischio presso l’Agenzia Regionale per la Protezione dell’Ambiente Ligure (ARPAL) ci parlerà di analisi dei rischi e resilienza dei sistemi complessi, illustrandoci l’evoluzione di paradigma dalla “safety I” alla “safety II”, e toccando argomenti nell’ambito del probabilistic programming, quali Fault Trees e Bayesiang Reasoning, prior probabilities, Markov Chains MonteCarlo, e molto altro.

Tomaso Vairo, Ingegnere chimico e PhD, svolge attività di ricerca e docenza presso l’Università degli Studi di Genova, nei campi dell’analisi del rischio e della modellistica ambientale. E’ inoltre analista di rischio presso l’Agenzia Regionale per la Protezione dell’Ambiente Ligure (ARPAL) e divulgatore scientifico.


Borsa di studio DataScienceSeed

Presentazione della Borsa di Studio DataScienceSeed

A seguire, la grande novità del dodicesimo meetup! DataScienceSeed istituisce una Borsa di Studio, con la quale premieremo il progetto che più si distingue per innovatività, utilità e realizzabilità nel dominio delle tematiche sociali, ambientali, logistiche o della “smart city” legate al territorio genovese. Il progetto dovrà basarsi, per essere realizzato o prototipato, su competenze tipiche di Data Science e Machine Learning. Il premio del valore di 1000 euro, risultato del terzo posto conquistato dal team DataScienceSeed all’Hackaton tenuto scorso novembre nel contesto del C1A0 Expo, consisterà in servizi di didattica e incubazione su misura presso DigitalTree, finalizzati ad aiutare i membri del team a completare le proprie competenze in ambito Data Science. Oltre ai servizi di DigitalTree, Talent Garden Genova ha aggiunto al premio 6 mesi di coworking in formula “flex”. Tutti i dettagli per la partecipazione verranno illustrati durante il meetup.

Di seguito una intro alla Borsa di Studio DSS registrato nello scorso meetup

Il meetup DataScienceSeed fa parte delle iniziative dell’associazione

IAML, Italian Association for Machine Learning

DataScienceSeed #11 – AI for People & Regione Liguria

Con il nuovo anno sono ripresi i meetups di DataScienceSeed! L’undicesima edizione ha visto ospiti AI for People, un’associazione che ha come obiettivo quello di capire e promuovere l’uso dell’intelligenza artificiale per il bene sociale, e l’ufficio cartografico di Regione Liguria, che ha presentato uno studio per l’estrazione di informazioni di interesse territoriale ed ambientale da immagini satellitari.

Se hai partecipato all’evento, lasciaci un feedback

Obiettivi, Rischi e contromisure nell’era dell’intelligenza artificiale

L’intelligenza artificiale (AI) ha avuto nell’ultimo decennio uno sviluppo ed un successo tale da trasformare in maniera definitiva la società in cui viviamo, rendendoci profondamente legati ad essa ed ai suoi servizi. Ma chi controlla l’intelligenza artificiale? Quali sono i rischi associati ad essa? Come possono intervenire le istituzioni per evitare che pochi individui controllino una tecnologia così fondamentale? In questo talk abbiamo esplorato i maggiori rischi tecnologici, etici e sociali associati ad uno scorretto sviluppo dell’AI, ed alcune contromisure per ridurli o evitarli. Sono stati inoltre presentati esempi e progetti in una visione di AI come tecnologia al servizio dei bisogni del cittadino.

Gabriele Graffieti  è uno studente di dottorato in Data Science and Computation all’università di Bologna, e Head of AI research ad AI for People. I suoi maggiori interessi sono modelli generativi, continual learning e bio-inspired artificial intelligence, in particolare il ruolo della capacità di generazione di informazioni durante l’apprendimento e la sua relazione con la memoria. Oltre a ciò è fortemente interessato nella filosofia e nell’etica dell’intelligenza artificiale, specialmente nell’individuazione e nella risoluzione dei rischi associati al suo sviluppo..

AI for People  è un’associazione che ha come obiettivo quello di capire e promuovere l’uso dell’intelligenza artificiale per il bene sociale. La nostra strategia è quella di condurre analisi, progetti e proposte che comprendono AI e società. Siamo un team eterogenero di persone che ha come scopo quello di creare un cambiamento positivo nella società attraverso l’uso consapevole ed etico della tecnologia.



Utilizzo di immagini satellitari gratuite per l’aggiornamento cartografico e lo studio del territorio in Regione Liguria

La costellazione europea di satelliti Sentinel ha incrementato le prospettive di ricerca nel settore del monitoraggio del territorio, dei cambiamenti climatici, dell’agricoltura, nella gestione delle emergenze e della sicurezza dei cittadini, fornendo dati gratuiti con elevata risoluzione spaziale, temporale e radiometrica. Avvalendosi di questi dati, l’ufficio cartografico di Regione Liguria (SITAR) sta sperimentando una serie di procedure per estrarre dalle immagini telerilevate informazioni di grande interesse territoriale ed ambientale, quali aree incendiate, variazioni di biomassa vegetale, evoluzione del tessuto urbanizzato. In questo ambito, lo sfruttamento delle potenzialità dell’AI potrebbe garantire un notevole miglioramento di tali procedure, incrementando sia l’estensione territoriale analizzata, che la frequenza di aggiornamento delle mappe tematiche.

Andrea De Felici è geologo e geomatico presso l’ufficio dei servizi informativi territoriali ed ambientali di Regione Liguria (SITAR) e si occupa di Sistemi Informativi Territoriali, Telerilevamento e reti GNSS. Il SITAR produce, aggiorna e distribuisce ai cittadini dati cartografici ed alfanumerici riguardanti il territorio e l’ambiente ligure, curando l’organizzazione e lo sviluppo del sistema informativo ambientale e territoriale e realizzando l’Infrastruttura per l’Informazione Geografica ligure integrata.


Il meetup DataScienceSeed fa parte delle iniziative dell’associazione

IAML, Italian Association for Machine Learning

DataScienceSeed#10 @C1A0 EXPO

Il decimo meetup di datascienceseed è stato ospitato nel contesto del C1A0 EXPO – Accessible Innovation, la fiera internazionale dedicata all’Intelligenza Artificiale, che si à svolta a Genova il 15-16 novembre 2019, a Palazzo San Giorgio.

Abbiamo avuto il piacere di ospitare tre relatori selezionati con call nazionale nei mesi scorsi. Il risultato è stata una carrellata approfondita tra le applicazioni principali del deep learning:
  • Natural Language Processing, con Cristiano De Nobili
  • Internet Of Things, con Emanuele Pomante
  • Computer Vision, con Alessandro Ferrari

Di seguito i video ed il materiale degli interventi!

State-of-the-art concepts in NLP and their limits

Come una macchina può comprendere il linguaggio? Quali erano e come stanno evolvendo gli algoritmi? Quali sono i successi e soprattutto i limiti? Alla base dei moderni algoritmi di deep learning per il linguaggio ci sono dei meccanismi molto semplici che hanno rivoluzionato il settore. Tra questi troviamo il concetto di Autoencoder e il meccanismo di Attenzione. Comprenderne la struttura, la base teorica che poi invoca la teoria dell’informazione classica è sia utile che interessante. L’idea è di mostrare con esempi semplici questi concetti ed enfatizzarne le applicazioni. Queste vanno dalla traduzione, alla generazione di testi fino alla diagnosi di malattie neurodegenerative. Ci sono però anche dei limiti, problemi che difficilmente una macchina è in grado di risolvere e che invece il nostro cervello comprende (quasi) al volo. E’ proprio navigando in questi limiti dell’intelligenza artificiale che comprendiamo quanto la nostra mente, oltre ad essere fonte di ispirazione per la ricerca, sia straordinaria.

Cristiano De Nobili è un fisico teorico delle particelle, con un Ph.D. in fisica statistica alla SISSA di Trieste. Partendo dalla computer vision, ora è scienziato senior di Deep Learning nel team AI che lavora attivamente sul linguaggio intelligente presso Harman, una società Samsung. Cristiano è anche istruttore di Machine / Deep Learning per Deep Learning Italia, per AINDO (Trieste) e recentemente anche per il Master in High Performance Computing (SISSA / ICTP) tenutosi a Trieste.

Slideset (2M pdf)

Applicazione su sensoristica IoT di reti neurali per la predizione

Le reti neurali possono essere utilizzate  per apprendere pattern ricorrenti su sequenze temporali di misure fisiche da sensoristica IoT. Nel caso d’uso che esamineremo, la rete neurale viene utilizzata per prevedere il consumo di energia elettrica di un edificio e monitorare il comportamento dei sensori IoT, con gli obiettivi di ottimizzare i consumi a partire dalle previsioni e di identificare la presenza di anomalie nei consumi o nel comportamento dei sensori. Le principali caratteristiche che rendono le reti neurali preferibili rispetto ad altri sistemi “classici” sono la capacità di adattarsi al compito e al contesto in cui operano e la loro velocità di esecuzione. Nell’ambito delle nuove sfide da affrontare per poter sfruttare a pieno le potenzialità offerte dall’intelligenza artificiale nel mondo dell’IoT, ci proponiamo di estendere i modelli di rete neurale a scenari più complessi (multi-edificio e multi-sensore) e implementare algoritmi “embedded” che consentano di fare inferenza direttamente sui device riducendo latenze ed instabilità di un sistema di machine learning.

Emanuele Pomante ha un dottorato in fisica all’università di Trieste, con studi focalizzati sull’analisi e sull’elaborazione di segnali spettrali molto deboli di origine astrofisica. Nel 2017 a Londra ha preso parte ad un programma intensivo di Data Science rivolto ai dottori di ricerca grazie al quale ha ottenuto il suo primo incarico in un progetto di AI presso un’azienda di Londra.
Dal 2018 è Data Scientist presso Gruppo Filippetti azienda leader in Italia per le tecnologie di smart safety, nei settori dell’ Internet of Things e dell’ Industria 4.0.

Slideset (7M pdf)

L’evoluzione della computer vision nell’era neurale: scienza & impresa

Nel corso di questo intervento esamineremo l’evoluzione del paradigma di detection, tracking e classification in computer vision: partendo dalla localizzazione di oggetti fino alla generazione di contenuti sintetici, con un excursus finale sugli “adversarial attack” anni ’90 (non “neurali”). Il caso d’uso che considereremo è CyclopEye, una Smart parking solution basata su reti neurali. CyclopEye è una soluzione personalizzabile e a basso costo per parcheggi intelligenti: consiste in un sensore video in grado di controllare lo stato occupazionale fino a sei posti auto contemporaneamente e di segnalarlo all’utente. Cyclopeye inoltre sfrutta la computer vision per fornire supporto alla gestione del parcheggio con funzionalità aggiuntive come: lettura targhe, riconoscimento oggetti abbandonati, parcheggio abusivo, riconoscimento volti, find-your-car e molti altri ancora. In altre parole una tecnologia che aiuta sia gli automobilisti che stanno cercando parcheggio, sia i responsabili dei parcheggi, che possono così monitorare lo stato della loro area controllando gli ingressi, identificando le categorie di veicoli che circolano e rilevando eventuali violazioni.

Alessandro Ferrari ha una Laurea Magistrale in Informatica e 10+ anni di esperienza in Computer Vision e del Machine Learning, con particolare attenzione a localizzazione, tracking e riconoscimento di oggetti. Nel 2016 fonda ARGO Vision (www.argo.vision), una startup innovativa che sviluppa soluzioni proprietarie AI-based per diversi mercati (AR, VR, Smart Parking, etc.).

Slideset (8M pdf)


Il meetup DataScienceSeed fa parte delle iniziative dell’associazione

IAML, Italian Association for Machine Learning

DataScienceSeed #10 verrà ospitato nel contesto di:

Palazzo San Giorgio, Genova
15-16 Novembre, 2019


DataScienceSeed#9 @ Linux Day Genova

Il Linux Day 2019 di Genova è stato organizzato in collaborazione tra Liguria Digitale ed il meetup Data Science Seed.
Si è svolto su due giorni e due sedi:
Venerdì 25 Ottobre dalle ore 15:30 agli Erzelli  – Linux Day +  Meetup #9 DataScienceSeed
Sabato 26 Ottobre in centro Genova  – Linux Day
L’agenda del meetup del Venerdi era molto fitta. Di seguito trovate i contenuti con il materiale presentato:

Ansible Use Case: Da zero a server di posta

Sia la gestione di grandi server farm sia quella di piccole installazioni può diventare un lavoro complesso, ma anche ripetitivo e noioso. Strumenti come Ansible nascono per automatizzare e orchestrare attività su una grande varietà di piattaforme e sistemi. In questo talk abbiamo visto come da un piccolo file di testo sia possibile arrivare alla completa installazione e configurazione di un servizio di posta elettronica.

Luca Berruti è senior engineer in SIR s.r.l. Responsabile della gestione e della conduzione di infrastrutture di sistemi in ambienti misti in ambito open source e proprietario. Ansible evangelist in azienda, si interessa di automazione, ottimizzazione e monitoraggio dei processi ICT.

(Semi)-automatic dataset preparation con youtube-dl e YOLOv3

Inutile girarci intorno, nel Deep Learning chi ha più dati vince. E come qualunque data scientist vi potrà confermare, la preparazione del dataset è la parte più lunga e “dolorosa” del lavoro. Fortunatamente, specialmente in ambito Computer Vision, i passi avanti nel Deep Learning e la potenza dei software rilasciati sono stati tali per cui oggi, il provetto data scientist, ha nella sua toolbox un set di strumenti formidabili in grado di alleggerire non poco il triste lavoro di raccolta, ritaglio e labeling delle immagini. In attesa di una coorte di assistenti virtuali che faranno tutto il lavoro al posto nostro, ci accontentiamo di YOLO (You Only Look Once), lo stato dell’arte nel campo dei real-time object detection systems, per dare un label e ritagliare gli oggetti che ci interessano a partire da semplici video di Youtube.

Andrea Ranieri è ricercatore presso il Consiglio Nazionale delle Ricerche, Istituto di Matematica Applicata e Tecnologie Informatiche (IMATI), dove si occupa di Deep Learning principalmente in ambito Computer Vision. Andrea ha una laurea in Ingegneria Informatica, un Dottorato di Ricerca in Scienze ed Ingegneria dello Spazio e un background tecnologico estremamente vario che va da networking e sistemi distribuiti a robotica e perception. Usa Linux e C++ quotidianamente da più di 15 anni e Python da meno di 1. I suoi interessi di ricerca vanno dalla semplice classificazione di immagini alla segmentazione al training di modelli per la Super-Resolution di immagini.


Adversarial Machine Learning, problematiche e rimedi

Gli algoritmi di machine learning sono vulnerabili a campioni di input ben progettati chiamati Adversarial Example. Si tratta di input realizzati con perturbazioni impercettibili per l’uomo, per esempio cambiando pochi pixel ben specifici in un’immagine, ma che possono facilmente ingannare gli algoritmi nella fase di test e funzionamento online, tanto da spingerli a sbagliare la classificazione. Si tratta di vulnerabilità da studiare, per evitare che un attaccante possa spingere un algoritmo a fare quello che lui vuole, magari con obiettivi fraudolenti per creare attacchi alla sicurezza di un sistema. In questo intervento abbiamo discusso problematiche e le tecniche per evitarle.

Roberto Marmo è formatore, consulente, professore a contratto di Informatica nella Facoltà di Ingegneria della Università di Pavia, laboratorio Computer Vision Multimedia Lab. Autore di una dozzina di libri sull’uso dei social media, estrazione ed analisi dati dai social media, visualizzazione scientifica. Interessato allo sviluppo di sistemi con computer vision e artificial intelligence.

Le slide di Roberto sono a questo link (pdf 1.5M) 

Docker per Machine/Deep Learning

Creare modelli di Deep Learning può essere complicato a causa della difficoltà di installare CUDA, cuDNN, e dipendenze multiple, oltre che per le differenze tra gli ambienti di sviluppo e di produzione. Inoltre, tipicamente le librerie di Deep Learning tendono a favorire un aggiornamento costante a discapito della compatibilità all’indietro: modifiche sostanziali accadono molto più di frequente che in altri contesti. La soluzione a tutti questi problemi consiste nel ridurre tutte le vostre dipendenze ad una sola: Docker. Nel corso del suo intervento Andrea Panizza ci ha introdotto Docker e ci ha spiegato perché rappresenta una soluzione molto più adatta per il Deep Learning rispetto all’utilizzo di Virtual Machines, o Python virtual environment. Andrea ci ha inoltre mostrato come fare il deployment di un paio di applicazioni di Deep Learning su qualsiasi macchina con una moderna GPU NVIDIA ed una connessione Internet.

Andrea Panizza è Senior Data Scientist in Baker & Hughes. Andrea sviluppa soluzioni di Intelligenza Artificiale per il business Turbomachinery and Product Solutions, al fine di aumentare la produttività interna, migliorando i processi di manufacturing ed ingegneria (smart people & processes) e la competitività dei nostri prodotti (smart products).  

Le slide e il codice di Andrea si trovano a questo link (github) 


Lascia il tuo feedback sull’evento DataScienceSeed #9 @LinuxDay

Il meetup DataScienceSeed fa parte delle iniziatove dell’associazione

IAML, Italian Association for Machine Learning

DataScienceSeed #9 @ Linux Day Genova verrà ospitato da:

Auditorium Liguria Digitale – Erzelli

Il LinuxDay Genova proseguirà sabato 26 Ottobre in Genova Centro.

DataScienceSeed#8 – Evoluzione Interfacce Vocali e Strategia Nazionale AI

Di seguito l’agenda dell’ottavo DataScienceSeed meetup di Martedi 1 Ottobre

Se hai partecipato, lasciaci un feedback!


Evoluzione di Interfacce Vocali

Il trend delle interfacce uomo macchina punta ad un sempre maggiore utilizzo di sistemi basati su voce, recentemente popolarizzati anche grazie alla diffusione di “smart speakers” di successo commerciale. La voce permette di ridurre l’attrito sperimentato dagli utenti in termini di interazioni uomo-macchina, non richiedendo attenzione esclusiva da parte dell’utilizzatore e permettendo sempre più spesso l’utilizzo di un linguaggio naturale.

Dotvocal  basa su questo modo naturale di comunicare le proprie soluzioni vocali e multimodali, nelle quali l’azienda può vantare tra le più importanti realizzazioni in campo nazionale ed internazionale. La peculiare trasversalità delle tecnologie vocali ha permesso a Dotvocal di sviluppare soluzioni per molti clienti in svariati settori: piattaforme di infotainment in ambito automotive, funzionalità di traduzioni linguistiche, gestione di portali telefonici automatici per società di trasporti e logistica, oltre ad aver sviluppato un proprio prodotto completamente innovativo nell’ambito degli ausili per disabili, che permette di fruire dei contenuti del PC e di Internet usando in modo semplice i comandi vocali.

Enrico Reboscio è fondatore e CEO di DotVocal e ci ha raccontato la sua esperienza nell’evoluzione di questa tecnologia, del relativo mercato e delle opportunità e dellesfide che si prospettano.

Le slide di Enrico sono a questo link (pdf 1.2M)

Per ricevere le credenziali di accesso al dataset presentato da Enrico alla fine del talk, compila il form qui sotto

Strategia Nazionale AI

Marco Bressani ci ha parlato della sua esperienza come membro del gruppo di esperti di alto livello selezionati dal Ministero dello Sviluppo Economico per elaborare la strategia nazionale sull’Intelligenza Artificiale e contribuire al Piano Coordinato promosso dalla Commissione Europea. I trenta superesperti sono stati selezionati tra esponenti del mondo imprenditoriale, delle associazioni di categoria, del mondo della ricerca, dell’università e della società civile con gli obiettivi di conoscere, approfondire ed affrontare il tema dell’Intelligenza Artificiale, valorizzare la ricerca, l’educazione e la formazione, nonché attrarre e favorire gli investimenti pubblici e privati. L’Italia punta ad avere un ruolo di avanguardia in Europa in questo settore strategico, considerato un’opportunità senza precedenti per incrementare la produttività del lavoro e per consentire progressi straordinari verso lo sviluppo sostenibile, senza perdere di vista i rischi derivanti da evantuali usi “incauti” dell’AI. Il lavoro del gruppo si è concluso lo scorso maggio con la pubblicazione di un paper di oltre 100 pagine dal titolo “Proposte per una strategia italiana per l’Intelligenza artificiale”, è ora all’attenzione dei tecnici del Ministero.

Marco Bressani, imprenditore e consulente di direzione, è fondatore e amministratore di Digital Tree, ecosistema dedicato alla creazione di Competenze ed Impresa in ambito Intelligenza Artificiale.

Le slide di Marco sono a questo link (pdf 1.5M) 

Il meetup DataScienceSeed fa parte delle iniziatove dell’associazione IAML, Italian Association for Machine Learning

Questo incontro è possibile anche grazie al supporto di


Wonder Talent Investor

Gruppo IB

DataScienceSeed#7 – Sicurezza Cyber-fisica: vehicle Platooning / Industralizzare il flusso di ML con MLFlow

Lascia un feedback sull’evento
(e dicci se vuoi partecipare al Deep Learning Group)

Ecco l’agenda del settimo incontro, che ha celebrato il primo anno di attività del nostro meetup! Di seguito tutto il materiale presentato ed i relativi video, ripresi e renderizzati da Wonderland Production.

Platooning: predire (ed evitare!) collisioni tra i veicoli con il machine learning

La guida automatica e coordinata di veicoli (Platooning) è un problema molto complesso, a causa della molteplicità dei corpi in movimento e della necessità di interconnssione tra i veicoli che avviene in genere su un canale non affidabile e tempo variante. L’obiettivo è evitare le collisioni.

Click sull’immagine per il pdf delle slide

Il caso si presta a sperimentare tecniche diverse nel campo del Machine Learning, confrontando pro e contro dei vari approcci,  e costituisce una introduzione molto concreta al concetto di Cyber-Physical Safety.

Nell’incontro il problema è stato affrontato con Rulex, uno strumento rule based che abbiamo già incontrato nei meetup, e che ha i suoi punti di forza nella semplicità di uso e nell’interpretabilità dei risultati. Il dataset di riferimento è a disposizione della community, come Challenge per l’estate.

Link al Dataset – 3MBytes zip file

Maurizio Mongelli è ricercatore presso il CNR a Genova, il cui istituto, IEIIT, ha dato luogo a Rulex, azienda leader del panorama mondiale nel machine learning interpretabile.

Industrializzazione dei processi di Machine Learning in contesti Big Data enterprise: introduzione a MLFlow

I processi e le attività relativi all’addestramento dei modelli di Machie Learning possono rivelarsi molto complessi ed onerosi, specialmente nel contesto Big Data delle grandi aziende. MLFlow è uno strumento opensource che fornisce una soluzione per tenere traccia delle metriche, dei modelli e di tutti i parametri operativi utilizzando uno strumento unificato che consente di semplificare e rendere affidabile la gestione dell’intero processo. Scopriremo con Luca Ruzzola come funziona e come possiamo  utilizzarlo in combinazione con i principali framework.

Click sull’immagine per il repository github della presentazione e del codice

Luca Ruzzola è Machine Learning Engineer e Data Scientist  presso Agile Skill, azienda del gruppo Agile Lab che si occupa di consulenza e formazione su Big Data e AI.

Dataset Challenge  –  Natural Language Processing

Ludovico Simone, di Digital Tree ci ha presentato un dataset su NLP che è stato presentato nell’Hackathon del recente edizione del Web Marketing Festival di Rimini.

Clicl sull’immagine per pdf delle slide ed il link al dataset

Chi affronterà il challenge uscendone vittorioso, potrà presentare la propria analisi e la propria tecnica in un prossimo Meetup

Il meetup DataScienceSeed fa parte delle iniziatove dell’associazione  IAML, Italian Association for Machine Learning

Questo incontro è possibile anche grazie al supporto di

Wonder Talent Investor

Gruppo IB