DSS Meetup #32 – Innovative sustainable clean energy

Con Massimo Rivarolo: Innovative sustainable and clean energy, usare i dati pubblici per capire dove stiamo andando

L’evento sarà in modalità mista, ovvero con posti disponibili in presenza, ospiti di Liguria Digitale e la consueta diretta online. Per chi parteciperà in presenza, ci sarà la consueta focaccia al termine del meetup!

Negli ultimi quindici anni, le politiche internazionali ed europee hanno promosso una serie di interventi per favorire lo sfruttamento di fonti di energia rinnovabili e sostenibili, e lo sviluppo di sistemi di accumulo e di combustibili alternativi per promuovere la sostenibilità e la decarbonizzazione. La ricerca e l’innovazione hanno fatto enormi progressi per consentire a sempre più persone nel mondo di usufruire di elettricità e calore prodotti in modo sostenibile. Per poter però parlare di transizione ecologica sostenibile sarà necessario investire maggiormente in nuove tecnologie: quali saranno le più strategiche? Quali di queste possono considerarsi realmente sostenibili? Cosa succederà ai combustibili fossili?

Per affrontare il tema della “sostenibilità” in modo consapevole e preparare le generazioni future attraverso gli insegnamenti di oggi, è necessario un approccio “data driven”, attraverso l’analisi e l’elaborazione di dati pubblici (fonti: ARERA, EUROSTAT, TERNA).

Nel talk affronteremo i seguenti temi:

  • Le politiche ambientali ed energetiche Europee per il 2020
  • Analisi critica delle politiche: risultati ed effetti
  • Cosa aspettarci nel prossimo futuro: gli obiettivi del Piano Nazionale Energia e Clima Italiano (PNIEC) 2030 e la transizione energetica in Italia

 

 Massimo Rivarolo ha ottenuto il titolo di Dottorato Europeo nel 2013 con la tesi “Produzione di idrogeno da impianto idroelettrico di grandissima potenza (14,000 MW) e studio di sistemi di stoccaggio e utilizzo in Sud America e Europa”. È membro dal 2010 del Gruppo di ricerca multidisciplinare Thermochemical Power Group (www.tpg.unige.it ) all’interno dell’Università di Genova. Dal 2015 al 2018, ha collaborato all’interno di un programma di ricerca tra UNIGE e ARERA (Autorità di Regolazione per Energia Reti e Ambiente), nell’ambito dei mercati dell’energia, delle fonti rinnovabili e della generazione distribuita. Dal 2019 è Ricercatore presso UNIGE. Dal 2021 è responsabile scientifico del programma di training nell’ambito della Cattedra UNESCO-Unitwin “Innovative sustainable clean energy research & education”, coordinata da UNIGE (2021-2024). È inoltre responsabile scientifico UNIGE per il Progetto EU H-2020 OnePlanet (2022-2025). Attualmente è responsabile del corso di laurea Triennale “Sistemi per l’energia e l’ambiente and environment” e co-docente per il corso di laurea magistrale “Impianti per l’energia”.

DSS Meetup #31 – Effective Altruism e Data Science

Come amplificare il proprio impatto nella propria vita e carriera nella tecnologia? con Stefania Delprete

L’Effective Altruism (Altruismo Efficace) è una comunità e movimento sociale che pone le basi sull’evidenza scientifica per priorizzare cause e progetti d’impatto e massimizzare il bene che possiamo fare ora nel mondo.

Oltre al donare a progetti ad alta efficacia, si può infatti anche dirigere la propria carriera come data scientist in organizzazioni ad alto impatto, approfondire/ricercare in tematiche come i rischi dell’intelligenza artificiale, sensibilizzare all’interno della propria azienda, o addirittura iniziare da zero un proprio progetto d’impatto. Durante il talk saranno mostrate le diverse opportunità a disposizione per persone che lavorano o studiano nella tecnologia e appassionate nel lavoro sui dati.

 Stefania Delprete gestisce il capitolo italiano di Effective Altruism (Altruismo Efficace) e il gruppo professionale di persone esperte o aspiranti nel campo della data science, machine learning ed intelligenza artificiale coinvolte in tale comunità di altruisti efficaci.

Studia fisica in Italia per poi lavorare nella programmazione nel Regno Unito e in Germania. Negli ultimi anni di è occupata di progetti e insegnamenti di Python e data science. Stefania fa parte di comunità dell’open source fra cui Python/PyCon Italia e Mozilla Italia. È appassionata di jazz, studi sulla coscienza e sogni lucidi.

E’ stata tra i relatori del primo storico meetup DataScienceSeed, nel luglio 2018

Tra le iniziative ad alto impatto sociale a cui collebora Stefania c’è Charity Entrepreneurship, incubatore di iniziative non-profit. La call for applications è aperta fino al 10 Novembre. Date un’occhiata al sito, è molto interessante!

Slide di Stefania (7M PDF)

DSS Online #13 – Sicurezza dei Sistemi Complessi: Si può tendere al rischio zero?

L’analisi del rischio è un insieme di metodi logici che servono ad analizzare la sicurezza di un sistema complesso. Questa prevede la stima delle probabilità di accadimento di eventi indesiderati con conseguenze avverse, e la valutazione degli effetti sul sistema. Storicamente l’analisi prende avvio dalle frequenze di guasto dei componenti del sistema, concatenate con metodi logici statici. Il rischio viene quindi espresso in termini di frequenza attesa, ed è una fotografia statica del sistema nelle peggiori condizioni possibili.

Questa stima è sempre estremamente cautelativa, e spesso inadeguata a fornire reali informazioni sulla natura del rischio e sulle strategie di prevenzione, e non tiene n considerazione le fluttuazioni nell’operatività. L’applicazione dei nuovi paradigmi di rischio basati sull’ingegneria della resilienza permettono (o meglio, promettono!) di rappresentare la sicurezza di un sistema complesso in modo dinamico, e di intercettare le deviazioni di processo prima che si avviino i percorsi verso gli incidenti.

Il Machine Learning per l’analisi del rischio

L’applicazione di opportuni algoritmi di apprendimento automatico può facilitare questo processo, e nell’intervento verranno discusse alcune idee in merito all’applicazione dell’inferenza Bayesiana all’analisi del rischio, e come queste possono rappresentare un importante passo verso l’ambizioso target di rischio zero.

Tomaso Vairo, Ingegnere chimico e PhD, svolge attività di ricerca e docenza presso l’Università degli Studi di Genova, nei campi dell’analisi del rischio e della modellistica ambientale. E’ inoltre analista di rischio presso l’Agenzia Regionale per la Protezione dell’Ambiente Ligure (ARPAL) e divulgatore scientifico.

Ecco le slide presentate da Tomaso (PDF 2M) DSS2302

Bibliografia sull’argomento

gentilmente selezionata da Tomaso:

Resilience Dynamic Assessment Based on Precursor Events: Application to Ship LNG Bunkering Operations Sustainability 2021, 13(12), 6836

Predictive model and Soft Sensors Application to Dynamic Process Operative Control CHEMICAL ENGINEERING TRANSACTIONS VOL. 86, 2021

Resilience Assessment of Bunkering Operations for A LNG Fuelled Ship Proceedings of the 30th European Safety and Reliability Conference and 15th Probabilistic Safety Assessment and Management Conference (ESREL 2020)

Accessibility for maintenance in the engine room: development and application of a prediction tool for operational costs estimation Ship Technology Research – Taylor and Francis Online 2022

A Data Driven Model for Ozone Concentration Prediction in a Coastal Urban Area CHEMICAL ENGINEERING TRANSACTIONS VOL. 82, 2020

A Dynamic Approach to Fault Tree Analysis based on Bayesian Beliefs Networks CHEMICAL ENGINEERING TRANSACTIONS VOL. 77, 2019

 

DataScienceSeed Online#12 – Open Source AI sulla linea di produzione

DataScienceSeed torna online Mercoledì 26 Gennaio, a partire dalle ore 18:00. Incontreremo Paolo Mascellani, presidente della cooperativa eLabor, che sta sviluppando un sistema completo ed open source che porta il deep learning sulla linea di prodizione.

ADR-Flow applica tecniche di deep learning al riconoscimento automatico dei difetti di produzione industriale, coniugandole con una infrastruttura  software robusta ed adattabile. Non propone dei risultati nuovi, ma applica risultati consolidati ad una necessità ben precisa, consentendo di concentrarsi sulle necessità specifiche perché il sistema si occupa di tutto il resto. Il tutto, Open Source.

Le prime esperienze fatte con ADR-Flow riguardano il problema della corretta cablatura degli impianti  di un motoveicolo: al di la della dimostrazione della possibilità teorica di raggiungere questo obiettivo, la sfida è architettare una struttura robusta e flessibile di raccolta e gestione dei dati.

Questo ha richiesto di affrontare problematiche architetturali da coniugare con gli stumenti di Data Science (nel nostro caso il transfer learning con Keras e Tensor Flow), affrontando i problemi tipici di avere pochi dati e sbilanciati (data augmentation, controllo dell’overfitting, pesatura dei campioni) ed usando metriche adeguate a descrivere il problema.

Molti e notevoli gli stimoli per miglioramenti ed evoluzioni future: efficienza dell’addestramento e del riconoscimento, sia dal punto di vista della dimensione dei modelli che dei tempi di elaborazione, sistemi di ausilio all’etichettatura dei campioni, modi per affrontare difetti estremamente rari, ma importanti (ad esempio riguardanti la sicurezza), uso di generative adversarial network per sintetizzare campioni realistici, difetti nelle produzioni continue, ed è solo l’inizio.

Paolo Mascellani è presidente della cooperativa eLabor, che ha fondato nel 2001 assieme ad alcuni amici con lo scopo di non far perdere alla società le energie di quanti si trovano in un periodo di difficoltà dal punto di vista lavorativo ed allo stesso tempo di fornire ad aziende, enti, cooperative, eccetera, servizi tecnologicamente avanzati, basati su software libero ed a costo sostenibile.

Convinto della sinergia tra formazione e lavoro, si è laureato dapprima in Ingegneria Elettronica, poi in Scienze dell’Informazione e successivamente ha conseguito il dottorato di ricerca in Logica Matematica ed Informatica teorica. Negli ultimi anni ha seguito con successo numerosi corsi di formazione on-line su temi come Machine Learning, Internet of Things, Big Data, Sviluppo Agile e molto altro. In tutto questo tempo non ha mai smesso di lavorare, con numerose puntate in vari paesi in via di sviluppo, di mettere in pratica quanto ha studiato e di trasmettere ai propri amici, familiari e colleghi le conoscenze acquisite e la voglia di acquisirne altre.

È questo il caso anche del rilevamento automatico dei difetti di produzione industriale.

DSS Online #7 – Reinforcement Learning: Applicazioni

Il primo meetup Online del 2021 per DataScienceSeed, si è svolto Venerdi 22 Gennaio dalle 18 in poi, tutto dedicata al Reinforcement Learning, uno dei tre paradigmi principali del machine learning (oltre al supervised e all’unsupervised ML) in grado di risolvere problemi decisionali complessi.

Lascia qui un feedback sull’evento

Lo scopo del Reinforcement Learning consiste nel realizzare agenti autonomi capaci di apprendere comportamenti complessi tramite ripetute interazioni di tipo “trial and error” con un ambiente dinamico in cui sono immersi.

Le azioni vengono valutate tentando di massimizzare un valore numerico di “reward” (ricompensa), in modo di premiare quei comportamenti dell’agente che ottimizzano gli obiettivi prefissati, ed allo stesso tempo penalizzare quei comportamenti che allontanano l’agente da questi obiettivi.

Per questo meetup, abbiamo ripreso il filo dall’evento organizzato Martedi 14 Gennaio da Cagliari Machine Learning Meetup e Italian Association for Machine Learning, dove Alessandro oltre ad introdurre l’argomento del Reinforcement Learning ci ha parlato della piattaforma Diambra, un luogo virtuale in cui osservare agenti di Reinforcement Learning crescere e imparare, combattere l’uno contro l’altro o contro gli umani.

I giochi in ambienti simulati sono ideali per ed affilare gli algoritmi di Reinforcement Learning, ma non ci fermiamo a questo: Durante il 7 meetup Online di DataScienceSeed abbiamo approfondito l’argomento parlando delle numerose possibili applicazioni in ambito industriale e commerciale, così come di quelle in campo militare, tra le quali ce ne sono molto di interessanti e promettenti.

Qui trovate il video del meetup:

Mentre quello qui di seguito è il video dell’incontro di Martedi 14 Gennaio:

Alessandro Palmas è un ingegnere aerospaziale con più di 8 anni di esperienza nello sviluppo di software per applicazioni scientifiche avanzate e sistemi software complessi. In qualità di responsabile R&D in una PMI italiana in campo aerospaziale e difesa, coordina progetti in contesti che vanno dalle dinamiche del volo spaziale ai sistemi autonomi basati sull’apprendimento automatico. Il suo obiettivo principale nel ML è il deep reinforcement learning, la visione artificiale e modelli 3D. Ha fondato iniziative innovative, l’ultima delle quali è Artificial Twin, che fornisce tecnologie avanzate per il machine learning, la modellazione fisica e le applicazioni di geometria computazionale. Due aree chiave in cui si concentra l’attuale lavoro di Artificial Twin Deep RL sono l’intrattenimento con videogiochi e i sistemi di guida, navigazione e controllo.

DSS Online #6: Causal Reasoning in ML: Spiegare “perché”

Torniamo in UK ad incontrare Pier Paolo Ippolito, Freelance data scientist con un portafoglio di competenze impressionante e la passione per la divulgazione. Ci parlerà di un tema importante nel Machine Learning: distinguere le cause dalle correlazioni, con un esempio purtroppo sempre alla ribalta, legato alla diffusione delle epidemie.

Partecipano all’incontro Carla Marcenaro e Simone Merello.

Lascia qui un feedback sull’evento

 

Al giorno d’oggi le tecnologie di Machine Learning si basano solo sulle correlazioni tra le diverse “features”. Ció nonostante, questo approccio può eventualmente portare a conclusioni errate poiché correlazioni non implicano necessariamente causalità.

Come esempio di questo studio di ricerca, Pier Paolo ha creato e distribuito una suite di modelli “agent based” e comportamentali al fine di simulare gli sviluppi di malattie epidemiche in diversi tipi di comunità.

Nel meetup quindi, oltre ad imparare qualcosa sul tema del causal reasoning, esploreremo un esempio molto concreto, sviluppato in open source e disponibile come applicazione web.

Pier Paolo Ippolito è un SAS Data Scientist e MSc in Intelligenza Artificiale laureato presso l’Università di Southampton. Ha un forte interesse per i progressi dell’IA e le applicazioni di apprendimento automatico. Al di fuori del suo lavoro, è uno scrittore per Towards Data Science e un Kaggle Contributor.

Scarica le slide del talk (pdf 2M)

Link a cui si fa riferimento nel talk:

Main page: https://pierpaolo28.github.io/

Dashboard: http://3.22.240.181:8501/

Librerie per Causal Reasoning: https://microsoft.github.io/dowhy/, https://github.com/uber/causalml, https://github.com/quantumblacklabs/causalnex

Libreria per lavorare con equazioni differenziali (modelli compartimentali): https://www.scipy.org/

DSS Online #5: AI e Machine Learning per le PMI e la PA – Organizzare il team di AI

Nicolò Annino ci racconta la sua esperienza di ingegnere ed imprenditore nel progettare sistemi di Machine Learning per le piccole e medie imprese e per la PA in Italia, vivendo sulle nuvelo del Cloud e sulla terra di confine dell’Edge.

L’evento è collegato a C1A0 Expo 2020 – La fiera internazionele dell’AI di Genova

Lascia il tuo feedback sull’evento qui!

Può una piccola azienda contribuire ad influenzare ed ispirare le modalità di sviluppo di un intero paese?

Per rispondere affrontiamo con un viaggio tra tecnologia e opportunità, dove per realizzare sistemi complessi servono competenza, rapidità ed intuizione. Tra sistemi di produzione e di fund raising parleremo di come il Machine learning può entrare nelle PMI e nella Pubblica Amministrazione anche senza “santi in paradiso”.

Nella seconda parte della chiacchierata si affronta il problema dell’organizzazione di un progetto di AI dal punto di vista del Team.
Nicolò Annino, dopo la laurea con tesi in bio-robotica ha fondato varie società tra cui la Idealarm Ltd, che oggi è attivamente impegnata nello sviluppo di sistemi di sicurezza avanzati per il contrasto alla criminalità ed al terrorismo. La società ha un focus specifico nella computer-vision e machine learning, vantando numerose invenzioni ed innovazioni che le hanno permesso di veder adottati i suoi sistemi più innovativi in ambito militare,in particolari settori di sicurezza nazionale, oltre a numerose applicazioni specifiche per le forze dell’ordine.Ha fondato la social community Machine Learning Italia,coinvolgendo oltre 3000 tra docenti, ricercatori, professionisti e studenti di Machine Learning ed Intelligenza Artificiale ed è cofondatore del guppo Machine Learning Catania che organizza seminari ed eventi di divulgazione scientifica in Sicilia orientale. E’ consulente tecnico per editori italiani nello sviluppo di sistemi di Intelligenza Artificiale applicata alla profilazione utente, analisi dati e processing del linguaggio naturale e supporta come mentor di varie startup ed aziende.

 

Ecco le slide di Nicolò (pdf 3.5MB)

DSS Online #4: Tech & Ethics for the Open Source AI: The Linux Foundation AI

Venerdi 23 Ottobre 2020 sempre a partire dalle 18:00, DataScienceSeed è tornato questa volta in versione internazionale, completamente in inglese, con degli ospiti di eccezione dagli U.S.!

The First internation DataScienceSeed event, in our 4th online meetup we have had the pleasure to meet the Linux Foundation AI, part of the Linux Foundation. Their mission is to build and support an open AI community, and drive open source innovation in the AI, ML and DL domains by enabling collaboration and the creation of new opportunities for all the members of the community.

Give us your feedback on the event at this link!

We started from an intro to LFAI, then we dig deeper in two of their projects, touching technical and ethical topics. Two sides of the same coin of Artificial Intelligence, now and more and more in the future.

LF AI and Open Source: Accelerating Innovation in the AI Market

Over the past two decades, open source software — and its collaborative development model — has disrupted multiple industries and technology sectors, including the Internet/web, telecom, and consumer electronics. Today, large scale open source projects in new technology sectors like blockchain and artificial intelligence are driving the next wave of disruption in an even broader span of verticals ranging from finance, energy and automotive to entertainment and government.

In this talk, Dr. Haddad provided a quick overview of the efforts of the LF AI Foundation in supporting the development, harmonization, and acceleration of open source AI projects and how to get involved.

Download Ibrahim’s slides (pdf)

The easiest way to get in touch with LFAI is to join the Slack channel


If you want to know more , you may want to have a look to the session held by Ibrahim at the AI for People summer workshop, which is where we met him the first time!

Ibrahim Haddad (Ph.D.) is the Executive Director of the LF AI Foundation. Prior to the Linux Foundation, Haddad served as Vice President of R&D and Head of the Open Source Division at Samsung Electronics. Throughout his career, Haddad has held several technology and portfolio management roles at Ericsson Research, the Open Source Development Lab, Motorola, Palm and Hewlett-Packard. He graduated with Honors from Concordia University (Montréal, Canada) with a Ph.D. in Computer Science, where he was awarded the J. W. McConnell Memorial Graduate Fellowship and the Concordia University 25th Anniversary Fellowship.

End-to-End Deep Learning Deployment with ONNX

A deep learning model is often viewed as fully self-contained, freeing practitioners from the burden of data processing and feature engineering. However, in most real-world applications of AI, these models have similarly complex requirements for data pre-processing, feature extraction and transformation as more traditional ML models.

Any non-trivial use case requires care to ensure no model skew exists between the training-time data pipeline and the inference-time data pipeline. This is not simply theoretical – small differences or errors can be difficult to detect but can have dramatic impact on the performance and efficacy of the deployed solution. Despite this, there are currently few widely accepted, standard solutions for enabling simple deployment of end-to-end deep learning pipelines to production.

Recently, the Open Neural Network Exchange (ONNX) standard has emerged for representing deep learning models in a standardized format. While this is useful for representing the core model inference phase, we need to go further to encompass deployment of the end-to-end pipeline. In this talk Nick introduced ONNX for exporting deep learning computation graphs, as well as the ONNX-ML component of the specification, for exporting both “traditional” ML models as well as common feature extraction, data transformation and post-processing steps. He covered how to use ONNX and the growing ecosystem of exporter libraries for common frameworks (including TensorFlow, PyTorch, Keras, scikit-learn and Apache SparkML) to deploy complete deep learning pipelines. Finally, I will explore best practices for working with and combining these disparate exporter toolkits, as well as highlight the gaps, issues and missing pieces to be taken into account and still to be addressed.

Nick Pentreath (Open Source Developer, Developer Advocate) – Principal Engineer, IBM CODAIT – Nick is a Principal Engineer at IBM. He is an Apache Spark committer and PMC member and author of Machine Learning with Spark. Previously, he co-founded Graphflow, a startup focused on recommendations and customer intelligence. He has worked at Goldman Sachs, Cognitive Match, and led the Data Science team at Mxit, Africa’s largest social network. He is passionate about combining commercial focus with machine learning and cutting-edge technology to build intelligent systems that learn from data to add business value.

Download Nick’s slides (pdf)

AI Fairness 360 – an open source toolkit to mitigate discrimination and bias in machine learning models

Machine learning models are increasingly used to inform high-stakes decisions. Discrimination by machine learning becomes objectionable when it places certain privileged groups at the systematic advantage and certain unprivileged groups at a systematic disadvantage. Bias in training data, due to prejudice in labels and under -or oversampling, yields models with unwanted bias. The AIF360 R package is a R interface to AI Fairness 360 – a comprehensive toolkit that provides metrics to check for unwanted bias in datasets and machine learning models and state-of-the-art algorithms to mitigate such bias. This session explored the metrics and algorithms provided in AI Fairness 360 toolkit, as well as a hands-on lab in R.

AIF360 is a sub-project of Trusted AI

Saishruthi Swaminathan (Developer Advocate, Open Source Developer) is a developer advocate and data scientist in the IBM CODAIT team whose main focus is to democratize data and AI through open source technologies. She has a Masters in Electrical Engineering specializing in Data Science and a Bachelor degree in Electronics and Instrumentation. Her passion is to dive deep into the ocean of data, extract insights and use AI for social good. Previously, she was working as a Software Developer. On a mission to spread the knowledge and experience, she acquired in her learning process. She also leads education for rural children initiative and organizing meetups focussing women empowerment.

Download Saishruthi’s slides

Useful links:

Trusted AI WIki 

Trusted AI Projects

DSS Online #3: Data Science vs Data Engineering: il lato robusto dell’AI

Venerdi 2 Ottobre 2020, Piero Cornice di Signal AI ci ha raccontato da Londra la sua esperienza da Software Engineer incaricato di mettere in produzione in real time i modelli di NLP realizzati dal team di Data Scientists dell’azienda. La sfida è tecnica ma anche umana.

Lasciaci un feedback sull’evento, a questo link!


Piero Cornice è Technical Lead a Signal AI , un’azienda britannica che si occupa di aumentare il potere decisionale dei propri clienti estraendo informazioni da notizie in tempo reale. Ingegnere informatico con un background in sistemi embedded e media streaming, negli ultimi anni ha lavorato su sistemi di raccomandazione e Natural Language Processing.

La Data Platform di Signal AI processa oltre 4 milioni di documenti al giorno, analizzando in tempo reale entità, argomenti, sentimenti, e altri fattori. Allo stesso tempo tale infrastruttura consente di sviluppare e sperimentare agilmente nuovi modelli di machine learning.

Estrarre informazioni automaticamente da un grande volume di testi in tempo reale presenta sfide su più livelli. In Signal AI abbiamo individuato due aspetti fondamentali per affrontarle: le scelte tecnologiche e la collaborazione tra ingegneria e ricerca.

Le scelte tecnologiche richiedono di bilanciare l’adozione di soluzioni off-the-shelf con lo sviluppo di tool specializzati. La collaborazione tra ricercatori e ingegneri gioca un ruolo vitale per l’innovazione e la velocità con cui temi di ricerca possono trovare uno sbocco applicativo. Tuttavia non è facile trovare un punto d’incontro tra i processi della ricerca e quelli della messa in produzione.

Questo intervento descrive le principali soluzioni tecniche e organizzative che hanno permesso al team di raggiungere tali risultati, con l’obiettivo di condividere le lezioni imparate lungo il percorso.

Slide di Piero Cornice (8.7M pdf)

DSSOnline #1 – Data Science e Domanda Turistica post Covid-19

In attesa di poterci vedere nuovamente di persona quando finalmente sarà passato questo brutto periodo di emergenza, DataScienceSeed ritorna con la sua prima edizione Online!

Ovviamente si parla di Datascience & COVID, anche se vogliamo farlo da un punto di vista particolare, pensando agli effetti che l’epidemia potrà avere sull’industria del turismo. Ce ne ha parlato Anna Codispoti, Data Science Manager in Costa Crociere. Per approfondire alcuni temi  e stimolare la discussione tra i relatori e con il pubblico, abbiamo previsto gli niterventi di Francesco Cricchio, CEO di Brain e Riccardo Beltramo, dell’Università degli Studi di Torino. A loro si è aggiunto un interessantissimo intervento fuori programma di Lara Congiu.

Se avete partecipato, dateci un feedback!


Data Science e Domanda Turistica post Covid-19

Viaggiare ha un ruolo importante nella vita di tutti noi. Ci aiuta ad ampliare i nostri orizzonti ed a soddisfare il nostro istinto primario di scoperta e esplorazione. E’ questo probabilmente il motivo per cui l’industria del turismo è riuscita negli anni ad affrontare diverse sfide e crisi globali, quali attacchi terroristici, epidemie e disastri naturali. Anche nella situazione attuale, che sta vendendo l’intera economia globale vivere una crisi profonda, il settore turistico sarà probabilmente uno di quelli che porterà i segni lasciati dal Covid-19 più a lungo. Nonostante la situazione senza precedenti renda difficile fare stime affidabili, analizzando modellizzazioni di eventi passati, dati di trend e survey sull’attuale consumer sentiment, è possibile scomporre la “travelling anxiety” nei suoi elementi essenziali e cercare di misurare in questo modo l’impatto che l’attuale pandemia avrà sulla domanda turistica, separando impatti a breve e a lungo termine.

Anna Codispoti è Data Science Manager in Costa Crociere S.p.A., con un Ph.D. in Matematica e Applicazioni conseguito presso l’Università degli studi di Genova ed un G.M.P. conseguito presso la ESCP Business School. I progetti curati dal team di Data Science che coordina coinvolgono diverse aree aziendali, come ad esempio il pricing dei prodotti di bordo, lo sviluppo di sistemi di ottimizzazione e forecasting o sistemi di raccomandazione su piattaforme web. Le sue principali aree di interesse sono la Modellazione Matematica, il Machine Learning e Big Data come strumenti di Business Decision Making e Customer Engagement.

Slide presentate da Anna (PDF 1.7M)

Ed ecco i link degli articoli di Anna su Medium:

Covid-19 and touristic demand

When will we start dreaming our next trip again?

Francesco Cricchio e’ il CEO di Brain, un’azienda di ricerca che crea set di dati e algoritmi proprietari per strategie di investimento, combinando competenze in Finanza con competenze in Statistica, Machine Learning e Natural Language Processing. L’intervento sarà focalizzato sull’applicazione di queste tecniche per monitorare le conseguenze dell’epidemia sui mercati finanziari e su settori specifici.

Slide presentate da Francesco (PDF 2M)

Riccardo Beltramo è Professore Ordinario all’Università degli Studi di Torino, Dipartimento di Management. Svolge ricerche nel campo del turismo sostenibile prevalentemente in ambito montano. Lavora nel campo dell’Ecologia industriale e svolge ricerche sui sistemi di gestione integrati, applicati ad attività manifatturiere e di servizi ed alle aree industriali. Attualmente insegna Environmental Management Systems, Tourism Eco-Management ed Ecologia industriale presso la Scuola di Management ed Economia.

Purtroppo il collegamento con Riccardo è saltato prima che potesse iniziare l’intervento in diretta, quindi ha registrato il suo contributo  successivamente.

Slide di Riccardo (17M PDF)

Agli interventi previsti si è aggiunto un interessantissimo fuori programma della gentilissima Lara Congiu,  che lavora presso la Commissione Europea di Bruxelles proprio all’intersezione tra turismo, sostenibilità e data science.

Ecco il folder di documenti a cui fa riferimento Lara nel suo intervento. Una miniera di informazioni e link.

Zip file 19M

 


Il meetup DataScienceSeed fa parte delle iniziative dell’associazione

IAML, Italian Association for Machine Learning