Torniamo a parlare di Machine Learning e di Explanations, ma questa volta con un paradigma del tutto nuovo: Explanatory Learning.
Come possiamo costruire macchine capaci di formulare teorie originali e arricchire la nostra conoscenza, proprio come fanno gli scienziati?
O per essere più precisi: come facciamo a scoprire automaticamente la spiegazione simbolica che ci permetta di effettuare previsioni accurate su un nuovo fenomeno diverso da tutti quelli incontrati prima? Questo problema alla base dell’intelligenza artificiale è stato affrontato dalla Program Synthesis e, più recentemente, dall’Explanatory Learning. La differenza fondamentale tra questi due paradigmi risiede nella natura dell’interprete che dovrebbe digerire la spiegazione generata. In Program Synthesis l’interprete è un rigido compilatore progettato da un uomo, su cui in ultima analisi ricade l’onere di dare un significato alla spiegazione (programma) in output. In Explanatory Learning invece l’interprete non è dato, e deve essere appreso da una raccolta limitata di spiegazioni esistenti abbinate a osservazioni dei corrispondenti fenomeni.
Seguendo l’esempio del Reinforcement Learning con i giochi Atari, in questa chiacchierata illustreremo le sfide dell’Explanatory Learning con Odeen, un gioco che simula l’impresa scientifica in un semplice universo stile Flatlandia. Introdurremo quindi le Critical Rationalist Networks, un approccio basato sul deep learning (Transformers) che si ispira alla teoria epistemologica di Popper per risolvere problemi di EL. Infine confronteremo le CRNs con approcci neurali end-to-end e di Program Synthesis su Odeen, discutendo prestazioni, garanzie, flessibilità ed effettiva spiegabilità dei diversi metodi.
Antonio Norelli è un dottorando di Informatica alla Sapienza di Roma nel laboratorio di ricerca GLADIA, dove lavora con il prof. Emanuele Rodolà su AI e Deep Learning. Fisico di formazione, ha conseguito la laurea magistrale in Informatica e il diploma di eccellenza della SSAS, la Scuola Superiore di Studi Avanzati della Sapienza. Ha lavorato come Research Intern a Spiketrap (startup di San Francisco, USA) e come Applied Scientist Intern ad Amazon Science (Laboratorio Lablet a Tubinga, Germania).