DSS Online #15 – Explainable AI: come interpretare le predizioni di sistemi basati su AI (e non solo)

I sistemi più recenti di intelligenza artificiale, come ad esempio quelli basati su deep learning, benché solitamente molto accurati, spesso non consentono una facile compresione delle dinamiche che li portano a generare le proprie “predizioni”.

L’Explainable AI è un campo di ricerca che studia come meglio comprendere ed interpretare sistemi opachi, quali ad esempio le reti neurali, attraverso l’uso di “spiegazioni”. Tali spiegazioni consentono di identificare i meccanismi di funzionamento interni di questi sistemi e conseguentemente di capire se potervi fare affidamento per prendere decisioni.  Ad esempio una spiegazione per una predizione corretta generata da una rete neurale consente di capire se tale predizione è corretta per i motivi giusti. Oppure una spiegazione può aiutare a capire per quali ragioni un sistema basato su AI produce una predizione sbagliata e, conseguentemente, può aiutare a capire come migliorare il sistema (o i dati utilizzati per addestrarlo).

In questo intervento vedremo una panoramica sul campo dell’explainable AI, illustrando alcune delle tecniche più conosciute per la generazione di spiegazioni; a seguire verranno presentate delle tecniche di Explainable AI specifiche per sistemi che utilizzano AI per task di data management. Infine vedremo come alcune spiegazioni possono operativamente essere utilizzate per migliorare i sistemi stessi.

Tommaso Teofili è Principal Software Engineer a Red Hat e dottorando all’Università Roma Tre. Svolge attività di ricerca e sviluppo nel campo dell’Explainable AI, nonché appassionato di tematiche di NLP e Information Retrieval. Contribuisce attivamente a diversi progetti open source come membro dell’Apache Software Foundation.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *