Rubriche

Stilo, la sfida è rendere l'IA affidabile, equa e trasparente

La ricerca del docente (Univaq) tra le 500 eccellenze italiane

Redazione Ansa

(ANSA) - L'AQUILA, 23 MAR - In un momento in cui l'Intelligenza Artificiale (IA) assume un ruolo sempre più centrale nel nostro quotidiano, sorge la necessità di affrontare questioni legate alla trasparenza e all'affidabilità dei sistemi. Una sfida che è nelle corde di Giovanni Stilo, docente al dipartimento di Ingegneria dell'Informazione, Informatica e Matematica e direttore del Corso di Laurea in Data Science dell'Università degli Studi dell'Aquila indicato tra le 500 eccellenze italiane in materia di IA in una mappa dalla redazione Italian Tech di Repubblica.
    I suoi interessi di ricerca riguardano l'apprendimento automatico e il 'data mining', in particolare l'apprendimento per rinforzo, il rilevamento di anomalie, il 'temporal mining', l'analisi delle reti sociali, la medicina di rete e i sistemi di raccomandazione semantici. "Un aspetto cruciale - spiega - è la questione dell'affidabilità (trustworthiness) e dell'equità degli algoritmi. Si è riscontrato che in diversi contesti, come ad esempio nei sistemi Usa di prevenzione della recidiva criminale, gli algoritmi possono perpetuare e amplificare pregiudizi e disuguaglianze presenti nei dati di addestramento.
    Questo è emerso chiaramente in studi come quello sul dataset Compas, strumento di raccomandazione dove la popolazione afroamericana è apparsa svantaggiata dalle previsioni di recidività. È quindi essenziale mitigare questi 'bias', garantendo che gli algoritmi siano addestrati su dati equi e che i risultati siano equi e affidabili".
    In rappresentanza di Univaq, il professor Stilo ha partecipato a Vancouver alla recente conferenza internazionale organizzata dall'AAAI, Association for the Advancement of Artificial Intelligence. "Delle circa 9mila proposte di studio pervenute - spiega - ne sono state considerate circa duemila ed è stata affrontata la questione della privacy e della proprietà dei dati. Con il crescente utilizzo di sistemi di IA che richiedono grandi quantità di dati per l'addestramento, sorgono interrogativi sul controllo e sull'utilizzo etico di tali informazioni. Il concetto di 'unlearning' (disapprendimento) emerge come una prospettiva interessante, consentendo di rimuovere o mascherare dati sensibili". Molte ricerche si concentrano su approcci innovativi. Ad esempio, l'utilizzo di meccanismi di "diritto all'oblio". (ANSA).
   

Leggi l'articolo completo su ANSA.it