Di Alessio Jacona*
«L'intelligenza artificiale generativa può avere una duplice valenza: può essere educativa se adoperata in modo etico e favorendo il cammino di fioritura dell'umano, o può avere anche una valenza fortemente negativa, degenerativa, se questa tecnologia viene utilizzata per manipolare le coscienze o per diffondere fenomeni di odio, di mancanza di verità rispetto alle situazioni politiche».
A parlare è Angelo Tumminelli, ricercatore presso il Dipartimento di Scienze Umane dell'Università Lumsa, che insieme ad ANSA è tra i partner di Solaris. Solaris è il progetto di ricerca europeo che “che mira a comprendere sia le possibilità che i rischi etici e politici associati all'uso dell'intelligenza artificiale generativa". Esso si distingue, tra le altre cose, per un approccio trasversale e multidisciplinare, abbracciando settori che vanno dall'ingegneria alla filosofia, dal diritto alla psicologia. "Il nostro metodo di lavoro richiede un dialogo continuo tra diversi saperi - osserva infatti Tumminelli - in un'ottica di epistemologia della complessità».
L'Università Lumsa contribuisce al progetto Solaris con due ambiti di ricerca principali: quello filosofico, coordinato dal professor Calogero Caltagirone, ordinario di Filosofia Morale (cui afferisce Tumminelli), e quello semiotico, guidato dal professor Pietro Polidoro, ordinario di semiotica, e questo perché "Le competenze filosofiche e semiotiche sono cruciali per analizzare i contenuti digitali sviluppati dall'intelligenza artificiale generativa".
Nell'ambito della ricerca filosofica, il dottor Tumminelli e il professor Caltagirone lavorano alla definizione di un'etica dell'intelligenza artificiale generativa. Dal lato semiotico, il professor Polidoro e il suo team sviluppano modelli per l'analisi delle deepfake - i contenuti audio e video falsi generati con l’IA - e delle loro conseguenze geopolitiche, con particolare attenzione verso i contenuti digitali sviluppati dall'intelligenza artificiale generativa.
Affidarsi, non fidarsi
Secondo l’approccio della ricerca filosofica impostata dalla Lumsa, l'intelligenza artificiale di per sé è un mezzo tecnico, un mezzo neutro, e la sua valenza etica dipende dall'utilizzo che se ne fa. È un passaggio importante, perché se è vero che siamo improvvisamente entrati in un’epoca dove si moltiplicano chatbot progettati espressamente per sembrare umani, tenere ben presente che essi sono e restano solo macchine ci ricorda che la responsabilità di come le costruiamo, di come funzionano e - soprattutto - di come le usiamo, è solo nostra, di noi essere umani: «Solo fin tanto che saremo in grado di utilizzare l'intelligenza artificiale in modo educativo, in modo etico, - sottolinea infatti Tumminelli - essa diventerà un mezzo di promozione dell'umano e non uno strumento di degenerazione dell'umano».
Ma ricordare che stiamo parlando di macchine, anche quando si rivolgono a noi con voci ed espressioni straordinariamente umane - come avviene ad esempio per le iterazioni più recenti di ChatGTP, chiaramente ispirate al film di fantascienza “Her” - consente ai ricercatori della Lumsa di porsi anche un’altra domanda fondamentale: «Si può nutrire fiducia nei confronti dell'artefatto tecnologico?». Insomma, ci si può e ci si deve fidare delle IA? La tesi del gruppo guidato dal professor Caltagirone è che non ci si deve fidare della tecnologia ma, cosa molto diversa, ad essa bisogna affidarsi. «Il tema della fiducia è un tema fortemente legato al rapporto interpersonale fra i soggetti etici - spiega sempre il dottor Tumminelli - Quindi si può avere fiducia nei confronti di un “tu” personale, di un'altra persona, ma il rapporto nei confronti della tecnologia va definito in termini di affidamento tecnologico». E questo perché «quando noi ci affidiamo ad un apparato tecnologico di qualsiasi natura, questo affidamento è un richiamo alla fiducia originaria nei confronti di chi quell'apparato lo ha definito e strutturato». Insomma ci affidiamo alla macchina, alla tecnologia, ma la fiducia va riposta in coloro che l’hanno costruita, e che per questo ne sono i veri responsabili.
L’IA, nel bene e nel male
Secondo Tumminelli, «da un punto di vista antropologico l'intelligenza artificiale costituisce un esito dell'evoluzione dell'essere umano, la quale è un'evoluzione ibrida, una evoluzione tecno-umana, come dice il filosofo Paolo Benanti». I problemi etici che si pongono non dipendono dall'intelligenza artificiale di per sé, quanto piuttosto dagli scopi per cui essa viene utilizzata. «Fra le opportunità che questo strumento, frutto dell'evoluzione umana, ci offre - continua - sicuramente va inquadrato il tema dell'utilizzo dell'intelligenza artificiale per il bene, per l'esercizio della cittadinanza digitale, per il progresso dell'umanità in generale e per il progresso sociale».
L'intelligenza artificiale offre insomma un'enorme quantità di possibilità positive, ma altrettanto significativi sono i rischi etici legati ad un uso invece distorto, distopico di questa tecnologia. C’è ad esempio il tema - centrale alle ricerche del progetto Solaris - della manipolazione della libertà e delle coscienze, perché «con la diffusione dei deep fake si può esercitare un orientamento inconscio delle libertà personali verso una determinata ideologia, o addirittura verso un determinato sentimento».
C’è poi la questione, più che mai attuale, del rischio che l'IA generi dei bias automatici, dei pregiudizi discriminatori che non consentono alle persone di esercitare fino in fondo la propria libertà. «L'intelligenza artificiale rischia di abituarci, anche attraverso il sistema della profilazione algoritmica, al fatto che la visione del mondo che noi abbiamo è l'unica visione possibile», così come favorisce la polarizzazione ideologica perché ci rinchiude in “bolle” dove sentiamo ripetere le nostre idee, dove non si accetta la diversità delle visioni del mondo alternative e nascono fenomeni di scontro, di odio, se non addirittura di violenza.
Come rimediare? «Rispetto a tutti questi rischi - conclude Angelo Tumminelli - la necessità etica è quella di esercitare un uso consapevole delle tecnologie digitali, ma anche da un punto di vista giuridico, normativo e politico, di definire sistemi di regole precise che disciplinino l'intelligenza artificiale», come ad esempio l'AI Act promulgato dall'Unione Europea. Servono norme chiare, insomma, ma è anche e soprattutto necessario che cittadini sviluppino consapevolezza etica rischi e alle possibilità dell’intelligenza artificiale,
perché «solo un uso etico dell'intelligenza artificiale implica la fioritura dell'umano», conclude Tumminelli.
*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA
Leggi l'articolo completo su ANSA.it