(ANSA) - MILANO, 20 APR - L'intelligenza artificiale e il suo
sviluppo pongono molte domande, non solo dal punto di vista
tecnico ma anche etico. Se ne è parlato durante l'evento
MoltoFuturo, inserito nel programma del Festival delle Scienze
di Roma. "Dare delle regole ben precise allo sviluppo della
tecnologia è fondamentale" sottolinea Paola Inverardi, Rettrice
del Gran Sasso Science Institute (Gssi). "Questo perché, di per
sé - aggiunge - l'intelligenza artificiale automatizza delle
istruzioni che, in prima battuta arrivano dall'uomo. Se viviamo
in un mondo digitale in cui i sistemi informatici svolgono un
ruolo essenziale, dobbiamo mostrarci pronti a includerli
maggiormente nelle nostre attività. L'Europa si è mostrata molto
attenta sul tema, tanto da aver individuato delle regole. Una su
tutte? Chi sviluppa progetti di AI deve allinearsi ai principi e
ai valori di uno stato democratico e permettere all'uomo di
avere sempre il controllo su tali iniziative". Cosa possono fare
le organizzazioni di ricerca per creare maggiore equilibrio
nella realizzazione di modelli tecnologicamente avanzati? "La
cooperazione è decisiva in tale campo. Per questo, nel nostro
istituto collaborano informatici, giuristi, sociologici,
psicologi. In questo modo possiamo compensare il comportamento
umano, naturalmente esposto su tendenze e inclinazioni
personali, con la stabilità ricercata dalle macchine". Secondo
Inverardi, un'attenzione maggiore nell'avanzamento degli
algoritmi deve andare anche alla sostenibilità ambientale dei
sistemi: "Tutta questa tecnologia richiede uno sforzo
computazionale molto importante. I data center vanno mantenuti,
gestiti e alimentati. Un contesto che è estremamente dispendioso
dal punto di vista energetico e sul quale bisogna lavorare".
(ANSA).