È risaputo che l'Intelligenza Artificiale può ereditare i pregiudizi degli esseri umani tramite i dati con cui viene addestrata, ma si è ora scoperto che avviene anche il contrario: le persone che si avvalgono di sistemi basati sull'IA ereditano a loro volta pregiudizi ed errori nelle decisioni che prendono. Il rischio, dunque, è quello di rimanere intrappolati in un circolo vizioso senza fine: a lanciare l'allarme è uno studio della spagnola Deusto University di Bilbao, pubblicato sulla rivista Scientific Reports. I risultati mostrano che le informazioni distorte dall'IA possono avere un impatto negativo duraturo sulle decisioni umane e indica quindi la necessità di maggiori approfondimenti sui meccanismi anche psicologici alla base delle interazioni uomo-macchina. I progressi sorprendenti raggiunti dai sistemi di Intelligenza Artificiale, in grado ad esempio di sostenere una conversazione come farebbe un essere umano, hanno dato a questa tecnologia un'immagine di elevata affidabilità.
Sempre più ambiti professionali stanno implementando strumenti di questo tipo per supportare il processo decisionale degli specialisti e ridurre al minimo gli errori, tuttavia, questo approccio non è privo di rischi, come hanno dimostrato Lucía Vicente e Helena Matute. Le due ricercatrici hanno arruolato un gruppo di volontari per effettuare una simulazione: un gruppo doveva lavorare ad una diagnosi medica con l'aiuto di un sistema di IA caratterizzato da un errore sistematico, mentre il secondo gruppo lavorava in completa autonomia. Com'era prevedibile, i partecipanti assistiti dall'IA hanno commesso lo stesso errore contenuto nel sistema, a differenza degli altri, ma la scoperta più significativa è stata fatta nella seconda fase dell'esperimento. Quando il primo gruppo è passato a svolgere lo stesso compito senza aiuti esterni, ha continuato a imitare l'errore precedentemente commesso: in altre parole, ha ereditato la 'falla' contenuta nel sistema.
Riproduzione riservata © Copyright ANSA