/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Anche l'uomo eredita i pregiudizi dell'Intelligenza Artificiale

Anche l'uomo eredita i pregiudizi dell'Intelligenza Artificiale

Studio, rischio di rimanere intrappolati in un circolo vizioso

ROMA, 03 ottobre 2023, 14:05

Redazione ANSA

ANSACheck

© ANSA/EPA

© ANSA/EPA
© ANSA/EPA

È risaputo che l'Intelligenza Artificiale può ereditare i pregiudizi degli esseri umani tramite i dati con cui viene addestrata, ma si è ora scoperto che avviene anche il contrario: le persone che si avvalgono di sistemi basati sull'IA ereditano a loro volta pregiudizi ed errori nelle decisioni che prendono. Il rischio, dunque, è quello di rimanere intrappolati in un circolo vizioso senza fine: a lanciare l'allarme è uno studio della spagnola Deusto University di Bilbao, pubblicato sulla rivista Scientific Reports. I risultati mostrano che le informazioni distorte dall'IA possono avere un impatto negativo duraturo sulle decisioni umane e indica quindi la necessità di maggiori approfondimenti sui meccanismi anche psicologici alla base delle interazioni uomo-macchina. I progressi sorprendenti raggiunti dai sistemi di Intelligenza Artificiale, in grado ad esempio di sostenere una conversazione come farebbe un essere umano, hanno dato a questa tecnologia un'immagine di elevata affidabilità.

Sempre più ambiti professionali stanno implementando strumenti di questo tipo per supportare il processo decisionale degli specialisti e ridurre al minimo gli errori, tuttavia, questo approccio non è privo di rischi, come hanno dimostrato Lucía Vicente e Helena Matute. Le due ricercatrici hanno arruolato un gruppo di volontari per effettuare una simulazione: un gruppo doveva lavorare ad una diagnosi medica con l'aiuto di un sistema di IA caratterizzato da un errore sistematico, mentre il secondo gruppo lavorava in completa autonomia. Com'era prevedibile, i partecipanti assistiti dall'IA hanno commesso lo stesso errore contenuto nel sistema, a differenza degli altri, ma la scoperta più significativa è stata fatta nella seconda fase dell'esperimento. Quando il primo gruppo è passato a svolgere lo stesso compito senza aiuti esterni, ha continuato a imitare l'errore precedentemente commesso: in altre parole, ha ereditato la 'falla' contenuta nel sistema.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza