/ricerca/ansait/search.shtml?tag=
Mostra meno

Se hai scelto di non accettare i cookie di profilazione e tracciamento, puoi aderire all’abbonamento "Consentless" a un costo molto accessibile, oppure scegliere un altro abbonamento per accedere ad ANSA.it.

Ti invitiamo a leggere le Condizioni Generali di Servizio, la Cookie Policy e l'Informativa Privacy.

Puoi leggere tutti i titoli di ANSA.it
e 10 contenuti ogni 30 giorni
a €16,99/anno

  • Servizio equivalente a quello accessibile prestando il consenso ai cookie di profilazione pubblicitaria e tracciamento
  • Durata annuale (senza rinnovo automatico)
  • Un pop-up ti avvertirà che hai raggiunto i contenuti consentiti in 30 giorni (potrai continuare a vedere tutti i titoli del sito, ma per aprire altri contenuti dovrai attendere il successivo periodo di 30 giorni)
  • Pubblicità presente ma non profilata o gestibile mediante il pannello delle preferenze
  • Iscrizione alle Newsletter tematiche curate dalle redazioni ANSA.


Per accedere senza limiti a tutti i contenuti di ANSA.it

Scegli il piano di abbonamento più adatto alle tue esigenze.

Le bugie dei robot accettabili solo se sono a fin di bene

Le bugie dei robot accettabili solo se sono a fin di bene

Sviluppatori e proprietari sono ritenuti responsabili

05 settembre 2024, 16:23

di Benedetta Bianco

ANSACheck
Le bugie dei robot accettaili solo se sono a fin di bene (fonte: Horia Pernea, via Flickr, CC BY 2.0) - RIPRODUZIONE RISERVATA

Le bugie dei robot accettaili solo se sono a fin di bene (fonte: Horia Pernea, via Flickr, CC BY 2.0) - RIPRODUZIONE RISERVATA

Le bugie dei robot sono considerate accettabili solo se sono a fin di bene, come nel caso di un robot-infermiere che rassicura la sua paziente malata di Alzheimer dicendole che il marito tornerà presto a casa. Lo indica lo studio pubblicato sulla rivista Frontiers in Robotics and AI e guidato dall’americana George Mason University. Altri scenari presentano un robot-colf che nasconde il fatto che sta filmando quello che gli accade intorno o il robot-commesso che si fa sostituire da un umano fingendo di essere stanco: pPer i volontarti che hanno partecipato allo studio bugie come queste non sono accettabili e ritengono che per essere debbano essere considerati responsabili gli sviluppatori e i proprietari delle macchine.

I ricercatori guidati da Andres Rosero hanno reclutato circa 500 partecipanti, che dovevano decidere se approvare o meno il comportamento dei robot nei vari scenari, quanto fosse grave la bugia e se fosse in qualche misura giustificata. Le condanne più severe sono arrivate per il robot-colf, che registra senza comunicarlo apertamente, un comportamento considerato molto ingannevole, mentre circa la metà dei partecipanti hanno disapprovato anche il robot-commesso. Quasi tutti, invece, hanno approvato la bugia del robot-infermiere, considerata necessaria per proteggere la paziente da un dolore inutile.

Penso che dovremmo preoccuparci di qualsiasi tecnologia in grado di nascondere la vera natura delle sue capacità, perché potrebbe portare gli utenti a essere manipolati in modi che l'utente, e forse lo sviluppatore, non avevano previsto”, commenta Rosero. “Abbiamo già visto esempi di aziende che utilizzano i principi del web design e i chatbot basati sull’Intelligenza Artificiale in modi progettati per spingere gli utenti a compiere una determinata azione. Abbiamo bisogno di regole – aggiunge il ricercatore – che ci proteggano da questi comportamenti ingannevoli”.

Riproduzione riservata © Copyright ANSA

Da non perdere

Condividi

O utilizza