Le bugie dei robot sono considerate accettabili solo se sono a fin di bene, come nel caso di un robot-infermiere che rassicura la sua paziente malata di Alzheimer dicendole che il marito tornerà presto a casa. Lo indica lo studio pubblicato sulla rivista Frontiers in Robotics and AI e guidato dall’americana George Mason University. Altri scenari presentano un robot-colf che nasconde il fatto che sta filmando quello che gli accade intorno o il robot-commesso che si fa sostituire da un umano fingendo di essere stanco: pPer i volontarti che hanno partecipato allo studio bugie come queste non sono accettabili e ritengono che per essere debbano essere considerati responsabili gli sviluppatori e i proprietari delle macchine.
I ricercatori guidati da Andres Rosero hanno reclutato circa 500 partecipanti, che dovevano decidere se approvare o meno il comportamento dei robot nei vari scenari, quanto fosse grave la bugia e se fosse in qualche misura giustificata. Le condanne più severe sono arrivate per il robot-colf, che registra senza comunicarlo apertamente, un comportamento considerato molto ingannevole, mentre circa la metà dei partecipanti hanno disapprovato anche il robot-commesso. Quasi tutti, invece, hanno approvato la bugia del robot-infermiere, considerata necessaria per proteggere la paziente da un dolore inutile.
“Penso che dovremmo preoccuparci di qualsiasi tecnologia in grado di nascondere la vera natura delle sue capacità, perché potrebbe portare gli utenti a essere manipolati in modi che l'utente, e forse lo sviluppatore, non avevano previsto”, commenta Rosero. “Abbiamo già visto esempi di aziende che utilizzano i principi del web design e i chatbot basati sull’Intelligenza Artificiale in modi progettati per spingere gli utenti a compiere una determinata azione. Abbiamo bisogno di regole – aggiunge il ricercatore – che ci proteggano da questi comportamenti ingannevoli”.
Leggi l'articolo completo su ANSA.it