Il mercato dell'intelligenza artificiale che 'legge' le emozioni è in continua crescita, e ormai vale 20 miliardi di dollari tra app che aiutano nei colloqui di lavoro e algoritmi che cercano di capire se un indiziato mente, ma le autorità dovrebbero invece bandirle, perché sono basate su presupposti scientifici sbagliati. Lo afferma il rapporto annuale dell'AI Now Institute di New York, che mette questa al primo posto tra le raccomandazioni per il 2020.
"Questa tecnologia afferma di poter determinare gli stati emozionali interpretando le microespressioni del volto, il tono della voce o anche il modo di camminare - spiega alla Bbc Kate Crawford, cofondatrice dell'istituto -. Ormai è usata ovunque, dai colloqui di lavoro agli ospedali, dove viene usata per determinare il dolore provato dai pazienti, alle aule dove cerca di tracciare quali studenti sembrano seguire la lezione con più attenzione. Nello stesso momento in cui queste tecnologie prendono piede un grande numero di studi mostrano che non c'è nessuna evidenza di una relazione così stretta tra le emozioni che si provano e l'aspetto esteriore del volto".
Tra gli studi citati c'è quello, durato due anni, di un gruppo di ricercatori della American Association for Psychological Science, che ha concluso che "è molto difficile usare le espressioni del volto da sole per predire accuratamente cosa si sta provando". Molte delle compagnie impegnate nel settore, sottolinea Crawford, basano i propri algoritmi sul lavoro di Paul Ekman, uno psicologo che negli anni '60 affermò che ci sono solo sei emozioni di base espresse dal volto. "Ma studi successivi hanno dimostrato che la variabilità è molto maggiore, sia in termini di numero di emozioni che del modo di esprimerle, che cambia a seconda delle culture, della situazione, e anche in uno stesso giorno".