In futuro l'assistente vocale Siri non ascolterà solo le richieste degli utenti, ma anche le loro emozioni. La fotocamera frontale dell'iPhone analizzerà infatti le espressioni facciali e lo stato emotivo dell'utente mentre formula una domanda o impartisce un comando a Siri, in modo da ridurre i casi di incomprensioni e interpretazioni errate. La novità spunta in un brevetto depositato negli Stati Uniti.
Il sistema funziona attraverso l'analisi del volto - ad esempio il movimento di alcuni muscoli facciali - per attribuire all'utente un determinato stato emotivo.
L'analisi, abbinata al comando vocale, può aiutare Siri a rispondere nel caso di richieste che hanno più di una interpretazione. Potrebbe inoltre rivelarsi utile per determinare se una risposta di Siri ha soddisfatto o meno l'utente.