Brevet : Siri pourrait bientôt reconnaître vos émotions

Jusqu’où un assistant vocal peut-il aller dans la perfection ? Difficiles à dire, mais chaque année qui passe, les assistants vocaux deviennent de plus en plus impressionnants. Apple s’est donné comme objectif de toujours améliorer Siri et d’ailleurs la firme californienne déposent régulièrement des brevets au sujet de son assistant vocal. Ce brevet a tout particulièrement attiré notre attention, puisqu’il est assez inhabituel !

 

Apple travaille sur un Siri capable de reconnaître votre émotion

Alors qu'il reste énormément de choses à améliorer dans les réponses que donne Siri quand on lui pose une question, en plus de travailler à l'amélioration dans ce sens, les équipes spécialisées dans l'intelligence artificielle de l'Apple Park travailleraient depuis plusieurs mois (voir plusieurs années) sur une nouveauté révolutionnaire.

Les brevets que déposent les marques ont pour but de protéger les innovations et grâce à ces dépôts de brevets (plutôt fréquent avec Apple), on commence à en savoir un peu plus sur le chemin qu'opte la firme californienne pour son célèbre assistant vocal.

Siri se servirait de la caméra frontale de l'iPhone

Pour détecter les émotions de l'utilisateur qui interagit avec Siri, Apple aurait prévu d'ouvrir les portes de la caméra frontale de l'iPhone à son assistant vocal. Il n'est pas facile de détecter l'émotion d'un utilisateur uniquement par la voix, cependant par le visage cela serait nettement plus simple. Avec un Face ID incroyablement précis et performant, la firme californienne voudrait se servir de cette technologie pour savoir si vous avez un air heureux, énervé, surpris, triste...

Apple apporte des précisions avec le schéma du brevet

Grâce à la lecture de vos émotions, Siri serait capable de savoir si la réponse communiquée vous a satisfait ou vous a énervé/frustré parce que l'assistant vocal vous a répondu complètement à côté.

L'information sur la réaction de l'utilisateur est exprimée sous la forme d'une ou de plusieurs mesures telles que la probabilité que la réaction de l'utilisateur corresponde à un certain état tel que positif/négatif ou un degré auquel l'utilisateur exprime la réaction.

 

 

Comment Siri va comprendre les expressions du visage ? La méthode que va utiliser Apple est un système de codage des actions faciales. Ce système s'appelle "FACS", il s'agit d'une norme pour la taxonomie faciale qui a été créée au cours des années 1970, il s'agit en gros d'un vaste catalogue d'expression faciale.

Une fonction qui pourrait aussi servir pour le HomePod

Pour l'instant l'innovation ne concerne que les iPhone qui possèdent la reconnaissance faciale, mais celle-ci pourrait aussi arriver sur le HomePod, puisque dans la voix on peut aussi reconnaître énormément d'émotions. Quelqu'un qui est triste n'aura jamais la même intonation de voix que quelqu'un qui vient de gagner 500€ à un ticket de grattage de la FDJ. Cela permettrait à Siri de s'adapter au profil de son utilisateur et peut-être de lui redonner le sourire !

Pour l'instant qu'au stade du brevet, la nouveauté pourra peut-être voir le jour ou être abandonnée comme de nombreux brevets qui n'ont jamais été utilisés, même 10 ans après leur dépôt.




Source

Vous aimerez peut-être

Nos derniers articles

Suivez-nous avec notre app iSoft
Articles populaires
Donner votre avis
Les réactions

1 scsyc

15/11/2019 à 00h10 :

Il faudrait déjà que Siri reconnaisse les requêtes de l'utilisateur, non ? Parce niveau transcription des requêtes, Siri est loin derrière Google Assistant...