skip to Main Content
Bientôt Votre Assistant Vocal Détectera Vos émotions

« Ok Google »… Tudut ! « Ne me dis pas que demain il va encore faire un temps pourri ? »… « Bonjour John, demain sera un jour meilleur qu’aujourd’hui, vous pouvez dormir tranquille John »… Tous ceux qui possèdent un assistant vocal Google, Xiaomi, Amazon et j’en passe, peuvent voir leur évolution quotidienne. Les serveurs auxquels sont reliés ces assistants sont mis à jour presque toutes les deux heures. Actuellement cette technologie est complètement intégrée par les utilisateurs grâce aux enceintes connectées ou plus simplement, les smartphones. Figurez-vous que les géants de ce secteur d’activité veulent une fois de plus aller beaucoup plus loin…

Le tout nouveau business de pas mal de startups telles que Affectiva, Beyond Verbal, Cogito ou Realeyes, est basé sur la compréhension des émotions d’un utilisateur en prenant en compte son intonation. Inutile de préciser que Amazon est plutôt super intéressé par ces gros progrès. Normal me direz-vous, en savoir autant sur son interlocuteur est un très grand avantage. Imaginez deux minutes que votre assistant vocal connaît le moment précis où vous devenez frustré et ainsi adapte son discours pour ne pas vous mettre d’avantage en rogne. Ca fonctionne aussi pour les observations d’un manager d’une plateforme de service client; aider son équipe à mieux transmettre les bonnes réponses aux consommateurs.

Une technologie plus que prometteuse dans le médical

La possibilité de déceler les émotions des utilisateurs sera plus qu’utile dans le secteur médical. Par exemple, les assistants vocaux pourront très bientôt prévenir leurs utilisateurs en cas de stress post-traumatique ou d’insuffisance cardiaque. Toute cette techno est basée sur l’intelligence artificielle, secteur innovant en forte croissance. La startup Nippone, Empath, vient tout juste de dévoiler sa propre intelligence artificielle qui a pour nom « Emotion AI ». Cette I.A (Intelligence Artificielle) sait parfaitement détecter automatiquement 4 émotions : la colère, la douleur, la joie et la sérénité. Pour réaliser une telle avancée, les 20 personnes de chez Empath se sont appuyé sur des dizaines de milliers d’échantillons de voix que leur a fourni une autre société Japonaise, SmartMedical. Au final, Emotion AI sait reconnaître en temps réel ces émotions et ce dans toutes les langues même dans un environnement bruyant !

Actuellement Empath propose déjà une gamme de produits assez complète dont la fameuse appli « My Mood Forecast » qui offre la possibilité à une entreprise de surveiller l’humeur de ses employés. Empath a récemment expliqué que ses 500 partenaires dont NTT Docomo, Fujitsu, Philips, Lixil, TMJ, Persol, etc, lui fournissent des données très qualitatives pour mettre à jour de manière récurrente les algorithmes. Si Empath a fais le choix de se consacrer à juste 4 émotions c’est tout simplement pour atteindre des niveaux de précision très élevés.

« Ok Google »… Tudut ! « Fini mon article avec le contenu que tu veux et surtout n’oublie pas de le valider pour demain » 😉

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Back To Top
×Close search
Rechercher