De l’Intelligence artificielle à l’Intelligence Emotionnelle

Il y a peu de temps, je suis tombé par hasard sur un reportage autour du recrutement en Chine qui mettait en avant l’apport de l’IA dans la facilitation à faire passer les premiers entretiens.

De l’Intelligence artificielle à l’Intelligence émotionnelle

Celui-ci expliquait que pour certains postes, des milliers de CV étant envoyés, le premier tri se faisait à partir d’algorithmes. Pratique finalement assez classique et de plus en plus courante, mais ce qui m’a interpelé, c’est que le second tri s’effectuait également par une IA. Comment cela se passait-il ? Concrètement, le candidat est face à un écran faisant apparaître un visage neutre qui déroule ses questions, tout comme un recruteur le ferait lors d’un entretien en visio. La démarche était présentée comme « juste » car elle ne dépend pas de la sensibilité et de la subjectivité du recruteur. Chaque candidat est ainsi apprécié de la même manière, sans que l’humeur, le moment ou la personne ne puisse influer sur le choix. Et le tout avec analyse des émotions à la clé.

Au fond, il s’agit d’une réflexion intéressante, qui fait même sens mais cela m’a posé question. En effet, gain d’échelle, équité, amélioration des process, c’est tout ce que l’on attend de l’IA. Mais, si l’on tire un peu le trait, elle pourrait finir par recruter en autonomie, voire faire passer des entretiens annuels et pourquoi pas, si l’on va encore plus loin, manager des Hommes. Mais quid de l’humain dans tout cela ? En effet, autant les mises à l’échelle de tâches récurrentes, mécaniques sont désormais omniprésentes : automatisation de la gestion des courriers, des mails, etc. Autant, là, on parle d’identifier une personne avec laquelle on va travailler au quotidien, avec qui un feeling doit passer et où l’informel, l’émotionnel me paraissent essentiels.

La question sous-jacente qui m’est venue est donc : Est-il possible de venir compléter l’intelligence artificielle par de l’intelligence émotionnelle ?

Mais comment cela fonctionne ?

Reprenons l’exemple du recrutement. La première étape consiste à analyser la multitude de CV que l’entreprise reçoit. Les CV, bien que parfois originaux, sont dans la plupart des cas « stéréotypés » : présentation des différentes compétences, expériences, mots clés. Un recruteur passe environ 53 secondes sur un CV pour l’analyser (1). Il est clair que l’utilisation d’algorithmes de NLP, de recherche de mots clés (ou autres) vont se substituer aisément et très efficacement à un recruteur qui va chercher des compétences, un parcours un peu à la chaine dans une banque de profils. On est dans le passage à l’échelle d’une tâche mécanique.

Une fois ce premier lot de candidats retenus, vient la phase de l’échange avec ceux qui ont été sélectionnés pour détailler leur parcours, leur motivation, leur compréhension des enjeux du poste, leur adéquation aux valeurs de l’entreprise et tester leurs réactions. Ici, il s’agit d’une tâche qui prend entre 30 mn et 1h30(2) (présentation de l’entreprise du poste, échange sur la tenue du poste, etc.). Cette phase est, généralement, suivie d’une ou plusieurs séquences avec un panel réduit de candidats pour faire le choix final. Il est donc clairement intéressant d’essayer de réduire cette seconde étape de sélection de la « crème de la crème » si l’on veut optimiser un recrutement.

Cependant, entre trier des CV et capter les émotions, il y a toute une palette de nuances. Le tri des CV fait appel à des techniques classiques de traitement textuel. On trouve, chez certaines entreprises, une utilisation de l’IA pour capter les émotions dans les mots en observant les répétitions de mots, les tournures de phrases et même la forme de l’e-mail.

Mais là, il s’agit d’aller plus loin : s’il est une chose de comprendre et d’interpréter des mots, il en est une autre de savoir identifier des émotions lors d’un entretien en temps réel. On entre clairement dans l’Intelligence Emotionnelle.

Ce domaine est en plein développement. En effet, la société est de plus en plus centrée sur les sentiments et les émotions. On cherche donc à développer des IA qui les décodent.

Tout comme pour l’analyse NLP, il faut ici de la donnée. Ce qui devient complexe est de mélanger de nombreuses typologies de données qui peuvent être issues de différents capteurs : vidéo, micro et biométrie :

  • Les données vocales, qui permettent de capter les émotions à partir de votre voix, notamment grâce à la tonalité, le débit ou encore les hésitations
  • Les expressions corporelles et plus particulièrement les micro-expressions sur les visages

Pour traiter ces données, on utilise des réseaux de neurones convolutifs avec des fonctions mathématiques telles que Leaky Relu qui déduisent vos émotions depuis une image ou une vidéo.

Au final, ça donne quoi ?

La majorité des bases de données utilisées actuellement pour entrainer des Intelligences Emotionnelles sont composées d’expressions faciales simulées, dans un décor neutre, et représentant un éventail limité de catégories d’émotions (joie, peur, colère, tristesse, surprise, dégoût et mépris).

Sur ces données, les modèles sont plutôt performants. Cependant, face à des données plus naturelles du quotidien, les performances des programmes se dégradent significativement.

Cela vient des algorithmes de détection des émotions qui supposent un lien direct et unique entre les expressions faciales et quelques émotions de base : joie, peur, colère, tristesse, surprise, dégoût et mépris.

Même si l’utilisation des données vocales permet de combler une partie du problème, l’IA peine encore à saisir la subtile et complexe alchimie des émotions.

L’IA est encore loin des capacités des humains à les comprendre mais l’intelligence artificielle émotionnelle est en constante évolution. Les chercheurs développent des systèmes de plus en plus élaborés et puissants sur des données de plus en plus riches.

Ce n’est donc pas de suite que les managers vont être remplacés par une Intelligence Artificielle et les recrutements totalement délégués à une machine. Cependant, il est possible de s’appuyer dessus pour améliorer le jugement humain (et non pour le remplacer).

Outre l’exemple sur le recrutement, les applications de ces travaux sont nombreuses :

  • Relation client : améliorer la performance des chatbots en rajoutant la vidéo et le son
  • Marketing : améliorer l’analyse d’impact d’une communication sur un panel d’individus
  • Santé : aider les personnes atteintes d’autisme et leur permettre de mieux comprendre les autres êtres humains.

De beaux terrains de jeux en perspectives pour nos datascientists !

 

À lire aussi