Social Buttons

LightBlog

Breaking

LightBlog

dimanche 25 mars 2018

quand-les-centres-d-appels-predisent-les-emotions-des-clients

[39]Intelligence artificielle

Quand les centres d'appels prédisent les émotions des clients

Technologie : L'empathie artificielle, un autre domaine d'exploration
pour l'IA. La technologie peut ainsi aider les call-centers à
identifier les émotions des appelants, mais aussi les symptômes de la
dépression. De quoi permettre à l'avenir aux machines d'agir plus
humainement ? En France aussi, des chercheurs explorent l'affective
computing.
la rédaction de ZDNet

Par Christophe Auffray avec ZDNet.com | Mercredi 21 Mars 2018
[40]Suivre @zdnetfr

[call-center-620.jpg]

Les appels aux services clientèle peuvent s'avérer... exaspérants. Une
des raisons tient à la difficulté des humains à interpréter des indices
émotionnels subtils, surtout lorsque seule la voix traduit ces
émotions. Il n'est pas rare non plus de transmettre par mégarde des
signaux émotionnels involontaires, ce qui peut aisément déboucher sur
des incompréhensions et de la gêne lors d'échanges téléphoniques. Et si
la solution à une meilleure satisfaction client était l'empathie
artificielle ?

Une spin-off du MIT, [41]Cogito, exploite l'analyse vocale pour aider
les employés des services clientèle à mieux comprendre le ressenti des
clients. La technologie à l'origine du produit de Cogito, qui permet de
prédire l'état émotionnel d'un client en analysant des modèles de
timbres et de voix, a également été utilisée pour identifier les signes
de trouble de stress post-traumatique et de dépression chez les
vétérans.

Nul besoin de beaucoup d'imagination pour entrevoir comment la même
technologie pourrait doter les ordinateurs et les robots d'une version
simulée de l'empathie.

L'analyse développée par Cogito est née d'un conflit

En 2001, Alex "Sandy" Pentland, professeur au MIT Media Lab, était en
Inde pour lancer Media Lab Asia. "J'ai remarqué que beaucoup des
réunions que nous avions eues, en particulier celles du conseil
d'administration, étaient épouvantables" témoignait-il auprès de
[42]MIT News qui suivait le lancement de sa société.

Le problème, soupçonnait Pentland, tenait à la façon dont les
participants communiquaient leurs idées - pas nécessairement les mots
qu'ils utilisaient, mais le ton et l'accent derrière les mots.

De cette expérience a grandi l'engouement de Pentland pour l'analyse de
la façon dont les individus s'expriment, ce qui contraste souvent avec
ce qu'ils disent effectivement. Pentland voulait ainsi comprendre les
signaux subtils dans le discours et le ton, ainsi que le langage
corporel, autant d'éléments qui n'ont rien à voir avec le langage
lui-même.

Pour aider ses efforts, les chercheurs du MIT ont développé ce qu'ils
appellent des sociomètres - des badges équipés de capteurs qui
enregistrent des données pour établir des modèles dans la parole et le
mouvement du corps pendant une conversation.

Les chercheurs ont pu prédire le résultat d'interactions telles que des
entretiens d'embauche à un degré extraordinairement élevé, sans
réellement tenir compte des mots prononcés. Chaque interaction produit,
indépendamment du langage, une riche couche de communication, comme
l'ont découvert depuis longtemps les spécialistes du comportement.

Les recherches de Pentland se sont rapidement tournées vers les soins
de santé, où il a découvert que l'analyse vocale pouvait aider à
détecter les symptômes de la dépression ou à déterminer la
compréhension réciproque entre médecins et patients lors de leurs
interactions.

Plus récemment, la DARPA et le département américain des Anciens
Combattants ont confié à Cogito, la société formée en 2007 par Joshua
Feast, un ancien étudiant du MBA MIT, une évaluation de cette
technologie dans l'identification des vétérans souffrant de stress
post-traumatique, et ainsi aider les services de l'armée à les
accompagner plus efficacement.

Lors d'un essai clinique de 2013 soutenu par la DARPA, Cogito a observé
une augmentation des attitudes liées au stress post-traumatique chez
les participants du procès de l'attentat du marathon de Boston.

L'argent, bien sûr, réside dans les produits aux entreprises

Environ cinq millions d'Américains travaillent dans des centres
d'appels. Cogito a créé un produit, Cogito Dialog, qui analyse les
signaux vocaux pour déterminer des éléments comme l'implication et la
frustration des clients. Le logiciel fournit aux employés du centre
d'appels des informations en temps réel pendant les appels, leur
permettant d'ajuster leur approche.

Une étude de cas avec Humana, une grande compagnie d'assurance maladie,
a révélé une augmentation de 28% de la satisfaction de la clientèle et
une augmentation de 63% de l'implication des employés lors des appels
assistés par le suivi de l'analyse vocale.

"Cela aide notre compréhension intuitive lorsque nous écoutons les
gens" explique Pentland, "en les aidant à le faire mieux." Cogito
compte MetLife et d'autres grands fournisseurs d'assurance parmi ses
clients.

Être capable de favoriser la communication et la connexion au-delà du
langage pourrait avoir des implications intéressantes dans la
diplomatie et la résolution des conflits. Les travaux dans ce domaine
pourraient aussi améliorer l'utilisation des assistants personnels et
des robots basés sur de l'intelligence artificielle.

Article "[43]Artificial empathy: Call center employees are using voice
analytics to predict how you feel" traduit et adapté par Christophe
Auffray, ZDNet.fr

La France héberge également des chercheurs reconnus dans les domaines
de l'analyse vocale et des émotions, parmi lesquels [44]Laurence
Devillers, professeure à la Sorbonne IV et chercheuse pour le LIMSI du
CNRS. Laurence Devillers est également une intervenante régulière sur
[45]les enjeux éthiques de l'intelligence artificielle.
[Laurence-Devillers.jpg] Comme elle le décrivait lors du [46]salon
Innorobo 2017 en mai dernier, l'affective computing comporte encore de
nombreuses limitations. "C'est très pauvre aujourd'hui (…) Ce qu'on
essaie de comprendre, par exemple, c'est si une personne est contente
ou non, dépressive sur la base de nombreux facteurs, si elle est en
colère ou a peur. C'est autour de ces grandes catégories qu'on sait
faire un peu de choses."
"Il faut vraiment vous méfier de procédés qui vous donneraient l'idée
qu'on peut reconnaître 25, 30 émotions. C'est très complexe les
émotions" mettait-elle par ailleurs en garde pour tempérer les
capacités de l'IA dans ce domaine de recherche. "Les émotions sont
rarement à l'état primaire, mais au contraire souvent combinées,
l'amour-la haine, par exemple."
Laurence Devillers est d'ailleurs intervenue dans des centres d'appels
pour aider à l'analyse du comportement au service des agents, métier où
le turnover est élevé, "afin qu'ils s'adaptent mieux et répondent
mieux."
Son constat pour illustrer la complexité des travaux dans l'affective
computing : une tessiture de voix qui correspond à de la souffrance, et
en même temps du soulagement au travers d'une voix chaude. Deux
opposés. L'analyse de la voix pourra reposer sur l'examen de milliers
de paramètres. La résolution des conflits mondiaux grâce à des
technologies comme celle de Cogito n'est donc pas pour demain.
Toujours lors d'Innorobo 2017, Serge Tisseron, psychiatre et membre de
l'Académie des Technologies, tenait en outre à mettre en garde contre
des dérives potentielles découlant de l'analyse des émotions, de
l'empathie artificielle et des émotions artificielles.
"La machine peut être dotée d'une apparence humaine, d'un visage humain
notamment, qui lui permet de simuler les émotions (…) C'est un
formidable outil pour mieux communiquer avec les machines (…) mais ça
peut devenir aussi un formidable outil de manipulation. Le robot
pourrait alors déterminer, en fonction de son interlocuteur,
l'intonation la plus efficace pour le faire acheter un produit, agir
sur lui pour l'influencer."
Mais comme le soulignait la chercheuse du LIMSI, l'affective computing
n'en est pas aujourd'hui à ce stade. C'est aussi tout [47]l'enjeu des
questions d'éthiques, qui doivent précéder la mise en œuvre de
certaines technologies pour en prévenir les dérives. Après le privacy
et le security by design, place donc à l'ethic by design.

Sujet: [48]Intelligence artificielle [49]IA Roadmap Business
[50]Priorités IT
* Suivre via:
* [51]RSS

Articles relatifs

* [52]"Si t'as pas ton chatbot, t'as raté ta vie". Et vous ?
[53]"Si t'as pas ton chatbot, t'as raté ta vie". Et vous ?
20/03/2018
* [54]Pour valoriser ses données, ambitions et fantasmes ne suffisent
pas
[55]Pour valoriser ses données, ambitions et fantasmes ne suffisent
pas
19/03/2018
* [56]Blockchain, IA, machine learning : le cœur des DSI balance
[57]Blockchain, IA, machine learning : le cœur des DSI balance
15/03/2018
* [58]Windows 10 : Microsoft veut mettre le machine learning au
--------------------------
Source .... : http://www.zdnet.fr/actualites/quand-les-centres-d-appels-predisent-les-emotions-des-clients-39865828.htm#xtor=RSS-1
--------------------------

Aucun commentaire:

Enregistrer un commentaire

Nombre total de pages vues

Adbox