80%, c’est la part émotionnelle qui guide notre décision d’achat, réduisant à 20% la part du rationnel. Face à ce constat, quelle stratégie adopter?
Concernant les seuls achats en ligne, selon une étude d’AOL réalisée avec InsightsNow et Freed Vance Research Group, la part émotionnelle est de 66%.L’intelligence artificielle : « les yeux et les oreilles » de nos émotions
Pour les consommateurs, un message publicitaire qui les sensibilise d’un point de vue émotionnel, aura plus d’impact qu’un message publicitaire classique. La campagne pub menée par Intermarché » C’est magnifique ! » en est un bel exemple. Portant sur des valeurs clés comme l’amour, la famille ou les amis, elle ramène le consommateur à ses émotions les plus intimes. Ainsi, Intermarché ne mise pas ici simplement sur la vente de ses produits (rationnel) mais davantage sur l’envie de faire plaisir, via les produits qu’ils mettent à disposition (émotionnel). En 2016, Facebook grâce à ses émojis : joie, tristesse, étonnement, colère, rire, a pu mieux connaître et comprendre ses utilisateurs au vu des différents contenus sur lesquels ils réagissaient et, ainsi, leur proposer de manière personnalisée, un fil d’actualité adapté. En 2020, nous pouvons désormais nous appuyer sur l’IA pour détecter les émotions dont les données collectées sont appelées » feel data » et ce, de quatre façons :- la reconnaissance faciale
- la reconnaissance comportementale
- la reconnaissance vocale et
- la reconnaissance textuelle.
Quelles solutions existent déjà pour s’adapter à ces comportements guidés par l’émotion ?
Les start-up font encore une fois figures de proue pour concevoir des innovations technologiquement abouties et performantes en la matière.Reconnaissance faciale et comportementale
La solution d’iMotion assimile et agglomère les données de dispositifs (eye tracking, expression faciale), qui auront été utilisées pour mesurer les émotions et le comportement des utilisateurs. iMotions a réalisé une étude pour SPARK, qui s’était associé avec Ford et Rovio, le développeur d’Angry Birds. Ce dernier cherchait une nouvelle façon de garder les annonceurs mobiles dans le jeu vidéo tandis que certains d’entre eux se demandaient si les joueurs avaient réellement vu les publicités affichées pendant le jeu et avaient cliqué dessus intentionnellement ou par accident. SPARK, Ford et Rovio se sont associés pour développer, tester et valider scientifiquement de nouveaux formats publicitaires qui permettraient de mieux attirer l’attention visuelle, cognitive et émotionnelle des clients et de restaurer la confiance des annonceurs. iMotions a également travaillé conjointement avec HeyHuman, une agence de communication comportementale. Leur objectif : repenser les marques et le marketing car les consommateurs étant en permanence assaillis par du contenu numérique, il est difficile d’analyser comment ils interagissent réellement avec ce dernier. En mesurant leur comportement pendant les tests publicitaires, les études UX, le développement de concepts et plus encore, la consultante en neurosciences Aoife McGuinness a été en mesure de fournir des informations plus nuancées et de créer un contenu plus attrayant à ses clients. La start-up française Datakalab s’appuie, quant à elle, sur la technologie du facial coding pour analyser les émotions des consommateurs devant une publicité, un produit ou un service. Elle a notamment été amenée à travailler avec Disney pour créer une timeline émotionnelle en mesurant, grâce au facial coding, l’engagement émotionnel de l’assemblée lors du visionnage de la bande-annonce du film L’Appel de l’Antarctique. Datakalab a ainsi pu identifier les passages générant le plus d’engagement émotionnel chez les spectateurs. Cette start-up travaille également sur des cartographies émotionnelles pour la SNCF par exemple. Grâce à un bracelet connecté, elle a pu mesurer la qualité du moment passé en gare et dans les différents espaces et identifier les endroits qui génèrent le plus de bien-être aux usagers.Reconnaissance vocale
Grâce à sa technologie, Empath est capable d’identifier en temps réel l’émotion exprimée par une voix humaine, peu importe la langue. En s’appuyant sur des dizaines de milliers d’échantillons de voix, l’algorithme détecte quatre émotions : la joie, le calme, la colère et la douleur, ainsi qu’une côte d’énergie. Pour ce faire, elle analyse les propriétés physiques de la voix : le ton, la hauteur, la vitesse d’élocution… Empath a déjà fait ses preuves dans le télémarketing : 20% d’augmentation des ventes vocales. Cette solution, qui améliore la précision des systèmes de reconnaissance du comportement humain, s’applique aussi bien aux secteurs de l’automobile pour repérer un conducteur en proie à l’ébervement par exemple, qu’au secteur de l’IoT (haut-parleurs intelligents, call centers…), de la robotique, des soins psychiatriques…Reconnaissance textuelle
Depuis 2016, Q°emotion développe et améliore la relation client en analysant les textes de plusieurs canaux : réseaux sociaux, e-mails, enquêtes… Elle a travaillé conjointement avec Corsair dans le but d’optimiser chacune des étapes clé du parcours de voyage pour améliorer l’expérience passager et développer la fidélité. En utilisant Q°emotion, il a été possible d’effectuer l’analyse émotionnelle des avis des clients après leur voyage et ainsi détecter les irritants du parcours et les leviers d’enchantement. L’étude fut un succès, car ils ont augmenté le NPS[2] de 15 points et ont réduit le » churn[3] » de 5%. Comongo, de son côté, permet deréaliser un focus groupe de manière digitale. L’utilisateur doit choisir quelle population il souhaite sonder : clients, salariés, prescripteurs… Puis ce qu’il souhaite évaluer : produit, service, campagne… Ensuite, un formulaire est généré et envoyé au groupe par Comongo. Et enfin, la solution va analyser les verbatims pour faire ressortir le ressenti des personnes interrogées. Intéressée, My Pro, une agence de communication qui s’adresse aux PME et grandes entreprises situées sur l’arc alpin, s’est interrogée sur son image de marque, en vue d’une fusion avec une autre entreprise. En réalisant l’étude avec Comongo, elle a pu balayer des croyances et des idées reçues au niveau de la direction de l’entreprise, sans aucun point de contestation, car la donnée parlait d’elle-même. Selon Crone Consulting, le marché de l’analyse des émotions devrait atteindre 10 milliards de dollars dans le monde en 2020, contre 20 millions en 2015. Le marché de l’analyse est en pleine expansion et déjà beaucoup de solutions existent. Mais si celui-ci semble prometteur, il ne faut pas négliger certaines difficultés qu’il pourrait rencontrer. Par exemple, la reconnaissance faciale pourrait peiner face à la diversité de manifestation des émotions selon la culture des pays. Par exemple, au Japon, être chanceux ou calculateur est une émotion alors qu’en Europe, c’est considéré comme une qualité ou un défaut. À Tahiti, la tristesse n’existe pas, les Tahitiens expriment leur tristesse par un état de lassitude. Une machine pourrait-elle un jour interpréter et comprendre ce type de spécificités ?Partagez cet article