En juin 2023, Intuiti lançait le premier baromètre sur la confiance des Français·es envers l’IA et son impact sur la relation entre les marques et les clients. Depuis, Google a lancé son propre chatbot Gemini et des outils boostés à l’IA permettent de créer des vidéos depuis des prompts textuels comme Gen-2.
Au fil de ses avancées et de sa médiatisation, l’IA a-t-elle gagné (un peu plus) la confiance des Français·es ? Quels sont, aujourd’hui, les usages, les craintes et les besoins des utilisateur·rices face à l’IA?
Dans cet article, nous vous partageons une mise à jour de notre baromètre au regard de 3 études récentes*, afin de vous aider à mieux comprendre les attentes de vos cibles face à l’IA.
Chatbot et service client : l'humain reste le roi…
Depuis juin 2023, le taux de satisfaction des IA reste le même, tout comme les problématiques rencontrées par les usagers. Ces derniers sont encore nombreux à préférer les interactions humaines, gageures d’une forte valeur ajoutée.
(I can’t get no) satisfaction !
Le taux de satisfaction n’a quasiment pas évolué : les Français·es se montrent à 29% satisfait·es de leur relation avec l’IA(2), contre 28% lors de notre baromètre de juin 2023. La principale source d’insatisfaction ? La mauvaise compréhension des questions posées aux chatbots pour 72%(2) des sondé·es. Il y a un an, lors de notre enquête, 62% reprochaient à l’IA un échange peu pertinent.
L’évolution rapide de l’IA générative et des LLM (Large Language Model) devraient permettre très rapidement de proposer des chatbots personnalisables, avec une pertinence de réponse plus satisfaisante.
Le point fort des chatbots ? Une attente réduite
Attendre, personne n’aime ça. Et c’est là que le chatbot sort son atout charme : le temps d’attente est jugé plus court (et donc plus satisfaisant) auprès d’un outil automatisé que d’un service client (+19 points d’écart : 57% contre 38% aujourd’hui)(2). Pourtant, aux yeux des utilisateur·rices, la rapidité n’était pas vue comme le principal facteur de valeur ajoutée d’une IA. En effet, lors de notre enquête, il arrivait en 4ème position derrière la réponse personnalisée, sourcée et complète.
Empathie et efficacité : 2 critères très recherchés
Ah, WALL-E, ce petit robot si attachant… Pourtant, quand il est question d’agent conversationnel, les Français·es sont 77%(1) à préférer les conseils d’un humain, doté lui, d’une réelle empathie. D’ailleurs, 70%(2) des sondé·es se sentent en “confiance” lorsque l’échange a lieu avec un conseiller.
La relation client incarnée par des humains a encore de beaux jours devant elle car 72%(2) des utilisateur·rices pensent que l’IA appauvrit la relation client. Les assistants virtuels sont jugés moins efficaces que leurs homologues humains. En clair, pour satisfaire votre clientèle, le conseiller (le vrai) doit répondre au tchat selon 84% des personnes interrogées dans le cadre de notre baromètre.
L’IA, une perception différente selon les secteurs
Malgré une omniprésence de l’IA, la confiance envers cette technologie reste un challenge de taille, pour certains secteurs d’activités plus que d’autres…
Une confiance en demi-teinte
Un peu plus d’un tiers des personnes interrogées (36%(1)) ont confiance en l’IA pour améliorer leur expérience client. Toutefois, quand il est question d’acheter un produit de santé, les sondé·es ne sont plus que 10%(1) à avoir confiance en l’IA contre 32% en 2023. Le secteur juridique n’était pas non plus en reste avec 31%… En revanche, quand il est question de réservation de voyages, les Français·es étaient 49% à faire confiance au chatbot. L’effet crème solaire et tongs sans doute.
Humain vs machines, une peur bien ancrée
Est-ce dû à Terminator 2 et Skynet, l’intelligence artificielle la plus effrayante du cinéma ? On ne le saura jamais mais 78% des personnes interrogées lors de notre enquête, craignaient que l’amélioration constante des systèmes IA soit dangereuse pour la société. Malgré une nette baisse, ils sont encore 54%(1) à penser que l’IA est une menace pour l’humanité. En cause : le remplacement des emplois humains ou encore la confidentialité des données.
La capacité à détecter les deepfakes est un des enjeux fondamentaux de ces dernières années. Et elle est loin d’être maîtrisée par les Français·es : 94%(3) ont cru qu’au moins une des photos d’un test était vraie alors qu’elles étaient toutes fausses…
Une jeunesse à l’aise et en confiance
Autre tendance qui se confirme : les plus jeunes sont davantage confiants envers l’IA et y voient davantage de bénéfices que leurs aînés.
L’IA et les jeunes, une histoire de confiance
Les millenials ou “digital natives” ont grandi avec internet et les réseaux sociaux. Ils ont logiquement plus confiance dans l’IA, comme les 18-24 ans avec +27 points d’écart vis-à-vis de la moyenne (51% contre 24%)(2) . Depuis notre étude, on remarque que les moins de 35 ans sont davantage convaincus de l’utilité de l’IA avec +21 points d’écart : 87% aujourd”hui contre 66% l’année dernière.
Mon ami le chatbot
Les 18-24 ans sont 52%(2) à être convaincus et satisfaits de leurs échanges avec un chatbot, soit +23 points d’écart avec leurs aînés. Une tendance qui se confirme puisque les personnes interrogées de moins de 35 ans lors de notre baromètre, étaient déjà davantage satisfaites des réponses proposées par un chatbot que la moyenne (52% contre 28%). Là encore, la Gen Z est connue pour être ultra-connectée, ce qui explique sans doute son fort taux d’engagement envers les agents conversationnels. Rappelons qu’une des influenceuses phares d’Instagram, Lilmiquela (2,7 millions de followers) n’est autre qu’un avatar virtuel…
La Gen Z et l’IA, une histoire qui marche
En toute logique, on retrouve les 18-34 ans confiants à 58%(1) envers l’IA comme source d’amélioration de leur expérience client. Là encore, ils sont au-dessus de la moyenne des répondants avec +18 points d’écart.
Quant à la détection des deepfakes, la Gen Z se sent davantage à l’aise pour les repérer : 55% contre 33% pour l’ensemble des répondants(3).
L’IA, à consommer avec modération pour les marques
L’heure est désormais à la transparence pour les marques si elles veulent se différencier. Les citoyens-consommateurs ont de plus en plus de doutes sur les éléments de communication des entreprises et cherchent plus que jamais l’authenticité.
Transparence est mère de sincérité
L’attente est très forte concernant la mention de l’utilisation de l’IA par les marques. 91%(1) des personnes interrogées pensent que les entreprises doivent être transparentes sur l’utilisation des agents conversationnels. Elles veulent savoir lorsqu’une marque utilise l’intelligence artificielle pour 76%(3) d’entre elles. Concernant la génération d’illustrations de fiches produit via l’IA : 44%(3) des sondé·es y sont réfractaires. Quant aux deep fakes, 90%(3) des Françaises sont favorables à la mise en place d’une mention spécifique.
Une image de marque à sécuriser
Peu d’évolution depuis 1 an concernant la gestion des demandes clients via un chatbot doté d’intelligence artificielle. Les Français·es sont 21%(2) à estimer que cela donne une très mauvaise image d’une entreprise qui utilise ce type d’outil. Lors de notre baromètre, les sondé·es étaient 21% à être déçu·es par une marque qui propose ce type de chatbot, sans être prévenu·e. Et 23% considèrent qu’il est immoral de ne pas l’annoncer dès le début de l’échange.
Malgré l’omniprésence de l’IA et ses évolutions quasi quotidiennes, les Français·es restent méfiants. Une marque se doit désormais d’être transparente et ce, quel que soit le canal utilisé pour communiquer. Pourtant, au vu de la confiance et de la dextérité des plus jeunes à s’emparer de l’IA, il y a fort à parier que d’ici peu, les marques aux expériences clients boostées à l’IA éthique et responsable, soient fortement plébiscitées.
Pour échanger avec nos experts sur notre baromètre ou l’utilisation de l’IA dans vos campagnes marketing, rendez-vous ici.
* Voici les liens vers les 3 études mentionnées :
- IA et expérience client : les Français sont-ils prêts ? par OpinionWay pour AACC (octobre 2023)
- Les Français et les services clients face à l’intelligence Artificielle par Odoxa pour Kiamo (novembre 2023)
- Les Français et les deepfakes, par IFOP pour Alucare (mars 2024)