IA et nudge, pour un marketing de confiance - Numéro 476
25/09/2018
L’intelligence artificielle peut-elle être utile aux nudges ?
Richard Bordenave : J’ai envie de renverser la proposition. L’IA permet une réponse adaptée en fonction des comportements passés, parce qu’elle se nourrit de données comportementales. Mais pousser un message ultraciblé n’en fait pas un nudge. Un nudge est une manière subtile d’aider un « intentionniste » à accomplir ses propres buts, en créant un environnement de choix favorable. C’est une incitation douce. Demain, votre voiture pourra vous suggérer de faire une pause, votre réfrigérateur de jeter votre lait périmé, votre téléphone de rappeler votre docteur… Mais ces alertes sont surtout de nature normative, elles se résument à activer de la saillance pour contrer des biais de fatigue attentionnelle. Cette profusion de notifications et de sonneries risque bientôt de devenir cacophonie, affaiblissant leur efficacité.
Les travaux de BVA prouvent que les nudges les plus efficaces ne se résument ni à de l’alerte, ni aux interfaces digitales. Même avec un ciblage en ligne piloté par une IA, pour que le message soit efficace il faut qu’il engage vers l’action. Or pour concevoir un message, ou plutôt un environnement incitatif, il faut s’appuyer sur la connaissance des pilotes comportementaux des clients. C’est là que l’économie comportementale vient au secours de l’IA ; elle recontextualise les comportements observés, en aidant à décoder ce dont ils résultent : les freins et moteurs psychologiques des individus et l’influence de leur environnement. Pour faire simple : l’IA cible, et le nudge transforme.
Est-ce qu’un marketing fondé sur la personnalisation par traitement automatisé laisse une place au marketing sociétal et au nudge ?
R. B. : Oui. S’il est responsable, le marketing doit agir positivement pour le client et pour l’entreprise. Par exemple, la connaissance digitale du comportement des parieurs en ligne ou des fans de jeux vidéo permet de cibler les nudges de prévention contre les risques d’addiction. La connaissance du comportement des sportifs, d’encourager leurs progrès (Nike). Celle des élèves, de favoriser leur apprentissage (Duolingo). Le danger de la personnalisation est de multiplier les messages mal conçus, alors que l’automatisation permet d’arroser plus vite plus de monde. Or un marketing centré sur ses propres objectifs, sans réelle empathie relationnelle ni souci du service distinctif, est voué à l’échec. Attention donc : l’écume des données et de la probabilité d’un comportement ne donne pas une compréhension intime des clients.
Comment font des algorithmes pour construire une « architecture de choix » dans l’esprit vertueux du nudge ?
R. B. : Ce sont les hommes qui conçoivent les algorithmes, par la sélection des données d’entraînement et le fait qu’elles sont en grande partie comportementales. Ce sont donc les biais humains contenus dans les données choisies et l’éthique des concepteurs qu’il faut interroger. Si la finalité de l’algorithme est d’aider l’utilisateur avec des recommandations pertinentes, et que son retour est positif, la boucle est vertueuse. Si l’algorithme est programmé pour réduire le choix, en fonction du profil de l’acheteur (et non ses goûts), ou pour ajuster le prix en fonction de son parcours précédent (au lieu d’un tarif applicable à tous), il contrevient à l’éthique du nudge (transparence, équité et liberté de choix).
Ces règles devraient d’ailleurs s’appliquer à l’éthique relationnelle de la marque. Car les clients ne sont pas dupes : en tirant un bénéfice des informations détenues sur eux à leurs dépens, le marketing crée le terreau de la défiance. On en a tous fait l’expérience, avec le billet d’avion devenu plus cher quand on revient sur le site. L’algorithme qui fait monter les prix de votre course en VTC parce qu’il a détecté que votre batterie de téléphone est presque vide agit comme un maître-chanteur.
L’IA peut influencer les comportements pour le meilleur et pour le pire. La réflexion éthique et la connaissance des facteurs humains (biais cognitifs, facteurs émotionnels ou sociaux…) à l’œuvre dans la vraie vie deviendront critiques pour les marques. Et je crois aux « IA gendarmes », pour contrer les « IA voleurs ». L’algorithme des uns pourra contrôler si les comportements mesurés par les autres sont réels, les emplacements fréquentables, les commentaires authentiques, etc.
Pour les marques, le piège majeur est la convergence, par réduction de la connaissance du client à une somme de préférences immédiates portées par les données des plateformes. À force de courir le même client aux attentes modélisées par ces données, les marques finissent par toutes raconter la même chose. Or l’essence d’une marque est la singularité. Il faudra donc chercher l’inspiration ailleurs que dans les données.
Le marketing aspire-t-il à disposer d’une « IA forte » ou « générale » ?
R. B. : Nous n’y sommes pas. Car l’IA, pour apprendre, a besoin de montagnes de données, alors que l’humain navigue assez bien en environnement changeant. Côté marketing, je crois que plus l’IA progressera, plus elle offrira de possibilités de services, pour nos métiers ou pour les clients. Nous travaillons beaucoup sur les enjeux du conversationnel : au-delà de la mode des assistants vocaux, la question est d’aider les marques à devenir de véritables services intelligents. Ajouter un canal transactionnel, ou remplacer les humains, c’est au mieux ajouter de la complexité technique irritante, au pis des problèmes d’acceptabilité sociale. Pour prendre le problème dans le bon sens, il faut partir de la vie du client et identifier quels services une marque peut lui rendre. C’est justement notre métier et la raison pour laquelle je suis confiant en notre avenir.
Propos recueillis par J. W.-A.