Assistant aveugle - Numéro 476
25/09/2018
Quels services les assistants conversationnels développés par les marques rendent-ils aux consommateurs ?
Nicolas Glady : Ils permettent d’automatiser les conversations simples, qui représentent quatre-vingts pour cent des questions posées. Un simple arbre de décision peut les traiter à toute heure sept jours sur sept. Les bons robots conversationnels renvoient vers une véritable personne pour traiter les vingt pour cent de questions importantes auxquelles seul un humain peut répondre. Dans les meilleurs cas, on ne voit pas la différence entre un robot et un humain, le transfert se fait automatiquement.
Les assistants comme Google Home peuvent-ils avoir un impact négatif sur les marques, s’ils sont programmés pour n’en choisir qu’une, en fondant leur commande sur le seul nom générique de la catégorie ?
N. G. : C’est le grand problème posé aux marques. Alexa, l’assistant personnel d’Amazon, est connu pour ce risque, car il ne donne pas nécessairement au consommateur le choix du fournisseur de service ou du fabricant. C’est un choix par défaut qu’Amazon propose, ou souvent celui qui est à l’avantage du distributeur. On donne comme exemple la commande d’une pizza, qui peut être celle d’une grande chaîne ou du pizzaiolo du coin. Google Home ou Alexa ne donnent pas le choix de la marque.
Cela peut-il être corrigé ?
N. G. : Les assistants demandent de plus en plus le choix par défaut, ou demandent si le consommateur prend le même fournisseur de service que la dernière fois. Mais la voix n’est pas une très bonne interface pour de nouvelles demandes. Tout ce qui est mot courant, en particulier dans l’alimentation, est facile à trouver, mais cela devient compliqué quand les marques sont des noms propres. Les assistants ne sont pas encore au niveau de compréhension d’un être humain. Si on veut acheter une marque particulière, mieux vaut la commander au clavier.
En pratique, dans une campagne publicitaire, quels sont les types d’erreurs dont les algorithmes tirent les leçons ?
N. G. : Les algorithmes sont basés sur les données. C’est un avantage et un inconvénient. Si une croyance est fausse, les algorithmes vont la détecter. Si on pense que cibler un certain segment de consommateurs augmente la chance de conversion, l’algorithme n’aura ni croyance ni biais, il va cibler le segment qui a le pourcentage le plus élevé. À l’inverse, s’il y a un biais dans les données, ce biais va se renforcer, comme les prophéties autoréalisatrices : en ciblant tout le temps un certain type de client, statistiquement ce client va davantage acheter le produit. C’est donc lui qui va être encore ciblé, même si d’autres clients auraient pu s’avérer plus intéressants. Il y a un effet de renforcement avec les machines d’apprentissage automatique, qui fait converger vers le même type de solution. Un vendeur humain peut choisir de tester un autre produit, l’algorithme, lui, n’a pas été formé à changer.
Comment l’intelligence artificielle peut-elle détecter une erreur de ciblage ?
N. G. : Quand on fait tout le temps la même action et qu’elle n’a pas d’effet sur les ventes, alors on le détecte et on corrige.
D’un acte d’achat en ligne, transaction protégée, qu’est-ce qui est accessible à l’IA au service du marketing, et à quelles conditions ?
N. G. : A priori, tout, sous réserve de RGPD. Techniquement, tout ce qu’on fait sur internet peut être utilisé. La loi encadre bien ce que doit être le consentement de l’utilisateur.
Une IA « forte », c’est-à-dire dotée de la conscience de soi : pour le marketing ou la publicité, est-ce désirable de votre point de vue ?
N. G. : Je n’en vois pas l’intérêt pour l’être humain, la technologie doit être à son service. Nick Bostrom explique les conditions, très compliquées, d’une superintelligence1. On est loin d’y arriver. Un outil qui n’a pas conscience de soi-même est plus intéressant économiquement. C’est donc la voie naturelle de l’économie de marché…