Recherche
Magazine Relation Client
S'abonner à la newsletter S'abonner au magazine

Développer et entraîner un chatbot performant

Publié par Stéphanie Marius le - mis à jour à
Développer et entraîner un chatbot performant

Traitement du langage naturel en évolution constante, coûts de maintenance souvent sous-estimés: pour obtenir un chatbot réellement source d'économies, mieux vaut ne pas se reposer sur ses acquis.

Je m'abonne
  • Imprimer

"Les chatbots peuvent prendre en charge jusqu'à 80%(1) des demandes de routine pour un service client", annonce Chris Hausler, senior data science manager de Zendesk (propriétaire de solutions dédiées aux chatbots). En parallèle, 89% des consommateurs indiquent que le fait d'obtenir une réponse rapide à leurs questions constitue un facteur important dans leur décision d'achat(2). Parmi les missions premières des chatbots figure la capacité à fournir des réponses précises, y compris à des questions jargonneuses en lien avec le secteur d'activité de la marque. Cependant, "il faut à tout prix éviter les robots qui donnent l'impression de converser avec des humains. Non seulement cela conduit inévitablement à une mauvaise expérience chez le client (même les meilleurs bots n'excellent que dans un domaine limité), mais cela brise la confiance entre l'entreprise et ses clients en prétendant être quelque chose qu'elle n'est pas", met en garde Chris Hausler.

1. Quelle solution choisir?

Faut-il opter pour un un outil standard à personnaliser ou développer un chatbot entièrement sur mesure? "Plutôt que de partir d'une feuille blanche, il est utile de chercher à se tourner prioritairement vers des fournisseurs de solutions chatbots ayant plusieurs références dans le secteur cible, conseille Hicham Tahiri, cofondateur de Smartly.ai. Cela permet de partir d'un corpus de données et de cas d'usage clés en main qui prendraient normalement des mois, voire des années à construire."

Actuellement, le traitement du langage naturel (NLP) est très avancé, selon Chris Hausler, senior data science manager de Zendesk, il n'est donc pas nécessaire de repartir de zéro. Des services tels que l'Answer Bot, développé par Zendesk (un robot en libre-service alimenté par IA), permettent de gagner en rapidité dans le temps de réponse.

Concernant les tarifs des différents outils, la plupart des prestataires proposent des modèles de licences. Chez Prévision.io, par exemple, un grand compte avec d'importants volumes de contacts, devra compter un millier d'euros par mois. Une licence de base permet de créer dix modèles, mais un e-commerçant important optera de préférence pour une licence forfaitaire, moins coûteuse à l'arrivée. Il existe également des modèles facturés à l'appel mais les coûts peuvent s'envoler rapidement.

Smartly.ai propose ainsi des tarifs allant de 450 euros par mois tout compris (pour 20000 interactions) à 4500 euros, pour trois millions d'interactions et un maximum de 30 bots. "La complexité d'un chatbot est liée à un vocabulaire spécifique et au nombre de questions différentes qui lui sont posées: les assurances ou les cabinets d'avocats sont, par exemple, confrontés à une grande variété de questions, explique Arnold Zephir, data scientist chez Prévision.io. À l'inverse, les opérateurs télécoms voient revenir, la plupart du temps, les trois ou quatre mêmes sujets avant le renvoi à un humain."

2. Ne pas négliger l'entraînement

Une fois le chatbot déployé, il ne faut pas minimiser le temps et les coûts liés à son entraînement. "Il est primordial de commencer progressivement et de disposer de paramètres clairs pour évaluer son succès et confirmer de nouvelles versions. Le nombre de tickets, le CSAT et le gain de temps constituent les mesures de succès habituelles", prévient Chris Hausler.

Les coûts de paramétrage évalués par Hicham Tahiri (Smartly.ai) s'échelonnent entre 5000 et 100000 euros, avec une moyenne à 50 000 euros, incluant le paramétrage initial et une année d'exploitation. Il faut notamment réentraîner souvent un chatbot pour cibler correctement les intentions. Un acteur du textile peut notamment utiliser son chatbot pour détecter l'appétence de la personne à la nouvelle collection. "Dans les marques liées aux jeunes gens (notamment le gaming) ou à la mode, un chabot entraîné en mars 2020 n'est plus valide en juillet 2020, prévient Arnold Zephir. Ne pas le faire peut s'avérer désastreux en termes d'image."

3. lA mise au placard des chatbots sur Messenger

Alors que la majorité des chatbots sont disponibles via Messenger, Facebook a décidé de ne plus les mettre en avant dans son interface et de pénaliser ceux dont le caractère intrusif était avéré. Cependant, "le système technique existe toujours et l'API n'a pas beaucoup bougé, explique Arnold Zephir. Messenger a mis en place un système permettant d'interrompre les velléités de conversation intempestive du chatbot: si ce dernier est trop intrusif ou s'il saute sur tous les mots-clés pour réagir [lorsqu'un chatbot remarque un certain nombre de mots-clés dans une conversation sur Messenger, il propose son aide, NDLR] , il est pénalisé dans le nouveau système." Il n'est, par exemple, plus possible de réagir plus de 24 heures après un message ou plus d'une fois au-delà de 48 heures après un premier échange. De même, Messenger a remplacé une grande partie des interactions textuelles par des stickers, des émoticônes.

Le choix d'une réponse imagée ou textuelle est lié au traitement du langage naturel par le chatbot, le NLP (natural language processing). Ce dernier NLP recouvre deux actions différentes: comprendre l'intention de la personne (décrypte le sarcasme, par exemple), et générer une réponse. Auparavant, le NLP désignait indifféremment les deux actions. "Nous essayons d'améliorer le volet compréhension, le problème n'est pas résolu", complète Arnold Zephir. L'usage d'émoticônes par les utilisateurs facilite ce décryptage. En revanche, le volet génération de texte, qui consiste à élaborer une phrase complète en réponse à une question, s'avère moins efficace que le fait d'afficher le prix d'une robe sous l'image de ladite robe, par exemple, ou le tableau rassemblant les horaires d'un train.

4. Tirer parti des méta-bots

Les méta-bots sont une technologie émergente qu'il convient de ne pas négliger. Ils permettent d'affiner les messages du chatbot en fonction de leur contexte de réception. "Ces méta-modèles identifient le client: selon son âge, son ton et ce qu'il a fait ces trois dernières heures, par exemple, le méta-bot conseille au chatbot de répondre avec un sticker au lieu d'une phrase, s'il a reconnu une personne jeune", explique Arnold Zephir. Les méta-bots doivent également gérer le moment d'envoi le plus approprié (hormis, bien sûr, lorsque le bot mène une conversation suivie). "Il s'agit d'une technique très présente chez les opérateurs télécoms, ajoute Arnold Zephir. Ces derniers possèdent des IA capables de décider du moment de la journée où envoyer les sollicitations, en fonction de la nature du mail." Par exemple, pas question d'envoyer un message de relance sur une situation conflictuelle un lundi à 18 h!

De même, ces techniques permettent d'éviter d'envoyer des mails de sollicitation le dimanche. Le ton employé est également scruté. Des méta-modèles peuvent demander au chatbot d'adopter un ton plutôt enjoué, détendu ou plus formel, en fonction du client. Ces modèles surplombants permettent de choisir le modèle spécialisé le plus adapté. "Le plus difficile est de disposer de données d'entraînement pour ces programmes, conclut Arnold Zephir. Il faut trouver un dataset qui indique, par exemple, un taux de retour selon l'heure d'envoi des messages."

(1) Étude IMB, "How chatbots can help reduce customer service costs by 30%", 2017.

(2) Étude menée par Zendesk, "Customer satisfaction".


 
Je m'abonne

NEWSLETTER | Abonnez-vous pour recevoir nos meilleurs articles

La rédaction vous recommande

Retour haut de page