12.08.19
2 MIN
Comment donner sa langue au chatbot Alea ?

Il y a 6 mois, nous dévoilions notre chatbot Alea. Sa mission : diriger les visiteurs du site internet et de la page Facebook vers des prestataires nautiques sur le territoire. Devenue rapidement célèbre dans l’univers du tourisme, Aela est cependant passée par plusieurs optimisations avant d’être entièrement opérationnelle. 

4 solutions pour développer son langage

Pour toute entreprise qui souhaite développer un chatbot, je pense qu’il y a minimum 4 points à prendre en compte : 

  • L’avantage des solutions Open-Source. Utiliser une solution open-source permet de profiter de l’enrichissement effectué par d’autres personnes en plus de nos optimisations. Dans notre cas, nous avons opté pour la plate-forme “Wit.ai” que nous avons relié à notre système d’information (avec l’aide de l’agence Matière Noire).
  • Le temps d’incrémentation. Nous passons, presque tous les jours, du temps à intégrer davantage de vocabulaire, de mots spécifiques (le mot “optimist” et ses variantes par exemple) afin d’optimiser l’expérience conversationnelle en se rapprochant au mieux du vocabulaire des visiteurs.
  • Privilégier les questions fermées ou avec des suggestions (11 questions/phrases posées à l’internaute). Ce qui permet d’éviter de créer trop de situations dans lesquelles un internaute pourrait perdre son chemin. 
  • Accepter de ne pas répondre à toutes les questions. On a fait le choix qu’Aela ne répondrait pas si la question posée n’avait aucun rapport avec les activités nautiques. De nombreuses personnes tentent de planter notre chatbot en lui posant des questions farfelues (on avouera que certaines nous ont fait sourire). Cependant, nous voulons éviter toute dérive ou bug et nous concentrer sur notre objectif de départ (ndlr : les prestataires nautiques).

Un apprentissage qui se traduit par une meilleure visibilité de nos prestataires

Au lancement, seulement 6% des visiteurs allaient jusqu’à la fiche détaillée d’un prestataire suite à une discussion avec Aela, alors qu’aujourd’hui nous observons des taux allant jusqu’à 25%. Nous désirons continuer sur cette lancée et restons attentifs quant à ses aptitudes sémantiques qui font partie intégrante du processus de machine learning. La suite logique serait de lui permettre de répondre à toujours plus de questions, d’augmenter le nombre de prestataires référencés (80 actuellement) et d’ouvrir à d’autres activités.