Tirer profit des solutions analytiques
Selon IDC, la masse totale des données dans le monde devrait s'établir à 1 800 milliards de gigas en 2011, soit six fois plus qu'aujourd'hui (280 milliards en 2008). La majorité de ces données étant textuelles, audio et vidéo, les entreprises qui réussiront à les décoder obtiendront dès lors un avantage compétitif indéniable. Ceci explique notamment l'engouement pour les projets analytiques qui rassemblent le data mining et le text mining, plus récent. Ces deux disciplines constituent une évolution logique puisque, désormais, il ne suffit plus d'expliquer ce qui s'est passé, mais bel et bien de se projeter dans le futur.
Lorsque l'on parle de projet analytique dans le cadre d'une stratégie de relation client, deux niveaux de maturité sont mis en évidence. Le premier consiste à réaliser un ciblage de masse. «La plupart des grandes entreprises ont atteint aujourd'hui ce niveau. Elles sont équipées d'une solution de type segmentation et scoring. Maintenant, la tendance est clairement orientée vers une industrialisation du process et une optimisation du plan de contacts, dans un objectif de maximisation du ROI: autrement dit, proposer la bonne offre au bon client au bon moment sur le bon canal», souligne Jean-Philippe Nagel, directeur practice solutions sectorielles et analytiques de SAS. Un deuxième niveau, plus récent, relève d'un data mining en temps réel, destiné à personnaliser au maximum la relation client. Comme le souligne Hervé Délhin, directeur marketing de SPSS, «il faut saisir l'opportunité d'avoir le client en ligne pour construire une relation plus aboutie. C'est aussi l'occasion de récupérer de l'information sur lui afin d'anticiper son comportement futur. Mais, soyons réalistes, cette approche en temps réel reste encore très difficile à mettre en place.» Déjà forts utiles en période de croissance économique, les projets analytiques deviennent encore plus précieux lors d'une phase de ralentissement, le nombre de clients en mesure de consommer tendant à se contracter.
Thierry Vallaud (Socio Logiciels)
En termes de modèles mathématiques, les éditeurs se valent. La différence se fait au niveau de l'interface, avec une ergonomie plus conviviale à l'avantage des grands éditeurs.
LES POINTS-CLES
METTRE EN PLACE UN PROJET ANALYTIQUE
Pour mener à bien un projet analytique, il est nécessaire de respecter cinq grandes étapes. Objectifs: tirer le meilleur parti des solutions logicielles et gagner en efficacité.
1 COMPRENDRE LES ATOUTS DE L'ANALYTIQUE
Se lancer dans des prévisions constitue un premier pas dans la mise en place d'un projet analytique, tout comme établir des classifications à partir d'analogies pour obtenir des segmentations. L'objectif est d'essayer d'anticiper la rentabilité des clients, et donc de déterminer à l'avance ce qu'ils peuvent acheter dans un futur proche, pour quels montants et combien ces achats vont générer de bénéfices. Aussi, l'intérêt de mettre en place un outil analytique vise tout d'abord à obtenir une meilleure connaissance de ses clients.
«Les entreprises disposent de données sur eux, mais celles-ci ne sont pas forcément exploitées en raison de la grande diversité de leur «état». De plus, elles sont utilisées de façon ponctuelle et non coordonnée avec les différents services puisque, très souvent, les utilisateurs ne savent pas comment les relier les unes aux autres. Or, il est absolument nécessaire de croiser ces informations, pour en faire ressortir du sens», souligne Jérôme Loncelle, responsable pôle analyse prédictive de Business & Decision.
Les entreprises collectent donc une multitude de données qu'il est nécessaire de transformer en informations sous forme d'histogrammes ou de camemberts qui répondent d'ailleurs à près de 60% des besoins analytiques. «Les 40% d'informations restantes sont liées à la segmentation afin de cerner les meilleurs clients, les clients à risques, etc. Des informations qui aboutissent à des modèles. La profusion des données peut faire croire que l'on est «riche», mais tant que l'on ne possède pas un outil pour les transformer en informations, la richesse n'est que virtuelle», commente Thierry Vallaud, responsable data mining et décisionnel de Socio Logiciels.
Autre intérêt de ces projets analytiques: l'optimisation des actions marketing et/ou de relation client. «Ils favorisent les opérations de cross selling et d'up selling et permettent donc de détecter la clientèle auprès de laquelle on peut faire de la vente additionnelle pour générer une marge supplémentaire», explique Jean-Philippe Poisson, directeur adjoint de Quintess.
2 SELECTIONNER SON PARTENAIRE
Le marché compte de multiples éditeurs. Parmi les plus importants figurent SAS, avec son produit SAS EM, SPSS avec Clementine, ou encore Teradata. On trouve ensuite des éditeurs tels que KXEN, Agoss et son produit Knowledge Seeker, Tibco avec Insightful Miner, et Hugin. Sont également positionnées sur le segment des sociétés telles que Bayesia avec Bayesia Lab, Isoft avec Alice et Amedea, Complex System avec Data Lab 7, Coheris avec Spad, ou encore Cognos.
Ne pas oublier les éditeurs de systèmes de gestion de bases de données (SGBD) tels que Microsoft, Oracle ou IBM qui proposent également des algorithmes de data mining intégrés.
Enfin, dans la partie freeware et logiciels issus de l'univers open source, figurent R, Weka, Rapid Miner et Orange Data Mining Fruitful&Fun. «En termes de modèles mathématiques, les éditeurs se valent. La différence se situe au niveau de l'interface, avec une ergonomie plus conviviale à l'avantage des grands éditeurs et une capacité à gérer de grands volumes de données», constate Thierry Vallaud. Et Hervé Délhin de préciser: «Les algorithmes qui tournent sur les solutions des différents éditeurs sont sensiblement les mêmes. En revanche, les éditeurs se distinguent par leur façon d'intégrer les modèles dans le processus métier de l'entreprise.»
3 TROUVER LE BON UTILISATEUR INTERNE
Lorsque la notion de data mining est apparue à la fin des années quatre-vingt, on parlait déjà de projets analytiques, mais sous un angle un peu plus réducteur. Il s'agissait alors d'analyse statistique. Initialement, les statisticiens étaient les rois de ce domaine, puisque la discipline réclamait d'être sensible à la fois aux chiffres et à l'informatique, tout en ayant une bonne connaissance des logiciels. Quand le data mining a commencé à se populariser, seuls les spécialistes des données étaient en mesure de produire des modèles. Puis, à l'instar de nombreuses disciplines gravitant autour du monde de l'entreprise, les moeurs ont évolué. Les outils sont devenus beaucoup plus simples à utiliser et ont bénéficié d'interfaces dont l'ergonomie et la convivialité se sont progressivement améliorées. Puis, comme le souligne Thierry Vallaud, «des personnes qui n'ont pourtant pas le profil ni la formation de statisticiens ont commencé à manier des outils de data mining en raison des grands progrès réalisés sur l'interface utilisateur et grâce aux bénéfices résultant de l'automatisation». Même interprétation pour Mouloud Dey, directeur stratégie et nouvelles technologies de SAS: «Il y a encore quelques années, faire du data mining sans posséder un profil de data miner ou de statisticien relevait de l'exploit. Ce qui explique en partie que ceux qui s'y aventuraient ne pouvaient que produire des scores relativement simples. Des scores considérés comme une valeur numérique permettant de faire un tri sur l'ensemble des clients.» Aujourd'hui, le constat est clair: les utilisateurs de solutions analytiques sont souvent issus des services CRM, marketing ou commercial et ont accès à des outils de data mining pour les besoins de leur département.
Aujourd'hui, la démocratisation existe ainsi sur deux niveaux. Le premier rassemble les utilisateurs de solutions eux-mêmes dont les profils se sont considérablement diversifiés. Le second niveau concerne les éditeurs qui ont fait d'importants efforts dans la manière de concevoir leurs solutions, apportant un soin particulier à l'approche ergonomique des progiciels. A ce titre, il est intéressant de constater que les grands éditeurs internationaux s'attachent fortement à améliorer cet aspect, à la différence des éditeurs issus du monde de l'open source, qui ne disposent pas des moyens humains et financiers pour porter autant d'attention aux interfaces et à l'ergonomie.
4 RESPECTER UN CERTAIN NOMBRE DE REGLES
A. La compréhension des possibilités offertes par un projet analytique est primordiale..., mais trop souvent oubliée. «Il est impératif de comprendre le besoin fonctionnel du projet. Autrement dit, se fixer des objectifs en se basant sur des travaux statistiques est une étape préliminaire», note Jérôme Loncelle. Ce qui sous-entend de collecter des données non seulement pertinentes, mais en nombre suffisant pour constituer un historique.
B. Il est toujours possible de se lancer dans un projet analytique et de faire du data mining sans posséder un progiciel équipé d'un algorithme dédié. A titre d'exemple, il est relativement facile de connaître la part de ses abonnés les plus fidèles avec un simple tableur. Cependant, dès que l'on possède un minimum de données, le passage à l'automatisation impose souvent de se doter d'une solution dédiée. Dans ce cas, la première étape consiste à se faire accompagner par l'éditeur ou un intégrateur et commencer par des tâches simples comme segmenter sa clientèle selon le chiffre d'affaires ou établir des profils, des typologies et des classifications. La seconde étape consiste à se lancer progressivement sur des modèles de prévision.
C. Les premières expériences d'utilisation de solutions analytiques entraînent souvent une grande remise en cause de la fiabilité du contenu des fichiers et des BDD clients. En effet, si la qualité d'une adresse est importante dans l'absolu, il convient d'apprécier sa réelle utilité pour sa stratégie de relation client. En outre, il est nécessaire de connaître les informations que l'on est autorisé à conserver, élément qui diffère selon les pays.
D. Il est important de tenir compte de la qualité des données obtenues sur les clients, afin de pouvoir exploiter l'ensemble des données historiques sans oublier leur mise à jour constante. «La fiabilité du modèle data mining est fortement dépendante de la quantité et de la qualité de données à manipuler. L'abondance peut nuire dans la mesure où il peut y avoir du «bruit»?- informations considérées comme inutiles - présent dans les données. Mais, dès lors que leur qualité est bonne, un grand volume de données, notamment historiques, constitue un «plus» appréciable», précise Mouloud Dey.
E. Un projet analytique impose donc la mise en place de systèmes de modélisation pour essayer de comprendre les comportements d'achat des clients, pour évaluer le risque de churn, etc. Une fois que l'on a compris le comportement du client par rapport à une situation donnée, l'utilisation de cette information à des fins marketing ou commerciales peut dès lors être exploitée de manière plus efficace, en proposant des offres plus adaptées aux goûts et besoins du client.
F. Il convient de travailler sur une segmentation spécifique à sa marque et son marché. La qualité des données segmentées va dépendre de la capacité d'une entreprise à les trier, en prenant en compte les mots-clés propres à son activité. Une fois ce travail effectué, on obtient une base de données relationnelles en mesure d'être traitée par un logiciel de data mining.
G. La richesse des solutions analytiques va dépendre de la capacité des utilisateurs à mettre leur savoir-faire métier en phase avec l'outil. «Un modèle de data mining est d'autant plus pertinent que l'utilisateur maîtrise son métier», constate Hervé Kauffmann, directeur des ventes France Benelux de KXEN.
H. La rigueur d'un data miner n'est pas à sous-estimer, puisque cet expert doit vérifier les informations avant de générer des résultats qui seront confrontés aux besoins initiaux. Il peut jouer un rôle crucial si son aptitude à vulgariser l'usage de l'outil dans l'entreprise est grande et s'il parvient ainsi à montrer l'immense potentiel de la discipline, tout en étant capable de jouer un rôle de sensibilisation des marketeurs.
I. Pour mener à bien un projet analytique, il est nécessaire de se préparer à la conduite du changement afin de décloisonner les services entre eux, comme le rappelle Hervé Délhin: «Il faut que le centre d'appels soit en mesure de partager ses données, que les services web, marketing, etc. en fassent de même. De nombreuses personnes doivent être impliquées dans le processus du data mining.» Par ailleurs, lorsque l'objectif du projet data mining est défini, il convient de voir s'il n'est pas en contradiction avec d'autres objectifs de l'entreprise.
5 UN POTENTIEL SOUS-EXPLOITE
La réalisation de projets analytiques bénéficie d'une grande marge de progression, en raison, notamment, d'une vision encore trop axée sur le côté technique et pas assez sur l'approche fonctionnelle. Par ailleurs, même si ces projets offrent des perspectives quasi illimitées sur la connaissance des clients, il faut néanmoins constater qu'ils souffrent encore d'un manque de reconnaissance par les directions d'entreprise. «Les services dédiés au data mining ne sont pas monnaie courante. Les projets restent ponctuels. Il faudrait entrer dans une certaine routine, avec des projets menés au fil de l'eau, pour que les résultats obtenus soient encore plus spectaculaires», rappelle Michel Bruley, directeur marketing de Teradata. Le data mining n'est pas encore évalué ni estimé à sa juste valeur puisqu'il est encore trop souvent considéré comme une discipline seulement maîtrisée par un spécialiste de la statistique/informatique, à la recherche de modèles dont les applications concrètes restent à définir. «En outre, les projets data mining peuvent entraîner un bouleversement des méthodes de travail pour de nombreux services dans l'entreprise, puisque la discipline touche à la segmentation, aux tarifs, aux marges, etc.», remarque Michel Bruley. Une discipline qui reste finalement dépendante d'un processus de sensibilisation et de mise en valeur.
Jérôme Pouponnot
Data mining et statistique décisionnelle: l'intelligence des données, par Stéphane Tufféry. Ed. Technip, 2007.
Introduction au data mining: analyse intelligente des données, par Michel Jambu. Editions Eyrolles, 2006.
L'ENJEU DES DONNEES NON STRUCTUREES
Aujourd'hui, les données non structurées constituent une richesse sous-exploitée. Ce sont, par exemple, des données directement saisies par un client sur Internet via un formulaire, ou obtenues par un centre de contacts lors de réclamations, etc. Il existe une grande marge de progression pour améliorer cette maîtrise. En effet, la possibilité de laisser des commentaires sur la qualité d'un produit ou d'un service, via un champ prévu à cet effet, est largement sous- exploitée par les entreprises. D'où l'importance de mettre en place des outils tels que les solutions de text mining destinées à détecter les informations principales ou analyser les textes au travers de mots-clés préalablement définis par l'utilisateur. «L'engouement pour le text mining est réel. Le volume d'informations à exploiter sur les données non structurées devrait augmenter de manière significative dans les prochaines années. L'enjeu pour les entreprises est, et sera, de bien catégoriser ce contenu non structuré en y appliquant des règles métier», estime Jean-Philippe Nagel, directeur practice solutions sectorielles et analytiques de SAS. Ainsi, le contenu que l'on pourra retirer d'un texte de réclamations ou d'un e-mail doit pouvoir être enrichi avec une bibliothèque de mots et de termes propres au secteur d'activité, à l'entreprise, voire au département de l'entreprise. Une autre donnée doit aussi être prise en compte: celle liée au comportement d'un internaute sur une page web. Il est possible d'analyser son parcours, non seulement en termes de liens, mais aussi au niveau de la rapidité des pages visitées. Cependant, la façon dont un client se comporte face aux pages qu'il visionne est encore trop peu étudiée.
LES EDITEURS DE DATA MINING TESTES
Douze solutions logicielles ont été testées à la fin 2008 par Mayato, institut spécialisé dans les analyses et le consulting en business intelligence. Sur les douze, quatre ont été soumises à une évaluation plus poussée: KXEN, Rapid Miner, SAS et SAP. L'étude a mis en évidence l'extrême rapidité d'analyse des données de KXEN. En termes d'efficacité, de simplicité d'utilisation et de rapidité dans la réalisation de modèles, KXEN se retrouve également en tête du classement. Les testeurs ont aussi évalué la rapidité des solutions, leur faculté d'automatisation et la qualité des résultats. Un fichier test de 30 000 individus et 15 variables, puis un second fichier comportant 100 000 individus et 450 variables ont été utilisés.
FIDELISATION
CRM SERVICES SEGMENTE SA CLIENTELE
La maîtrise du projet analytique initié par la filiale de la SNCF doit conduire à un meilleur ciblage de la clientèle.
Filiale de la SNCF créée en 2004, CRM Services a pour mission de gérer et d'animer l'ensemble des clients porteurs de cartes de fidélité de la SNCF. L'entreprise traite deux programmes basés sur une gestion de points: «Grand Voyageur», qui s'adresse davantage aux professionnels et qui permet de cumuler des S'Miles, et «Loisir», adossé aux cartes commerciales de réduction.
Historiquement, la SNCF utilisait la solution de data mining Clementine, de SPSS. «L'objectif d'un projet de data mining est de mieux connaître sa clientèle. Le programme relationnel existe depuis 1999, nous avons donc repris et fait progresser la segmentation client lors de la création de CRM Services», souligne Brigitte Teillet, responsable du service études.
Aujourd'hui, l'outil SPSS - utilisé par cinq à six data miners - permet à l'entreprise de mettre en place des scores quasi quotidiens, de lancer des retours d'offres; le tout grâce à une ergonomie adaptée à l'usage de CRM Services. «Au fil des années, l'outil a sensiblement évolué, même si les changements au niveau de l'interface ne sont pas profonds. En revanche, nous avons perçu un travail sensible sur la puissance des algorithmes; nous bénéficions ainsi de davantage de possibilités et de précisions sur le travail de segmentation», explique Brigitte Teillet. En effet, le ciblage de la clientèle constitue l'une des priorités de CRM Services qui souhaite éviter l'envoi de propositions commerciales à l'ensemble des clients et réduire le risque de saturation de la base clients.
Désormais, l'entreprise s'oriente sur une industrialisation des techniques utilisées. «Après avoir déterminé des groupes intéressés par une offre précise, nous souhaitons automatiser le lancement de campagnes d'e-mailings similaires sur ces groupes.» Un projet qui devrait voir le jour en 2009, selon Brigitte Teillet.
Frédéric Binon (Belgacom)
Le gain de temps dans la construction des modèles est appréciable: nous sommes passés d un mois à quelques jours.
SCORING
BELGACOM ADOPTE KXEN POUR ENRICHIR SA RELATION CLIENT
Depuis une dizaine d'années, l'opérateur historique belge s'appuie sur le data mining et le fait progressivement évoluer.
Equivalent de France Télécom en Belgique, le Groupe Belgacom est le fournisseur de référence en Belgique en matière de services de télécommunications intégrés. Par l'entremise de ses filiales, il propose à tous ses clients, quel que soit leur profil, privé, professionnel, société ou institution, un éventail complet d'offres et de solutions sur les réseaux fixe et mobile. Et, depuis 2008, un processus de convergence a été lancé entre les activités fixe et mobile. Le tout premier modèle de data mining a été créé à la fin des années quatre-vingt-dix grâce à l'existence, en parallèle, d'un data warehouse Teradata caractérisé par la fiabilité de ses données. «La présence d'un bon data warehouse, c'est-à-dire avec des données régulièrement mises à jour, constitue le prérequis au lancement d'un projet de data mining», précise Frédéric Binon, marketing expert manager. Avant de poursuivre: «Lorsque nos services souhaitent lancer une campagne commerciale ou marketing, une analyse permet d'extraire un échantillon du data warehouse.
Un modèle est élaboré afin d'obtenir un scoring qui génère, par exemple, les probabilités pour un client de consommer un nouveau produit, ou au contraire, de nous quitter. Auparavant, notre principal souci était de ne pas pouvoir réutiliser facilement ces scorings avec notre base de données Teradata.» L'adoption de KXEN en 2004 a généré un gain de temps considérable, puisque, depuis, non seulement la production de scorings ne nécessite que quelques minutes, mais les utilisateurs peuvent également générer les scores à partir de n'importe quel poste.
Par ailleurs, l'adoption de KXEN a grandement facilité le développement des modèles d'un point de vue business. La partie purement technique des manipulations a, quant à elle, été confiée à l'éditeur. «Là encore, le gain de temps dans la construction des modèles est appréciable: nous sommes passés d'un mois à quelques jours», souligne Frédéric Binon. Enfin, la présentation des résultats sous forme de graphiques a également été grandement appréciée par ses quatre utilisateurs.