In the Memory : la stratégie data-driven automatisée pour la grande distribution
Au sein d’une startup, TPE ou PME, comment prendre la bonne décision quand on est confronté à une masse de données compliquées à traiter ? En utilisant un outil intelligent qui se nourrit de ces données pour proposer des recommandations, en un clic. Alexis Mau, co-fondateur et CEO d’In the Memory, nous explique comment le bon usage de la data peut révolutionner certains métiers, comme ceux de la grande distribution. Assortiment, merchandising et pricing n’auront plus de secret pour vous !
Les acteurs de la grande distribution sont aujourd’hui confrontés à des enjeux importants de marges. Dans ce contexte, quelles solutions trouver pour que les équipes passent moins de temps sur des tâches répétitives et se consacrent pleinement à des missions ayant une plus-value humaine ? C’est la question que s’est posée Alexis Mau il y a un peu plus d’un an.
J’ai travaillé pendant 7 ans avec mon associé Maxime dans un cabinet de conseil spécialisé dans la distribution. Nous avons vu l’opportunité de moderniser et d’automatiser une grande partie des tâches réalisées par les équipes commerciales et marketing. Dans le but de mieux accompagner les distributeurs avec des solutions technologiques multi-sources, agiles et extrêmement proche des cas métiers.
En novembre 2018, ils ont donc lancé In the Memory. L’objectif ? Améliorer l’utilisation de la data dans le retail grâce à un outil d’aide à la décision. Sur la plateforme, le client choisit parmi 12 modules le sujet sur lequel il souhaite travailler (assortiment, optimisation des promotions…). Il obtient ensuite des recommandations en un clic. Pour parvenir à ses fins, l’outil se nourrit des données de vente, de cartes de fidélité et des données clients. Mais également de données externes, comme les tendances de consommation ou des éléments de concurrence.
Mieux exploiter la richesse des données
Tout est parti d’un constat. Les volumes colossaux de données des grands distributeurs représentent une richesse mal exploitée. « Une équipe de 50 personnes peut tenter de faire des calculs à partir de différentes sources de données, il n’y aura pas d’homogénéité dans l’approche. Des business units découperont des données qui ne seront donc pas forcément exploitables directement. Et elles y passeront un temps fou. Or, nous étions convaincus qu’il était possible d’aller plus vite et de désiloter les données ».
La mise en place d’une stratégie digitale d’organisation homogène du traitement des data est donc essentielle. Ses objectifs, rendus atteignables par des transformations digitales, doivent améliorer la gouvernance des données. Pour la garantir, les data doivent être issues d’une source de vérité unique.
Les métiers de la grande distribution bénéficient de l’emploi de toutes les données disponibles. Ils produisent eux-mêmes des données en interne qu’il faut agréer à celles issues de bases de données externes. Il en résulte un data Lake plus ou moins structuré dont les données sont difficiles à exploiter. Pour y parvenir il faut mettre en place une stratégie digitale qui répond aux besoins et à l’usage interne du business. La transformation de ces data homogénéisées doit être à la base de nouvelles analyses. Elles permettent d’acquérir de nouvelles connaissances grâce à leur exploitation par l’intelligence artificielle. De tels projets créent de la valeur et améliorent les performances marketing. C’est même toute une stratégie marketing qui peut être axée sur les résultats du data analytics.
Dans l’assortiment, par exemple, la richesse des données est un atout. En fonction des informations récupérées sur les produits qui marchent le mieux, de la concurrence, de l’emplacement du magasin et du type de clients, on peut tirer de l’intelligence. L’objectif ? Recommander les produits à sélectionner pour tel ou tel rayon par exemple. C’est exactement ce que propose In the Memory à ses clients. « Il leur suffit de paramétrer sur la plate-forme trois ou quatre points. Par exemple la période à analyser, le périmètre de magasin (hypermarché, supermarché…) et le rayon en question. Puis d’appuyer sur un bouton. La proposition sort au bout de 5 à 10 minutes ».
Les derniers outils de l’IA peuvent garantir un meilleur traitement des sources de données en amont de la prise de décision. Une étude préliminaire est cependant indispensable à l’établissement d’une stratégie globale de définition des différents processus d’organisation des data. Les enjeux sont tellement grands qu’Il ne faut surtout pas déployer les données et les process de façon trop précipitée. La méthodologie à respecter, comme la manière de l’appliquer, ne doivent pas uniquement reposer sur le recours aux technologies, quel que soit leur niveau. Toute stratégie de mise en place d’un entrepôt de données, d’un data Lake ou d’une Lake House doit faire l’objet d’un consensus au sein de l’entreprise. Le déploiement profitera toujours de l’établissement d’un schéma de données objectif et majoritairement accepté.
Lire aussi A quoi ressemblera le point de vente du futur ?
Un outil adapté aux différents métiers de la grande distribution
In the memory est donc une aide précieuse pour les responsables des achats et de la construction de l’offre. Quel produit mettre dans quel magasin, quel produit promotionner, quel pricing adopter en fonction des zones de chalandise ? Et comment agencer les produits ? Il aussi d’un grand secours aux chefs de produit marketing pour déceler les nouvelles opportunités de vente et décider des évolutions à apporter aux produits.
Par exemple, l’outil pourra aider un responsable de marque qui se demande s’il doit ou non légèrement augmenter le prix de ses produits d’entrée de gamme, au risque de faire de l’ombre au milieu de gamme. Grâce aux historiques d’achats des cartes de fidélité, In the memory estime la part de clients qui hésitent entre les deux catégories et qui risquent d’aller vers le milieu de gamme si les prix sont similaires.
En fonction de cette part de clients, on peut calculer l’impact financier du repositionnement. Et ainsi alerter sur les types de produits à risques. Ces recommandations permettent au chef de produit de travailler son repositionnement.
Dans 85 à 95 % des cas, les clients appliquent bien les recommandations suggérées. Le pourcentage restant est dû à des facteurs souvent humains échappant aux algorithmes. Comme un désaccord entre le distributeur et le fournisseur. En termes de croissance, les recommandations peuvent apporter un gain de 2 à 3 % dans un hypermarché. Et de plus de 5 % dans un petit magasin.
Le choix du Cloud et de Microsoft
Comment a été créé l’outil ? « On est parti d’une page blanche. Pour créer l’outil idéal, nous savions qu’il fallait utiliser une solution cloud qui offre une grande scalabilité. La solution devait également être simple à administrer et très performante techniquement. On a vite choisi Azure ».
La solution intègre du machine learning pour la partie décisionnelle. Elle s’améliore en apprenant des différences entre le théorique et le réel. Un aspect développé en interne avec leurs 5 data scientists. Côté langage, l’équipe utilise Python PySpark pour le code. Et pour faire tourner les algorithmes, la solution standard Databricks.
In the memory a été sélectionnée pour le programme Microsoft for startups à partir d’un pitch et d’une maquette d’outil. « Être accompagné par Microsoft est un vrai avantage. On s’appuie sur eux pour challenger nos choix architecturaux techniques. En effet, les crédits dont nous bénéficions sur Azure nous permettent de faire de nombreux tests. Et au-delà de ça, notre référencement est en cours pour que les sales et les account managers de Microsoft puissent relayer notre offre ».
Lire aussi Intelligence artificielle, ce qu’il faut savoir avant de se lancer
Une équipe en fort développement
In the memory a démarré avec une équipe restreinte mais couvrant rapidement 3 métiers clés : expert retail, data scientist et développeur. Et dès les premiers contrats décrochés, l’équipe s’est rapidement agrandie. Elle compte près de 20 personnes aujourd’hui et de nouveaux recrutements sont prévus. Parmi les profils recherchés : un ou deux développeurs Web, un data scientist et un business developer. D’ici fin 2020, l’effectif devrait monter à 30.
Parmi leurs trois clients principaux, deux font partie du secteur alimentaire. « Nous avons soumis un questionnaire de satisfaction. Sur les 120 personnes répondantes, 98 % ont déclaré que l’outil leur permettait d’accélérer leurs décisions. Mais aussi de découvrir de nouveaux indicateurs et de travailler différemment. Nous avons obtenu une note de 17/20 sur la qualité de la plate-forme et de l’accompagnement-formation à l’outil ».
Aller toujours plus vite
Pour Alexis, une expression définit bien l’ADN de In the memory : « Action, réaction ». Si un client constate un bug, l’équipe réagit immédiatement pour le satisfaire au mieux. La culture d’entreprise repose sur le pragmatisme, avec des cycles de développement courts, sur une semaine. Mais également sur l’innovation, avec une remise en question permanente pour aller toujours plus loin.
Après un an d’existence, In the memory est en pleine évolution. La plate-forme est en développement perpétuel jusqu’à fin 2020 avec de multiples objectifs. Aller encore plus loin sur la partie data et ML, et couvrir de nouveaux sujets comme le pricing en font partie. Mais également envisager de nouveaux usages comme le mobile. « Nous avons une approche plus prudente que certaines start-ups, mais nous restons ambitieux. Nous visons 4 fois notre chiffre l’an prochain ».
Et où se voient-ils dans 5 à 10 ans ? « Nous aimerions ouvrir une dizaine de bureaux à l’international. Et nous espérons créer une image de marque très forte, qui nous permettrait de nous distinguer de cabinets de conseil. L’idée est d’être reconnus comme les « hyper experts » du retail analytics, avec un positionnement hybride qui allie du conseil et de la retail tech ».