Quels sont les bénéfices du Big Data dans le secteur retail ?

Quels sont les bénéfices du Big Data dans le secteur retail ?

Deux années de COVID-19 ont permis aux acteurs du retail de se réinventer et d’accélérer leur transformation digitale. Pour faire face à la concurrence, tout en optimisant la compétitivité, le secteur du commerce peut compter sur les Big Data. Expériences personnalisées, bien-être des conseillers, excellence logistique, découvrez comment la donnée a transformé le secteur du retail & du e-commerce.

Les chiffres de la FEVAD (Fédération de la Vente à Distance) indiquent que le secteur du e-commerce a dépassé les 129 milliards d’euros en 2021, en hausse de 15,1%. Un succès tel que les acteurs historiques du commerce physique se sont massivement lancés dans la vente en ligne. La conséquence ? La frontière entre e-commerce et commerce physique est toujours plus ténue. Selon l’étude LSA/HiPay 2021, 63% des shoppers français déclarent avoir eu recours au moins une fois au click & collect (+ 29 pts), 44 % à la livraison à domicile d’un achat en magasin (+ 24 pts) et 37 % au retour en magasin d’un produit acheté en ligne (+ 18 pts). Dans ce contexte de concurrence féroce, le recours aux Big Data, porté par l’Intelligence artificielle et le Machine Learning, présente bien des avantages pour ce secteur.

Bénéfice N°1 : Avoir une vue 360° des clients

Face à des consommateurs toujours plus informés, et dont les parcours sont omni-canaux, les acteurs du retail peuvent, grâce à la donnée, disposer d’une vision à 360° de leurs clients. Tout au long de la relation qui unit une enseigne à ses clients, la data joue un rôle pour offrir aux conseillers dans les points de vente une connaissance approfondie du client, mais aussi des produits commercialisés. Mieux informés sur le client, sur les produits commercialisés, et sur les habitudes et attentes du consommateur : les missions des vendeurs sont plus riches et plus satisfaisantes. Des missions à valeur ajoutée qui peuvent constituer une réponse à la pénurie de talents qui affecte le secteur. 

Mais ce n’est pas tout ! L’exploitation des historiques d’achats sur un large portefeuille de clients, permet d’inscrire une enseigne dans une dynamique prédictive pour rester toujours en phase avec les shoppers et adapter l’offre en temps réel en définissant des personas et en personnalisant les offres promotionnelles par exemple.

Bénéfice N°2 : Optimiser la tarification

L’offre et la demande. C’est la règle de base de toute activité commerciale. Dans un contexte d’hyper-concurrence et de tension sur le pouvoir d’achat des consommateurs, vendre au juste prix est une nécessité absolue. L’une des principales promesses de la donnée exploitée pour optimiser la tarification : préserver l’attractivité de l’enseigne, tout en protégeant ses marges. 

Une réalité encore plus sensible dans le cas d’enseignes multi-sites, réparties sur un vaste territoire. Adapter la tarification aux réactions et comportements des clients, mais aussi réagir par rapport à la concurrence sur une zone de chalandise, deux leviers stratégiques majeurs pour le retail.

Bénéfice N°3 : Innover pour améliorer les produits & services

Sous l’effet de la digitalisation, les habitudes des consommateurs évoluent très vite. Les marques doivent par conséquent innover sans cesse. Mais innover peut être un processus risqué et coûteux. 

Grâce à la donnée, les acteurs du retail peuvent s’appuyer sur la connaissance qu’ils ont des goûts et des attentes de leurs clients, pour définir leur feuille de route en matière d’innovation pour leurs produits et leurs services. Le défi ? Gagner la course de vitesse qui mène à la conquête de nouveaux marchés, tout en maîtrisant les budgets consacrés à la R&D.

Bénéfice N°4 : Proposer des expériences d’achat personnalisées

Depuis le début de la crise sanitaire, l’e-commerce a littéralement explosé, attirant un public qui fréquentait autrefois principalement les points de vente physiques. Pour se différencier, les acteurs du retail doivent tout mettre en œuvre pour proposer des expériences d’achat personnalisées. 

La donnée constitue la base de toute personnalisation, surtout pour les enseignes qui, à la faveur de la pandémie de COVID-19, se sont engagées sur la voie du e-commerce. L’ambition ? Exploiter la connaissance des clients on et off-line pour réconcilier les expériences. Une data optimisée, maîtrisée, permet de tirer profit des avantages du digital tout en renforçant la qualité du contact humain dans le point de vente.

Bénéfice N°5 : Fluidifier les approvisionnements

L’une des raisons qui amènent un client à visiter un point de vente plutôt que de réaliser des achats en ligne, c’est la perspective d’établir un contact physique avec le produit. Dans le prêt-à-porter, la promesse de l’essayer fait presque toujours la différence. Et, dans tous les cas, la possibilité de repartir sans délai avec son achat est le premier déclencheur de l’acte d’achat. 

Gestion des stocks optimisée, fluidification des approvisionnements, maîtrise des coûts logistiques… Garantir la disponibilité des produits dans le point de vente en assurant l’excellence de la donnée est un enjeu crucial.

Retail 4.0 : Comment Monoprix a migré sur le cloud

Retail 4.0 : Comment Monoprix a migré sur le cloud

Leader omni-canal du centre-ville avec une présence dans plus de 250 villes en France, Monoprix offre chaque jour des produits et services innovants et variés avec un seul objectif en tête : “rendre le beau et le bon accessible à tous”. 

En effet, Monoprix en 2020 c’est :

  • Près de 590 magasins en France,
  • 22 000 collaborateurs,
  • Environ 100 magasins à l’international,
  • 800 000 clients par jour,
  • 466 producteurs partenaires locaux.

Avec près d’un million de clients en physique et plus de 1,5 million de visiteurs sur leur site web chaque jour, il est clair que Monoprix fait face à de milliers de données à gérer ! Que celles-ci proviennent des cartes de fidélité, tickets clients ou de commandes de livraisons en ligne, la firme doit donc gérer un nombre colossal de data de formats variés. 

Au Big Data Paris 2020, Damien Pichot, Directeur des Opérations et des Flux Marchandises chez Monoprix, nous a partagé le parcours de la firme dans leur mise en place d’une culture data-driven grâce au Cloud.  

big-data-paris-monoprix-1

Le Big Data au sein de Monoprix

En réponse du nombre de données qui arrivaient chaque jour dans les systèmes data de Monoprix, l’entreprise avait mis en place différentes technologies : un data warehouse on-premise pour les données structurées et un data lake dans le Cloud, qui servait à gérer les données semi-structurées de leurs sites web. De plus, beaucoup de données proviennent également de partenaires ou prestataires dans le cadre d’échanges et d’acquisitions d’informations.

Malgré que l’architecture ait bien fonctionné et tenu son rôle pendant de nombreuses années, elle commençait à montrer ses limites et ses faiblesses : 

“Pour vous donner une illustration, chaque lundi par nos métiers, nous analysons le chiffre d’affaire et tout ce qui s’est passé la semaine précédente. Au fur et à mesure du temps, nous nous sommes aperçus que chaque semaine le nombre d’utilisateurs qui se connectait sur nos systèmes d’informations augmentait et on arrivait à saturation. En réponse, certains de nos collaborateurs se levaient à 5h du matin pour lancer leur requête pour ensuite se recoucher, et récupérer celle-ci en fin de matinée voire début d’après-midi !” explique Damien Pichot. 

Une autre point négatif de la structure IT de la firme, concernait les utilisateurs métier et plus précisément ceux du marketing. Ils commençaient à développer des environnement analytiques en dehors du contrôle de la DSI, créant donc ce qu’on appelle le “shadow IT”.  Les équipes data de Monoprix  étaient bien évidemment insatisfaites car elles n’avaient aucune supervision sur les projets métiers. 

“La DSI représentée au sein de Monoprix  n’était donc pas au service des métiers et ne répondait pas à ses attentes.” 

Après avoir consulté son comité IT, ils ont  ensemble décidé de faire une rupture avec leur grande structure on-premise. La nouvelle solution devait donc répondre à quatre questions :

  1. Est-ce que la solution redonne la main aux métiers pour qu’ils soient autonomes
  2. Le service est-il performant / résilient ?
  3. La solution permettra-t-elle de baisser les coûts de fonctionnement ?
  4. Aura-t-on accès à une plateforme unique qui permettra de mutualiser toutes les données issues du data warehouse et du data lake afin de répondre aux enjeux business, décisionnels, machine learning et data science ? 

Après réflexion, Monoprix a  finalement pris la décision de tout migrer vers le Cloud ! “Même si nous avions opté pour une autre grosse solution on-prem, nous aurions été confrontés aux mêmes problèmes à un moment où un autre. On aurait peut être gagné deux ans mais ce n’est pas viable sur le long terme.” 

Le parcours de Monoprix dans le Cloud

Monoprix a donc démarré cette nouvelle aventure dans le Cloud avec Snowflake ! Seulement quelques mois après son implémentation, Monoprix s’est très vite rendu compte  des améliorations de performance comparées à leur ancienne architecture. Snowflake a également su répondre à leurs besoins en matière de partage des données, chose qu’ils avaient du mal à faire auparavant, en robustesse et en disponibilité de la donnée.

Les premières étapes

Lors de sa conférence, Damien Pichot a expliqué que cela n’était pas facile de convaincre les équipes de Monoprix qu’une migration dans le Cloud était sécurisé. Ils ont pu être rassurés avec la mise en place de Snowflake, qui implémente un niveau de sécurité aussi important que celui de l’industrie pharmaceutique et bancaire aux États Unis. 

Pour se donner tous les moyens possibles pour réussir ce projet, Monoprix a décidé de créer une équipe dédiée, constituée de nombreuses personnes  telles que des responsables projet, des intégrateurs, des responsables d’applications spécifiques, etc. C’est en Mars 2019 que le lancement du projet commence officiellement. Damien Pichot avait organisé un kickoff en invitant tous les métiers de l’entreprise : “Je ne voulais pas que ce soit un projet informatique mais un projet d’entreprise, je suis convaincue que ce projet devait être porté par les métiers et fait pour les métiers”. 

Damien nous confie que la veille du lancement du projet, il avait du mal à dormir ! En effet, Monoprix est la première entreprise française à se lancer dans la migration totale d’un data warehouse on-premise vers le Cloud ! 

big-data-paris-monoprix-2

Les complications du projet 

La migration s’est faite de façon itérative, du fait d’un fort legacy technique, pour tout réintégrer dans une technologie aussi moderne que Snowflake. En effet, Monoprix avait eu des gros soucis avec les connecteurs : “Nous pensions à l’époque que le plus dur du projet serait d’automatiser les traitements. Or, le plus compliqué a été de re-platformer nos ETL sur un nouvel environnement. On est donc passé d’un projet de 12 mois à 15 mois.”

La nouvelle architecture 

Monoprix traite donc deux formats de données : les données structurées et les semi-structurées. Les données structurées qui concernaient leur datawarehouse classique, donc les données provenant du Supply Chain, Marketing, transactions clients, etc. Et les semi-structurées qui provenaient d’évènements liés aux sites web. Tout ça maintenant est convergé via les ETL dans une plateforme unique qui tourne sur Azure avec Snowflake. “Grâce à cette nouvelle architecture dans le Cloud nous pouvons attaquer les données comme nous le souhaitons via différentes applications” dit Damien.

big-data-paris-monoprix-3

Conclusion : Monoprix est mieux dans le Cloud

Cela fait depuis le mois de mai 2020 que Monoprix gère ses données dans le Cloud, et c’est “que du plus”. Côté métier, il y a moins de latence, les requêtes qui prenaient des heures durent maintenant des minutes, (et les employés dorment enfin le matin !). Les analyses du métier sont également beaucoup plus profondes avec la possibilité de faire des analyses sur cinq ans, ce qui n’était pas possible avec l’ancienne structure IT. Mais le point le plus important est la facilitation de partager des données plus facilement (data sharing en anglais) avec les partenaires et prestataires de la firme, en autres.

Damien nous explique fièrement.  “Avec l’ancienne structure, nos équipes marketing mettaient 15 jours à préparer les données et devaient envoyer des milliers de fichiers à nos prestataires, aujourd’hui ils se connectent en une minute et ils vont chercher les données seuls, sans que nous devons intervenir. Rien que ça, c’est un ROI direct. 

Data visualisation : faites parler vos données

Data visualisation : faites parler vos données

Qu’est-ce que la data visualisation ?

La data visualisation est définie comme étant une représentation graphique de la donnée.

Elle est utilisée pour comprendre le contexte et la signification des données en montrant les tendances et corrélations entre elles ; ce qui pourrait être difficile à interpréter sous des formats plus traditionnels. Ces représentations graphiques peuvent être sous forme de diagrammes, tableaux, graphiques, cartes thermiques, et bien plus.

Les avantages de la data visualisation

Dans la BI, ou Business Intelligence, la data visualisation est déjà une fonctionnalité fondamentale. Avec l’arrivée du Big Data, elle est devenue cruciale pour aider les consommateurs de la donnée à déchiffrer les millions de données générées chaque jour. Non seulement la data visualisation aide les utilisateurs à exploiter leurs données dans une représentation graphique simple à comprendre, mais elle permet également aux employés de gagner du temps et de travailler plus efficacement.

Dans un sens, la data visualisation permet aux organisations de démocratiser la compréhension des données dans l’entreprise. Ainsi, les sponsors de la donnée, tels que les Chief Data Officers, voient en cette discipline une manière de remplacer la prise de décision sous intuition par l’analyse des données. Autrement dit, se diriger vers une culture data-driven.

 

Comment apporter plus de valeur avec la data visualisation ?

Même si la promesse des outils de data visualisation est forte, les organisations ont encore du mal à représenter visuellement leurs données sous une forme pertinente et valorisable.

De nouveaux acteurs sur le marché relèvent le défi avec de nouveaux cas d’utilisations:

Une meilleure communication et compréhension des données

La data visualisation permet aux employés, même agnostiques à la data, de comprendre, analyser et communiquer via de nouveaux formats plus interactifs. La volonté des entreprises à devenir Data-Driven les mènent à former plus et mieux ses collaborateurs sur la manière de gérer et représenter leurs données.

 

Plus d’interactions sur l’analyse des données

La construction de rapports devient une activité collaborative dans les entreprises et la présentation de données un usage quotidien. Les représentations graphiques de la donnée deviennent donc responsive afin de s’adapter à différents devices et n’importe quel type de revue. Cette discipline s’ouvre ainsi à des techniques du web et du mobile où la co-analyse et l’exploration des données se veut de plus en plus ludique et interactif.

 

Permettre un data storytelling

Le data storytelling concerne la communication des résultats plutôt que la supervision ou analyse de leurs progrès. De plus en plus de sociétés telles que DataTelling et Nugit se spécialisent dans ce domaine. Avec l’utilisation d’infographies et d’interactions, ces plateformes utilisent des techniques de data storytelling. Elles contextualisent et apportent du sens sur les données auprès des équipes.

 

Une data visualisation automatisée

Les utilisateurs de la donnée s’attendent de plus en plus à ce que leurs logiciels en fassent plus pour eux. La visualisation de données automatisée peut être très utile, par exemple, pour les utilisateurs ne sachant pas quel format visuel convient le mieux aux jeux de données qu’ils souhaitent explorer ou analyser. Ces fonctionnalités automatiques sont particulièrement appréciées par les data scientists, car leur temps sera dédié à l’analyse et la recherche de nouveaux usages plutôt que sur la manière de les visualiser.

 

Les meilleures plateformes Analytics & BI de Gartner

 

Selon Gartner, les leaders de plateforme analytics et business intelligence sont:

      • Microsoft: Power BI de Microsoft est un ensemble d’outils de visualisation de données personnalisables qui vous donne une vue complète de votre entreprise. Il permet aux employés de collaborer et de partager des rapports à l’intérieur et à l’extérieur de leur organisation et de détecter les tendances au fur et à mesure. Cliquez pour plus d’informations.
      • Tableau: Tableau aide les utilisateurs à transformer leurs données en informations exploitables. Ils permettent aux utilisateurs d’explorer avec une analyse visuelle illimitée, de créer des tableaux de bord, d’effectuer des analyses ad hoc, etc. En savoir plus sur Tableau
      • Qlik : Avec Qlik, les utilisateurs peuvent créer des visualisations intelligentes et glisser des éléments pour créer des applications d’analyse riches accélérées par les suggestions et l’automatisation d’IA. En savoir plus sur Qlik.
      • ThoughtSpot : ThoughtSpot permet à l’utilisateur d’obtenir des informations détaillées à partir de milliards de lignes de données. Grâce à la technologie d’intelligence artificielle, découvrez des informations issues de questions auxquelles vous n’auriez peut-être pas pensé. Cliquez pour plus d’informations sur ThoughtSpot.

 

Pour conclure : pourquoi les entreprises devraient-elles utiliser la data visualisation ?

Les principales raisons pour lesquelles la data visualisation est importante pour les entreprises, entre autres, sont les suivantes:

      • Les données sont plus faciles à comprendre et à mémoriser
      • La visualisation des tendances et des relations de données est plus rapide
      • Les utilisateurs peuvent découvrir des données qu’ils n’auraient jamais pu voir auparavant
      • Les responsables des données peuvent prendre de meilleures décisions, basées sur les données
Comment le Big Data a contribué au succès de Zalando

Comment le Big Data a contribué au succès de Zalando

Pour la deuxième année consécutive, Zeenea a participé au Salon Big Data Paris en tant que sponsor pour présenter son data catalog

Durant ces deux jours, nous avons pu assister à de nombreuses conférences animées par des professionnels de la donnée : des chief data officers, des business analysts, des responsables data science, etc.

Parmi ces conférences, nous avons eu l’occasion de participer à celle de la marque Zalando présentée par Kshitij Kumar, VP Data Infrastructure.

 

Zalando, la plus grosse plateforme d’e-commerce en Europe

Avec plus de 2 000 marques référentes et 300 000 articles de disponibles, la plateforme de mode en ligne d’origine allemande a conquis 24 millions d’utilisateurs actifs dans 17 pays européens depuis sa création en 2008 [1].

En 2018, Zalando a réalisé un chiffre d’affaires de 5,4€ milliards : une augmentation de 20% par rapport à l’année 2017 [2] !

Avec ces résultats positifs, la marque a beaucoup d’espoir pour l’avenir. L’objectif de Zalando est de devenir la référence dans la mode :

“Nous voulons devenir un élément essentiel de la vie de nos consommateurs. Il n’y a qu’une poignée d’applications qui ont réussi à pénétrer notre vie quotidienne, comme les plateformes Netflix pour la télévision ou Spotify pour la musique. Zalando doit devenir le lieu de la mode par excellence où les consommateurs peuvent satisfaire tous leurs besoins vestimentaires [3]”

explique David Schneider, co-CEO de Zalando.

Mais comment est-ce que Zalando a fait pour devenir aussi important en aussi peu de temps ? Selon Kshitij Kumar, tout est une question de data.

 

Zalando et l’importance d’être une entreprise Data-Driven

Everything is based on data.” déclare Kshitij Kumar lors de sa conférence au Big Data Paris le 11 mars dernier. Durant 20 minutes, il explique que tout tourne autour de la data : le business intelligence et le machine learning sont construits selon les données de la marque.

Avec plus de 2000 employés techniques, Zalando revendique une infrastructure Big Data en plusieurs catégories :

 

Une gouvernance des données :

En réponse du RGPD, le VP Data Infrastructure nous explique l’importance de la mise en place d’une gouvernance de données à l’aide d’un data catalog : It is essential to an organization in order to have safe and secure data.

 

Une plateforme de Machine Learning :

C’est en explorant, travaillant, facilitant la curation et en observant les données d’une entreprise qu’une plateforme de Machine Learning sera efficace.

 

De la Business Intelligence

C’est avec des KPI visuels ainsi que des jeux de données de confiance que la BI d’une organisation peut être efficiente.

 

L’évolution du Machine Learning chez Zalando

Kshitij Kumar nous rappelle qu’avec le Machine Learning, il est possible de collecter ses données en temps réel. Dans la mode en ligne il y a plusieurs use-cases importants : la recommandation de la taille, l’expérience de la recherche d’un produit, les remises, le temps de livraison, etc.

Des questions intéressantes nous ont été posées : Comment connaître les goûts exacts des consommateurs ? Comment savoir exactement ce qu’ils pourraient vouloir rechercher ?

Le VP Data Infrastructure nous répond que c’est en testant répétitivement les données :

Data needs to be first explored, then trained, deployed and monitored in order for it to be qualified. The most important step is the monitoring process. If it is not successful, then you must start the machine learning process again until it is.

La politique de renvois en cent jours a également été bénéfique pour Zalando dans sa stratégie data. Les consommateurs ont cent jours pour renvoyer les articles qu’ils ont commandés. Grâce aux données de ses retours, ils peuvent cibler plus précisément les consommateurs.

 

L’avenir de Zalando

Kshitij Kumar nous explique qu’en 2020, il espère avoir une structure data évolutive.

In 2020, I envision Zalando to have a software or program that allows any user to be able to search, identify and understand data. The first step in being able to centralize your data is by having a data catalog for example. With this, our data community can grow through internal and external (vendors) communication.

 

 

Sources

[1] “L’allemand Zalando veut habiller l’Europe – JDD.” 18 oct.. 2018, https://www.lejdd.fr/Economie/lallemand-zalando-veuthabiller-leurope-3779498.

[2] “Zalando veut devenir la référence dans le domaine de la mode ….” 1 mars. 2019, http://www.gondola.be/fr/news/non-food/zalando-veut-devenir-la-reference-dans-le-domaine-de-la-mode.

[3] “Zalando’s Bid to Be the Netflix of Fashion | News & Analysis | BoF.” 1 mars. 2019, https://www.businessoffashion.com/articles/news-analysis/zalandos-bid-to-be-the-netflix-of-fashion.