Data quality management : les ingrédients pour renforcer la qualité de vos données

Data quality management : les ingrédients pour renforcer la qualité de vos données

data-quality

Photo credit: Akeneo

Disposer d’un important volume de données ne sert à rien si celles-ci sont de piètre qualité. L’enjeu du Data Quality Management est une priorité pour les entreprises. Outil d’aide à la décision, au pilotage de l’innovation autant que de la satisfaction des clients, veiller sur la qualité des données exige rigueur et méthode.

Produire de la donnée pour produire de la donnée, parce que c’est la mode, que vos concurrents le font, que vous lisez dans la presse professionnelle ou sur Internet, que cela se fait, c’était avant.

Aujourd’hui aucun secteur d’activité ne nie le caractère éminemment stratégique de la donnée. Mais derrière cet engouement généralisé pour la data, le véritable enjeu c’est la qualité de la donnée. Or, si l’on s’en réfère à l’édition 2020 du Gartner Magic Quadrant for Data Quality Solutions, il apparaît que plus d’un quart des données critiques des plus grandes entreprises sont erronées. Une situation qui engendre des coûts directs et indirects. 

Erreurs stratégiques, mauvaises décisions, frais divers associés à la gestion des données… Le coût moyen d’une mauvaise Data Quality s’établit à 11 millions d’euros par an. Pourquoi ? Tout simplement parce que désormais l’ensemble des stratégies de votre entreprise sont guidées par votre connaissance de vos clients, de vos fournisseurs, de vos partenaires. Si l’on considère que la donnée est omniprésente dans votre activité, la Data Quality devient l’enjeu central. Gartner n’est pas le seul à souligner cette réalité. 

Ainsi à la fin de l’année 2020, le célèbre cabinet IDC révélait dans une étude que les entreprises sont confrontées à de nombreux défis pour tirer profit de l’exploitation de leurs données. Près de 2 entreprises sur 3 considèrent ainsi l’identification des données pertinentes comme un défi et elles sont 76% à juger perfectible la collecte des données et 72% à penser que leurs processus de transformation des données à des fins d’analyse pourraient être améliorés.

 

Data Quality Management : Une discipline exigeante

Comme en cuisine, plus vous vous appuyez sur des ingrédients de qualité, plus la recette sera appréciée de vos convives. Parce que les données sont des éléments qui doivent amener à de meilleures analyses et donc à de meilleures décisions, il est capital de s’assurer que celles-ci soient de bonne qualité. 

Mais qu’est-ce qu’une donnée de qualité ? 

Plusieurs critères peuvent entrer en ligne de compte. L’exactitude de la donnée (un numéro de téléphone complet), sa conformité (un numéro se compose de 10 chiffres précédés d’un préfixe national), sa validité (il est toujours utilisé), sa fiabilité (il permet en effet de joindre votre correspondant), etc. 

Pour un Data Quality Management efficace, il s’agit de s’assurer que l’ensemble des critères que vous aurez défini pour considérer que la donnée est de qualité soient remplis. Mais attention ! Il faudra encore distinguer faire vivre ces données pour s’assurer de leur qualité dans le temps. Cela signifie que lorsqu’une donnée n’a pas été actualisée depuis un moment, elle est peut-être devenue obsolète. Et une donnée obsolète ou une donnée qui n’est ni actualisée, ni partagée, ni exploitée, perd instantanément de sa valeur car elle ne contribue plus efficacement à nourrir vos réflexions, vos stratégies et vos décisions.

Les “best practices” de la Data Quality

Pour garantir l’intégrité, la cohérence, l’exactitude, la validité et, en un mot la qualité de vos données, vous devrez agir avec méthode. L’étape essentielle d’un projet Data Quality Management efficace, c’est d’abord d’éviter les doublonsAu-delà d’agir comme un poids mort dans vos bases de données, les doublons faussent les analyses et peuvent entamer la pertinence de vos décisions.

Si vous optez pour un outil de Data Quality Management, assurez-vous qu’il intègre un module permettant d’automatiser l’exploitation des métadonnées. En centralisant l’ensemble des connaissances dont vous disposez sur vos données au sein d’une interface unique, leur exploitation est facilitée. C’est le deuxième pilier constitutif de votre projet de Data Quality management. 

La définition précise de vos données, leur nomenclature permet d’engager efficacement le processus d’optimisation de la qualité. Ensuite, vos données étant clairement identifiées, classées, il s’agit pour en évaluer la qualité de les mettre en perspective avec les attentes des différents métiers au sein de l’entreprise. 

Ce travail de rapprochement entre la nature des données disponibles et leur exploitation par les métiers est un élément déterminant du pilotage de la Data Quality. Mais il faut aussi aller plus loin et s’interroger sur la sensibilité des données. Du caractère sensible ou non de la Data, dépendent vos arbitrages par rapport à l’enjeu de la conformité aux réglementations. 

Depuis l’entrée en vigueur du RGPD en 2018, les conséquences de choix hasardeux sur le plan de la sécurité des données sont sévères et pas seulement du point de vue financier.

En effet, les citoyens, vos clients sont désormais très sensibles à la nature, à l’usage et à la protection des données qu’ils partagent avec vous. En pilotant efficacement la Data Quality, vous contribuez également à entretenir la confiance avec vos clients… Une confiance qui n’a pas de prix !

Nouveau Livre Blanc : Unlock data pour le secteur de la banque, l’assurance et la finance !

Nouveau Livre Blanc : Unlock data pour le secteur de la banque, l’assurance et la finance !

unlock-data-banque-finance-header-FR

En janvier dernier, nous avons annoncé le lancement de notre nouvelle série de livres blancs : Unlock Data. Dédiés aux responsables data, ces livres blancs ont pour objectif de servir de guide à toutes les entreprises en transition vers une organisation data-driven. Au fil de leurs pages, nous vous donnons les clés pour « déverrouiller » l’usage aux données de votre entreprise, par industry. 

Le premier livre blanc de cette série portait sur l’industrie. Nous avons présenté les principaux cas d’utilisation des données, ainsi que le point de départ pour « déverrouiller » l’accès aux données pour les data citizens travaillant dans le secteur de l’automobile, la construction et la manufacture.  

>> Lire « Unlock Data pour l’industrie » <<

Aujourd’hui, nous lançons notre prochain volume, dédié au secteur de la banque, de l’assurance et de la finance : Unlock data pour le secteur de la banque, de l’assurance et la finance ». 

 

Une introduction rapide…

La transformation digitale est un passage obligé pour le secteur de la banque, de l’assurance et de la finance.  

Cependant, la plupart de ces organisations peinent encore à mettre en place une stratégie data-driven qui leur permette à la fois d’offrir des services innovants et de se conformer aux réglementations data de plus en plus exigeantes.

Cette situation s’explique. L’expansion des services digitaux de ces dernières années s’est traduite par une augmentation exponentielle d’informations et de données engendrant de surcroît de nouvelles responsabilités.

Par ailleurs, ce secteur d’activité assiste à l’émergence de start-ups, appelés AssurTech ou FinTech, qui combinent cœur de métier et technologie.  Faisant d’eux, les bêtes noires des acteurs déjà établis.

Cette situation poussent les banques et assurances les plus traditionnelles dans un défi majeur qui ne pourra être atteint qu’en recherchant le bon équilibre entre une gouvernance des données défensive et offensive.

 

Téléchargez notre nouveau livre blanc

Vous êtes dans le secteur de la banque, de l’assurance ou des services financiers et vous travaillez avec les données ? Obtenez les clés pour déverrouiller l’accès aux données en téléchargeant notre guide. Dans ce livre blanc, vous découvrirez : 

✔️ Comment les données ont accéléré les transformations digitales de grandes sociétés dans le secteur de la finance,

✔️ Les principaux cas d’usage data pour les banques et assurances, 

✔️ Le point de départ pour démarrer une stratégie data-driven,

✔ ️ Comment Zeenea peut « unlock data » grâce à nos fonctionnalités uniques conçues pour votre secteur.

 

Téléchargez dès maintenant !

Défis data : les clés pour être un bon Chief Data Officer en 2021 ?

Défis data : les clés pour être un bon Chief Data Officer en 2021 ?

cdo-2021

A l’heure où la donnée s’est imposée comme un actif majeur dans l‘entreprise, personne ne nie le rôle clé du Chief Data Officer. Nous avons déjà eu l’occasion dans un de nos précédents articles d’évoquer la mission des CDO

Acteur de la transformation des processus et usages data dans leurs entreprises, le Chief Data Officer doit se prévaloir de qualités techniques mais aussi humaines. Retour sur le rôle du CDO en 2021 !

Pédagogie, accompagnement, empathie, vision… Autant de caractéristiques parfois difficiles à réunir et à concilier au quotidien. Et pourtant ! Parce que le rôle du Chief Data Officer est aussi stratégique qu’opérationnel, il doit non seulement pouvoir s’appuyer sur des compétences reconnues, mais aussi adosser son action au sponsorship inconditionnel de la direction générale, tout en restant au contact des équipes métier. Afin de répondre à ces challenges, le CDO doit donc faire preuve de savoir-être autant que de savoir-faire.

D’un côté, il doit être apte à proposer des nouvelles solutions et outils qui permettent à l’entreprise de correctement analyser et exploiter les données, et de l’autre, savoir mettre les données au centre de l’entreprise, afin de construire une culture data et faire le lien entre métier et IT.

 

Un champ d’action qui s’étend progressivement

Dans son étude intitulée Quels sont les rôles et les défis du Chief Data Officer (CDO) d’aujourd’hui ? – Focus sur une fonction clé de la transformation data-driven, le cabinet PwC définit le périmètre des défis que doit relever le CDO : 

« Dans la mesure où les équipes data se sont constituées et professionnalisées dans les grands groupes, l’enjeu se déplace aujourd’hui vers la capacité à faire travailler ensemble tous les départements de l’organisation. L’acculturation de l’entreprise et la formation des équipes data sont au cœur des enjeux du Chief Data Officer ».  Cette réalité est renforcée par un autre constat : « Le CDO doit s’adapter à la transition entre des systèmes hérités, des nouvelles technologies de stockage et d’analyse des données ainsi qu’à des interfaces répondant à de nouveaux usages (Cloud, Data Marketplaces, Data virtualization, IoT, chatbot, etc.) ». 

Enfin, comme l’indiquent les auteurs de la synthèse de l’étude, « avec une croissance du nombre de cas d’usages combinant la RPA et l’IA, le champ d’action du Chief Data Officer s’étend ». Preuve de la criticité de la mission de CDO, la place qu’il occupe au sein des organisations.

Une autre étude réalisée par IDC pour le compte d’Informatica et publiée en août 2020, révèle que 59% des CDO interrogés rapportent directement à un responsable clé de l’entreprise, notamment au CEO. Et le Chief Data Officer est directement impliqué dans la performance des entreprises. En effet, cette même étude souligne que 80% des indicateurs clés de performance des CDO sont liés à des objectifs commerciaux (efficacité opérationnelle, satisfaction des clients, protection des données, innovation, chiffre d’affaires et productivité).

 

Les défis du CDO au quotidien

Le rôle essentiel du Chief Data Officer c’est de construire un pipeline data pertinent, performant, et valorisable, tout en composant une équipe capable de faire vivre cet actif et le transformer en matière première exploitable par l’ensemble des métiers. 

Cette mission de grand architecte de la Data, impose au CDO de composer des équipes constituées de personnes compétentes et totalement data-driven. C’est l’une des difficultés majeures selon l’étude IDC qui rappelle que 71% des répondants ne disposent que de quatre gestionnaires de données ou moins, et 26% n’en ont même aucun ! La capacité à recruter, à s’entourer et à animer une équipe Data constitue par conséquent le premier de tous les défis du CDO. 

Mais ce n’est pas le seul. 

Si l’on s’en réfère à l’étude PwC déjà évoquée, il apparaît que pour 70% des CDO interrogés, l’acculturation data de l’entreprise est mise en œuvre au sein de leur entreprise. Une acculturation dont ils sont les premiers artisans en mettant sur pied une documentation des données disponibles, qui soit intelligible de tous, y compris des profils non IT. Une réalité qui fait écho à un autre des défis majeurs du CDO qui consiste à jouer le rôle de passerelle entre les acteurs de l’IT dans l’entreprise et l’ensemble des métiers.  

« Nous constatons que cela est accentué par le passage à l’échelle des projets data ; passant d’initiatives sur un périmètre restreint – ayant davantage la forme d’un « Proof of Concept » (PoC) – à des projets globaux impliquant de multiples parties prenantes », observe-t-on chez PwC. Garant du développement des processus data pour améliorer la qualité des données, le CDO est présent sur tous les fronts. 

Un véritable chef d’orchestre qui devra savoir insuffler énergie et dynamisme pour contribuer à la relance économique des entreprises en 2021 !

Défis data : les clés pour être un bon Chief Data Officer en 2021 ?

Défis data : les challenges des équipes data science

data-science-team

Parce que le monde de l’entreprise est entré de plain-pied dans l’ère de la donnée, la course à l’exploitation de la data est engagée. Organisation, traitement, valorisation de volumes de données considérables sont des priorités stratégiques qui reposent avant tout sur des talents. Les équipes Data Science, animées par le Chief Data Officer et les Data Scientists, sont au cœur des transformations et font face à des défis majeurs. Tour d’horizon.

La donnée, c’est l’or noir du XXIe siècle. Si vous en doutiez encore, un simple chiffre devrait achever de vous convaincre. Si l’on s’en réfère au Digital Economy Compass 2019 de Statista, le volume mondial annuel de données a été multiplié par plus de vingt entre 2010 et 2020. L’an passé, 50 zettaoctets de data ont été générés, et ce chiffre augmente de manière exponentielle. En effet, il devrait atteindre 2100 zettaoctets à l’horizon 2035.

Parce que l’heure n’est plus aux promesses des Big Data mais à l’exploitation rationnelle et ROIste de cet actif précieux, les entreprises s’organisent.

Au-delà des équipements techniques, ce sont les talents humains qui font, aujourd’hui comme demain, la différence. Le grand enjeu actuel des entreprises consiste à recruter des data scientists. En 2019, Indeed, la célèbre plateforme de recrutement mettait déjà en évidence la difficulté à pourvoir ces postes à haute valeur ajoutée. La fonction de Data Scientist se classait ainsi au huitième rang des profils les plus recherchés sur la plateforme en 2019… alors qu’il n’était même pas mentionné en 2018 ! Constat similaire du côté de LinkedIn qui annonçait qu’en 2020, le Data Scientist était le dixième métier recherché. Un profil pénurique qui n’empêche pas les entreprises de se montrer exigeantes… à juste titre, car les missions sont complexes.

Data Scientist : des missions variées, un rôle complexe

Identifier la typologie de données disponibles dans l’entreprise, être à même de cartographier les sources internes de data afin de procéder à leur exploitation à des fins d’amélioration des performances, construction d’algorithmes, élaboration de modèles prédictifs… inutile d’énumérer la longue litanie des missions clés du Data Scientist et des équipes Data Science qu’il est chargé d’animer.

Ces enjeux techniques sont bien connus, de même que ces missions connexes qui pèsent sur le Data Scientist et l’amènent à définir les meilleures solutions de stockage de données en bonne intelligence avec la direction des Systèmes d’Information ou encore à s’investir dans la recherche et le développement liés au traitement d’importants volumes de données.

Oui, le rôle du Data Scientist est d’abord et avant tout celui d’un technicien de la donnée. Mais, parce qu’il est au cœur de la transformation digitale de l’entreprise, il ne peut se cantonner à ces savoir-faire techniques et scientifiques. Véritable ambassadeur de la donnée au sein de l’entreprise, il doit penser son action comme celle d’un trait d’union entre les métiers, un point de convergence vers l’excellence opérationnelle.

Des qualités humaines autant que techniques

Le Data Scientist et ses équipes ne peuvent s’enfermer dans un rôle de scientifique éthéré.

Bien au contraire, ils sont amenés en permanence à échanger avec l’ensemble de métiers dans l’entreprise. Une réalité qui fait du goût de l’humain, de la capacité à faire preuve de pédagogie, de compréhension parfois et de patience souvent, pour inscrire l’ensemble de l’entreprise sur le chemin d’une valorisation constante du patrimoine data.

Parce que chaque service dans l’entreprise produit ses propres données, pour ses propres usages, le Data Scientist a pour mission première de réconcilier les données avec des usages empiriques. La donnée, une fois passée entre les mains des équipes Data Science, devient naturellement et de manière intelligible de tous, des insights business, des opportunités de développement, des perspectives de performance.

 

Entre goût du partage et pédagogie 

Alors que l’Intelligence Artificielle et le Machine Learning sont de plus en plus fréquemment exploités dans les entreprises, le Data Scientist doit également se muer régulièrement en pédagogue. Sans faire des cadres de l’entreprise des experts de la valorisation des données, le partage de connaissance est capital.

C’est une spécificité des missions dévolues aux équipes Data Science : former et sensibiliser les maillons essentiels de l’organisation aux bonnes pratiques data.

Et pour cause, pour engager la transformation de l’entreprise sur voie d’une stratégie Data-driven, tous les profils de l’entreprise doivent comprendre et mesurer l’importance de raisonner « data » à tous les stades de l’activité et pas seulement lorsqu’il s’agit de comprendre un parcours client. Sensibilité, humanité, technicité, trois qualités essentielles dont le Data Scientist devra impérativement pouvoir se prévaloir pour être à la hauteur d’une mission hautement stratégique !

Donnez à vos équipe de data science les clés pour découvrir leurs données

Découvrez les solutions de data discovery développées par différents géants du web qui ont permis à leurs équipes data science de comprendre et de faire confiance à leurs actifs d’entreprise. 

Les expériences de ces géants du web ont largement inspiré Zeenea quant aux valeurs proposées par son data catalog pour faciliter la découverte d’information par les équipes data, de la manière la plus simple et la plus intelligente possible. 

Découvrez les différentes plateformes de data discovery en téléchargeant notre dernier livre blanc ! 

Défis data : les clés pour être un bon Chief Data Officer en 2021 ?

La cartographie des données, clé pour rester conforme aux réglementations

data-mapping-1

Quel que soit le secteur d’activité, la maîtrise des données est un axe stratégique clé pour les entreprises. Ces informations sont clés pour innover sur les produits et services de demain. De plus, avec l’essor de nouvelles technologies comme le Big Data, l’IoT ou encore l’intelligence artificielle, les organisations récoltent des volumes exponentiels de données, provenant de sources différentes avec des formats variés.

De plus, avec les réglementations data de plus en plus strictes comme le RGPD, le traitement des données nécessite désormais la mise en place de mesures de sécurité adaptées afin de protéger les fuites d’informations et des traitements abusifs. 

Tout l’enjeu se trouve ainsi dans la réappropriation de son patrimoine de données. Autrement dit, les entreprises cherchent des solutions pour maintenir une cartographie des données reflétant leur réalité opérationnelle

 

Qu’est ce qu’une cartographie des données ?

Retournons aux bases : une cartographie des données est un “mapping” qui permet d’évaluer et visualiser de manière graphique les points d’entrée des données ainsi que leurs traitements. Il y a plusieurs types d’informations à cartographier, tels que:

  • Les informations sur les données
  • Les traitements des données

Sur les données

L’idée d’une cartographie sur les données est de travailler sur la sémantique data (étude des sens et de leurs significations

Ce travail ne se fait pas sur les données elles-mêmes, mais plutôt à travers les métadonnées. Elles permettent d’appréhender au mieux le sens de la donnée et son contexte. Ces métadonnées peuvent représenter le nom “métier” de la donnée, son nom technique, la localisation de la donnée, quand elle à été stockée, par qui, etc. 

En mettant en place des règles sémantiques et un langage data commun à travers un business glossary, les entreprises peuvent identifier et localiser leurs données, et donc, faciliter l’accès aux données pour l’ensemble des collaborateurs.

 

Sur les traitements data

Concernant les traitements des données, il est important de recenser :

  • les flux de données: avec leurs sources et leurs destinations,
  • les transformations des données : toutes les transformations appliquées à la donnée au cours du traitement.

Un outil puissant : Le Data Lineage

Le Data Lineage se définit comme étant le cycle de vie d’une donnée et un suivi de toutes les transformations qui ont eu lieu entre son état initial et son état final. 

Le data lineage est fortement lié à la cartographie d’un traitement des données ; on doit voir quelles données sont concernées par ce traitement et pouvoir analyser les impacts très rapidement. Par exemple, si une anomalie du traitement a provoqué une corruption des données, on peut savoir quelles données sont potentiellement concernées.

Dans un autre cas de figure, la cartographie du point de vue d’une donnée doit pouvoir dire sur quels jeux de données la donnée est issue.  Ainsi, on peut analyser rapidement les impacts d’une modification de jeu de données source en retrouvant rapidement les données liées. 

 

Les bénéfices de la mise en place de cartographie des données

Avec une solution de cartographie, les entreprises peuvent donc répondre aux réglementations data, notamment le RGPD, en répondant à ces questions :

Qui ? Qui est responsable d’une donnée ou d’un traitement ? À la protection des données ? Qui sont les éventuels sous-traitants ?

Quoi ? Quelle est la nature des données collectées ? Est-ce des données sensibles ?

Pourquoi ? Pouvons-nous justifier de la finalité de la collecte et du traitement des informations?

Où ? Où sont hébergées les données ? Dans quelle base ? 

Jusqu’à quand ? Quelle est la durée de conservation de chaque catégorie de données ?

Comment ? Quel est le cadre et quelles sont les mesures de sécurité mises en place pour une collecte et un stockage sécurisé des données personnelles?

En répondant à ces questions, les Responsable SI, Responsable Data Lab, Business Analyst ou encore Data Scientist se posent pour rendre un travail sur la donnée pertinent et efficace.

Ces questions mises en exergue permettent aux entreprises à être conforme aux réglementation mais également de :

  • Améliorer la qualité des données et renseigner un maximum d’informations qui permet aux utilisateurs de savoir si les données sont aptes à être utilisées.
  • Rendre les collaborateurs plus efficaces et autonomes dans la compréhension des données grâce à une cartographie des données graphique et ergonomique.
  • Analyser de manière profonde les données, afin de pouvoir prendre de meilleures décisions basées sur les données et finalement, devenir une organisation data-driven.

 

Conclusion

C’est en ayant un patrimoine de données correctement cartographié qu’une entreprise va pouvoir tirer parti de ses données. Une analyse des données de qualité n’est possible qu’avec des data correctement documentées, tracées, et accessibles à tous. 

Vous êtes en recherche d’outil de cartographie des données?

Vous pouvez avoir plus d’informations sur notre solution de catalogue de données en visitant les liens ci-dessous :

Zeenea Data Catalog

Zeenea Studio – la solution pour les data managers

Zeenea Explorer – faciliter le quotidien de vos équipes data

ou prendre rendez-vous directement avec nous pour une démo de notre solution :

COVID19 : les entreprises face au défi des transformations digitales

COVID19 : les entreprises face au défi des transformations digitales

covid-digital-transformations

L’année 2020 aura marqué un tournant dans le processus de transformation digitale des entreprises. Le Coronavirus et son cortège de mesures sanitaires, de restrictions, de précautions ont fortement impacté les sociétés humaines et le monde de l’entreprise. Retour sur les défis data-management liés à la COVID19.

Fermeture des points de contact physiques, généralisation du télétravail, tensions logistiques, incertitudes tous azimuts, tout au long de l’année 2020, les entreprises ont dû réinventer des codes, instaurer de nouvelles méthodes, développer de nouvelles stratégies.

L’enjeu ? Entretenir le lien tant avec les collaborateurs qu’avec des clients, maintenus à distance par des confinements plus ou moins stricts.

Selon une étude de l’institut Gartner, 69% des entreprises estiment que la crise sanitaire a accéléré la nécessité de développer la part du digital dans leur activité. Pour 60% d’entre elles, la transformation digitale est une perspective d’améliorer leur efficacité opérationnelle.

Une autre étude réalisée par PegaSystems révèle par ailleurs que 56% des entreprises ont augmenté les budgets liés à leur transformation digitale. Elles sont 69% à considérer que la crise sanitaire les amènent à toujours plus d’empathie avec leur client. Au cœur de ces enjeux : la gestion des données.

 

Accélérer les transformations… grâce à la donnée

Selon les estimations d’une étude réalisée à la fin 2020, la crise de la COVID-19 a accéléré la stratégie de numérique des entreprises de 6 ans en moyenne. Et 97% des décideurs d’entreprise estiment que la pandémie a accéléré la transformation numérique de leur entreprise. Cette même étude révèle que face à la crise, 95% des entreprises recherchent de nouvelles façons d’engager les clients et 92% déclarent que la transformation des communications numériques est critique pour relever les défis commerciaux actuels.

Derrière ces constatations, il existe une nécessité impérieuse : valoriser la donnée. En effet, au-delà de l’identification de nouveaux leviers pour engager les clients et conserver le contact avec vos audiences, il s’agit d’abord et avant tout de bien les connaître. Pour faire preuve d’empathie, vous devez savoir à qui vous vous adressez, par quel canal vous pouvez interagir efficacement.

La gestion de la donnée constitue le socle de toute cette démarche d’accélération de votre transformation digitale !

La donnée permet de définir vos stratégies marketing, de définir les axes de vos campagnes de fidélisation (si essentielles pour préserver la continuité de l’activité en temps de crise). Elle conditionne par ailleurs vos priorités en termes de R&D. En effet la connaissance client portée par le data-management, permet d’inscrire l’innovation dans une dimension data-driven. L’objectif : concevoir et développer des produits et services correspondant aux attentes et besoins des cibles visées.

Une étude de Solocal, publiée à la fin de l’année 2020 mettait ainsi en évidence que l’un des leviers de l’accélération de la transformation digitale passerait pour 81% des entreprises par la sollicitation et la réponse au aux avis clients.

 

Des secteurs à la pointe de la transformation

Intégrer les données en temps réel dans les stratégies des entreprises, analyser les parcours clients, déployer des solutions d’analyse prédictives pour accélérer les engagements ou détecter des signaux faibles sur l’activité afin d’anticiper… Le champ d’application de la gestion des données est chaque jour plus large.

Durant la crise de la COVID-19, certains secteurs d’activité ont dû totalement se réinventer et sont parvenus grâce à leur actif Data à trouver des leviers pour maintenir la continuité de l’activité.

Ainsi, une étude récente du cabinet de conseil QuantMetry, publiée en octobre dernier, démontrait que 68 % entreprises ont maintenu voire augmenté les budgets liés à la donnée en 2020.

Durant la crise sanitaire, Uber for Business a constaté une explosion des demandes de livraison de repas dans un cadre professionnel. Grâce à l’exploitation fine de son patrimoine data, l’entreprise est parvenue, en quelques mois, à concevoir une nouvelle offre à destination des directions marketing.

Le concept ? Proposer des bons de livraison de repas non plus seulement pour les collaborateurs en télétravail, mais à destination des clients des entreprises comme levier de fidélisation. L’offre, déclinée dans le cadre de stratégie BtoBtoC, se positionne également comme une alternative à tous ces instants de sociabilité liés aux événements professionnels. Ces bons, également vouchers sont également des outils marketing de premier ordre car de nombreux indicateurs s’y rattachent (type d’utilisation, type de repas commandés, zones géographiques…).

Autant de KPI utiles à Uber for Business mais aussi aux entreprises qui y ont recours, pour affiner leurs stratégies de rétention de clients… ou de talents.

Vous êtes en pleine transformation digitale? Nous vous proposons de lire notre article : Les bonnes pratiques pour s’engager dans une transformation digitale.

Zeenea parlera au Big Data & AI World : Sommet Banque, Finance & Assurance les 10 et 11 Mars 2021

Zeenea parlera au Big Data & AI World : Sommet Banque, Finance & Assurance les 10 et 11 Mars 2021

sponsoring big data & ai world banque et finance

Les entreprises du secteur financier (banques, assurances, …) disposent d’une quantité considérable de données. Celles-ci sont une véritable mine d’or, à condition que l’on soit en mesure de les transformer en informations exploitables, au service de la stratégie et des objectifs business de l’entreprise.

La majorité des organisations l’ont bien compris et déploient, depuis plusieurs années déjà, d’importantes stratégies et de vastes programmes de transformation axés sur la donnée.

Mais devenir data-driven n’est pas chose facile. Les challenges à relever peuvent être à la hauteur des bénéfices espérés !

Nous vous donnons rendez-vous les 10 & 11 mars prochains pour un évènement 100% gratuit, 100% data, 100% secteur bancaire et financier !

Retours d’expérience, tables rondes, avis d’experts, études de cas… Venez prendre part aux échanges sur les enjeux liés à la gestion des données et au déploiement de l’Intelligence Artificielle.

 

Zeenea prendra la parole pour parler data, culture et gouvernance

Aucun doute, Zeenea sera de la partie avec deux interventions, un livre blanc à télécharger et des Zeepeople à votre disposition pour répondre à vos questions !

Le 10 mars à 11h

Data Catalog ou comment y voir plus clair dans un patrimoine de données siloté et aux technologies diverses ?

Stéphane Jotic, co-fondateur de Zeenea

Cette présentation de 25 minutes partagera nos expertises et connaissances sur la gestion d’un patrimoine siloté, comme peut souvent l’être celui de nos clients du secteur bancaire et assurance. Ensemble, nous aborderons ces différents points :

  1. Les problématiques des métier à valoriser les données
  2. L’essor d’une nouvelle discipline : la gestion des métadonnées
  3. Le data catalog : Définition et spécificités
  4. Les best practices pour le deployer

 Le 11 mars à 9h30

Culture data : faites de vos collaborateurs la force motrice de votre transformation !

Retrouvez Guillaume Bodet, CEO de Zeenea, sur une table ronde dédiée à la culture data, en compagnie de deux autres intervenants : Nathalie Pasquin, Group Transformation Officer – AXA, et Ludovic Favarette, Directeur Relation Etablissements, Démocratisation et Support Data – Groupe BPCE.  

  • Qui doit porter cette transformation au sein de l’organisation ?
  • Démocratiser la donnée – Par où commencer ?
  • Informer, impliquer, former les collaborateurs : quelle feuille de route ?
  • Quel est le rôle des data owners, des data stewards ?
  • Quelles bonnes pratiques pour sensibiliser et responsabiliser autour des enjeux de la donnée (véracité, qualité, sécurité, protection, éthique…)
  • Quelles sont les erreurs à éviter ?

 

La data est un formidable levier de transformation et de création de valeur.
Les entreprises l’ont bien compris et n’hésitent plus à investir largement dans de nouveaux outils pour capitaliser sur leur patrimoine de données.
Néanmoins, l’expérience a montré que le recrutement d’experts et le déploiement de technologies modernes ne suffisent pas à assurer la réussite des projets data. Pour mener à bien cette transformation, le facteur humain, aussi complexe soit-il, est clé.

Embarquer l’ensemble des équipes Métiers est la condition sine qua non au développement d’une véritable culture data au sein de l’entreprise.

 

Recevez le prochain livre blanc « Unlock Data » pour la banque et l’assurance

livre blanc unblock data banking

Vous êtes pas dans le secteur bancaire, financier ou de l’assurance ? Et, évidemment la data est le sujet du moment ?

Soyez informé(e) de la sortie de notre prochain livre blanc Unlock Data pour la banque et l’assurance. Vous retrouverez des success stories, des cas d’usages et bien d’autres tips !

Pour le recevoir en avant première, inscrivez-vous en cliquant sur le bouton ci-dessous👇

Les bonnes pratiques pour s’engager dans une transformation digitale

Les bonnes pratiques pour s’engager dans une transformation digitale

digital-transformation

Aujourd’hui, la donnée concerne tous les secteurs d’activité. Les entreprises sont toutes de près ou de loin confrontées à des enjeux de data management. Malgré ces constats, la plupart de celles-ci ont toujours du mal à réellement se transformer en organisation data-driven. Une des raisons pour lesquelles elles ne réussissent pas, c’est qu’elles se retrouvent souvent face à des systèmes d’informations complexes et chronophages, ce qui représentent un véritable frein pour leur transformation digitale. 

En effet, peu d’organisations sont capables de réellement trouver leurs données d’entreprises, surtout quand elles ont un patrimoine de données regroupant des formats, tailles, et variétés de données différentes. De plus, il est difficile de pouvoir les interpréter, ou même de savoir si elles sont de qualité quand elles sont mal, ou tout simplement pas, documentées. 

Dans cet article, nous partageons quelques bonnes pratiques afin que les entreprises puissent trouver les clés pour démarrer leur transformation digitale grâce à la découverte des données. 

Repenser son SI d’entreprise

Pendant de nombreuses années, la données et les enjeux du data management étaient réservés aux Géants du Web, comme les GAFAM par exemple (Google, Apple, Facebook, Amazon, Microsoft). Étant des acteurs du web et travaillant principalement avec des ressources digitales, leurs SI et infrastructures étaient déjà pensés et développés autour de la data. Il était donc plus difficile pour les autres acteurs du marché d’implémenter des nouveaux modèles et stratégies : les forces n’étaient pas équivalentes !

Ces autres organisations étaient confrontées à des technologies construites sur une accumulation dans les temps. Il est donc évident qu’il est plus complexe d’engager une transformation digitale avec ce cas de figure.

Un exemple frappant se trouve dans le secteur bancaire. Alors que les banques ont su normaliser les données du fait de la succession de directives internationales, elles ont dû faire face aux nouvelles banques digitales, proposant des services beaucoup plus agiles et performants. Afin de rester compétitives, elles ont compris qu’il était nécessaire de changer de modèle stratégique pour rester dans le peloton de la course digitale.

 Un autre exemple se trouve dans le secteur automobile. Le comportement de leurs consommateurs tend à changer progressivement et le marché s’en ressent. La demande grandissante des déplacements « eco-friendly » avec l’utilisation de vélos, l’accès à des services de VTC ou encore une mobilité partagée avec la hausse du covoiturage.

Ces faits montrent principalement que le marché de la mobilité évolue ; la demande ne se place plus sur l’acquisition de nouveaux biens, mais plutôt sur des services de mobilités mis à leur disposition. Ainsi, pour rester compétitifs et répondre aux attentes des nouveaux comportements de leurs usagers, les acteurs du marché automobile doivent se diversifier. 

Se doter des bonnes solutions data

Afin de répondre aux besoins des usagers de la donnée, il est essentiel d’outiller ses équipes data des bonnes solutions. Il faut ainsi, répondre à la question : quelles technologies transverses à l’ensemble des silos de l’entreprise faut-il déployer pour disposer d’une configuration agile ? Pour cela, les ressources IT doivent être organisées pour couvrir trois grandes étapes :

  1. la découverte des données (ou, data discovery en anglais),
  2. la préparation et la transformation de ces données,
  3. la consommation de celles-ci par les différents services de l’entreprise.

Pour plus d’informations sur le data discovery, vous trouverez ci-dessous, des articles détaillés : 

Ces trois étapes sont primordiales pour démarrer sa transformation vers une entreprise data-driven.

D’une part, elles aident à mettre en œuvre les mesures de sécurité appropriées pour prévenir la perte de données sensibles et éviter des conséquences financières et de réputation dévastatrice pour l’entreprise. D’autre part, elle permet aux équipes data d’approfondir les données afin d’identifier les éléments spécifiques qui révèlent les réponses et de trouver des moyens de montrer les réponses. 

 

Tout cela avec un data catalog

Chez Zeenea, nous définissons un catalogue de données comme étant :

“Un inventaire détaillé de tous les actifs de données d’une organisation et de leurs métadonnées, conçu pour aider les professionnels de la donnée à trouver rapidement les informations les plus appropriées pour tout objectif business et analytique.”

En vous outillant d’un data catalog, aussi bien les équipes que les responsables data seront à même de démarrer une transformation digitale en s’appuyant sur les données d’entreprise. 

Choisir Zeenea, c’est choisir:

  • Une vue d’ensemble sur toutes les données contenues dans les diverses plateformes data de l’entreprise,
  • Un moteur de recherche Google-esque qui donne la possibilité de rechercher un jeu de données, terme métier, ou même un champ à partir d’un mot clé. Affinez la recherche avec divers filtres.
  • Une application collaborative qui permet une acculturation à la donnée dans l’entreprise grâce à un système de discussion,
  • Une technologie de Machine Learning qui notifie et donne des suggestions intelligentes concernant les informations des données cataloguées,
  • Une expérience utilisateur dédiée qui donne la possibilité aux data leaders de permettre à leurs équipes data de devenir autonomes dans leurs découverte des données.

En savoir plus sur notre data catalog 

 

Accélérez vos initiatives data dès maintenant

Si vous souhaitez obtenir plus d’informations, une démo gratuite et personnalisée, ou si vous voulez juste nous dire bonjour, n’hésitez pas à nous contacter et notre équipe commerciale se chargera de vous répondre dès réception de votre demande 🙂

La gouvernance des données, une priorité renforcée pour les entreprises en 2021 ?

La gouvernance des données, une priorité renforcée pour les entreprises en 2021 ?

Sous l’effet conjugué d’une transformation digitale massive de nos sociétés et des puissances de calcul de l’outil informatique, la place de la donnée dans les stratégies des entreprises explose. Une réalité qui induit la notion de gouvernance des données ou data governance comme une priorité incontournable. Retour sur un enjeu qui reste capital en 2021 !

Avec la place croissante qu’occupent les nouvelles technologies, les entreprises sont à la croisée des chemins. D’un côté, elles collectent et produisent des volumes considérables de données. De l’autre, elles doivent être en mesure d’en exploiter toute la richesse à des fins d’adaptation à leurs marchés en temps réel.

L’enjeu ? Mettre en œuvre des stratégies de gouvernance des données solides pour garantir non seulement l’exactitude et la pertinence des données, mais aussi leur fiabilité et leur sécurisation. 

Mais le défi ne s’arrête pas là ! Elles doivent aussi délivrer à leurs équipes, en interne, les informations dont elles ont besoin pour remplir leurs missions.  Selon les estimations publiées dans le Digital Economy Compass 2019 de Statista, le volume annuel de données créées à l’échelle mondiale a été multiplié par plus de vingt entre 2010 et 2020 et a atteint 50 zettaoctet cette année ! 50 zettaoctet, cela représente 500 millions de disques durs de 100To. Un chiffre qui donne le tournis et ne fait qu’illustrer l’importance de définir une vraie politique de gouvernance des données. 

La question ne se limite pas à une simple préoccupation de stockage ou de sécurisation mais aussi et surtout d’exploitation de la donnée. Une exploitation qui permette à l’entreprise de valoriser un actif précieux pour faciliter le quotidien de ses équipes et la satisfaction de ses clients ! 

Et le constat de l’institut Gartner est sans équivoque : « l’incertitude générée en 2020 persistera pendant plusieurs années. Mais de ces perturbations, découle une opportunité de forger de nouvelles voies. Les leaders de l’analyse des données concevront et exécuteront une stratégie qui accélère le changement, renforce la résilience et optimise l’impact business ».

 

Gouvernance des données : Mode d’emploi

Plus personne ne doute de l’importance d’une politique de gouvernance des données. La crise de la COVID-19 en est une illustration évidente. Les données de santé sont capitales dans la maîtrise de l’épidémie et lorsque la gouvernance n’est pas assurée dans les meilleures conditions, les conséquences peuvent se révéler désastreuses.

Au sens strict du terme, la gouvernance des données consiste en la gestion globale de la disponibilité, de l’exploitabilité, de l’intégrité et de la sécurité des données utilisées dans une entreprise. Mais derrière ce principe, il y a les faits… et les difficultés organisationnelles ou techniques. Au sein d’une entreprise, la définition d’une politique de gouvernance des données adaptée doit s’appuyer sur les bons interlocuteurs. L’équipe en charge de la politique de gouvernance des données est garante de la détermination des normes, l’utilisation et l’intégration des données entre les projets, des domaines et des secteurs d’activité… Une mission exigeante qui impose de relever des challenges complexes…

 

Relever les défis de la data governance d’aujourd’hui

Puisque la place de la donnée est centrale dans la vie d’une entreprise, il est, plus que jamais, indispensable d’abolir les silos qui, trop souvent, entravent une valorisation optimale de la data. C’est le cœur même d’un projet de gouvernance des données : faire en sorte que la data devienne information. Un enjeu qui suppose démocratiser l’accès aux données à des profils non IT.

L’ensemble des métiers doivent pouvoir manipuler, exploiter, interroger la donnée. 

Pour cela, les solutions déployées dans les organisations doivent proposer une expérience intuitive et ergonomique. Mais derrière le partage de l’information, qui induit la notion de data quality, persiste le défi constant de la sécurisation de la données… surtout lorsque vos collaborateurs ne sont physiquement présents dans l’entreprise et accèdent à cet actif stratégique depuis leur domicile par exemple. La gestion des identités, le respect des « bonnes pratiques » en matière de sécurité informatique, doivent faire l’objet d’un accompagnement constant. Accompagnement qui doit constituer le pendant immédiat du développement d’une culture interne de la gouvernance de la donnée. 

Élaborer des politiques, des procédures et des pratiques qui permettent de contrôler et protéger efficacement les données tout en renforçant leur manipulation et leur exploitation, c’est l’ADN d’une politique de Gouvernance des données !

C’est jamais trop tard pour s’y mettre! Démarrez votre projet gouvernance des données

Découvrez les secrets pour mettre en œuvre une gouvernance des données agile en téléchargeant gratuitement notre livre blanc : « Pourquoi démarrer une gouvernance des données agile ». Dans ce guide, vous découvrirez :

 

  • Les définitions de la gouvernance des données
  • Les avantages de la mise en œuvre d’une stratégie de gouvernance des données
  • Ce que signifie une gouvernance des données « agile »
  • 5 attributs clés pour que votre entreprise puisse commencer à déployer la gouvernance des données agile dans votre organisation !
L’IoT dans l’industrie : pourquoi votre entreprise a-t-elle besoin d’un catalogue de données

L’IoT dans l’industrie : pourquoi votre entreprise a-t-elle besoin d’un catalogue de données

iot-manufacturing-industry-fr

La transformation digitale est devenue une priorité dans la stratégie globale des entreprises et les industries ne font pas exception à la règle ! Avec des attentes plus fortes des clients, des demandes de personnalisation accrues et la complexité de la chaîne d’approvisionnement mondiale, les industries doivent trouver de nouveaux produits et services plus innovants. En réponse à ces challenge, les entreprises manufacturières investissent de plus en plus dans l’IoT (Internet des objets). 

En effet, le marché de l’IoT a connu une croissance exponentielle au cours des dernières années. Selon IDC, l’empreinte de l’IoT devrait atteindre 1,2 billion de dollars en 2022, et Statista, en revanche, estime que son impact économique pourrait se situer entre 3,9 et 11,1 billions de dollars d’ici 2025. 

Dans cet article, nous définissons ce qu’est l’IoT et certains cas d’utilisation spécifiques à la fabrication, et nous expliquons pourquoi un catalogue de données Zeenea est un outil essentiel pour permettre aux fabricants de progresser dans la mise en œuvre de l’IoT.

Qu’est-ce que l’IoT ?

Une définition rapide 

Selon Tech Target, l’Internet of Things (IoT), ou Internet des Objets en français, « est un système de dispositifs informatiques interconnectés, de machines mécaniques et numériques, d’objets ou de personnes qui sont dotés d’identificateurs uniques et de la capacité de transférer des données sur un réseau sans nécessiter d’interaction d’homme à homme ou d’homme à ordinateur ».

Une « chose » dans l’IoT peut donc être une personne munie d’un implant de moniteur cardiaque, une automobile qui possède des capteurs intégrés pour alerter le conducteur lorsque la pression des pneus est basse ou tout autre objet auquel on peut attribuer un identifiant et qui est capable de transférer des données sur un réseau.

Du point de vue de la fabrication, l’IoT est un moyen de numériser les processus industriels. L’IoT industriel utilise un réseau de capteurs pour collecter des données de production critiques et utilise divers logiciels pour transformer ces données en informations précieuses sur l’efficacité des opérations de fabrication.

Cas d’utilisation de l’IoT dans les industries manufacturières

Actuellement, de nombreux projets IoT portent sur la gestion des installations et des actifs, la sécurité et les opérations, la logistique, le service à la clientèle, etc. Voici une liste d’exemples de cas d’utilisation de l’IoT dans le secteur manufacturier :

Maintenance prédictive

Pour les industries, les temps d’arrêt et les pannes imprévus sont les plus grands problèmes. Les entreprises manufacturières réalisent donc l’importance d’identifier les pannes potentielles, leurs occurrences et leurs conséquences. Pour surmonter ces problèmes potentiels, les entreprises utilisent désormais le Machine Learning (ML) pour prendre des décisions plus rapides et plus intelligentes fondées sur des données.

Grâce au ML, il devient facile d’identifier des modèles dans les données disponibles et de prévoir les résultats des machines. Ce type d’information permet aux fabricants d’estimer l’état actuel des machines, de déterminer les signes d’alerte, de transmettre des alertes et d’activer les processus de réparation correspondants.

Grâce à la maintenance prédictive par l’utilisation de l’IoT, les fabricants peuvent réduire les coûts de maintenance, diminuer les temps d’arrêt et prolonger la durée de vie des équipements, améliorant ainsi la qualité de la production en s’occupant des problèmes avant que les équipements ne tombent en panne. 

Par exemple, Medivators, l’un des principaux fabricants d’équipements médicaux, a intégré avec succès les solutions IdO dans l’ensemble de son service et a enregistré une augmentation impressionnante de 78 % des événements de service qui ont pu être facilement diagnostiqués et résolus sans ressources humaines supplémentaires.

Suivi des actifs

Le suivi des actifs de l’IoT est l’un des phénomènes qui se développe le plus rapidement dans les industries. D’ici 2027, on prévoit que 267 millions de systèmes de suivi des actifs seront utilisés dans le monde entier pour l’agriculture, la chaîne d’approvisionnement, la construction, l’exploitation minière et d’autres marchés. 

Alors que par le passé, les fabricants passaient beaucoup de temps à suivre et à vérifier manuellement leurs produits, l’IoT utilise des capteurs et des logiciels de gestion des actifs pour suivre les choses de manière automatique. Ces capteurs diffusent en permanence ou périodiquement leurs informations de localisation sur internet et le logiciel affiche ensuite ces informations pour que vous puissiez les consulter. Cela permet donc aux entreprises manufacturières de réduire le temps qu’elles passent à localiser des matériaux, des outils et des équipements.

L’industrie automobile en est un exemple frappant : l’IoT a contribué de manière significative au suivi des données relatives aux véhicules individuels. Par exemple, Volvo Trucks a introduit des services de flotte connectée qui comprennent une navigation intelligente avec des conditions routières en temps réel basées sur des informations provenant d’autres camions Volvo locaux. À l’avenir, un plus grand nombre de données en temps réel provenant des véhicules aidera les analyses météorologiques à travailler plus rapidement et avec plus de précision ; par exemple, l’utilisation des essuie-glaces et des phares pendant la journée indique les conditions météorologiques. Ces mises à jour peuvent aider à maximiser l’utilisation des actifs en réorientant les véhicules en fonction des conditions météorologiques.

Un autre exemple de suivi est visible sur Amazon. L’entreprise utilise des robots WiFi pour scanner les codes QR de ses produits afin de suivre et de trier ses commandes. Imaginez que vous puissiez suivre votre inventaire, y compris les fournitures que vous avez en stock pour une future fabrication, en un seul clic. Vous ne raterez plus jamais une échéance ! Et encore une fois, toutes ces données peuvent être utilisées pour trouver des tendances afin de rendre les échéances de fabrication encore plus efficaces. 

Un moteur pour l’innovation

En collectant et en vérifiant les données industrielles, les entreprises peuvent mieux suivre les processus de production et collecter des quantités exponentielles de données. Ces connaissances permettent de développer des produits et des services innovants ainsi que de nouveaux modèles business. Par exemple, JCDecaux Asia a développé sa stratégie d’affichage grâce aux données et à l’IoT. Leur objectif était d’avoir une idée précise de l’intérêt des gens pour les campagnes qu’ils réalisaient, et d’attirer de plus en plus leur attention par des animations sur leurs écrans. « Sur certains écrans, nous avons installé de petites caméras, qui nous permettent de mesurer si les gens ralentissent devant la publicité ou non », explique Emmanuel Bastide, Directeur Général Asie de JCDecaux.

A l’avenir, l’affichage des publicités sera-t-il adapté aux profils individuels ? JCDecaux affirme que dans les aéroports, par exemple, il est possible de mieux cibler la publicité en fonction de l’heure de la journée ou de l’atterrissage d’un avion en provenance d’un pays en particulier ! En étant connectées aux systèmes d’arrivée de l’aéroport, les données générées peuvent envoyer l’information aux terminaux d’affichage, qui peuvent alors afficher une publicité spécifique pour les passagers à l’arrivée.

Catalogue de données : une source de vérité pour maîtriser vos données industrielles

Pour permettre des analyses avancées, collecter des données à partir de capteurs, garantir la sécurité numérique et utiliser le machine learning et l’intelligence artificielle, les industries doivent « déverrouiller leurs données ». Cela signifie les centraliser dans des sortes de « pages jaunes » intelligentes et faciles à utiliser au sein du paysage des données de l’entreprise.

Un data catalog est un dépôt central de métadonnées permettant à toute personne dans l’entreprise d’avoir accès, de comprendre et de faire confiance à toutes les données nécessaires pour atteindre un objectif particulier.

 

Zeenea, le data catalog pour les industries 

Zeenea aide les industries à construire une chaîne de valeur de l’information de bout en bout. Notre data catalog permet de gérer une base de connaissance à 360° en utilisant tout le potentiel des métadonnées de vos actifs d’entreprise.

Renault Success Story : Comment Zeenea Data Catalog est devenu incontournable

En 2017, Renault Digital est né avec l’objectif de transformer le groupe Renault en une entreprise data-driven. 

Aujourd’hui, cette entité est composée d’une communauté d’experts en termes de pratiques digitales, capable d’innover de manière agile sur les projets informatiques de l’entreprise. Lors d’une conférence au Data Centric Exchange de Zeenea, Jean-Pierre Huchet, responsable du Data Lake de Renault, explique que leurs principaux challenges data étaient : 

  • Les données étaient trop silotées,
  • Accès aux données compliqué,
  • Pas de définition claire et partagée des termes relatifs aux données,
  • Manque de visibilité sur les données personnelles ou sensibles,
  • Faible acculturation à la donnée (ou data literacy).

En choisissant Zeenea comme data catalog, ils ont pu relever ces défis. Zeenea est aujourd’hui devenu une brique essentielle dans les projets de données de Renault Digital. Son succès peut se traduire par :

  • Son intégration dans l’embarquement de Renault Digital : la maîtrise du data catalog fait partie de leur programme de formation.
  • Des processus et des règles de documentation résistants mis en œuvre via Zeenea.
  • Des centaines d’utilisateurs actifs. 

Aujourd’hui, Zeenea est leur principal data catalog. Les objectifs de Renault Digital sont d’acquérir une vision claire des données en amont et en aval de leur data lake hybride, une vue à 360 degrés de l’utilisation de leurs données, ainsi que la création de plusieurs milliers de Data Explorers au sein de Zeenea Data Catalog

Les fonctionnalités uniques de Zeenea adaptées à l’industrie

Chez Zeenea, notre catalogue de données a les caractéristiques suivantes pour résoudre vos problématiques IoT :

  • Connectivité universelle à toutes les technologies utilisées par les fabricants
  • Des métamodèles flexibles et adaptés aux contextes des industries
  • Une mise en conformité facilitée grâce au data lineage automatique
  • Une transition sans heurts pour devenir data literate à travers des expériences utilisateurs captivantes 
  • Une plateforme au prix raisonnable et au retour sur investissement rapide 

 

Vous souhaitez déverrouiller l’accès aux données pour votre entreprise ?

Vous êtes dans l’industrie ? Obtenez les clés pour déverrouiller l’accès aux données de votre entreprise en téléchargeant notre nouveau livre blanc « Unlock data pour l’industrie ».

Nouvelle série de livres blancs : “Unlock Data” – quel que soit votre secteur d’activité

Nouvelle série de livres blancs : “Unlock Data” – quel que soit votre secteur d’activité

new-white-paper-series-FR

Zeenea a le plaisir de vous annoncer le lancement de sa nouvelle série de livres blancs destinées à aider les responsables data à relever les nouveaux défis de leur secteur d’activité. Cette série revient sur l’importance des données ainsi que les opportunités qu’elles offrent aux industries. Au fil des pages, vous découvrirez comment déverrouiller l’accès aux données. 

Nos livres blancs visent à fournir aux consommateurs de la donnée un guide qui confirmera la nécessité de passer à une organisation data-driven. Dans un premier temps, nous nous concentrerons sur les réussites de transformations digitales et data de différentes industries puis, sur les défis auxquels vous pourriez être confrontés. Nous expliquerons ensuite ce qu’est un data catalog et ses avantages pour une organisation qui souhaite initier une stratégie de gestion de données. Enfin, la dernière partie développera les raisons pour lesquelles Zeenea est LE data catalog pour votre industrie, à travers une présentation de nos fonctionnalités uniques. 

Notre premier livre blanc de la série « Unlock Data » sera consacré aux industries et manufactures

Pourquoi ? Parce que…

Dans la course à la transformation digitale, les industries investissent de plus en plus dans les nouvelles technologies, comme le Big Data, l’intelligence artificielle (IA), ou encore l’internet des objets (IoT en anglais). Leurs principaux objectifs sont, entre autres, d’augmenter la productivité, réduire les coûts de fabrication et logistique ou encore renforcer la traçabilité.

Cependant, les industries ont encore du mal à mettre en place une stratégie data-driven. Elles sont confrontées à des défis tels que la difficulté de récupérer des investissements financiers pour poursuivre l’innovation à grande échelle, dans le but de répondre aux changements de modèles économiques. 

 Pour faire face à ces multiples changements, la transformation digitale est un sujet prioritaire pour des industries en quête d’un renouveau. Par conséquent, devenir data-driven est une question de survie.

Vous souhaitez déverrouiller des données pour votre industrie ? Téléchargez notre livre blanc « Unlock data pour l’industrie” !  

Vous n’êtes pas dans l’industrie ? Soyez à l’écoute de la sortie de nos prochains livres blancs dans notre série « Unlock Data », de nouvelles industries seront à venir très bientôt 🙂

Défis data : les clés pour être un bon Chief Data Officer en 2021 ?

Total : la réussite de sa transformation digitale

total-data

Total, l’une des 7 compagnies pétrolières “SuperMajor”, a récemment ouvert son usine numérique “Digital Factory” en début d’année à Paris. La Digital Factory réunira jusqu’à 300 profils différents, tels que des développeurs, des spécialistes data et d’autres experts en digital, afin d’accélérer la transformation numérique du groupe.

Plus précisément, la Digital Factory de Total vise à développer les solutions numériques dont Total a besoin pour améliorer ses opérations de disponibilité et de coût afin d’offrir de nouveaux services à ses clients. Leurs priorités sont principalement centrées sur la gestion et le contrôle de la consommation d’énergie, la capacité à étendre leur portée à de nouvelles énergies distribuées, ainsi qu’à fournir des solutions plus respectueuses de l’environnement. L’ambition de Total est de générer 1,5 milliard de dollars de valeur par an pour l’entreprise d’ici 2025.

A l’occasion du concours du Meilleur Développeur de France 2019, Patrick Pouyanné, Président-Directeur Général de Total, a déclaré

« Je suis convaincu que le digital est un moteur essentiel pour atteindre nos objectifs d’excellence dans tous les secteurs d’activité de Total. La Digital Factory de Total servira d’accélérateur, permettant au Groupe de déployer systématiquement des solutions digitales sur-mesure. L’intelligence artificielle (IA), l’Internet des objets (IoT) et la 5G révolutionnent nos pratiques industrielles, et nous aurons le savoir-faire à Paris pour les intégrer le plus tôt possible dans nos activités. La Digital Factory attirera également les nouveaux talents indispensables à l’avenir de notre entreprise ».

 

Qui compose les équipes de la Digital Factory ?

Dans une interview accordée à Forbes en octobre dernier, Frédéric Gimenez, Chief Digital Officer de Total et responsable du projet Digital Factory, a décrit la manière dont les équipes seront structurées au sein de l’usine numérique. 

Comme mentionné ci-dessus, l’équipe comptera environ 300 profils différents, tous travaillant selon des méthodologies agiles : les lignes managériales seront auto-organisées, sans hiérarchie, en grande autonomie et les cycles de développement seront courts afin de « test & learn » rapidement et efficacement. 

 Gimenez explique qu’il y aura plusieurs équipes dans son usine numérique :

  • Le Data Studio, qui sera composée de data scientists. Le CDO (Chief Data Officer) de Total sera le responsable de cette équipe et leurs principales missions seront d’acculturer l’entreprise aux données et de gérer les compétences data de la Digital Factory. 
  • Un pool de développeurs et de coachs agiles.

  •  Le Design Studio, regroupera des professionnels de l’UX et de l’UI. Ils contribueront à l’élaboration de diverses idées créatives et interviendront non seulement au stade de l’analyse des projets commerciaux de Total, mais aussi au cours du parcours du client.

  • Une équipe Tech Authority, chargée de la sécurité et de l’architecture data, afin de transformer efficacement leur legacy dans un environnement digital.

  • Une équipe « plateforme », qui sera en charge des différents stockages de données tels que leur environnement Cloud, leur data lake, etc.

  •  Un bureau Product & Value, chargé de gérer le portefeuille de la Digital Factory, il évaluera la valeur des projets avec l’entreprise et analysera tous les cas d’utilisation soumis à la Digital Factory. 
  • Un service des ressources humaines et un secrétariat général 

  •  Des Product Owners qui viennent du monde entier. Ils sont formés aux méthodes agiles dès leur arrivée et sont ensuite inclus dans leur projet pendant 4 à 6 mois. Ils accompagnent ensuite à la transformation digitale.  

Ces équipes seront bientôt réunies dans un espace de travail de 5 500 m2 au cœur de Paris dans le 2ème arrondissement, un espace ouvert favorisant la créativité et l’innovation. 

 

Comment fonctionne la gouvernance chez Digital Factory 

Gimenez a expliqué que les métiers sont responsables de leurs cas d’utilisation dans la Digital Factory.

Cette usine analyse l’éligibilité de leurs cas d’utilisation à travers quatre critères :

  • Valeur apportée lors de la 1ère itération et lors de sa mise à l’échelle 
  • Faisabilité (technologie / données)
  • Appétence du client / Impact interne
  • Scalabilité 

Un comité interne de l’Usine numérique décide alors si le cas d’utilisation est pris en charge ou non et la décision finale est validée par Gimenez lui-même. 

Pour une bonne coordination avec les métiers, les représentants digitaux des branches sont également situés au sein de la Digital Factory. Ils sont chargés d’acculturer les métiers et de piloter la génération d’idées, mais aussi de veiller à la cohérence des initiatives numériques de leur branche avec les ambitions du Groupe, Total les appelle les Digital Transformation Officers. 

 

Premiers succès de la Digital Factory de Total

Digital Factory a démarré en mars dernier et a déployé ses premières équipes en avril lors du premier confinement en France. Dans l’interview accordée à Forbes, M. Gimenez a expliqué que 16 projets sont en cours avec un objectif de 25 squads en régime permanent.

Les deux premières solutions numériques seront livrées d’ici la fin de l’année :

  • Un outil pour Total Direct Energie pour aider les clients à trouver le meilleur échéancier de paiement en utilisant des algorithmes et de la data

  • Une solution d’optimisation logistique basée sur l’IoT des camions pour la branche Marketing et Services, qui sera déployée dans 40 filiales.

Par ailleurs, Total a réussi à attirer des experts tels que des data scientists (malgré une forme de communication encore très limitée comme Welcome to the Jungle ou Linkedin) et à les fidéliser en proposant une diversité de projets.

« Nous réalisons actuellement une première évaluation de ce qui a fonctionné et de ce qui doit être amélioré, nous sommes dans un processus d’adaptation permanente », a déclaré M. Gimenez.

 

La Digital Factory dans le futur ?

Gimenez a conclu l’interview de Forbes en disant que la principale raison du succès de son projet est la mobilisation générale que tout le monde a conservé malgré le contexte sanitaire : « Nous avons reçu plus de cas d’utilisation que nous ne sommes en mesure d’en fournir (50 projets par an pour alimenter en permanence nos 25 squads) !

Sinon, nous avons Total a deux grands ensembles de KPI :

. mesurer le bon fonctionnement des squads en examinant les KPI de leurs méthodologies agiles

. suivre la valeur générée

 

Vous souhaitez déverrouiller l’accès aux données pour votre entreprise ?

Vous êtes dans l’industrie ? Obtenez les clés pour déverrouiller l’accès aux données de votre entreprise en téléchargeant notre nouveau livre blanc « Unlock data pour l’industrie ». 

Défis data : les clés pour être un bon Chief Data Officer en 2021 ?

Comment les données ont-elles impacté le secteur industriel ?

iot-dans-l'industrie

La place de la data est – ou devrait être – centrale dans l’industrie. De l’optimisation des flux de production en passant par la maintenance prédictive, jusqu’à la personnalisation, l’exploitation de la donnée est un levier majeur de transformation de l’Industrie. Mais derrière les promesses, la data implique de grandes responsabilités. Explications.

Le secteur industriel est déjà engagé sur la voie d’une production data-driven. Dans l’édition 2020 de son Baromètre de l’industrie 4.0, le cabinet Wavestone révèle ainsi que 86% des répondants déclarent avoir lancé des projets Industrie 4.0. Déploiement de plateformes IoT, refonte de l’architecture IT historique, mouvement vers le Cloud, mise en œuvre de data lake…  la donnée est au cœur des enjeux de transformation de l’industrie. 

« En 2020, nous commençons à voir de plus en plus de projets autour de la donnée, de l’algorithmie, autour de l’intelligence artificielle, du machine learning ou encore des chatbots, etc. », précise Wavestone. 

Tous les secteurs sont impactés par cette transformation. Ainsi, selon les prévisions de Netscribes Market Research, le marché mondial de l’IoT automobile par exemple devrait atteindre 106,32 milliards de dollars à l’horizon 2023. Le moteur de l’adoption de stratégies data-driven dans l’industrie, c’est la nécessité d’une productivité accrue à moindre coût.

Quels sont les challenges data dans l’industrie ?

L’exploitation de la data dans l’industrie est aussi une perspective de répondre à un enjeu clé : celui de la mass-personnalisation de la production. Une réalité qui affecte tout particulièrement le secteur automobile. Chaque consommateur est unique et il entend bien disposer des produits qui lui ressemblent. Mais par essence, l’industrie a fondé ses modes de production sur les volumes et les standards ! 

La Mass-Personnalisation de la production est, par conséquent, le levier de la révolution data-driven aujourd’hui en marche dans l’industrie. Mais d’autres considérations entrent en ligne de compte. Un outil industriel plus intelligent permet de réduire les coûts et délais de production et de répondre à l’accélération générale du time-to-market. La data contribue également à répondre à des enjeux écologiques en réduisant l’empreinte environnementale de l’outil de production. 

Qu’il s’agisse d’intégrer l’IoT, d’utiliser les big data, la business Intelligence, le Machine Learning, ces technologies sont autant d’opportunités de réinventer une industrie nouvelle fondée sur la donnée (capteurs embarqués, machines et produits connectés, internet des objets, virtualisation). 

Mais, derrière ces perspectives, les défis sont nombreux. Le premier d’entre eux, c’est le cadre extrêmement rigoureux défini par le RGPD (Règlement Général sur la protection des données) en application en mai 2018. L’omniprésence de la donnée dans le monde industriel n’a pas échappé aux organisations mafieuses et au cybercriminels qui multiplient les assauts sur les infrastructures IT des acteurs de l’industrie depuis 2017 avec le tristement célèbre ransomware Wannacry. 

Une attention qui se nourrit d’une autre difficulté du secteur industriel : des environnements IT souvent anciens et conçus comme des mille-feuilles technologiques multipliant les vulnérabilités potentielles. L’hétérogénéité des sources de données est une autre difficulté sensible pour l’industrie. Données marketing, données produits, données logistiques, sont souvent fortement silotées et difficiles à réconcilier en temps réel.

 

Data & Industrie : des bénéfices bien réels

Si l’on s’en réfère aux chiffres du Baromètre Wavestone, 74% des entreprises interrogées ont enregistré des résultats tangibles sous 2 ans. Près de 7 entreprises sur 10 (69%) soulignent une réduction des coûts, et 68% évoquent une amélioration de la qualité des services, des produits ou du processus. 

En moyenne, les programmes de transformations autour des technologies créant ou traitant de la donnée ont permis une optimisation de la performance énergétique de 20 à 30%, une réduction des temps d’indisponibilité grâce à une meilleure surveillance des équipements pouvant atteindre jusqu’à 40% dans certains secteurs). 

Augmentation de la traçabilité des opérations et des outillages, supervision en temps réel des conditions de fonctionnement des outils de production, autant d’éléments contribuant à prévenir les erreurs, à optimiser le suivi des produits mais aussi à détecter de nouveaux leviers d’innovation liés à l’analyse de signaux faibles grâce aux solutions d’IA par exemple. 

Au cœur de cette transformation du secteur industriel : la nécessité de s’appuyer sur des solutions d’intégration et de gestion de la donnée à la fois puissantes, stables et ergonomiques pour accélérer l’adoption d’une culture data forte.

Vous souhaitez déverrouiller l’accès aux données pour votre entreprise ?

Vous êtes dans l’industrie ? Obtenez les clés pour déverrouiller l’accès aux données de votre entreprise en téléchargeant notre nouveau livre blanc « Unlock data pour l’industrie »

manufacturing-white-paper-maquette-FR

IMAgineDay : Zeenea présente sa solution innovante au Trophée Outillage IA et Data

IMAgineDay : Zeenea présente sa solution innovante au Trophée Outillage IA et Data

imagineday-zeenea

Qu’est-ce que IMAgine Day ?

L’IMA (ou Innovation Maker Alliance) est un groupement français de directions innovation & data.

Créée en juin 2015, cette association rassemble 3796 responsables stratégiques et opérationnels d’innovation technologique et digitale (Innovation Officers, CDOs, Directions Métiers, R&D, DSI/CTOs, Data Officers, Heads of Data Science, etc.) de Grands Groupes, ETI et Administrations, pour fédérer et développer les initiatives innovantes.

L’IMA organise le 3 février 2021 prochain une rencontre 100% digitale sur l’Outillage DATA / IA. Évènement organisé et recommandé pour leurs pairs.

Cette matinée permet de présenter des solutions et offres innovantes à +150 décideurs de grandes entreprises & administrations françaises, en duo avec un client final.

Une récompense pour les acteurs les plus innovants

Les décideurs voteront en live pour récompenser les solutions les plus innovantes et décerneront un trophée dans chaque catégories du concours et 3 trophées transverses (public, jury et jeune pousse).

    1. Valorisation des données (monétisation, plateforme de partage, efficacité opérationnelle)
    2. Data gouvernance (catalogue, qualité des données, conformité RGPD, Data Vizualization, Data analytics)
    3. Gestion du patrimoine des données (Data lake, Data driven)
    4. Services cognitifs associés (NLP, NLG, search, speech to tex )

Zeenea présentera son data catalog nouvelle génération

Zeenea sera présent pour cet évènement afin que de partager avec les acteurs de l’association sa proposition de valeur : be data fluent!

Nous essaierons dans le temps imparti de mettre en lumière nos promesses, nos points forts, nos cas d’usage et les facteurs de succès pour l’accélération des projets data !

Défis data : les clés pour être un bon Chief Data Officer en 2021 ?

Product spotlight : confidentialité, knowledge graph et exploration vont ravir vos data stewards et vos équipes data pour 2021

be data fluent
Zeenea offre une nouvelle génération de data catalog centrée sur l’expérience utilisateur. Elle permet de découvrir et comprendre facilement le patrimoine de données avec un maximum de simplicité grâce à des capacités automatisées et une personnalisation de la solution.  Nos articles Product Spotlight proposent un aperçu des dernières grandes mises à jour du data catalog de Zeenea release après release. Découvrez dans cet article les objectifs de cette dernière sortie ainsi que ses dernières avancées.
  1. La confidentialité de vos informations n’est plus une option
  2. Une nouvelle interface pour les administrateurs
  3. Gérez autant de types d’objet que vous souhaitez dans Zeenea Data Catalog
  4. Le coup d’envoi est lancé pour notre application de data discovery

1. La confidentialité de vos informations n’est pas une option

 

Nouvelle configuration des connexions et des scanners

Pour cette nouvelle release, Zeenea propose un nouveau système de configuration des connexions aux systèmes de stockage de données de nos clients afin de sécuriser leurs informations.
Cette nouvelle approche, sous forme de fichiers de configuration embarqués dans les scanners, permet aux entreprises de ne plus stocker leurs secrets de connexions dans la plateforme SaaS de Zeenea et de garder confidentiel les informations liées à leurs systèmes, restées en local sur le SI.

architecture zeenea

Les autres + de notre approche

En plus d’une sécurité accrue, cette nouveauté alliée à une approche multi-scanners vise :

  • plus de modularité sur les capacités d’intégration de Zeenea dans les SI. Plusieurs scanners peuvent désormais être intégrés en même temps sur la plateforme et chaque scanner possède sa propre liste de connexions configurées
  • une meilleure automatisation des déploiements sur l’ensemble du SI. Les configurations sont maintenant stockées sur des fichiers de configuration indépendants au niveau des scanners.
  • une meilleure visibilité des statuts des connexions pour les utilisateurs finaux quant à la qualité des données présentes dans le catalogue.

NB : Zeenea Scanner est le processus permettant d’établir des connexions sur les systèmes de stockage pour en extraire les métadonnées.

2. Une nouvelle interface pour les administrateurs

Nous proposons à présent un espace dédié pour les administrateurs, permettant de mieux séparer les actions des métiers et la gestion de la plateforme Zeenea.

L’interface Administration permet :

  • la gestion des utilisateurs et des contacts (gestion des accès et du carnet d’adresse)
  • la visibilité complète sur les connexions actuellement paramétrées dans le catalogue et leur statut
  • le suivi du journal d’operations sur le fonctionnement de la plateforme
  • une meilleure visibilité de la liste des scanners et leur statut
  • la gestion des clés d’API utilisées pour les communications avec les scanners et les appels MachineToMachine
Zeenea Administration

3. Gérez autant de types d’objets que vous souhaitez dans Zeenea Data Catalog

Nous avions introduit les “Objets Personnalisés” (ou custom items) lors de notre précédent Product Spotlight en juin dernier. Ces objets permettent de documenter des concepts entièrement nouveaux, sans être limité par les types natifs fournis par défaut dans Zeenea, tels que :

  • les jeux de données,
  • les champs des jeux de données associés,
  • les traitements,
  • les visualisations,
  • les termes métier de votre glossaire.

En résumé, ils offrent une plus grande flexibilité aux équipes de data management lors de la construction de la documentation pour modéliser des notions abstraites et complémentaires des métadonnées structurellement proposées par Zeenea.

Chaque nouveau type d’objet peut ensuite être utilisé sur chacun des métamodèles pour créer des relations avec l’ensemble des types d’objets géré dans Zeenea et ainsi, améliorer l’exploration du catalogue en s’aidant du concept de knowledge graph.

Sa grande nouveauté porte sur la manière dont peuvent être alimentés en Objets personnalisés dans Zeenea Studio. Nous proposons aujourd’hui deux façons de procéder :

    • soit automatiquement, via un connecteur dédié, développé selon la nature de la source depuis laquelle la synchronisation doit s’effectuer,
    • et dès aujourd’hui, de manière manuelle, comme peuvent l’être les Termes Métier (Business Terms) du glossaire dans Zeenea.

4. Le coup d’envoi est lancé pour notre application de data discovery

En septembre dernier, nous vous annoncions le lancement de notre nouvelle application Zeenea Explorer. Elle propose une expérience de recherche et d’exploration décorélée de l’application Zeenea Studio.

Recherchez tous les objets natifs du catalogue de données dans Zeenea Explorer

Avec Zeenea Explorer, nos clients peuvent dès à présent proposer à leurs équipes une application dédiée à la recherche et à l’exploration des objets natifs déjà renseignés dans Zeenea Studio.

Les jeux de données :

ce sont les éléments les plus standards représentés dans un catalogue. Ce concept fait référence à une table dans une base de données ou encore à un fichier CSV.

Les champs :

La structure d’un jeu de données est décrite dans le schéma de celui-ci. Cette structure contient l’énumération, si connue, des Champs, qui correspondent typiquement aux colonnes d’une table dans une base de données.

Les visualisations :

ce sont des rapports où sont liés Les jeux de données ayant permis de les construire.

Les traitements :

ils décrivent les actions de transformation effectuées sur un / plusieurs jeux de données entrants et qui donnent lieu à un ou plusieurs jeux de données sortants. Ils matérialisent des relations entre les datasets et décrivent le lignage.

Les termes métier :

ce sont les éléments de définition constitutifs d’un ou de plusieurs glossaire(s) d’entreprise. Ils renseignent les autres objets du catalogue auxquels ils sont liés et apportent une vision business / métier. des propriétés

 

Profilage des données sur Big Query

Le profilage des données renseignent les utilisateurs sur les statistiques liées sur les champs des jeux de données. Ils permettent une consultation approfondie de ceux-ci en leur mettant à disposition des caractéristiques telles que : le nombre de valeurs comptées dans le champ, les top valeurs, la moyenne, le minimum, le maximum, la médiane, l’écart-type, la distribution des données, etc. Seul le nombre de valeurs comptées dans le champ est une statistique réelle. Le reste des éléments présents sont des données approximatives calculées à partir d’un échantillonnage. Les différents graphiques proposés :  
La barre de progression / jauge
La proportion de valeurs manquantes du champ par rapport au nombre de valeurs comptées est représentée sous forme de barre progressive. Lorsqu’un champ comporte de nombreuses valeurs manquantes, la jauge se colorie en proportion en orange vif permettant une première information visuelle facile à lire.  
Les histogrammes horizontaux
Ces graphiques affichent les 1 à 6 valeurs les plus importantes représentées dans les champs de type chaînes de caractères. Il s’agit des valeurs les plus représentées dans l’échantillon observé et non dans l’intégralité du champ.  
Les histogrammes verticaux
Les histogrammes verticaux présentent la distribution des données pour les champs de type valeurs numériques. Ils donnent donc l’information du nombre de valeurs comptées par tranches sur une échelle allant de la valeur minimale à la valeur maximale.
Les boîtes à moustaches
Les boîtes à moustaches résument l’information statistique de manière simple et visuelle et viennent compléter les histogrammes verticaux quant à l’observation de la distribution. Elles mettent en exergue les quartiles (premier et troisième), la médiane, et les extrémités des moustaches. Ces dernières sont calculées en utilisant 1,5 fois l’espace interquartile (la distance entre le premier et le troisième quartile). Les graphiques représentant des valeurs numériques disposent de tooltips permettant aux utilisateurs d’observer plus finement les valeurs présentées au passage de leur souris sur le graph.
Zeenea vous souhaite ses meilleurs voeux pour 2021 !

Zeenea vous souhaite ses meilleurs voeux pour 2021 !

happy-new-year-2021-zeenea

Zeenea vous souhaite une bonne année 2021 !  ⭐️

Ce n’est un secret pour personne, l’année 2020 n’est pas prête d’être oubliée…  Elle a été marquée par de nombreux événements qui ont changés le monde. La plupart d’entre nous ont dû s’adapter à de nouvelles façons de travailler et de communiquer les uns avec les autres. Les entreprises ont dû accélérer leurs transformations digitales afin d’offrir leurs produits et services dans le respect des nouvelles réglementations sanitaires. Et pour beaucoup d’entre elles, les données en étaient la clé. 

Et Zeenea n’a pas fait exception à la règle 😊

Malgré la tournure des événements de l’année passée, Zeenea a pu accomplir beaucoup de choses et rester actif dans le secteur data. Non seulement nous avons acquis de nouveaux utilisateurs dans le monde entier, mais nous avons lancé un nouveau produit, changé notre logo et identité de marque, été cité par divers cabinets de recherche en data analytics, et bien plus encore. 

La chronologie de Zeenea en 2020

L’expansion de Zeenea Data Catalog à travers le monde

Zeenea a démarré l’année avec des clients sur de nouveaux continents  ! En janvier, nous avons acquis notre tout premier client en Afrique, et en février notre premier client américain. Zeenea était enthousiaste à l’idée de commencer à travailler avec ces différentes entreprises internationales. Nous leur souhaitons la bienvenue !

Zeenea prend la parole 

1) En mars dernier, nous avons publié notre troisième livre blanc sur la gestion des métadonnées. A travers ce document, nous avons partagé nos conseils et astuces sur la façon dont les responsables de données peuvent commencer leur processus de gestion des métadonnées en seulement six semaines !
👉Le guide du metadata management

2) Courant août, nous étions au Data Innovation Summit 2020, l’événement majeur du monde de la data dans les pays scandinaves. Guillaume Bodet, CEO de Zeenea, a présenté sa conférence intitulée « Smart Data Catalogs, A Must-Have for Data Leaders ». 
👉Smart Data Catalog: a must-have for data leaders

3) Nous avons également participé en tant que sponsor au Big Data Paris 2020 en septembre, le plus grand salon européen de la Data & de l’IA. Nous avons eu le plaisir d’animer une conférence sur la gestion des métadonnées, où David Martin, Customer Success Manager chez Zeenea, a évoqué les défis de la gestion des métadonnées et la façon de démarrer cette aventure à l’aide d’un data catalog.

4) La parution de notre quatrième livre blanc : « Le Data Discovery vu par les Géants du Web » s’est faite au début du mois d’octobre. Dans ce livre blanc, nous faisons un focus sur le contexte et la mise en œuvre des solutions de data discovery développées par les grandes entreprises du web, dont certaines font partie du célèbre «Big Five» ou «GAFAM» (Google, Apple, Facebook, Amazon, Microsoft)
👉Lire le livre blanc sur le data discovery

5) En décembre, Zeenea a clôturé l’année avec le Salon de la Data à Nantes, où nous avons présenté deux conférences sur les catalogues de données intelligents et la gestion des métadonnées. 
👉 Webinar Replay : 6 semaines pour commencer la gestion des métadonnées !

Zeenea continue son ascension

En août, Zeenea a changé d’identité ! Alors que nous commençons à nous agrandir, à être déployé en Europe et par-delà l’Atlantique, il nous semblait essentiel d’affirmer notre position de data catalog nouvelle génération par une nouvelle identité représentant nos valeurs et nos forces : l’automaticité, la flexibilité et la simplicité d’utilisation.

👉Lire notre article pour savoir pourquoi le moment était venu de changer.

Au début de l’automne, nous avons annoncé le lancement de notre nouveau produit : Zeenea Explorer, l’application de découverte de données pour vos équipes data !

Cette application s’est d’abord concentrée sur les data scientists, les premiers profils à être impactés dans la recherche et le data mining au sein de l’entreprise. Cette innovation profonde vise à accélérer les projets de data science. 

 👉 Lire notre article sur le produit Spotlight. 

Zeenea à la une des journaux

Alors que la France est dans sa deuxième phase de confinement, Zeenea a été défini comme « The Adaptive Data Catalog » par BARC, le cabinet de conseil allemand ! Dans leur article, Timm Grosser, analyste principal du Data Management chez BARC, considère Zeenea comme un jeune fournisseur de data catalog en pleine croissance sur le marché. 

« Zeenea est un produit relativement jeune et a déjà fait ses preuves, étant donné qu’il n’a que trois ans d’expérience sur le marché et 50 clients. L’entreprise se concentre sur le cœur de métier du Data Catalog, se démarquant ainsi de la concurrence, qui devient de plus en plus large de mon point de vue. L’outil est clairement agencé pour moi.

👉Lire l’article zeenea is the adaptative data catalog by BARC

Nous avons également été cités par le célèbre cabinet de recherche américain Forrester comme l’un des 27 fournisseurs de Machine Learning Data Catalog en 2020 du monde entier. Avec des enjeux aussi importants, nous pensons que Forrester reconnaît la flexibilité de notre data catalog, qui sert aux objectifs de gouvernance et d’analyse avec une expérience utilisateur propre et intuitive.

Zeenea a également été cité par différents journaux de la presse IT française :

 

Quelle est la prochaine étape pour Zeenea ?

Zeenea finit l’année 2020 en beauté pour mieux se retrouver en 2021

Il est temps de dire au revoir à 2020, et bonjour à 2021 ! En cette nouvelle année, Zeenea a beaucoup de projets à venir. 

Notre application Zeenea Explorer sera officiellement lancée avec de toutes nouvelles fonctionnalités innovantes pour permettre à vos équipes data de trouver rapidement les bonnes informations dans le but d’offrir une expérience de recherche unique.

👉Visitez notre page Zeenea Explorer ici.

Soyez sur vos gardes pour ne rater aucun nouveau contenu, sponsoring d’événements et tant d’autres choses encore. 😄

infographie-zeenea-en-2020

Big Data Hebdo : Data catalog, data discovery, et gouvernance des données featuring Zeenea

Big Data Hebdo : Data catalog, data discovery, et gouvernance des données featuring Zeenea

big data hebdo feat. zeenea

Enregistré le 20 novembre 2020, Sandrine Bernaud, Product Manager chez Zeenea, avait été invitée pour participer au podcast Big Data Hebdo pour parler data catalog, data discovery et gouvernance des données. 

Présentation de Big Data Hebdo en quelques mots :

Fondé en 2014 par Vincent Heuschling et Benjamin Guinebertière, le podcast Big Data Hebdo rassemble une équipe de quatre animateurs, tous passionnés par la data sous toutes ses formes ! Vous y retrouverez Alexander Dejanovski, consultant Apache Cassandra chez Datastax, Jérôme Mainaud, Architecte logiciel chez Zeenea, Nicolas Steinmetz, fondateur de CérénIT, et Vincent Heuschling, Fondateur d’Affini-Tech.

Ce 113ème épisode s’est concentré sur qu’est-ce un data catalog, pourquoi est-ce un outil nécessaire pour les utilisateurs et managers data, et comment les data catalogs aident les entreprises à découvrir leurs données et initier une gouvernance des données au sein de leur organisation. 

Sylvain L., un utilisateur de Zeenea Data Catalog et occupant le poste de Responsable de la gouvernance des données dans une grande banque française, confirme que “le gros point fort [d’un catalogue de données], c’est vraiment de pouvoir rassembler la connaissance de la donnée et de pouvoir permettre aux utilisateurs à la fois métier et IT d’avoir un langage commun, c’est vraiment ça la force dont on a besoin pour développer efficacement nos cas d’usage autour de la donnée.”

Vous pouvez écouter le podcast en entier ici 👇

https://bigdatahebdo.com/podcast/episode-113-data-catalog-et-data-discovery/

Salon de la Data : Zeenea sponsorise l’évènement organisé pour et par les passionnés de data

Salon de la Data : Zeenea sponsorise l’évènement organisé pour et par les passionnés de data

salon de la data

Crise sanitaire oblige, les événements IT s’ancrent sur un nouveau modèle digital.

Le Salon de la Data, rendez-vous incontournable des professionnels et des organisations data-driven dans la région nantaise, se tiendra au format full-virtuel le 15 décembre prochain.

Fidèle au rendez-vous, nous prendrons également la parole lors de deux conférences pour parler de notre data catalog nouvelle génération facilitant la compréhension, la recherche et les échanges autour des données des entreprises.

Ces dernières seront retransmises et directement accessibles via l’application dédiée imagina.io.

Nous dévoilerons également les contours de notre “smart” data catalog (Machine Learning Data Catalog) visant à convertir les data natives et surtout les autres aux bénéfices des Data Catalogs.

Aujourd’hui, il appartient à l’ensemble des consommateurs de données d’en tirer la valeur économique et commerciale associée. C’est pour répondre aux impératifs de ces nouveaux profils et des départements opérationnels (produit, marketing, finance, ressources humaines, relation client, logistique) dont la maturité autour de ces sujets augmente progressivement que Zeenea propose une solution 100% Cloud, flexible et scalable.

Elle consiste à construire un registre des jeux de données disponibles, à les documenter à l’aide de métadonnées, et à mettre à leur disposition un catalogue permettant de rechercher et consulter simplement ces informations.  

 

Lors du Salon de la Data, Zeenea animera les conférences suivantes :

conférence-data-democracy

Smart Data Catalog, la clé d’une démocratisation des données

Le 15.12.20 de 10h30 à 11h

Le terme “smart data catalog” est devenu tendance ces derniers mois. Cependant, lorsqu’on parle de quelque chose de “smart”, la plupart d’entre nous l’associent automatiquement, et à juste titre, à un data catalog ne comportant que des capacités de machine learning et d’IA. Pour Zeenea, être smart ne se résume cependant pas à ces fonctionnalités. Guillaume Bodet – co-fondateur et CEO de la société – décryptera comment et pourquoi un “Smart data catalog » est un atout stratégique permettant aux entreprises de devenir à la fois plus compétitives et plus résilientes.

conférence gestion des métadonnées

 Atelier + démonstration

Comment démarrer une gestion de ses métadonnées en 6 semaines avec Zeenea Data Catalog ?

Le 15.12.20 de 14h à 14h45

Présentation/retour d’expérience de 30 minutes par David Martin – Customer Success Director de la société – qui reviendra sur la manière de valoriser efficacement ses métadonnées dans le data catalog Zeenea en suivant une démarche itérative et incrémentale éprouvée, effective dès 6 semaines après sa mise en place.
 
Depuis la plateforme, les experts Zeenea présents vous accueilleront en visio-conférence pour une démonstration personnalisée de leur portefeuille de solutions : les applications Zeenea Studio et Zeenea Explorer.

Inscrivez-vous gratuitement pour en savoir plus et les rencontrer autour d’un café digital.

En savoir plus : https://salondata.fr/

Machine Learning Data Catalog : c’est bien mais pas suffisant !

Machine Learning Data Catalog : c’est bien mais pas suffisant !

machine-learning-data-catalog

Comment tirer parti d’un Machine Learning Data Catalog ?

Vous pouvez utiliser les data catalogs d’apprentissage automatique (MLDC) pour interpréter les données, accélérer l’utilisation des données dans votre organisation, et relier les données aux résultats des entreprises.  Nous donnons des exemples concrets des fonctionnalités intelligentes d’un data catalog dans nos précédents articles : 

Force est de constater que cette spécificité des data catalogs est une pierre angulaire dans le choix d’un data catalog. Forrester le met d’ailleurs en évidence dans son dernier rapport : Now Tech: Machine Learning Data Catalogs, Q4 2020. En ne manquant pas de nous citer comme l’un des fournisseurs de Machine Learning Data Catalog clé sur le marché.

Toutefois, comprenez que en tant que professionnels de la data en recherche d’un data catalog, la brique intelligente est certes une évidence mais n’est pas suffisante pour mener à bien votre mission de démocratisation de la donnée.

De machine learning data catalog à Smart data catalogs : quelle est la différence ?

Le terme « ML data catalog » est devenu un mot à la mode ces derniers mois. Cependant, lorsqu’on parle d’une chose « intelligente », la plupart du temps nous pensons automatiquement, et à juste titre, à un data catalog ne comportant que des capacités d’apprentissage automatique.

Chez Zeenea, nous ne pensons pas qu’un ML data catalog ne doit pas seulement se résumer à des fonctionnalités de Machine Learning et d’Intelligence Artificielle !

Il existe différentes façons d’être « intelligent ». Nous aimons ainsi parler de Smart Data Catalog dans lequel l’aspect ML est brique parmi d’autres.

Les 5 piliers d’un smart data catalog se trouvent dans son :

  1. Design : la façon dont les utilisateurs explorent le catalogue et consomment l’information,
  2. Expérience utilisateur : comment il s’adapte à différents profils,
  3. Inventaire : fournit un moyen intelligent et automatique d’inventorier,
  4. Moteur de recherche : répond aux différentes attentes et donne des suggestions intelligentes,
  5. Gestion des métadonnées : un catalogue qui marque et relie les données entre elles grâce à des fonctionnalités ML.

Cette conviction est détaillée sur notre article : Le “smart” data catalog, essentiel pour les data leaders et à également donné lieu à une présentation par Guillaume Bodet, CEO de Zeenea, en septembre dernier. 

Qu’est-ce qu’un knowledge graph et comment renforce-t-il les capacités d’un data catalog ?

Qu’est-ce qu’un knowledge graph et comment renforce-t-il les capacités d’un data catalog ?

knowledge-graphs

Depuis quelques années, les knowledge graphs nous entourent… Que ce soient par des expériences d’achat personnalisées via des recommandations en ligne sur des sites web tels que Amazon, Zalando, ou par notre moteur de recherche préféré Google.

Cependant, ce concept reste encore bien souvent un challenge pour la plupart des responsables data et analytics qui tente d’agréger et lier leurs actifs d’entreprise afin d’en tirer profit à l’instar de ces géants du web.

Pour appuyer ce constat, Gartner a déclaré dans leur article “How to Build Knowledge Graphs That Enable AI-Driven Enterprise Applications” que les « Data and analytics leaders are encountering increased hype around knowledge graphs, but struggle to find meaningful use cases that can secure business buy-in ».

Dans cet article, nous définirons ce qu’est le concept de knowledge graph en l’illustrant avec l’exemple de Google puis, nous mettrons en lumière sa puissance intégrée à un data catalog.

Qu’est-ce qu’un knowledge graph exactement ?

Selon GitHub, un knowledge graph est un type d’ontologie qui décrit les connaissances en termes d’entités et de leurs relations de manière dynamique et automatisée. Contrairement aux ontologies statiques, qui sont très difficiles à maintenir.

Voici d’autres définitions d’un knowledge graph proposées par différents experts : 

  • Un « moyen de stocker et d’utiliser ses données, qui permet aux personnes et aux machines de mieux exploiter les connexions dans leurs jeux de données ». (Datanami)

     

  • Une « base de données qui stocke des informations dans un format graphique – et, surtout, peut être utilisée pour générer une représentation graphique des relations entre n’importe lequel de ses points de données ». (Forbes)
  • « Encyclopédies du monde sémantique ». (Forbes)

Grâce à des algorithmes de machine learning, un knowledge graph fournit une structure pour toutes vos données et permet la création de relations multilatérales dans l’ensemble de vos sources de données. 

La fluidité de cette structure s’accroît au fur et à mesure que de nouvelles données sont introduites, ce qui permet de créer plus de relations et d’ajouter plus de contexte, et aider vos équipes de données à prendre des décisions éclairées avec des connexions que vous n’auriez peut-être jamais trouvées.

L’idée d’un knowledge graph est de construire un réseau d’objets et, plus important encore, de créer des relations sémantiques ou fonctionnelles entre les différents actifs. 

Dans un data catalog, un knowledge graph est donc ce qui représente différents concepts et relie les objets entre eux par des liens sémantiques ou statiques.

 

Exemple de Google 

L’algorithme de Google utilise ce système pour recueillir et fournir aux utilisateurs finaux des informations pertinentes pour leurs requêtes. Le knowledge graph de Google contient plus de 500 millions d’objets, ainsi que plus de 3,5 milliards de faits sur ces différents objets et les relations entre eux. 

Le knowledge graph améliore la recherche Google de trois manières principales :

  • Trouver le bon résultat : une recherche non seulement basée sur des mots-clés mais aussi sur leur signification.
  • Obtenir le meilleur résumé : recueillir les informations les plus pertinentes à partir de diverses sources en fonction de l’intention de l’utilisateur.
  • Approfondir et élargir la recherche : découvrez plus que ce que vous attendiez grâce à des suggestions pertinentes.
    knowledge-graph

    Comment les knowledge graphs renforcent-ils l’usage des data catalogs ?

    Grâce à un data catalog, les knowledge graphs peuvent aider votre entreprise dans sa stratégie data en proposant :

    Des résultats de recherche riches et approfondis

    Aujourd’hui, de nombreux moteurs de recherche utilisent de multiples knowledge graphs afin d’aller au-delà de la recherche basée sur des mots-clés. Les knowledge graphs permettent à aux moteurs de recherche de comprendre les concepts, les entités et les relations entre eux. Les avantages sont les suivants :

    • La possibilité de fournir des résultats plus profonds et plus pertinents, y compris des faits et des relations, plutôt que de simples documents,

    • La possibilité de former des recherches sous forme de questions ou de phrases – plutôt que de liste de mots clés,

    • La capacité à comprendre des recherches complexes qui se réfèrent à des connaissances trouvées dans plusieurs éléments en utilisant les relations définies dans le graph.

    Optimisation du data discovery

    Les données d’entreprise se déplacent d’un endroit à l’autre à la vitesse de la lumière, et sont stockées dans diverses sources de données et applications de stockage. Les employés et les partenaires accèdent à ces données de partout et à tout moment. Identifier, localiser et classer vos données afin de les protéger et d’en tirer des informations devrait donc être la priorité !

    Les avantages des knowledge graphs pour le data discovery sont notamment les suivants :

    • Une meilleure compréhension des données de l’entreprise, où elles se trouvent, qui peut y accéder et où, et comment elles seront transmises,
    • Classification automatique des données en fonction du contexte,
    • Gestion des risques et respect de la réglementation,
    • Visibilité complète des données,
    • Identification, classification et suivi des données sensibles,
    • La capacité d’appliquer des contrôles de protection aux données en temps réel sur la base de politiques et de facteurs contextuels prédéfinis,
    • Évaluer correctement l’ensemble des données.

    D’une part, elle aide à mettre en œuvre les mesures de sécurité appropriées pour prévenir la perte de données sensibles et éviter des conséquences financières ou de réputation  pour l’entreprise. D’autre part, elle permet aux équipes d’approfondir le contexte des données afin d’identifier les éléments spécifiques qui révèlent les réponses et de trouver des moyens de répondre à vos questions.

     

    Des recommandations pertinentes

    Comme mentionné dans l’introduction, les services de recommandation sont désormais une composante familière de nombreux magasins en ligne, assistants personnels et plateformes digitales.

    Les recommandations doivent adopter une approche basée sur le contenu. Dans un data catalog, les capacités de machine learning combinées à un knowledge graph, pourront détecter certains types de données, appliquer des tags ou des règles statistiques sur les données pour exécuter des suggestions d’informations efficaces et intelligentes.

    Cette capacité est également connue sous le nom de “data pattern recognition” (reconnaissance de pattern). Elle consiste à pouvoir identifier des actifs similaires et à s’appuyer sur des algorithmes statistiques et des capacités de ML qui sont dérivés d’autres systèmes.

    Ce système de reconnaissance de pattern aide les responsables data à gérer leurs métadonnées :

    • Identifier les doublons et copier les métadonnées
    • Détecter les types de données logiques (e-mails, ville, adresses, etc.)
    • Suggérer des valeurs d’attribut (reconnaître des modèles de documentation à appliquer à un objet similaire ou à un nouvel objet)
    • Suggérer des liens – liens sémantiques ou de lineage
    • Détecter les erreurs potentielles afin d’améliorer la qualité et la pertinence du catalogue

    L’idée est d’utiliser certaines techniques dérivées de recommandations, basées sur le contenu que l’on trouve dans les catalogues d’usage standard. Lorsque l’utilisateur a trouvé quelque chose, le catalogue lui propose des alternatives basées à la fois sur son profil et sur la reconnaissance de patterns.

    Certains cas d’usage d’un data catalog à l’aide d’un knowledge graph

    • Rassembler les biens qui ont été utilisés ou liés aux causes d’échec des projets digitales.
    • Trouver des actifs ayant un intérêt commun pour la sortie de nouveaux produits pour le département marketing.
    • Générer une vue à 360° des personnes et entreprises pour le service commercial.
    • Faire correspondre les besoins de l’entreprise aux personnes et aux projets pour les ressources humaines.
    • Trouver des réglementations relatives à des contrats et des investissements spécifiques au sein du département financier.

    Conclusion

    Avec l’augmentation constante des données dans les entreprises, organiser ses informations sans stratégie signifie ne pas pouvoir rester compétitif et pertinent dans cette course pour la digitalisation. Pour éviter le redoutable effet de « boîte noire », il est essentiel de veiller à ce que votre data catalog ait un knowledge graph d’entreprise.

    Grâce à un knowledge graph combiné à l’IA et aux algorithmes de machine learning, vos données seront mieux contextualisées et vous permettront non seulement de découvrir des données plus profondes et subtiles, mais aussi de prendre des décisions plus intelligentes sur le long terme.

    Pour plus d’informations sur le knowledge graph, voici un article très intéressant par l’analyste Gartner, Timm Grosser : « Linked Data for Analytics?« 

    Démarrez avec Zeenea Data Catalog

    Zeenea est une solution 100% cloud, disponible partout dans le monde, en quelques clics. En choisissant Zeenea Data Catalog, maîtrisez les coûts liés à l’implémentation et à la maintenance d’un data catalog tout en simplifiant son accès par vos équipes.

    Les mécanismes d’alimentation automatique, ainsi que les algorithmes de suggestion et de correction, permettent de réduire le coût global du catalogue, et de garantir la qualité des informations qu’il contient pour vos équipes data en un temps record.

    Air France : stratégie Big Data dans un contexte de cloud hybride

    Air France : stratégie Big Data dans un contexte de cloud hybride

    airfrance big data

    Air France-KLM est le premier groupe en matière de trafic international au départ de l’Europe. La compagnie est membre de l’alliance SkyTeam regroupant 19 compagnies aériennes et offrant un accès à un réseau mondial de plus de 14 500 vols quotidiens vers plus de 1 150 destinations autour du monde. En 2019, Air France c’était : 

    • 104,2 millions de passagers,
    • 312 destinations 
    • 119 pays,
    • 546 avions,
    • 15 millions de membres inscrits à leur programme de fidélité “Flying Blue”*,
    • 2 300 vols par jour*. 

    Au Big Data Paris 2020, Eric Poutrin, Lead Enterprise Architect Data Management & Analytics chez Air France, nous a expliqué comment fonctionne une compagnie aérienne, le parcours de leur stratégie big data jusqu’à la mise en place d’une structure Cloud Hybride et où ils en sont aujourd’hui.

    air-france-big-data-paris-1-1

    Comment fonctionne une compagnie aérienne ?

    Avant de commencer à parler data, il est impératif de comprendre comment fonctionne une compagnie aérienne de la création du trajet de vol, à l’atterrissage de l’avion. 

    Avant de planifier un trajet, la première étape pour une compagnie aérienne telle que Air France est d’avoir un programme de vol. Notez qu’en période de crise sanitaire, ils sont amenés à changer assez fréquemment. Une fois le programme de vol mis en place, il y a trois flux totalement séparés qui se mettent en marche pour qu’un vol ait lieu, avec une date et une heure de départ données :

     

    • le flux des passagers, qui passe par différentes formes de services pour faciliter l’expérience du voyageur dans son parcours, de l’achat des billets sur leurs différentes plateformes (web, app, physique) à la mise à disposition de personnels ou de bornes automatiques dans les différents aéroports pour aider les voyageurs à s’enregistrer, déposer leurs bagages, etc.

    • le flux du personnel de bord, avec des profils adaptés avec les qualifications requises pour faire fonctionner ou piloter les avions, ainsi que la gestion des plannings des stewards et hôtesses de l’air.

    •  le flux ingénierie pour avoir le bon avion avec la bonne configuration au bon point de parking.
    air-france-big-data-paris-2

    Cependant, Eric nous confie que tout cela… c’est dans un monde idéal : 

    “Le “produit” d’une compagnie aérienne passe par le client, et donc tous les aléas se voient. Puis, tous les aléas de chaque flux impactent les uns les autres ! Donc plus on approche de la date du vol, plus ces aléas deviennent critiques.”

    Suite à ces constats, il y a 25 ans maintenant, Air France a décidé de mettre en place une architecture orientée “service,” qui permet de pouvoir, entre autres,  la notification des abonnés en cas d’aléas sur n’importe quel flux. Ces notificationsen temps réel sont poussées soit aux agents ou aux passagers en fonction des besoins : la prévention d’aléas techniques (un avion qui tombe en panne), des aléas météorologiques, la prévention des retards, etc.

    “L’objectif c’était de franchir la marge entre une approche analytics traditionnelle et une approche analytics moderne axée sur l’analyse omniprésente, prédictive et prescriptive, à grande échelle.” Nous affirme Éric. 

    La parcours de la stratégie Big Data d’Air France

    air-france-big-data-paris-3

    La chronologie

    En 1998, Air France avait commencé par monter un data warehouse d’entreprise sur la partie commerciale rassemblant les données clients, équipages et techniques qui permettaient aux équipes informatiques de la firme de construire des reportings d’analyse. 

    Eric nous livre qu’en 2001, suite à la crise sanitaire du SRAS (syndrome respiratoire aigu sévère), Air France a dû redéployer des avions suite à l’interdiction de vols entrants aux États Unis. C’est le data warehouse de la firme qui leur a permis de trouver d’autres sources de revenus, grâce leurs algorithmes de machine learning et d’intelligence artificielle. Cette manière de travailler avec la donnée avait bien fonctionné pendant 10 ans et a même permis à la firme de pouvoir surmonter plusieurs autres difficultés, notamment la tragédie du 11 septembre 2001 et la crise de la montée des prix du pétrole. 

    En 2012, les équipes data d’Air France ont décidé de mettre en place une plateforme Hadoop afin de pouvoir faire des analyses prédictives ou prescriptives (selon les besoins de chacun) en temps réel, car le data warehouse ne répondait plus à ces nouveaux besoins et à la forte volumétrie d’informations à gérer. C’est seulement en quelques mois après l’implémentation d’Hadoop, de KAFKA, et d’autres technologies nouvelle-génération que la firme a pu réussir à avoir des données beaucoup plus “fraîches” et pertinentes. 

    Depuis, les équipes améliorent et optimisent constamment leur écosystème data afin de toujours pouvoir être à jour avec les nouvelles technologies et donc, permettre aux utilisateurs data de travailler efficacement avec leurs analyses. 

    Les défis data d’Air France

    Durant la conférence, Éric nous a également présenté les défis data de la firme dans la mise en place d’une stratégie data :

    • Délivrer un écosystème analytics fiable avec des données de qualité,
    • Mettre en place des technologies adaptées pour tous les profils et adaptées pour les cas d’usage de chaque secteur d’activité,
    • Avoir une infrastructure qui supporte tous types de données en temps réel. 

    Air France a pu résoudre certaines de ces problématiques grâce à la mise en place d’une architecture robuste (qui a notamment  permis à la firme de pouvoir résister à la crise du COVID-19), ainsi que la mise en place d’équipes dédiées, le déploiement d’applications et la structure de sécurité lié notamment au RGPD et autres réglementations pilotes. 

    Cependant, Air France KLM n’a pas fini de travailler pour atteindre ses défis data. Avec des volumes de données qui ne cessent de croître, le nombre d’utilisateurs data et métier qui augmente, la gestion des flux de données à travers les différents canaux de l’entreprise et la gestion des données, c’est un travail de gouvernance constant :

    “Il faut toujours qu’on soit au service des métiers, et comme les gens et les tendances changent, il est impératif de faire des efforts continus pour que tout le monde puisse comprendre la donnée.”

    air-france-big-data-paris-4

    L’architecture data unifiée d’Air France

    L’unified data architecture (UDA) est la pierre angulaire d’Air France. Éric nous explique qu’il y a quatre types de plateformes :

    La plateforme de data discovery 

    Séparée en deux plateformes différentes, elles sont les applications de prédilection des data scientists et citizen data scientists. Elles permettent, entre autres, de :

    • extraire la “connaissance” de la donnée,
    • traiter des données non-structurées, (des textes, des images, des voix, etc.)
    • avoir un support d’analyse prédictive afin de comprendre les comportements des clients

    Un data lake 

    Le data lake d’Air France est une instance logique et est accessible à tous les employés de l’entreprise, qu’importe le métier. Attention, Eric précise que les données sont bien sécurisées : “Le data lake n’est pas un open bar du tout ! Tout est fait sous le contrôle des data officers et data owners. Le data lake :

    • stocke les données structurées et non-structurées,
    • combine les différentes sources data provenant de métiers variés,
    • permet d’avoir une vision complète d’une situation, un topic ou un environnement data,
    • est très scalable.

    Des plateformes “Real Time Data Processing” 

    Pour opérer les données, Air France a implémenté 8 plateformes de data processing en temps réel afin de répondre aux besoins de chaque “grand” cas d’usage métier.  Par exemple, ils ont une plateforme pour la maintenance prédictive, la connaissance comportement client, ou encore l’optimisation processus en escale.

    Eric nous confirme que lorsqu’un évènement ou aléa survient,  leur plateforme est capable de pousser des recommandations sous la forme de  notifications en “real time” en seulement 10 secondes !

    Des Data Warehouses 

    Comme précisé ci-dessus, Air France avait également déjà mis en place des data warehouses pour stocker les données externes telles que les données clients, partenaires et les données des systèmes opérationnels.  Ces Data Warehouses permettent encore aux utilisateurs de faire des requêtes sur ces jeux de données en toute sécurité, et sont un excellent vecteur de communication pour expliquer la stratégie data entre les différents métiers de l’entreprise.

    air-france-big-data-paris-5

    L’intérêt de la mise en place d’une architecture Cloud Hybride

    Les questions initiales d’Air France par rapport à la bascule vers le Cloud étaient :

    • Air France KLM vise à standardiser au maximum ses services de calcul et de stockage
    • Toutes les données ne sont pas éligibles à la sortie des locaux d’Air France en raison de réglementations ou de données sensibles
    • Tous les outils déjà exploités dans les plateformes UDA sont disponibles à la fois on-premise et dans le cloud public

    Éric soutient qu’une architecture Cloud hybride permettrait à la firme d’avoir plus de souplesse pour répondre aux challenges actuels :

    “Mettre notre UDA sur le Cloud publique donnerait une meilleure flexibilité aux métiers et plus d’options en terme de déploiement data.”. 

    Selon Air France, voici la check liste des bonnes pratiques à vérifier avant de faire un migration vers le Cloud Hybride:

    • vérifier si la donnée a une bonne raison d’être migrée vers le Cloud public
    • vérifier le niveau de sensibilité de la donnée (selon les politiques de data management internes)
    • vérifier la conformité des directives de mise en œuvre du UDA
    • vérifier les designs des flux de données
    • configurer la bonne connexion réseau
    • pour chaque outil d’implémentation, choisir le bon niveau de service management
    • pour chaque composant, évaluer le niveau de verrouillage et les conditions de sortie
    • monitorer et prévoir les éventuels coûts
    • adopter un modèle de sécurité qui permet la sécurité du Cloud Hybride d’être le plus transparent possible
    • étendre la gouvernance des données sur le Cloud

    Air France aujourd’hui, où en sont-ils ? 

    Il est évident que la crise du COVID-19 a complètement changé le secteur de l’aviation. Chaque jour, Air France doit prendre le temps de comprendre les nouveaux comportements des passagers et adapter les programmes de vol en temps réel, en accord avec les restrictions de voyage mis en place par les différents gouvernements. D’ici la fin de l’été  2020, Air France aura desservi près de 170 destinations, soit 85% de leur réseau habituel. 

    L’architecture data d’Air France a donc été un catalyseur clé pour la reprise de leurs compagnies aériennes :

    “un grand bravo à nos utilisateurs métiers (data scientists) qui chaque jour essaient d’optimiser en temps réel les services afin de pouvoir comprendre comment les voyageurs se comportent en pleine crise sanitaire. Même si nous travaillons sur l’intelligence artificielle, l’humain est quand même une ressource essentielle dans le succès d’une stratégie data.” 

    Quelle est la différence entre un Data Steward et un Data Owner ?

    Quelle est la différence entre un Data Steward et un Data Owner ?

    data-steward-vs-data-owner

    Quelle est la différence entre des Data Stewards et des Data Owners ? Cette question revient inlassablement !

    Vous pourrez sur la toile internet lire différentes définitions associées à la gestion des données et à leur gouvernance. De plus, selon les entreprises, leurs définitions et leurs responsabilités peuvent très largement varier. 

    Pour tenter de clarifier la situation, nous proposons à travers cet article de faire un résumé de ces deux profils que nous avons pu rencontrer chez nos clients et d’établir une potentielle complémentarité.

    Avant tout, nous croyons fermement qu’il n’existe pas de cadre idyllique ou standard et que ces définitions sont propres à chaque entreprise du fait de leur organisation et de leur “legacy”.

    Data owner et data stewards : deux rôles aux maturités différentes

    La nomination récente des CDOs a largement été guidée par les transformations digitales entreprises de ces dernières années : maîtriser le cycle de vie de la donnée de sa collecte à son création de valeur. Pour tenter d’y parvenir, un objectif simple – mais pourtant complexe – s’est dessiné : connaître en premier lieu le patrimoine informationnel de l’entreprise bien trop souvent siloté. 

    Ainsi, la première étape de nombreux CDOs a été d’aller référencer ces actifs, de les documenter tant sur l’angle business, les traitements qui les ont transformés que les moyens techniques pour les exploiter.

    Ce principe fondateur d’une gouvernance des données a également été évoqué par Christina Poirson, CDO du groupe Société Général lors d’une table ronde qui s’est déroulée au Big Data Paris 2020. Elle explique l’importance de connaître son environnement data ainsi que les risques associés pour in fine créer de la valeur.

    Lors de son intervention, Christina Poirson a développé les rôles des Data Owners au sein de ce challenge du partage de la connaissance data. Intégrés au métier, ils ont la responsabilité de définir leurs jeux de données, leurs usages ainsi que la qualité associée, sans pour autant mettre en cause le Data Owner :

    “la donnée chez nous appartient soit au client, ou à toute l’entreprise, mais pas à une BU ou un département particulier. On réussit à créer de la valeur à partir du moment où les données sont partagées”.  

    Vous en conviendrez, les data owners sont des rôles présents depuis plus longtemps dans les organisations que les data stewards. Ce sont des parties prenantes de la collecte, l’accessibilité et la qualité de jeux de données. 

    Nous qualifions le Data Owner comme le responsable de la donnée finale. Nous pouvons prendre l’exemple simple d’un directeur marketing, qui pourra entreprendre ce rôle dans la gestion des données clients. Il aura ainsi la responsabilité et le devoir d’en maîtriser sa collecte, sa protection et ses usages.

     La démocratisation des data stewards s’est faite plus récemment, jusqu’à créer des postes dédiés dans les organisations. À l’inverse d’un data owner, propriétaire et responsable de données, celui-ci intervient plus largement dans un challenge, qui re-gagne en popularité depuis quelques temps, la gouvernance des données.

    Dans nos articles, “Qui sont les data stewards ?” ou encore “Les multiples facettes du stewards”, nous parlons plus en détails de ce profil impliqué dans le référencement, la documentation des actifs d’entreprise (nous parlons bien évidemment des données) pour en simplifier leur compréhension et leurs usages. 

    Data Steward et Data Owner : deux rôles complémentaires ?

    Dans les faits, les entreprises n’ont pas toujours les moyens d’ouvrir de nouveaux postes aux data stewards. Dans une organisation idéalisée, la complémentarité de ces profils pourrait tendre vers :  

    Un data owner est responsable des données de son périmètre dans sa collecte, sa protection, et sa qualité. La suite serait alors prise par le data steward en charge de rédiger et agréger les informations, les définitions et tout autre besoin de l’entreprise pour simplifier la découverte et la compréhension de ces actifs.

    Prenons l’exemple de la qualité d’un jeu de données. Si un problème de qualité des données subvient, il faudrait vous attendre à ce que le data steward souligne les problèmes rencontrés par ses consommateurs au Data Owner chargé alors d’enquêter et proposer les mesures correctives.

    Pour illustrer cette complémentarité, Chafika Chettaoui, CDO chez Suez – également présente lors de la table ronde du Big Data Paris 2020 – confirme qu’ils ont ajouté un autre rôle dans leur organisation, celui du Data Steward. Chez eux, le Data Steward est la personne qui s’assure que le flux de données fonctionne. Elle explique :

    “Le Data Steward est la personne qui va animer ce qu’on appelle les Data Producers (les personnes qui collectent les données dans les systèmes), s’assurer qu’ils soient bien formés et qu’ils comprennent la qualité et le contexte des données pour créer leurs dashboards de reporting et d’analyses. Pour résumer, c’est un profil métier, mais avec une vraie valence data et une compréhension de la donnée et de sa valeur”. 

    Pour conclure, il existe en anglais, deux notions difficiles à traduire dans la langue française qui pourtant font une différence certaine entre ses deux rôles: le data owner est “accountable for data” tandis que le data stewards est “responsible for” l’activité de la donnée au jour le jour.

    Comment déployer une gouvernance des données performante et adoptée par tous

    Comment déployer une gouvernance des données performante et adoptée par tous

    big-data-paris-table-ronde-CDO-1

    Il est évident que la COVID-19 a bousculé l’économie et le monde du travail à travers le monde entier. En mars 2020, la France a été mise en confinement total, et de nombreuses entreprises ont dû s’adapter à de nouvelles manières de travailler, que ce soit à travers la mise en place du télétravail, des changements de rythmes de production, ou encore l’arrêt total du fonctionnement de l’organisation. Cette crise sanitaire a donc chamboulé les entreprises : comment faire face aux risques financiers, technologiques, et de conformité suite à la pandémie ?

    Au Big Data Paris 2020, nous avons eu le plaisir d’assister à la table ronde “Comment déployer une gouvernance des données performante et adoptée par tous” animée par Christina Poirson, Groupe CDO de la Société Générale, Chafika Chettaoui, CDO du Groupe Suez et Elias Baltassis, Partner & Director, Data & Analytics du Boston Consulting Group. Dans cette table ronde d’environ 35 minutes, les trois experts data nous expliquent l’importance et les “best practices” de la mise en place d’une gouvernance des données. 

    Les premières étapes pour implémenter une gouvernance des données

    L’impact du COVID-19 n’a pas été sans souligner le défi essentiel de la connaissance, de la collecte, de la conservation et de la transmission de données de qualité. Donc, est-ce que le confinement a poussé les entreprises à vouloir mettre en place une stratégie de gouvernance des données ? Cette première question répondue par Elias Baltassis a confirmé la forte augmentation de demande de mise en place de gouvernance des données en France :

    “le confinement a certainement accéléré la demande de mise en place de data governance ! La gouvernance des données était déjà un sujet pour la majorité de ces entreprises bien avant le confinement, mais la crise sanitaire a bien sûr poussé les entreprises à renforcer la sécurité et fiabilité de leur patrimoine de données.”

    Mais donc, quel est l’objectif d’une gouvernance des données ? Et par où commencer ? Elias nous explique qu’il faut tout d’abord faire un diagnostique des actifs de données dans l’entreprise, et identifier les points de friction : “Identifiez les endroits dans l’entreprise où il y a une déperdition de valeur à cause de la mauvaise qualité des données. Ceci est important car la gouvernance des données peut facilement dériver vers un exercice bureaucratique, et c’est pour ça qu’il faut toujours garder comme “guide” la valeur créée pour l’organisation, qui se traduit par une meilleure accessibilité, meilleure qualité, etc”. 

    Une fois que le diagnostique a été posé et que les sources de valeur sont identifiées, Elias nous explique qu’il y a quatre étapes de méthodologie à suivre :

    1. Connaître les données d’entreprise, leur structure, et à qui elles appartiennent  (via un glossaire de données par exemple),
    2. Mettre en place une politique de données ciblée sur les points de friction,
    3. Choisir le bon outil pour déployer ces politiques à travers l’entreprise
    4. Mettre en place une culture des données au sein de l’organisation en commençant par embaucher des personnes data-driven, telles que des Chief Data Officers. 

    La méthodologie ci-dessus est donc primordiale avant de démarrer tout projet de gouvernance des données qui, selon Elias, peut se mettre en place assez rapidement : “la gouvernance des données peut être implémentée rapidement, par contre l’augmentation de la qualité des données va prendre plus ou moins de temps, ça dépend de la complexité de l’entreprise ; une entreprise qui travaille avec un seul pays prendra moins de temps qu’une entreprise travaillant avec toute l’Europe par exemple”. 

    big-data-paris-table-ronde-CDO-3

    Le rôle du Chief Data Officer dans la mise en place d’une gouvernance des données

    Au tour de Christina Poirson, qui explique que pour elle et la Société Générale, la gouvernance des données a joué un rôle très important durant cette période exceptionnelle : “heureusement que nous avions mis en place une gouvernance des données qui a su assurer la qualité et la protection des données durant le confinement à nos clients professionnels et particuliers. Nous avons réalisé l’importance du couple digitalisation et data qui s’est montré vital pour non seulement notre travaille durant la crise, mais également pour les activités de demain”.  

    Mais donc, comment est-ce qu’une entreprise aussi grande, ancienne et ayant des milliers de données comme la Société Générale a-t-elle pu mettre en place une nouvelle stratégie de data governance ? Christina nous explique que la donnée au sein de la Société Générale n’est pas un sujet récent. Effectivement, dès la naissance des premières agences, la firme a demandé des informations sur le client afin de pouvoir le conseiller sur quel type de prêt mettre en place par exemple. 

    Cependant, la CDO de la Société Générale nous affirme qu’il y a aujourd’hui, avec la digitalisation, de nouveaux types, formats et volumes de données. Elle confirme ce qu’Elias Baltassis disait juste avant : “La mise en place d’un data office et de Chief Data Officers était une des premières étapes dans la stratégie data de l’entreprise. Notre rôle est de maximiser la valeur des données tout en respectant la protection des données sensibles, ce qui est très important dans le monde de la banque !”

    Pour faire cela, Christina explique que la Société Générale accompagne cette stratégie tout au long du cycle de la donnée : de sa création jusqu’à sa fin de vie en passant par sa qualification, sa protection, son utilisation, son anonymisation et sa destruction.

    De l’autre côté, Chafika Chettaoui, CDO du groupe Suez explique qu’elle se voit en chef d’orchestre :

    “ce qui manquait à Suez c’était un chef d’orchestre qui doit organiser comment la technique peut répondre à un objectif métier. Aujourd’hui avec le nombre de données qui augmente, le CDO doit être le chef d’orchestre pour les départements IT, métier, et même ceux du RH et de la communication car la transformation data et digitale est surtout une transformation humaine. Il doit être l’organisateur afin d’assurer la qualité et l’accessibilité des données ainsi que leurs analyses.”

    Mais surtout, les deux intervenantes sont d’accord pour dire qu’un CDO ont deux principales missions :

    • La mise en place de différentes normes sur la qualité et protection des données,
    • Doit casser les silos data en créant un langage commun autour de la data , ou la data fluency, dans toute partie de l’entreprise

    L’acculturation des données dans l’entreprise

    Nous n’avons pas besoin de vous rappeler que la mise en place d’une culture des données au sein de l’entreprise est essentielle pour créer de la valeur avec ses data. Christina Poirson explique que l’acculturation data a été assez longue pour la Société Générale : 

    “Pour mettre en place une culture data, nous sommes passés par la cartographie des données à tous les niveaux des structures managériales, du top management au collaborateur. Nous avons également dû mettre en place des sessions de coaching, des formations de coding ou autres sensibilisations dédiées. Nous avons aussi mis à disposition tous les cas d’usage du groupe SG dans un catalogue d’idées qui sert à ce que chaque entreprise du groupe (quel que soit le pays) puisse être inspirée : c’est une bibliothèque de cas d’usage qui est là pour inspirer les gens.” 

    Elle continue à expliquer qu’ils ont d’autres manières d’acculturer les employés à la Société Générale :

    • La mise en place de bibliothèque d’algorithmes pour réutiliser ce qui a déjà été mis en place
    • Mise en place d’outils spécifiques pour évaluer si la donnée est conforme aux réglementations
    • Rendre les données accessibles en passant par un catalogue de données du groupe

    L’acculturation des données n’était donc pas un long fleuve tranquille pour la société générale. Mais, Christina reste positive et nous raconte une petite analogie :

    “la data c’est comme l’eau, des DSI sont les tuyaux, et les métiers font des demandes liées à l’eau. Il doit donc avoir une symbiose entre la DSI, l’IT et les métiers”. 

    Chafika Chettaoui ajoute : “Effectivement, il est impératif de travailler avec et pour le métier. Notre travail est de nommer des gens chez les métiers qui vont être responsable de leurs données.  Il faut redonner la responsabilité à chacun : l’IT pour la construction de la maison, et le métier pour ce qu’on met à l’intérieur. En mettant cet équilibre-là, il y a un vrai aller-retour et non pas juste l’IT qui est responsable de tout”.

    big-data-paris-table-ronde-CDO-2

    Les rôles dans la gouvernance des données

    Bien que les rôles et responsabilités varient d’entreprise à entreprise, lors de cette table ronde, les deux Chief Data Officers nous expliquent comment fonctionne l’attribution des rôles au sein de leur stratégie data. 

    À la Société Générale ils ont des convictions assez forte. Premièrement, ils mettent en place des “Data Owners”, qui font partie du métier, qui sont responsables de :

    • la définition de la donnée
    • les principaux usages
    • le niveau de qualité associé

    Par contre, si un utilisateur data veut utiliser une donnée, il n’a pas à demander la permission du Data Owner, sinon ça crispe tout le système. De ce fait, la Société Générale met des dispositifs qui font qu’ils vérifient le respect des règles et réglementations, sans pour autant mettre en cause le Data Owner : “la donnée chez nous appartient soit au client, ou à toute l’entreprise, mais pas une BU ou département particulier. On réussit à créer de la valeur à partir du moment où les données sont partagées”.  

    Chez Suez, Chafika Chettaoui confirme qu’ils ont la même définition du Data Owner, mais il ajoute un autre rôle, celui du Data Steward. À Suez, le Data Steward c’est celui qui est sur place, qui s’assure que le flux de données fonctionne. Elle explique : “Le Data Steward c’est quelqu’un qui va animer ce qu’on appelle les Data Producers (les personnes qui collectent les données dans les systèmes), s’assurer qu’ils soient bien formés et qu’ils comprennent la qualité des données, et celui qui vont tenir les dashboards de reporting et analyser s’il y a des incohérences. C’est quelqu’un du métier, mais avec une vraie valence data et une compréhension de la donnée ainsi que de sa valeur”. 

    Quelles sont les bonnes pratiques essentielles pour la mise en place d’une gouvernance des données ?

    Ce qu’il ne faut jamais oublier dans l’implémentation d’une gouvernance des données c’est de se rappeler qu’une donnée n’appartient pas à une seule partie de l’organisation mais doit être partagée. Il est donc impératif de normer la donnée. Pour cela, Christina Poirson nous explique l’importance d’un dictionnaire des données : “en ajoutant un dictionnaire des données incluant le nom, la définition, le data owner, et le niveau de qualité de la donnée, vous avez déjà une première brique dans votre gouvernance”. 

    Comme mentionné ci-dessus, la deuxième bonne pratique de la data governance c’est de définir des rôles et responsabilités autour des données. En plus d’un Data Owner ou Data Steward, il est essentiel de définir une série de rôles pour accompagner à chaque étape clé de l’utilisation des données. Certains de ces rôles peuvent être :

    • Data Quality Manager
    • Data Protection Analyst
    • Data Usages Analyst 
    • Data Analyst
    • Data Scientist
    • Data Protection Officer
    • etc

    Pour une dernière recommandation de bonne pratique pour une gouvernance des données réussie, Christina Poirson nous explique l’importance de connaître son environnement data ainsi que de connaître son appétence aux risques, les règles de chaque métier, industrie et service pour réellement faciliter l’accessibilité aux données et le respect des lois. 

     

    …et les erreurs à éviter ?

    Pour finir la table ronde, Chafika Chettaoui nous parle des erreurs à éviter pour réussir sa gouvernance. Selon elle, il ne faut surtout pas commencer par la technologie. Même si évidemment, la technique et l’expertise sont essentielles à une mise en oeuvre d’une gouvernance des données, il est très important de se concentrer tout d’abord sur la culture de l’entreprise. 

    Chafika Chettaoui affirme : “Mettre en place une culture des données avec des formations est essentielle. D’un côté il faut casser le mythe que les données et l’IA sont “magiques”, et d’un autre côté casser le mythe de “l’intuition” de certains experts, en expliquant l’importance des données dans l’entreprise. L’aspect culturel est clé, et à tout niveau de l’organisation. ” 

    BARC déclare que Zeenea est The Adaptive Data Catalog

    BARC déclare que Zeenea est The Adaptive Data Catalog

    barc states data catalog zeenea

    La semaine dernière, nous avons eu le plaisir de lire sur le site de BARC son dernier rapport sur le thème du Data Management :“Zeenea is the Adaptive Data Catalog”.

    Pour comprendre la portée de ce rapport, expliquons d’abord qui est BARC.

    Qu’est-ce que le cabinet de conseil BARC ?

    Le Business Application Research Center (BARC) est une société de conseil pour les logiciels d’entreprise, avec un accent sur Business Intelligence/Analytics, Data Management, Enterprise Content Management (ECM), Customer Relationship Management (CRM) et Enterprise Resource Planning (ERP).

    Les analystes du BARC aident les entreprises à évaluer leur stratégie, leur organisation, leur architecture et leurs logiciels depuis plus de 20 ans.

    Un programme continu et bien établi d’études de marché et de comparaison de produits constitue la base des connaissances approfondies du BARC sur tous les principaux fournisseurs de logiciels et produits, les meilleures pratiques et les dernières tendances et évolutions du marché.

    Les rapports du BARC offrent un aperçu ciblé des solutions logicielles de pointe, des développements novateurs et des exigences actuelles, ainsi que des évolutions du marché dans les différents domaines des applications d’entreprise.

    En bref, ils veulent transformer les entreprises – plus spécifiquement basées dans les pays DACH (l’Allemagne, la Suisse, et l’Autriche) – en data leaders !

    Que dit BARC à propos de Zeenea Data Catalog ?

    La recherche a été rédigée par Timm Grosser, analyste principal du Data Management chez BARCIl considère Zeenea comme un jeune fournisseur de data catalog en pleine croissance sur le marché. 

    Timm Grosser BARC

    Timm a déclaré :

    « Zeenea est un produit relativement jeune et a déjà fait ses preuves, étant donné qu’il n’a que trois ans d’expérience sur le marché et 50 clients. L’entreprise se concentre sur le cœur de métier du Data Catalog, se démarquant ainsi de la concurrence, qui devient de plus en plus large de mon point de vue. L’outil est clairement agencé pour moi. 

    […]

    La feuille de route comporte de nombreuses fonctions innovantes basées sur le ML, telles qu’une meilleure détection des similitudes, la reconnaissance des formes et l’identification des valeurs d’attributs pertinentes.

    Je pense que l’idée et les approches ont réussi à faire évoluer le Data Catalog de manière incrémentale avec l’entreprise. Je suis d’avis que nous n’avons pas besoin d’un autre catalogue additionnel. 

    Au contraire, il est important d’emmener l’entreprise et les utilisateurs vers une entreprise centrée sur les données. Et ce voyage doit être réalisable. Il faut tenir compte de l’organisation, des capacités au sein de l’entreprise et d’une structure flexible et simple pour le contenu du catalogue. L’idée est là et les premières précautions technologiques ont été prises. Je suis curieux de voir ce que Zeenea en fera ».

    Lire les recherches de Zeenea x BARC

    1. Découvrez la note de recherches du BARC sur Zeenea via ce lien 👉 The Adaptive Data Catalog
    2. Ou si vous préférez savoir comment choisir un data catalog en tant que Data Leader, veuillez lire cette autre recherche du BARC 👉 The Data Catalog – The “Yellow Pages” for Business-Relevant Data

    Retail 4.0 : Comment Monoprix a migré sur le cloud

    Retail 4.0 : Comment Monoprix a migré sur le cloud

    monoprix

    Leader omni-canal du centre-ville avec une présence dans plus de 250 villes en France, Monoprix offre chaque jour des produits et services innovants et variés avec un seul objectif en tête : “rendre le beau et le bon accessible à tous”. 

    En effet, Monoprix en 2020 c’est :

    • Près de 590 magasins en France,
    • 22 000 collaborateurs,
    • Environ 100 magasins à l’international,
    • 800 000 clients par jour,
    • 466 producteurs partenaires locaux.

    Avec près d’un million de clients en physique et plus de 1,5 million de visiteurs sur leur site web chaque jour, il est clair que Monoprix fait face à de milliers de données à gérer ! Que celles-ci proviennent des cartes de fidélité, tickets clients ou de commandes de livraisons en ligne, la firme doit donc gérer un nombre colossal de data de formats variés. 

    Au Big Data Paris 2020, Damien Pichot, Directeur des Opérations et des Flux Marchandises chez Monoprix, nous a partagé le parcours de la firme dans leur mise en place d’une culture data-driven grâce au Cloud.  

    big-data-paris-monoprix-1

    Le Big Data au sein de Monoprix

    En réponse du nombre de données qui arrivaient chaque jour dans les systèmes data de Monoprix, l’entreprise avait mis en place différentes technologies : un data warehouse on-premise pour les données structurées et un data lake dans le Cloud, qui servait à gérer les données semi-structurées de leurs sites web. De plus, beaucoup de données proviennent également de partenaires ou prestataires dans le cadre d’échanges et d’acquisitions d’informations.

    Malgré que l’architecture ait bien fonctionné et tenu son rôle pendant de nombreuses années, elle commençait à montrer ses limites et ses faiblesses : 

    “Pour vous donner une illustration, chaque lundi par nos métiers, nous analysons le chiffre d’affaire et tout ce qui s’est passé la semaine précédente. Au fur et à mesure du temps, nous nous sommes aperçus que chaque semaine le nombre d’utilisateurs qui se connectait sur nos systèmes d’informations augmentait et on arrivait à saturation. En réponse, certains de nos collaborateurs se levaient à 5h du matin pour lancer leur requête pour ensuite se recoucher, et récupérer celle-ci en fin de matinée voire début d’après-midi !” explique Damien Pichot. 

    Une autre point négatif de la structure IT de la firme, concernait les utilisateurs métier et plus précisément ceux du marketing. Ils commençaient à développer des environnement analytiques en dehors du contrôle de la DSI, créant donc ce qu’on appelle le “shadow IT”.  Les équipes data de Monoprix  étaient bien évidemment insatisfaites car elles n’avaient aucune supervision sur les projets métiers. 

    “La DSI représentée au sein de Monoprix  n’était donc pas au service des métiers et ne répondait pas à ses attentes.” 

    Après avoir consulté son comité IT, ils ont  ensemble décidé de faire une rupture avec leur grande structure on-premise. La nouvelle solution devait donc répondre à quatre questions :

    1. Est-ce que la solution redonne la main aux métiers pour qu’ils soient autonomes
    2. Le service est-il performant / résilient ?
    3. La solution permettra-t-elle de baisser les coûts de fonctionnement ?
    4. Aura-t-on accès à une plateforme unique qui permettra de mutualiser toutes les données issues du data warehouse et du data lake afin de répondre aux enjeux business, décisionnels, machine learning et data science ? 

    Après réflexion, Monoprix a  finalement pris la décision de tout migrer vers le Cloud ! “Même si nous avions opté pour une autre grosse solution on-prem, nous aurions été confrontés aux mêmes problèmes à un moment où un autre. On aurait peut être gagné deux ans mais ce n’est pas viable sur le long terme.” 

    Le parcours de Monoprix dans le Cloud

    Monoprix a donc démarré cette nouvelle aventure dans le Cloud avec Snowflake ! Seulement quelques mois après son implémentation, Monoprix s’est très vite rendu compte  des améliorations de performance comparées à leur ancienne architecture. Snowflake a également su répondre à leurs besoins en matière de partage des données, chose qu’ils avaient du mal à faire auparavant, en robustesse et en disponibilité de la donnée.

    Les premières étapes

    Lors de sa conférence, Damien Pichot a expliqué que cela n’était pas facile de convaincre les équipes de Monoprix qu’une migration dans le Cloud était sécurisé. Ils ont pu être rassurés avec la mise en place de Snowflake, qui implémente un niveau de sécurité aussi important que celui de l’industrie pharmaceutique et bancaire aux États Unis. 

    Pour se donner tous les moyens possibles pour réussir ce projet, Monoprix a décidé de créer une équipe dédiée, constituée de nombreuses personnes  telles que des responsables projet, des intégrateurs, des responsables d’applications spécifiques, etc. C’est en Mars 2019 que le lancement du projet commence officiellement. Damien Pichot avait organisé un kickoff en invitant tous les métiers de l’entreprise : “Je ne voulais pas que ce soit un projet informatique mais un projet d’entreprise, je suis convaincue que ce projet devait être porté par les métiers et fait pour les métiers”. 

    Damien nous confie que la veille du lancement du projet, il avait du mal à dormir ! En effet, Monoprix est la première entreprise française à se lancer dans la migration totale d’un data warehouse on-premise vers le Cloud ! 

    big-data-paris-monoprix-2

    Les complications du projet 

    La migration s’est faite de façon itérative, du fait d’un fort legacy technique, pour tout réintégrer dans une technologie aussi moderne que Snowflake. En effet, Monoprix avait eu des gros soucis avec les connecteurs : “Nous pensions à l’époque que le plus dur du projet serait d’automatiser les traitements. Or, le plus compliqué a été de re-platformer nos ETL sur un nouvel environnement. On est donc passé d’un projet de 12 mois à 15 mois.”

    La nouvelle architecture 

    Monoprix traite donc deux formats de données : les données structurées et les semi-structurées. Les données structurées qui concernaient leur datawarehouse classique, donc les données provenant du Supply Chain, Marketing, transactions clients, etc. Et les semi-structurées qui provenaient d’évènements liés aux sites web. Tout ça maintenant est convergé via les ETL dans une plateforme unique qui tourne sur Azure avec Snowflake. “Grâce à cette nouvelle architecture dans le Cloud nous pouvons attaquer les données comme nous le souhaitons via différentes applications” dit Damien.

    big-data-paris-monoprix-3

    Conclusion : Monoprix est mieux dans le Cloud

    Cela fait depuis le mois de mai 2020 que Monoprix gère ses données dans le Cloud, et c’est “que du plus”. Côté métier, il y a moins de latence, les requêtes qui prenaient des heures durent maintenant des minutes, (et les employés dorment enfin le matin !). Les analyses du métier sont également beaucoup plus profondes avec la possibilité de faire des analyses sur cinq ans, ce qui n’était pas possible avec l’ancienne structure IT. Mais le point le plus important est la facilitation de partager des données plus facilement (data sharing en anglais) avec les partenaires et prestataires de la firme, en autres.

    Damien nous explique fièrement.  “Avec l’ancienne structure, nos équipes marketing mettaient 15 jours à préparer les données et devaient envoyer des milliers de fichiers à nos prestataires, aujourd’hui ils se connectent en une minute et ils vont chercher les données seuls, sans que nous devons intervenir. Rien que ça, c’est un ROI direct. 

    Nouveau livre blanc : « Le Data Discovery vu par les Géants du Web »

    Nouveau livre blanc : « Le Data Discovery vu par les Géants du Web »

    Découvrez les solutions de data discovery développées par différents géants du web qui ont permis à leurs équipes data de comprendre et de faire confiance à leurs actifs d’entreprise. 

    Nous avons publié aujourd’hui un nouveau livre blanc hors série « Le Data Discovery vu par les Géants du Web » qui se concentre sur les différentes plateformes de data discovery développées par de grandes entreprises dans le monde de la tech telles que Airbnb, Uber, Spotify, pour n’en citer que quelques-unes. 

    Des milliers de données créées chaque jour, et les entreprises se retrouvent avec des informations qu’elles n’arrivent ni à comprendre ni à gérer correctement. Généralement désordonnées, dispersées et non organisées, les équipes de data analytics passent la plupart de leur temps à tenter d’y voir plus clair dans ce chaos d’informations plutôt que de produire de la valeur à partir de celles-ci ! En effet, de nombreuses enquêtes récentes indiquent encore que les équipes de data science passent 80% de leur temps à préparer et nettoyer leurs données au lieu de les analyser.

    Les données nombreuses et diverses ajoutées quotidiennement rendent extrêmement difficile, voire impossible, la gestion manuelle de l’ingestion de données ! Ces grandes entreprises ont donc rapidement compris qu’il était essentiel de mettre en place un référentiel de métadonnées qui automatise la découverte des données pour que leurs équipes data et analytics puissent rapidement trouver et comprendre leurs données d’entreprise.

    Zeenea a basé sa recherche sur la documentation officielle fournie par ces Géants du Web, qui ont été partagée sur leurs réseaux sociaux et de blogs corporate. Ce livre blanc détaille la manière dont ces entreprises en sont venues à développer leurs solutions, les caractéristiques de leurs plateformes et les prochaines étapes pour chaque organisation.

    Les expériences de ces géants du web ont largement inspiré Zeenea quant aux valeurs proposées par son data catalog pour faciliter la découverte d’information par les équipes data, de la manière la plus simple et la plus intelligente possible. 

    Découvrez les différentes plateformes de data discovery en téléchargeant notre dernier livre blanc ! 

    Product Spotlight : vos équipes data vont adorer l’Explorer, la nouvelle application de data discovery de Zeenea

    Product Spotlight : vos équipes data vont adorer l’Explorer, la nouvelle application de data discovery de Zeenea

    Alors que l’application Studio de Zeenea facilite le quotidien des Data Stewards dans l’administration et la maîtrise des données (import, complétion, maintenance, etc.), la nouvelle application Explorer de Zeenea s’adresse directement aux équipes data, les consommateurs finaux des données en entreprise.

    L’objectif de cette nouvelle application ? Faciliter la vie des équipes data en leur permettant de rechercher et de découvrir rapidement et simplement les informations internes présentes sur les données de leur entreprise (voir nos connecteurs) ou issues de l’open data. 

    Au travers de cette nouvelle application Explorer, Zeenea cherche à adresser toujours plus finement les utilisateurs finaux de la données en entreprise dans chacun de leurs usages et besoins au quotidien. 

    Pour ce lancement, Zeenea s’est particulièrement intéressé aux Data Scientists pour mieux adresser leurs besoins de découverte et d’appréhension (à la fois métier, statistique et technique) des données en entreprise. 

    Les atouts de l’Explorer ? 

    • Un design adapté aux besoins de recherche et de consultation, 
    • Le data profiling, les principales informations statistiques présentes sous forme de graphiques et très utiles pour une lecture analytique synthétique,
    • Des pages de détail qui facilitent la lecture et le partage de connaissances.

    Dans cette première release, découvrez les premières fonctionnalités disponibles pour vos consommateurs de données : 

    1. Un design adapté aux besoins de recherche et de consultation

    Une recherche rapide adaptée aux besoins utilisateurs 

    Accessible dès la homepage et présente à tout au long de la navigation, les utilisateurs peuvent à tout moment utiliser la recherche pour exprimer leurs besoins.

    Ils retrouvent alors directement leurs recherches précédentes ainsi que des suggestions de résultats portant sur les objets du catalogue les plus pertinents.

    Des filtres faciles d’accès

    Pour convenir aux besoins des Data Scientists dans leurs premières étapes de discovery, les filtres principaux à disposition leur permettent de cibler rapidement le type d’objets souhaités, leur qualité et leurs sources avant de leur proposer l’ensemble des possibilités de filtrage disponibles. 

    Sur la page de résultats, 4 filtres principaux sont directement accessibles pour sélectionner : 

    • Un ou plusieurs type(s) d’objet(s) présents au sein du catalogue (jeux de données, champs, visualisations, traitements)
    • Un ou plusieurs connecteurs (selon les données importées)
    • La qualité des objets (certains objets sont déclarés comme étant de bonne qualité et peuvent donc être utilisés sereinement alors que d’autres demandent plus de vigilance)
    • La récence des objets (l’utilisateur peut choisir la période observée qui se réfère à la date de mise à jour de l’objet)
    • Les autres propriétés paramétrées via le Studio et nécessaires au filtrage sont alors regroupées dans un dernier filtre présenté sous la forme d’un panneau dépliant. 
      • Dans les filtres, les utilisateurs peuvent saisir les valeurs recherchées pour toujours plus de facilité. 

    Une hiérarchie d’information travaillée pour satisfaire les besoins d’information à chaque étape des investigations, 

    Directement depuis la page de résultats, les Data Scientists accèdent à une vue avancée des objets du catalogue. Propres à leurs besoins, ils ont alors un regard sur les métadonnées sources et techniques qu’ils ont l’habitude de (re)connaître ainsi que les spécificités métier données documentées par les équipes de Data Steward. 

    Cet aperçu résume les informations essentielles sur les objets telles que les noms logiques, noms techniques, les contacts, les métadonnées sources et toutes les informations nécessaires sur les objets. Cela éviter à l’utilisateur de devoir parcourir chacune des pages de détail afin de trouver l’information recherchée. 

    Dès cet aperçu, les utilisateurs peuvent réaliser des actions telles que rechercher un champ sur un dataset ou encore un dataset à l’origine d’une visualization. 

    Pour résumer, l’étape de discovery des données est optimisée pour permettre aux Data Scientists (et plus largement aux équipes data) de gagner en productivité dès la recherche. 

    2. Le Data profiling : une synthèse statistique des données présentes dans les colonnes des datasets

    Autorisé ou non par le Data Steward depuis le Studio, cette fonctionnalité offre aux équipes data, depuis Zeenea Explorer, un aperçu des données présentes dans un jeu de données. 

    Pour chacune des colonnes, une vue des statistique est disponible. 

    Les valeurs principales issues d’un échantillon du dataset et remontées via les connecteurs (BigQuery, Pgsql, etc.) sont affichées et représentées sous forme visuelle au travers graphiques. 

    Proportion de données manquantes, valeurs distinctes, médianes, distributions des données, valeurs principales, etc. sont représentées dans des graphiques et permettent à l’utilisateur d’appréhender rapidement le contenu des fields (colonnes) de type chaînes de caractères et valeurs numériques. 

    3. Des pages de détail qui facilitent la lecture et l’échange de savoir 

    Les pages de détails des objets présentent l’intégralité de l’information de chacun des objets du catalogue (jeux de données, champs, visualizations, traitements).

    En haut de la page, les éléments principaux constitutifs de l’objet sont concentrés en synthèse de l’élément. Le détail est ensuite présenté au sein d’onglets dédiés. 

    L’onglet “questions & réponses” permet aux utilisateurs de s’exprimer sur l’objet et de faire appel à la communauté pour obtenir des informations supplémentaires et spécifiques à son besoin. Ceci permet de développer la collaboration au sein de l’outil mais surtout d’inscrire le savoir lié aux objets dans le temps afin de toujours mieux partager la connaissance sur les données en entreprises. 

    Prochainement sur Zeenea Explorer : 

    L’objectif des prochains sprints sera d’agrémenter la recherche directe avec des étapes d’explorations plus poussées.

    Nos efforts porteront sur la création de “chemins d’exploration” qui permettront aux équipes data de découvrir et d’être guidés dans la découverte des éléments du catalogue. Paramétrables depuis le Studio, le back office du Data Catalog, ces chemins s’adapteront aux utilisateurs de Zeenea Explorer et leur apporteront une lecture plus pertinente des actifs mis à leur disposition dans Zeenea. 

    L’objectif ? permettre une navigation encore plus fluide et plus profonde grâce à des liaisons directes entre les niveaux d’informations. 

    La recherche qui vous ressemble

    Offrez à vos équipes data une expérience unique.

    Le « smart » data catalog, essentiel pour les data leaders

    Le « smart » data catalog, essentiel pour les data leaders

    smart data catalogs

    Le terme « smart data catalog » est devenu tendance ces derniers mois. Cependant, lorsqu’on parle de quelque chose de « smart », la plupart des gens pensent automatiquement, et à juste titre, à un catalogue de données ne comportant que des capacités de machine learning.

    Chez Zeenea, nous ne pensons pas qu’un smart data catalog se résume à des fonctionnalités de ML !

    En fait, il existe différentes façons d’être « smart ». 

    Cet article se concentre sur la conférence que Guillaume Bodet, co-fondateur et PDG de Zeenea, a donnée lors du Data Innovation Summit 2020 : « Smart data catalogs, a must-have for data leaders ».

    Une définition rapide de data catalog

    Nous définissons un catalogue de données comme étant :

    Un inventaire détaillé de tous les actifs de données d’une organisation et de leurs métadonnées, conçu pour aider les professionnels de la donnée à trouver rapidement les informations les plus appropriées pour tout objectif business et analytique.

    Un data catalog est destiné à servir différentes personnes ou différents utilisateurs finaux. Tous ces utilisateurs finaux ont des attentes, des besoins, des profils et des façons de comprendre les données qui diffèrent. Ces utilisateurs finaux sont des data analysts, des data stewards, des data scientists, des business analysts, et bien d’autres encore. Comme de plus en plus de personnes utilisent et travaillent avec les données, un catalogue de données doit être « smart » pour tous les utilisateurs finaux.

    Cliquez ici pour un article plus approfondi sur ce qu’est-ce qu’un data catalog.

    Qu’entend-on par « actif de données » ?

    Un actif, financièrement parlant, apparaît généralement dans le bilan avec une estimation de sa valeur. Lorsqu’on parle de d’actif de données ou « data assets », il est tout aussi important, voire plus important dans certains cas, que les autres actifs de l’entreprise. Le problème est que la valeur des actifs de données n’est pas toujours connue. 

    Cependant, il existe de nombreuses façons d’exploiter la valeur de vos données. Les entreprises ont la possibilité d’utiliser directement la valeur de leurs données, par exemple en les vendant ou en les échangeant. De nombreuses organisations le font ; elles nettoient les données, les structurent, puis les vendent.

    Les entreprises peuvent également valoriser indirectement leurs données. Les actifs de données permettent aux organisations :

     

    • D’innover pour de nouveaux produits/services
    • Améliorer la performance globale
    • Améliorer le positionnement des produits
    • Mieux comprendre les marchés/clients
    • Accroître l’efficacité opérationnelle

    Les entreprises performantes sont celles qui maîtrisent leur paysage de données et exploitent leurs données dans tous les aspects de leur activité

    Les choses difficiles à propos des data catalogs…

    Lorsque votre entreprise traite des milliers de données, cela signifie généralement que vous avez affaire à des :

    • Des centaines de systèmes qui stockent des données internes (entrepôts de données, applications, lacs de données, banques de données, API, etc.) ainsi que des données externes provenant de partenaires.
    • Des milliers de jeux de données, de modèles et de visualisations (actifs de données) qui sont composés de milliers de champs.
    • Et ces champs contiennent des millions d’attributs (ou métadonnées) !

    Sans parler des centaines d’utilisateurs qui les utilisent…

    Cela soulève deux questions différentes.  

    Comment puis-je construire, maintenir et renforcer la qualité de mes informations pour que mes utilisateurs finaux aient confiance en mon catalogue ?

    Comment puis-je trouver rapidement les données pour des cas d’utilisation spécifiques ?

    La réponse se trouve dans les data catalogs intelligents !

    Chez Zeenea, nous pensons qu’il y a cinq domaines essentiels « d’intelligence » pour un data catalog. Il doit être intelligent dans son :

     

    • Design : la façon dont les utilisateurs explorent le catalogue et consomment l’information,
    • Expérience utilisateur : comment il s’adapte à différents profils,
    • Inventaire : fournit un moyen intelligent et automatique d’inventorier,
    • Moteur de recherche : répond aux différentes attentes et donne des suggestions intelligentes,
    • Gestion des métadonnées : un catalogue qui marque et relie les données entre elles grâce à des fonctionnalités ML.

    Voyons en détail chacun de ces domaines.

    Un design intelligent

    Un Knowledge Graph

    Un data catalog avec une conception intelligente utilise des knowledge graphs plutôt que des ontologies statiques (une façon de classer l’information, la plupart du temps construite comme une hiérarchie).  Le problème avec les ontologies est qu’elles sont très difficiles à construire et à maintenir, et généralement seuls certains types de profils comprennent vraiment les différentes classifications.

     Un knowledge graph en revanche, est ce qui représente les différents concepts d’un data catalog et ce qui relie les objets entre eux par des liens sémantiques ou statiques. L’idée d’un knowledge graph est de construire un réseau d’objets et, plus important encore, de créer des relations sémantiques ou fonctionnelles entre les différents actifs de votre catalogue.

    Fondamentalement, un data catalog intelligent fournit aux utilisateurs un moyen de trouver et de comprendre les objets liés entre eux.

    Métamodèles adaptatifs

    Dans un data catalog, les utilisateurs trouveront des centaines de propriétés différentes, qui ne sont pas forcément toujours pertinentes pour eux. Généralement, deux types d’informations sont gérés :

    1. Entités : objets simples, entrées de glossaire, définitions, modèles, descriptions, etc.
    2. Propriétés : les attributs que vous mettez sur ces entités (toute information supplémentaire telle que la date de création, la date de dernière mise à jour, etc.)

    La conception du métamodèle doit être au service du consommateur de données. Il doit être adaptée aux nouvelles analyses de rentabilité et doit être suffisamment simple à gérer pour que les utilisateurs puissent le maintenir et le comprendre. Il doit également pouvoir fournir une manière simple pour créer de nouveaux types d’objets et ensembles d’attributs !

    Attributs sémantiques

    La plupart du temps, dans un data catalog, les attributs du métamodèle sont des propriétés techniques. Certains des attributs d’un objet comprennent des types génériques tels que texte, nombre, date, liste de valeurs, etc. Comme ces informations sont nécessaires, elles ne sont pas complètement suffisantes car elles n’ont pas d’informations sur la sémantique, ou la signification. La raison pour laquelle cela est important est qu’avec ces informations, le catalogue peut adapter la visualisation de l’attribut et améliorer les suggestions aux utilisateurs.

    En conclusion, il n’existe pas de design unique d’un data catalog, et celui-ci doit évoluer dans le temps pour prendre en charge de nouvelles évolutions data et de nouveaux cas d’utilisation.

    knowledge-graph

    Une expérience utilisateur intelligente

    Comme mentionné ci-dessus, un data catalog contient beaucoup d’informations et les utilisateurs finaux ont souvent du mal à trouver celles qui les intéressent. Les attentes diffèrent selon les profils ! Un data scientist s’attend à des informations statistiques, tandis qu’un responsable de la conformité s’attend à des informations sur diverses politiques réglementaires.

    Avec une expérience utilisateur intelligente et adaptative, un data catalog présentera les informations les plus pertinentes à des utilisateurs finaux spécifiques. La hiérarchie des informations et les résultats de recherche ajustés dans un data catalog intelligent sont basés sur :

     

    • Préférences statiques : des informations déjà connues dans le data catalog au paramétrage. Il sait si le profil est davantage axé sur la science des données, l’IT, etc.
    • Le profilage dynamique : technique pour connaître ce que l’utilisateur final recherche habituellement, ses intérêts et la façon dont il a utilisé le catalogue dans le passé.

    Un système d’inventaire intelligent

    L’adoption d’un catalogue de données repose sur la confiance – et la confiance ne peut venir que si son contenu est juste. Comme le paysage des données évolue rapidement, il doit être connecté à des systèmes opérationnels pour maintenir le premier niveau d’information sur les métadonnées de votre patrimoine de données.

    Le catalogue doit synchroniser son contenu avec le contenu actuel des systèmes opérationnels.

    L’architecture typique d’un data catalog est de disposer de scanners qui scannent vos systèmes opérationnels et qui apportent et synchronisent les informations provenant de diverses sources (Big Data, noSQL, Cloud, Data Warehouse, etc.). L’idée est de disposer d’une connectivité universelle afin que les entreprises puissent scanner automatiquement tout type de système et les placer dans le knowledge graph.

    Dans Zeenea, il y a une couche d’automatisation pour ramener les informations des systèmes au catalogue. Elle peut :

    • Mettre à jour les actifs pour refléter les changements physiques
    • Détecter les biens supprimés ou déplacés
    • Résoudre les liens entre les objets
    • Appliquer des règles pour sélectionner l’ensemble approprié d’attributs et définir les valeurs des attributs
    smart-inventorying-zeenea

    Un moteur de recherche intelligent

    Dans un data catalog, le moteur de recherche est l’une des caractéristiques les plus importantes. On distingue deux types de recherche :

    • La recherche à haute intention : l’utilisateur final sait déjà ce qu’il cherche et dispose d’informations précises sur sa requête. Soit il a déjà le nom de l’ensemble de données, soit il sait déjà où il se trouve. Les recherches à faible intention sont couramment utilisées par les personnes ayant déjà des connaissances sur les données d’entreprise.
    • Recherche à faible intention : l’utilisateur final n’est pas exactement sûr de ce qu’il cherche, mais veut découvrir ce qu’il pourrait utiliser dans son contexte. Les recherches sont effectuées par mots clés et les utilisateurs s’attendent à ce que les résultats les plus pertinents apparaissent. 

    Un catalogue de données intelligent doit prendre en charge ces deux types de recherche !

    Il doit également permettre un filtrage intelligent. C’est un complément nécessaire à l’expérience de recherche de l’utilisateur (en particulier la recherche à faible intention), lui permettant de restreindre ses résultats de recherche en excluant les attributs non pertinents. Tout comme de nombreuses grandes entreprises comme Google, Booking.com et Amazon, les options de filtrage doivent être adaptées au contenu de la recherche et au profil de l’utilisateur afin que les résultats les plus pertinents apparaissent. 

    Gestion des métadonnées intelligente

    La gestion des métadonnées intelligente (ou smart metadata management) est généralement ce que nous appelons le « data catalog augmenté », qui possède des capacités de machine learning permettant de détecter certains types de données, d’ajouter des tags ou des règles statistiques sur les données.

    Une façon de rendre la gestion des métadonnées intelligente est d’appliquer la reconnaissance des patterns data. Elle consiste à être capable d’identifier des actifs similaires et de s’appuyer sur des algorithmes statistiques et de capacités de ML qui sont dérivés d’autres patterns de reconnaissance.

    Ce système de reconnaissance des patterns data aide les data stewards à paramétrer leurs métadonnées :

    • Identifier les doublons et copier les métadonnées
    • Détecter les types de données logiques (e-mails, ville, adresses, etc.)
    • Suggérer des valeurs d’attribut (reconnaître des modèles de documentation à appliquer à un objet similaire ou à un nouvel objet)
    • Suggérer des liens – sémantiques ou lineage
    • Détecter les erreurs potentielles afin d’améliorer la qualité et la pertinence du catalogue

    Elle aide également les consommateurs de données à trouver leurs informations. L’idée est d’utiliser certaines techniques dérivées de recommandations, basées sur le contenu que l’on trouve dans les catalogues d’usage général. Lorsque l’utilisateur a trouvé quelque chose, le catalogue lui propose des alternatives basées à la fois sur son profil et sur la reconnaissance de patterns .

    Démarrez avec Zeenea Data Catalog

    Zeenea est une solution 100% cloud, disponible partout dans le monde, en quelques clics. En choisissant Zeenea Data Catalog, maîtrisez les coûts liés à l’implémentation et à la maintenance d’un data catalog tout en simplifiant son accès par vos équipes.

    Les mécanismes d’alimentation automatique, ainsi que les algorithmes de suggestion et de correction, permettent de réduire le coût global du catalogue, et de garantir la qualité des informations qu’il contient pour vos équipes data en un temps record.

    Product Spotlight : vos équipes data vont adorer l’Explorer, la nouvelle application de data discovery de Zeenea

    Lancement de Zeenea Explorer, l’application de data discovery de vos équipes data

    introduction zeenea explorer

    Nous sommes ravis d’annoncer la sortie de Zeenea Explorer, l’application de data discovery de notre data catalog.

    Cette application siffle le coup d’envoi d’une nouvelle génération de data catalog centrée sur l’expérience utilisateurs et leurs problématiques. Dans le cas de Zeenea Explorer, nous souhaitions accompagner davantage les démarches exploratoires de nos utilisateurs, au delà de nos capacités de recherche basées sur l’indexation des métadonnées, le scoring et le filtrage, déjà présentes dans notre première application Zeenea Studio.

    Nous avons ainsi fait le choix de séparer notre data catalog en 2 applications distinctes.

    zeenea studio

    La toute première. Zeenea Studio est l’application destinée à vos équipes de data management pour gérer, maintenir et enrichir la documentation d’un patrimoine de données.

    zeenea studio

    Et la petite dernière, Zeenea Explorer, application entièrement dédiée aux démarches d’explorations de vos équipes data.

     

    Pourquoi Zeenea Explorer ?

    Vous n’êtes pas sans savoir que vos transformations digitales ont chamboulé le paysage informationnel dans tous les secteurs d’activité en multipliant les volumes de données disponibles et les personnes impliquées dans leur consommation et leur production.

    Vos données doivent être comprises de tout le monde, incluant les nouveaux profils que vous avez récemment recrutés (data scientists et data analysts) et vos départements opérationnels dont la maturité autour des sujets data augmente progressivement : produit, marketing, finance, ressources humaines, relation client, logistique, etc.

    Pourtant, faute de moyens pour identifier, localiser et comprendre ces jeux de données, elles restent bien souvent opaques pour le plus grand nombre, et leur potentiel ne peut être exploité. C’est d’ailleurs ce que révèle une enquête de Congnilytica de janvier 2019 : « les équipes de data science passent encore 80% de leur temps à préparer et nettoyer leurs données plutôt que de les analyser ».

    La solution à cette problématique, vous la connaissez, consiste à construire un registre des jeux de données disponibles, à les documenter à l’aide de métadonnées, et à mettre à disposition des consommateurs de données un catalogue permettant de rechercher et consulter ces informations.

    Notre pari a précisément été d’opérer une rupture technologique dans le domaine de la gestion de métadonnées, et de construire un data catalog nouvelle génération, en développant des applications centrées sur des usages spécifiques et en s’appuyant sur des expériences utilisateurs fortes, partagées par les nouveaux outils de productivité Saas et l’automatisation de gestion des tâches.

    Aujourd’hui, pour répondre à la demande croissante de vos utilisateurs finaux (data scientists, analystes, DPOs, ingénieurs, et plus généralement toutes personnes cherchant à utiliser ou à comprendre les données de l’organisation), Zeenea propose dans son data catalog une toute nouvelle application : Zeenea Explorer. Cette application a pour objectif d’améliorer les fonctionnalités exploratoires de son data catalog.

     

    Zeenea Explorer, la recherche qui vous ressemble

    Notre super équipe produit est convaincue :
    “La pertinence d’un résultat est très tributaire du rôle de l’utilisateur, et de ses domaines d’intervention. Pour une même recherche, un Data Scientist jugera pertinents certains résultats, alors qu’un Architecte Logiciel, ou un Responsable Sécurité, auront d’autres attentes.”

    Nous avons donc fait le pari de séparer l’expérience exploratoire de son data catalog dans une toute nouvelle application. Elle veut proposer une expérience utilisateur forte vos consommateurs de données.
    En d’autres termes, Zeenea Explorer devient l’application front-office de notre data catalog, fortement inspirée des sites de e-commerce et offre une ergonomie très simple basée sur la recherche, l’exploration et la collaboration des données et de leurs usages.

    Des recherches personnalisées

    Désormais, Zeenea proposera release après release la construction de profils utilisateurs, et d’autre part l’intégration dans le moteur de recherche de paramètres additionnels permettant de prendre en compte ce profil dans le classement des résultats.

    L’affichage d’informations complémentaires

    Le profilage des données cataloguées comprendra à la fois des informations statistiques gérées dans les applications (fonctions de l’utilisateur, appartenance à des équipes, participation à des projets, etc.) et des informations dynamiques (historiques de recherche et d’exploration).

    Hiérarchisation de l’information

    Toutes les équipes n’ont pas les mêmes besoins. Avec Zeenea Explorer, l’affichage des informations variera en fonction des équipes et des utilisateurs. Pour un même actif, un Data Scientist jugera pertinentes certaines informations, alors qu’un Architecte Logiciel, ou un Responsable Sécurité, aura d’autres attentes. Ainsi, l’application affinera la disposition de la documentation pour que chaque équipe dispose des données qu’il lui faut, en un clin d’oeil.

    Des suggestions enfin pertinentes

    De la même manière que dans les marketplaces grand public, les utilisateurs pourront accéder à des suggestions, et à des résultats de recherche personnalisés qui enrichiront jour après jour le système de recommandations en proposant des suggestions spontanées aux différents utilisateurs dès leur connexion à la solution.

     

    Data scientist, le premier utilisateur de Zeenea Explorer, avant beaucoup d’autres…

    Pour le lancement de Zeenea Explorer, nous avons décidé se nous consacrer dans un premier temps aux équipes de data science, premiers profils impactés dans la recherche et l’exploration des données dans l’entreprise. Cette innovation profonde vise à accélérer les projets de data science dans les entreprises.

    Découvrez dans la suite de cet article, les premières avancées produit de Zeenea Explorer 👉 Lire notre article Product Spotlight.

    Ah ! J’allais oublié, nous proposons dès aujourd’hui des démo personnalisées 😉

    Démarrer MAINTeNaNT

    Donnez du sens à votre patrimoine de données 

    Découvrez notre nouveau logo et la raison de sa refonte

    Découvrez notre nouveau logo et la raison de sa refonte

    zeenea new identity

    Notre stratégie de marque initiale n’a certainement pas été des plus poussée…

    Notre première interrogation s’était posée sur le nom de la société que nous allions créer. La deuxième, sur un logo avec lequel nous pouvions rapidement nous lancer dans l’aventure avec nos premiers clients.

    Notre vision fondatrice était de réinventer le quotidien de ceux travaillant avec les données à l’aide d’une solution de data catalog. Nous voulions ouvrir le potentiel de la donnée à l’ensemble des collaborateurs et non plus le restreindre à un groupe d’experts. En d’autres termes, devenir “Data Fluent”.

    Une fois ce brief partagé, assez concis admettons-le, nous sommes arrivés à une première réponse, assez satisfaisante pour se lancer dans le grand bain ! La marque Zeenea est née 🙌 !

    zeenea-logo-bleu-orange-new copie

    Aurions-nous pu consacrer un peu plus de temps à l’exercice ?

    Certainement.

    Toutefois, cette première identité nous a permis de traiter des priorités plus urgentes qui marquent aujourd’hui notre différence dans le secteur du metadata management.

    Durant tout ce temps, nous avons mis au premier plan les priorités de nos clients et les challenges technologiques auxquels ils font face. Tout pointe vers plus de simplicité, d’automaticité et de visibilité sur le patrimoine de données.

    Trois années, des clients dans le monde entier et une team de super Zeeneans plus tard, il ne fait aucun doute que notre entreprise est maintenant là pour rester ! 

    Mais ne vous méprenez pas, nous aimions notre ancienne identité ! Notre nom, notre logo et nos premiers messages ont tous contribué à expliquer notre promesse.  Et pourtant, nous avons décidé de le faire évoluer pour affirmer notre position de pure player sur le marché des Data Catalogs.

    Aujourd’hui, nous changeons 🙂

    Cette refonte ne concerne pas seulement notre logo, nos couleurs et nos fonts. Il s’agit d’une déclaration de nos priorités et de notre ADN à notre communauté.

    Alors que nous commençons à nous agrandir, à être déployé en Europe et par-delà l’Atlantique, il nous semblait essentiel d’affirmer notre position de data catalog nouvelle génération par une nouvelle identité représentant nos valeurs et nos forces : l’automaticité, la flexibilité et la simplicité d’utilisation.

    Aujourd’hui, nous sommes heureux de changer d’identité pour communiquer que Zeenea veut être au plus près de ses utilisateurs et de leurs besoins. Redécouvrez Zeenea, la nouvelle génération de data catalog pensée pour les entreprises data-driven et leurs équipes.

    zeenea logo animé

    Les solutions de Data Management les plus populaires en 2020

    Les solutions de Data Management les plus populaires en 2020

    data-management-solutions-2020

    Suite à la publication de divers articles de Gartner et d’autres célèbres cabinets data traitant de data catalogs, il est aujourd’hui évident que ces solutions sont devenues essentielles dans la stratégie de gestion des données d’une entreprise. Combinant l’intelligence artificielle et les compétences humaines, les data catalogs offrent un espace de travail “next-gen” permettant aux équipes chargées des données de trouver, comprendre et collaborer sur leurs actifs d’informations. 

    Dans cet article, nous nous concentrerons sur les solutions de data management les plus utilisées auxquelles votre entreprise peut collaborer avec succès grâce à votre data catalog. Ces fournisseurs ont été cités à plusieurs reprises par Gartner et utilisés par de nombreuses entreprises dans le monde entier. Nous listerons les 5 principaux fournisseurs dans les catégories suivantes :

    • Intégration des données
    • Préparation des données
    • Visualisation des données
    • Gouvernance des données

    Découvrons cette liste ensemble :

    1. Principaux fournisseurs d’intégration de données

    L’intégration des données est le processus qui consiste à combiner des données provenant de différentes sources, généralement à des fins d’analyse, de business intelligence, de reporting, etc. Les outils d’intégration de données doivent être conçus pour transformer, cartographier et nettoyer les données. Ils peuvent également être intégrés à des outils de gouvernance et de qualité des données.

    Parmi les principaux fournisseurs d’intégration de données de 2020 figurent :

    logo-informatica

    Le portfolio d’outils d’intégration de données d’Informatica comprend des déploiements sur site et dans le Cloud. Le fournisseur combine des fonctionnalités d’intégration et de gouvernance hybrides avancées avec un accès business en libre-service pour diverses fonctions analytiques. Informatica prône une forte interopérabilité entre sa liste croissante de logiciels de data management.

    IBM-logo

    IBM propose plusieurs outils d’intégration de données distincts, également pour les déploiements on-prem et dans le Cloud, et pour pratiquement tous les cas d’utilisation en entreprise. Sa suite d’intégration de données on-prem comprend des outils pour les besoins d’intégration traditionnels et modernes. IBM propose également une variété de fonctions et de connecteurs pré-établis. Le produit d’intégration dans le Cloud du méga-fournisseur est largement considéré comme l’un des meilleurs du marché, et des fonctionnalités supplémentaires sont prévues dans les mois à venir.

    SAS_logo

    SAS est l’un des plus grands fournisseurs indépendants sur le marché des outils d’intégration de données. Le fournisseur offre ses principales capacités via SAS Data Management, où les outils d’intégration de données et de qualité sont imbriqués. Il comprend la prise en charge du langage de requête, l’intégration des métadonnées, le traitement des bases de données en mode « push-down » et diverses capacités d’optimisation. 

    SAP-Logo

    SAP fournit des fonctionnalités d’intégration on-prem et Cloud. Les fonctionnalités traditionnelles sont proposées par SAP Data Services, une plateforme de gestion de données qui offre des possibilités d’intégration, de qualité et de nettoyage des données. Les fonctionnalités d’intégration “Platform as a Service” sont disponibles par le biais de la plateforme SAP Cloud.

    oracle-logo

    Oracle offre un éventail complet d’outils d’intégration de données pour les cas d’utilisation traditionnels comme pour les cas modernes, dans les déploiements on-prem et dans le Cloud. Le portfolio de produits de la société comprend des technologies et des services qui permettent aux organisations de déplacer et d’enrichir les données tout au long de leur cycle de vie. 

    2. Principaux fournisseurs de data preparation

    Comme défini dans notre dernier article sur la data preparation, il s’agit du processus de collecte, de combinaison, de structuration et d’organisation des données afin qu’elles puissent être analysées dans le cadre d’applications de visualisation, d’analyse et d’apprentissage automatique des données. En d’autres termes, c’est le processus de nettoyage et de transformation des données brutes avant leur analyse.

    Parmi les principaux fournisseurs de préparation de données de 2020 figurent:

    Alteryx-logo

    Alteryx Designer présente une interface utilisateur intuitive qui permet aux utilisateurs de se connecter et de nettoyer les données provenant de divers data warehouses, d’applications dans le Cloud, de tableurs, etc. Les utilisateurs peuvent également utiliser des fonctions de qualité, d’intégration et de transformation data. 

    talend-logo

    Talend Data Preparation utilise des algorithmes de machine learning pour la standardisation, le nettoyage et la reconnaissance de modèles. L’outil fournit également des recommandations automatisées pour guider les utilisateurs tout au long du processus de la data preparation

    IBM-logo

    IBM Watson Machine Learning et IBM Watson Studio constituent une plateforme de data science et de machine learning, conçue pour les entreprises utilisant l’intelligence artificielle. Elle aide les entreprises à dimensionner les opérations de data science tout au long du cycle de vie, en simplifiant le processus de l’expérimentation au déploiement, en accélérant l’exploration et la data preparation, ainsi que le développement de modèles et la formation de l’outil.

    IBM-logo

    Tableau Prep permet à un plus grand nombre de personnes d’accéder plus rapidement à l’analyse en les aidant à combiner, façonner et nettoyer leurs données rapidement et en toute confiance. Une expérience directe et visuelle permet aux clients de mieux comprendre leurs données. Les fonctions intelligentes de la solution facilitent également la data preparation.

    Trifacta-Logo-Vert-RGB-2016-e1473200499615

    Trifacta a été classé comme le premier fournisseur dans tous les rapports data preparation publiés à ce jour ! Outil de data prep en libre-service, Trifacta permet à tous les utilisateurs, techniques ou non, de nettoyer et de préparer leurs données efficacement. 

    3. Principaux fournisseurs de data visualisation

    La data visualisation est définie comme une représentation graphique des données. Elle est utilisée pour aider les individus à comprendre le contexte et la signification de leurs informations en montrant des modèles, des tendances et des corrélations qui peuvent être difficiles à interpréter sous forme de texte simple.

    Parmi les principaux fournisseurs de visualisation de données de l’année 2020 figurent :

    Trifacta-Logo-Vert-RGB-2016-e1473200499615

    Tableau est un outil de data visualisation qui peut être utilisé par les data analysts, les data scientists, les statisticiens, etc. pour visualiser les données et obtenir une opinion claire basée sur leur analyse. Tableau est connu pour être capable d’intégrer des données et de produire les résultats de visualisation de données en très peu de temps, tout en offrant le plus haut niveau de sécurité.  Tableau garantit le traitement des problèmes de sécurité dès qu’ils surviennent ou sont trouvés par les utilisateurs.

    Logo_Color_Looker

    La data visualisation de Looker peut approfondir les données et les analyser pour obtenir des informations utiles. Elle fournit des tableaux de bord en temps réel pour une analyse plus approfondie afin que les entreprises puissent prendre des décisions instantanées sur la base des visualisations de données obtenues. Looker offre également des connexions avec Redshift, Snowflake, BigQuery, ainsi qu’avec plus de 50 langages supportés par SQL afin que vous puissiez vous connecter à plusieurs bases de données sans aucun problème.

    zoho-analytics-logo

    Zoho Analytics vous aide à créer en quelques minutes de magnifiques tableaux de visualisation de données. Vous pouvez obtenir des données provenant de plusieurs sources et les relier entre elles pour créer des data visualisations multidimensionnelles qui vous permettent de visualiser vos données d’entreprise dans tous les services. Si vous avez des questions, vous pouvez utiliser Zia qui est un assistant intelligent créé grâce à l’intelligence artificielle, au machine learning et au traitement du langage naturel.

    sisense-logo

    Sisense fournit divers outils qui permettent aux data analysts de simplifier les données complexes et d’obtenir des informations pour leur organisation et pour les utilisateurs externes. La solution fournit divers outils d’analyse data aux équipes business et aux data analysts afin qu’ils puissent aider leur entreprise à devenir data-driven.

    IBM-logo

    IBM Cognos Analytics est une plateforme de business intelligence basée sur l’IA. Vous pouvez visualiser et analyser vos données ainsi que partager des informations exploitables avec tous les membres de votre organisation. Même si vous n’avez que peu ou pas de connaissances en matière d’analyse de données, vous pouvez aisément utiliser IBM Cognos Analytics car il interprète les données pour vous et vous présente des informations exploitables dans un langage simple.

    4. Principaux fournisseurs de gouvernance des données

    Nous aimons définir la gouvernance des données comme un exercice de l’autorité sur le pouvoir de décision (planification, surveillance et application des règles) et les contrôles de la gestion des données.

    En d’autres termes, elle permet de documenter clairement les différents rôles et responsabilités data, ainsi que de déterminer les procédures et les outils qui soutiennent la gestion des données au sein d’une organisation.

    cloudera_logo_darkorange

    Cloudera Data Platform (CDP) combine des technologies de Hortonworks et de Cloudera pour offrir le premier “Data Cloud” d’entreprise. CDP fournit des analyses en libre-service puissantes dans des environnements hybrides et multi-clouds, ainsi que des politiques de sécurité et de gouvernance sophistiquées et granulaires que les responsables informatiques et de données exigent.

    logo-stealthbits

    La solution Data Access Governance de Stealthbits découvre où se trouvent vos données, puis les classe, les surveille et remédie aux conditions qui rendent la gestion de l’accès aux données si difficile. Il en résulte une gouvernance efficace qui favorise la sécurité, la conformité et l’efficacité opérationnelle.

    Varonis_Logo_FullColor_RGB

    Varonis vous donne la visibilité dont vous avez besoin à l’échelle de l’entreprise pour une découverte, un audit et un rapport de conformité efficaces et cela dans un large éventail de normes réglementaires. Il permet de classer rapidement et précisément les informations, sensibles et réglementées, stockées dans les Datastores du Cloud. Son moteur de classification hiérarchise les analyses en fonction du risque et de l’exposition pour vous donner rapidement des résultats exploitables, quelle que soit la quantité de données dont vous disposez.

    logo-informatica-12

    Informatica fournit une solution rapide pour la conformité et la gouvernance des données, qui peut être mise en œuvre on-prem ou dans le Cloud. Elle offre une visualisation puissante du lineage et de l’historique des données, des tableaux de bord de données de référence (pour une surveillance proactive de la qualité des données) et un masquage dynamique pour la sécurité des données. Il offre également des fonctionnalités permettant de détecter et de protéger les données sensibles des clients, de gérer les risques liés aux données GDPR et de s’assurer que les informations de contact sont à jour, précises et complètes.

    Et le nouvel arrivant sur la gouvernance des données

    zeenea logo

    Notre data catalog centralise toutes les connaissances sur les données dans une interface unique et facile à utiliser. Automatiquement importés, générés ou ajoutés par l’administrateur, les spécialistes data sont en mesure d’enrichir la documentation de leur patrimoine de données directement au sein de notre outil.

    Donnez du sens à vos données grâce aux métadonnées !

    Si vous souhaitez obtenir plus d’informations, bénéficier d’une démonstration personnalisée gratuite, ou simplement nous dire bonjour, n’hésitez pas à contacter notre équipe qui vous répondra dès réception de votre demande 🙂

    Les principaux rôles pour une équipe data et analytics

    Les principaux rôles pour une équipe data et analytics

    data-team

     Comme mentionné à plusieurs reprises, la transformation digitale ne peut pas se faire sans la data et analytics. La technologie peut être un point d’échec si elle n’est pas gérée correctement, mais elle n’est souvent pas l’obstacle le plus important !

    Selon le sondage annuel “Chief Data Officer”de Gartner, les principaux obstacles sont liés à des facteurs humains – la culture, la data literacy et les compétences requises. Une tendance similaire se dégage d’une autre étude, l’enquête de Gartner “CEO and Senior Business Executive Survey”, où la « gestion des talents » était citée comme la « première compétence organisationnelle à développer ou à améliorer ».

    Dans cet article, nous aimerions nous concentrer sur les rôles et dirigeants data et analytics qui sont essentiels pour les entreprises souhaitant devenir data-driven.

    Rôles de support

     

    Chief Data Officer

    Le Chief Data Officer, ou CDO, est chargé d’améliorer la qualité, la fiabilité et l’accès aux données. Il est également chargé de créer de la valeur à partir de son patrimoine de données et de son écosystème data de manière générale. En exploitant ses données, le CDO peut produire plus de valeur et donc, permettre à l’entreprise de prendre de meilleures décisions. Il existe de nombreuses variantes du titre telles que CAO (Chief Analytics Officer), CDAO (Chief Data & Analytics Officer), CDIO (Chief Digital Information Officer), etc.

    Pour en savoir plus, consultez notre article « Qu’est-ce qu’un Chief Data Officer ?

     

    Data et analytics manager

    Comme son nom l’indique, le data et analytics manager est chargé de gérer les données d’entreprise ainsi que leurs analyses. Il est également responsable de la mise en place dans toute l’organisation. Il contribue de manière essentielle à la stratégie et à la vision du département data, il établit la feuille de route et est responsable de la planification du budget et des ressources data. Outre la mesure des performances de leur équipe d’analyse, ils sont également chargés de suivre la contribution de l’analyse des données par rapport aux objectifs business.

     

    Data Architect

    Le Data Architect, également appelé Information Architect, rend les données disponible et les partage dans toute l’entreprise en présentant la manière dont ces actifs pilotent les résultats commerciaux. Il « possède » les modèles de données, comprend l’impact des différents scénarios d’analyse des données sur l’architecture informatique globale (comme la data science ou le machine learning) et travaille en collaboration avec le département business.

     

    Analystes

    Il n’y a pas un seul type d’analyste, mais plutôt un spectre d’analystes. Leurs rôles dépendent de leurs cas d’utilisation et varient en fonction des responsabilités et des compétences requises. Il y a les data analysts, qui ont une compréhension fondamentale de l’analyse statistique. Ils sont – ou travaillent en étroite collaboration avec – des experts pour soutenir les différents départements, processus ou fonctions de l’entreprise.

     

    Chef de projet

    Le chef de projet est responsable de la bonne mise en œuvre de tous les projets du portefeuille de l’entreprise. Il planifie, exécute et livre les projets en accord avec les professionnels de l’entreprise. Tout au long du cycle de vie du projet, le chef de projet suit l’état d’avancement du projet et gère ses équipes afin de limiter les risques. Il est le principal point de contact pour les initiatives data et analytics.

    Rôles data

     

    Data Engineer

    Un data engineer implique une collaboration entre les unités business et informatiques et consiste à rendre les données accessibles et disponibles aux différents consommateurs de données (data scientists, data analysts, etc.). Il est principalement responsable de la construction, de la gestion et de l’opérationnalisation des data pipelines. Il est également chargé de diriger des tâches fastidieuses telle que la conservation de jeux de données créés par des utilisateurs non techniques (au moyen d’outils de data preparation par exemple).

    Sans data engineers, les initiatives data et analytics sont plus coûteuses, prennent plus de temps à déployer et sont sujettes à des problèmes de qualité et de disponibilité des données.

    Data Steward

    Les data stewards sont là pour orchestrer les données des systèmes data de l’entreprise. Ils doivent assurer la bonne documentation des données et faciliter leur mise à disposition auprès de leurs utilisateurs, tels que les data scientists ou chefs de projets par exemple. Leurs compétences de communiquant leur permettent d’identifier les responsables et sachants des données, de récolter les informations associées pour les centraliser et pérenniser ces connaissances au sein de l’entreprise. Plus précisément, les data stewards renseignent des métadonnées ; un ensemble structuré d’informations décrivant un jeu de données. Ils transforment ces données abstraites en assets concrets pour le métier.

    >> Pour plus d’informations sur les Data Stewards <<

     

    Rôles analytiques

     

    Data Scientist

    Un data scientist est chargé de modéliser les processus business et de faire des constats à l’aide d’algorithmes statistiques et de techniques de visualisation. Il est généralement titulaire d’un diplôme d’études supérieures en informatique, en statistiques ou dans d’autres domaines connexes. Les data scientists contribuent à la construction et au développement de l’infrastructure data de l’entreprise et soutiennent l’organisation par leurs analyses pour une meilleure prise de décision. Ils prédisent ou classifient les informations afin de développer de meilleurs modèles.

     

    Citizen Data Scientist

    Contrairement aux data scientists, un “citizen data scientist” n’est pas un poste. Il s’agit d’un “power user” qui peut effectuer des tâches analytiques simples. Le citizen data scientist est un rôle qui a évolué comme une “extension” d’autres rôles au sein de l’organisation. Le potentiel des citizen data scientists varie en fonction de leurs compétences et de leur intérêt pour la data science et du machine learning.

    >> Pour plus d’informations sur les citizen data scientists <<

     

    Développeur d’IA / ML

    Les développeurs de machine learning et d’intelligence artificielle sont de plus en plus responsables de l’enrichissement des applications par l’utilisation de machine learning ou d’autres technologies d’IA telles que le traitement du langage naturel, l’optimisation ou la reconnaissance d’images. Ils intègrent et déploient des modèles d’IA développés par des data scientists ou d’autres experts en IA, soit proposés par des fournisseurs de services, soit développés par eux-mêmes. Parmi les autres compétences clés, se trouvent l’identification et la connexion de data assets potentiels, la qualité, la préparation data et la manière dont les données sont utilisées pour l’exécution de modèles.

     

    Conclusion

    L’importance croissante et la signification stratégique des données et de l’analyse créent de nouveaux défis pour les organisations et leurs responsables data et analytics. Certains rôles informatiques traditionnels sont perturbés par des rôles de « citoyen » exercés par des utilisateurs business non techniques. D’autres nouveaux rôles hybrides apparaissent, qui recoupent les fonctions et les départements et combinent les compétences informatiques et business.

    En réunissant ces rôles incontournables, votre entreprise fait un pas de plus vers une organisation data-driven.

    Outil de gouvernance de données : Lean Data Governance Canvas

    Outil de gouvernance de données : Lean Data Governance Canvas

    lean data governance canvas

    Inspiré par le business modèle « Lean Canvas » de Ash Maurya, le Lean Data Governance Canvas de Zeenea est destiné aux gestionnaires des données dont les missions sont de clarifier et d’orchestrer la gouvernance des données au sein de leurs organisations. D’un point de vue méthodologique, le Lean Data Governance Canvas est composé de deux parties principales :

    • Les éléments de gauche qui représentent ceux d’un système de gouvernance
    • Les éléments de droite qui sont inhérents à une organisation

    Il est important de savoir que ce Lean Data Governance Canvas est un toolkit pour la mise en œuvre d’une gouvernance des données. Les intervenants devront itérer afin de réaliser un LDGC avec le moins d’hypothèses possible dans le temps.

    Cependant, soyez attentifs ! Il ne doit pas y avoir un seul Canvas qui représente l’ensemble de l’entreprise, mais plutôt des canvas distincts pour les niveaux stratégiques et opérationnels.

    Les idées mises en évidence dans le Lean Canvas devront être cohérentes et respecter les objectifs stratégiques de l’entreprise.

    Lean Data Governance Canvas: la méthode

    0- Objectifs stratégiques

    Avant de commencer votre aventure avec le Lean Data Governance Canvas, il est important de mettre en évidence les attentes stratégiques de l’entreprise et de vous interroger :

    Quels sont les objectifs stratégiques de l’entreprise et du conseil d’administration ?
    Comment cela s’applique-t-il au département data et IT ?

    1 & 2 – Segmentation des Data citizens et leurs problèmes

    Commencez par réfléchir à un type de persona. Ensuite, vous pouvez prendre le temps de réfléchir à jusqu’à trois challenges que ce groupe doit relever :

    Qui sont les Data Citizens auxquelles vous souhaitez vous adresser ?
    Quels sont les trois principaux problèmes/risques que la gouvernance des données cherche à résoudre pour le segment défini ?

    Vos citoyens de données sont soit les responsables de votre gouvernance de données (propriétaires de données, gestionnaires de données, gardiens informatiques, etc.), soit les producteurs / consommateurs des données (management, supply-chain, CRM, data science, marketing, etc). Vos risques peuvent concerner une ou plusieurs de ces personnes.

    3 – Conformité réglementaire

    La transformation digitale entraîne une plus grande conformité réglementaire (comme le RGPD par exemple). Pour garder vos contraintes à l’esprit, notez vos exigences réglementaires et posez-vous la question suivante:

    Quels sont les risques découlant des exigences réglementaires (y compris de surveillance) ?

    4 – Proposition de valeur

    Cette partie du LDGC se concentre sur la valeur que la gouvernance des données apportera aux citoyens des données segmentés.

    Pourquoi repousser la mise en œuvre d’une gouvernance des données pour les segments définis ?

    La proposition de valeur est unique, congruente et engageante pour les utilisateurs concernés par les données. La communication ou le support marketing peuvent parfois être une aide précieuse pour formaliser une proposition de valeur. N’hésitez pas à vous rapprocher des équipes internes concernées.

    5 – Solutions

    Dans cette section sont définis les moyens et les principes qui permettront de surmonter les problèmes de vos segments et de s’orienter vers la proposition de valeur. Sans trop entrer dans les détails:

    Quels sont les 3 grands principes qui permettront de répondre aux problèmes des segments des citoyens de données ?

    Dans ce Canvas, une solution ne doit pas tenir compte de ce qui existe déjà et n’est pas déterminée en fonction du temps ou du budget. Le Canevas n’est pas un projet de timing, mais un projet à venir qui doit être considéré comme un MVP (minimum viable product) pour une première étape.

    6.1 – Indicateurs ciblés

    Ces indicateurs définissent la performance de la gouvernance des données établie dans le segment de vos citoyens de données. Ils mesureront la résolution du problème et la valeur de vos règles de gouvernance.

    Quels sont les indicateurs clés à mesurer pour valider l’avancement de la proposition de valeur recherchée ?

    6.2 – Indicateurs de connectivité

    Ces mesures sont des indicateurs qui définissent la performance de la gouvernance des données mise en œuvre sur les sources d’information que vous avez énumérées précédemment.

    Quels sont les indicateurs clés à mesurer pour valider la performance des règles de gouvernance des données sur une source ?

    7 – Sources des données

    Quelles sont les sources de données « absolument nécessaires » qui apporteront le plus de valeur au début de vos segments de data citizens définis ?

    Les sources de données sont des atouts précieux pour les équipes data-driven. L’objectif est donc de trouver la valeur. La production de masse et l’exhaustivité induisent une complexité immédiate qui ne peut pas être facilement contrôlée. Le choix doit être fait en fonction de la valeur des données selon les usages de l’entreprise.

    8 – Besoins technologiques

    Identifiez les besoins technologiques qui doivent être acquis pour mesurer les paramètres de gouvernance et / ou réaliser la proposition de valeur.

    Quelles sont les technologies et les outils nécessaires pour mesurer les paramètres associés ?

    9 – Besoins humain

    Identifiez les compétences et les ressources nécessaires pour donner vie à la gouvernance des données, l’animer et la mesurer dans le segment de données ciblé.

    Qui sont les personnes concernées et quelles sont les astuces et interactions nécessaires pour tendre vers la proposition de valeur et de son maintien ?

     

    L’évolution du Lean Data Governance Canvas au fil du temps

    Après s’être concentré sur ces premiers pas, il est important de le tester ! Nous encourageons les utilisateurs du Lean Data Governance Canvas à retravailler cet outil autant que possible – par itération – et à les tester, après quoi un modèle de gouvernance des données gagnant devrait apparaître. Malgré la difficulté de ces ateliers, nous sommes convaincus que ce travail vous fera gagner du temps, de l’énergie et de l’argent. Pensez-y, avec le Lean Data Governance Canvas, il est possible de construire quelque chose que tout le monde dans l’entreprise veut et respecte.

     

    Téléchargez notre toolkit sur la gouvernance des données

    Chez Zeenea, nous utilisons cet outil, entre autres, pour mettre en place des programmes de gouvernance des données. Grâce à notre plateforme de gestion des métadonnées, connectez-vous à toutes vos sources de données qui importent et en mettent à jour automatiquement vos données dans un référentiel central. Notre outil permet à quiconque – avec les capacités nécessaires – de découvrir, comprendre et avoir confiance dans le patrimoine de données de l’entreprise.

    Les entreprises font confiance à Zeenea pour relever les défis de la mise en place d’une gouvernance des données efficace dans un environnement de démarrage lean : promouvoir l’utilisation des données en interne tout en limitant les risques!

    Data management : son futur est dans le Cloud

    Data management : son futur est dans le Cloud

    Les initiatives business de ces dernières années – nous faisons là bien évidemment référence aux transformations digitales – sont confrontées à une explosion du volume et de la diversité des données. Dans ce contexte, les organisations recherchent davantage de flexibilité et d’agilité dans la gestion de leurs données.

    Elles semblent l’avoir trouvé dans des stratégies cloud.

    Définition de Data Management

    Avant de commencer, définissons ce qu’est la gestion des données et son objectif. Le data management, tel que le décrit TechTarget, est « le processus d’ingestion, de stockage, d’organisation et de maintenance des données créées et collectées par une organisation« . La gestion des données est un élément crucial de la stratégie commerciale et informatique d’une entreprise, et se veut de fournir une aide analytique qui oriente la prise de décision globale des dirigeants.

    Comme mentionné ci-dessus, les données sont considérées comme un actif de l’entreprise qui peut être utilisé pour prendre de meilleures décisions plus rapidement, améliorer les campagnes de marketing, augmenter les recettes et les bénéfices globaux et, surtout, innover.

    Les futures architectures Cloud du data management

    Tout comme nous, vous avez certainement constaté que les hébergements cloud devenaient les technologies par défaut pour la gestion des bases de données de la plupart des fournisseurs. Pourquoi ? Cette technologie semble offrir des avantages indéniables aux équipes de data management :


    Un déploiement plus rentable : Une plus grande flexibilité et une configuration plus rapide de leur base de données.
    Des dépenses basées sur la consommation : Payez ce que vous utilisez et ne surprovisionnez pas.
    Une maintenance plus simple : meilleure maîtrise des coûts et des investissements associés dans le temps. 

    En sachant cela, les responsables des données sont de plus en plus nombreux à percevoir le cloud comme une technologie moins coûteuse et scalable, motivant encore plus leur choix.

    Dans les années, voire, les mois à venir, le cloud fera partie intégrante du paysage informatique. Toutefois, nous sommes convaincus que le rythme auquel les entreprises migreront vers le cloud variera en fonction de leur taille. Ainsi, les petites et moyennes entreprises migreront plus rapidement, tandis que les grandes entreprises mettront des mois, voire des années, à migrer du fait de leur legacy et des dépendances technologiques …

    Cette nouvelle technologie au sein des départements de data management se manifestera sous 3 stratégies principales :

    • Le cloud hybride : Composé de deux ou plusieurs infrastructures Cloud distinctes qui peuvent être privées ou publiques et qui restent des entités uniques 
    • Multicloud : Utiliser l’infrastructure venant de plus d’un fournisseur de services dans le cloud ainsi que des solutions on-premise.
    Cloud data-management (1)

    Le Cloud devient également une opportunité pour les leaders de l’analyse de données

    L’adoption accrue de déploiements de stratégies cloud concernant le data management a des impacts importants pour les stratégies d’analyse des données. Les données se déplaçant vers le cloud, les applications de données et d’analyse utilisées doivent également suivre.

    En effet, l’accent mis sur la rapidité de livraison de la valeur a fait des technologies cloud le premier choix pour le développement de nouvelles solutions de gestion et d’analyse des données par les fournisseurs, et pour le déploiement pour les entreprises. Ainsi, les entreprises et les leaders du secteur des données choisiront des solutions de gestion des données nouvelle génération, en version SaaS. Ils migreront leurs actifs en sélectionnant des applications qui se connectent aux futures stratégies cloud et en préparant leurs équipes et leur budget pour les défis à venir qu’ils vont devoir mettre en place.

    Les leaders du secteur des données qui utilisent des solutions d’analyse, de business intelligence (BI) et de science des données voient les solutions Cloud comme de plus grandes opportunités pour :

    • Utiliser un environnement de « sandbox » dans le cloud à des fins d’essai en termes d’intégration, d’utilisation, et de connectivité, et créer un environnement d’analyse de prototypage avant d’acheter la solution.
    • Faciliter l’accès aux applications où que vous soyez et améliorer la collaboration des équipes, peu importe où elles se situent.
    • Accéder facilement aux nouvelles fonctionnalités émergentes au fil du temps, grâce à des approches de livraison continue.
    • Soutenir leurs efforts grâce à l’élasticité et à l’évolutivité du cloud tout au long du processus d’analyse des données.

    Les data catalogs (ou catalogues de données) sont les nouvelles solutions indispensables des stratégies de data management

    Les leaders data s’engagent inévitablement dans le cloud. Or, la gestion, la gouvernance et l’intégration des données vont devenir plus complexes que jamais. Ainsi, les organisations doivent s’équiper de nouvelles solutions de gestion des métadonnées pour faciliter la recherche et l’inventaire des données distribuées dans un écosystème hybride et multi-cloud.  Faute de quoi, les silos de données se multiplieront, ce qui entraînera le déraillement de projets de gestion, d’analyse ou de data science.

    Les équipes de data management seront amenées à choisir un data catalog parmi le large éventail de ceux disponibles sur le marché.

    Nous aimons définir un catalogue de données comme un moyen de créer et de maintenir un inventaire des actifs de données par la découverte, la description et l’organisation d’ensembles de données distribués.

    Si vous-même travaillez sur le projet de catalogue de données, vous trouverez :

    • d’une part par des acteurs assez anciens, initialement positionnés sur le marché de la gouvernance des données.
      Ces acteurs proposent sur place des solutions avec des offres riches mais complexes, dont le déploiement et la maintenance sont coûteux, difficiles et longs, et qui sont conçues pour des équipes de gouvernance transversales. Leur proposition de valeur est axée sur le contrôle, la gestion des risques et la conformité.

    • d’autre part par les fournisseurs d’infrastructures de données (Amazon, Google, Microsoft, Cloudera, etc.) ou de solutions de traitement de données (Tableau, Talend, Qlik, etc.), pour lesquels la gestion des métadonnées est un bloc essentiel pour compléter leur offre. Elles proposent des solutions beaucoup plus pragmatiques (et moins coûteuses), mais sont souvent très techniques et limitées à leur écosystème.

    Nous considérons que ces alternatives ne sont pas suffisantes. Voici quelques indications essentielles pour trouver votre futur data catalog. Celui-ci doit :

    – être hébergé dans le cloud, permettant des prix plus compétitifs et un retour sur investissement rapide pour votre organisation.

    – disposer d’une connectivité universelle, s’adaptant à tous les systèmes et à toutes les stratégies de données (edge, cloud, multi-cloud, cross-cloud, hybride).

    – avoir l’automatisation comme caractéristique fondamentale pour la collecte et l’enrichissement des données ainsi que de leurs attributs et liens afin d’enrichir le catalogue et maintenir un référentiel d’informations fiable.
    Les mécanismes d’alimentation automatique, ainsi que les algorithmes de suggestion et de correction, réduisent le coût global du catalogue et garantissent la qualité des informations qu’il contient.

    – proposer des solutions basées sur l’expérience utilisateur, en particulier pour les utilisateurs dits “métier”, afin d’améliorer l’adoption de la solution.

    Cloud data management -2

    Pour conclure, les capacités de data management sont de plus en plus souvent orientées cloud, et dans certains cas même principalement dans le cloud.

    Les responsables des données souhaitant stimuler l’innovation dans le domaine de l’analyse des données devront tirer parti de cette nouvelle technologie sur leurs ressources de données. Ils devront passer de l’ingestion à la transformation sans oublier d’investir dans un catalogue de données efficace afin de trouver leur chemin dans un monde data toujours plus complexe.

    Product Spotlight : de nouveaux items, des connecteurs et plus d’automatisation

    Product Spotlight : de nouveaux items, des connecteurs et plus d’automatisation

    Zeenea offre une nouvelle génération de data catalog centrée sur l’expérience utilisateur. Elle permet de découvrir et comprendre facilement le patrimoine de données avec un maximum de simplicité grâce à des capacités automatisées et une personnalisation de la solution. 

    Notre Product Spotlight vous donne un aperçu des dernières mises à jour du data catalog de Zeenea.

    Apprenez à utiliser Zeenea Data Catalog et à respecter les délais de vos projets de données en accédant facilement à des informations fiables.  Découvrez dans cet article nos dernières avancées produit !

    1. Gérez de nouveaux actifs
    2. Connecteur Atlas disponible
    3. Import automatisé des Data Process items
    4. Nouveaux connecteurs ERP premium disponibles
    5. Amélioration de l’authentification

    Gérer de nouveaux actifs

    Grâce à sa large connectivité, Zeenea automatise la collecte et la mise à jour des informations cataloguées dans sa solution : les jeux de données, leurs schémas, des termes business, entre autres. 

    Pour aller encore plus loin et aider vos équipes de données à toujours mieux découvrir et exploiter les actifs mis à disposition dans votre entreprise, nous avons étendu nos capacités quant au référencement d’actifs du catalogue avec 2 nouveaux items ! 

    Référencez vos rapports de Data Visualisation

    Nombre d’entreprises ont investi dans des solutions de data visualisation afin de représenter la donnée de façon graphique. Pourtant, ces rapports et analyses peinent encore à être partagés et compris au niveau de l’entreprise. C’est là que Zeenea entre en jeu ! 

    En connectant vos solutions de visualisation de données avec nos connecteurs tels que PowerBI ou Tableau, Zeenea est en mesure de répertorier vos rapports dans son catalogue de données pour simplifier une fois de plus la recherche et la compréhension de ces nouveaux actifs.

    Comme pour les autres items gérés dans Zeenea Studio, vos Data Stewards peuvent :

      • analyser tous les rapports de visualisation des données stockés dans vos solutions et les importer automatiquement avec leur documentation déjà existante,
      • créer des templates de métamodèles efficaces pour continuer à documenter manuellement vos rapports de data visualization,
      • définir les informations prioritaires à renseigner,
      • assigner des propriétaires de contacts et d’autres rôles,
      • commenter et rechercher les éléments ci-dessus.

    Créez des Custom Items

    Les entreprises gèrent plusieurs types d’actifs. Comment garder le contrôle sur un nombre toujours croissant d’actifs ? Comment les rendre compréhensibles et permettre aux équipes de données de trouver rapidement les informations les plus pertinentes pour leurs projets?

    Pour relever ces défis, Zeenea a développé une nouvelle fonctionnalité : les Custom Items !

    Vous pouvez désormais créer, rechercher et documenter des objets personnalisés dans notre Data Catalog. Par exemple, ces éléments personnalisés peuvent représenter les applications utilisées par votre entreprise ou les API disponibles dans votre organisation.

    Celui-ci fournit une structure à votre paysage d’actifs en recréant des liens multilatéraux à travers les items du data catalog.

    Conçus pour être utilisés à plus grande échelle, les éléments personnalisés améliorent le graphique des connaissances de votre organisation : plus vous créez de liens, plus vous apportez de contexte à vos actifs.

    Plus précisément, avec cette première version des objets personnalisés, vos Data Stewards peuvent :

    • Créer de nouveaux types d’objets dans le catalogue, qui seront ensuite ajoutés à la liste des types natifs déjà gérés par Zeenea (Datasets, Business Terms, etc.) ;
    • Importer le contenu de vos référentiels afin de remplir vos objets personnalisés avec des objets riches tels que le nom, la description, les contacts, etc. ;
    • Personnaliser les templates de ressources d’informations en utilisant ces nouvelles propriétés;
    • Créer des liens entre vos actifs et vos objects personnalisés pour les classer ;
    • Et finalement, les utiliser comme filtres pour explorer le catalogue et trouver plus rapidement les ressources pertinentes.

     

    Nouveau connecteur Atlas disponible

    Afin de fournir un Data Catalog d’enterprise fiable, nous fournissons de nombreux connecteurs qui automatisent la collecte des métadonnées, y compris les stockages Cloud et Big Data, les bases de données relationnelles et non relationnelles et bien d’autres sont constamment développés.

    En utilisant nos connecteurs, Zeenea fournit un catalogue de données connecté à la réalité opérationnelle de leurs SI. De cette manière, Zeenea garantit que les consommateurs de données accèdent à des informations stockées depuis la plateforme. Aujourd’hui, nous sommes heureux d’annoncer la sortie de notre nouveau connecteur Atlas. 

    Notre connecteur vous aidera à mieux gérer les données provenant de la source Atlas. Il peut se connecter automatiquement à votre base de données et récupérer un large éventail de métadonnées. Notre connecteur Atlas est capable de collecter périodiquement des informations et de détecter les modifications liées à votre schéma. 

    Notre connecteur Atlas collecte des métadonnées techniques, telles que les noms techniques, les types de données, les contraintes liées à vos tables et à leurs colonnes, les métadonnées opérationnelles (date de mise à jour, volume, fréquence de mise à jour) mais aussi la documentation que vous avez pu fournir au niveau de la table des champs.

     

    Automatisez l’import des data process avec nos connecteurs

    Avec le lancement de notre tout dernier connecteur Atlas, nous offrons maintenant la possibilité d’importer des data process à partir de vos sources de données.

    Lorsque votre data steward importe des éléments d’une source où il existe des data process déjà renseignés, ces process et les jeux de données parents et enfants directs sont automatiquement importés dans Zeenea Data CatalogLe lineage d’un élément est alors immédiatement disponible et vous pouvez naviguer à travers celui-ci et avoir une compréhension visuelle du cycle de vie de vos données. Comprenez qu’un process ne peut pas être inventorié ou importé seul, il est toujours lié à d’autres éléments.

    Évidemment, nous gardons la possibilité de créer manuellement des processus de données si vous souhaitez l’enrichir avec des processus non référencés. Les processus de données sont également importés avec leur documentation existante.

    Comme pour les autres items gérés dans Zeenea Studio, Data Stewards peuvent :

    • créer des métamodèles personnalisables pour continuer à documenter manuellement vos rapports de visualisation de données,
    • définir les informations prioritaires à remplir,
    • attribuer des contacts et des rôles,
    • commenter et rechercher ces items.

    Nouveaux connecteurs ERP Premium disponibles

     Depuis 3 décennies, les entreprises s’appuient sur des systèmes ERP et CRM pour gérer leurs opérations. Dans le but de se conformer à la réglementation, de réduire les risques, d’améliorer la rentabilité, la compétitivité et l’engagement des clients, elles doivent devenir data-centric.

    Outre la nécessité d’exploiter une grande variété de nouveaux actifs de données, les données stratégiques et historiques de ces systèmes doivent être impliquées dans toute initiative de données.

    La compréhension des métadonnées provenant de ces systèmes ERP et CRM présente les défis suivants :

    • Ils ont des modèles de données volumineux, complexes, difficiles à comprendre et personnalisés ;
    • Il est presque impossible de comprendre les descriptions logiques, les définitions de relations et d’autres moyens de servir les Data Citizens sans l’aide appropriée.

    Zeenea annonce la mise à disposition immédiate de ses connecteurs ERP Premium (tarifés séparément) dans son Enterprise Edition afin d’automatiser la gestion des métadonnées pour les systèmes suivants :

    sap connector

    • SAP and SAP/4HANA
    • SAP BW

    salesforce connector

    oracle connector

    • Oracle E Business Suite
    • JD Edwards

    people-soft connector

    microsoft-dynamic-connector

    • MS Dynamics AX
    • MS Dynamics CRM

    siebel connector

    Amélioration de l’authentification

    L’authentification est la première action d’un utilisateur pour accéder à une solution. Toutefois, celle-ci peut très facilement devenir une source de frustration : changement de login, changement de mot de passe, par exemple.

    Afin de faciliter la tâche de chacun, nous vous proposons un tout nouveau système d’authentification et un moyen d’intégrer le login de votre entreprise dans notre produit. 

     Nous supportons l’ensemble des fournisseurs d’identité et les types de protocoles les plus courants (Active Directory/LDAP, ADFS, Azure Active Directory Native, Azure Active Directory, OpenID Connect, PingFederate, SAML, GSuite). 

    De plus, nous conservons également la possibilité de vous connecter avec un identifiant spécifique à Zeenea si vous avez besoin de séparer le data catalog de vos autres activités et applications. 

    La gestion des mots de passe pour ce type d’authentification a été améliorée et répond désormais à de meilleurs appels de sécurité :   

    • le niveau de sécurité a été mis en place pour maximiser la complexité et la sécurité des mots de passe ;
    • quand vous réinitialisez le mot de passe, nous vous envoyons maintenant un e-mail.

    azure
    Azure Active Directory

    active directory
    Active Directory / LDAP

    adfs
    ADFS

    azure
    Azure Active Directory Native

    salm
    Open ID connect


    PingFederate


    Google G suite

    salm
    SALM

    La Data Gouvernance et les données des ERP et CRM: un must.

    La Data Gouvernance et les données des ERP et CRM: un must.

    Depuis trois décennies, les entreprises s’appuient sur des progiciels de gestion intégrés (ERP) et de gestion de la relation client (CRM) pour mener à bien leurs activités.

    Pour répondre à la nécessité de se conformer aux réglementations, de réduire les risques, d’améliorer la rentabilité, la compétitivité et l’engagement des clients, elles se doivent de devenir « Data Driven ».

    Outre la nécessité de tirer parti d’une grande variété de nouvelles données produites en grande quantité par de nouveaux canaux, les données stratégiques de ces systèmes historiques doivent être embarquées dans toute initiative “Data Driven”.

     

    Les défis des entreprises qui tentent d’exploiter les données des systèmes ERP/CRM pour alimenter leurs initiatives digitales

    Dans la ruée vers l’or que les entreprises poursuivent avec l’intelligence artificielle, l’Analytics et dans tout programme de transformation digitale, la compréhension et l’exploitation des données des ERP et CRM  est sur le chemin critique de toute gouvernance des données.

    Tout d’abord, ces systèmes disposent de modèles de bases de données volumineux, difficiles à comprendre et personnalisés. Comprendre les descriptions, les définitions des relations et tout autre moyen de servir les utilisateurs de ces données est presque impossible sans un data catalog approprié comme Zeenea avec ses connecteurs ERP/CRM ad hoc.

    À titre d’exemple, SAP dispose de plus de 90 000 tables. Par conséquent, un data scientist ne comprendra pas la table dite “TF120” dans SAP ou la table “F060116” dans JD Edwards.

    Deuxièmement, l’identification d’un sous-ensemble complet de jeux de données précis et au service d’une initiative Data spécifique est une course d’obstacles.

    En effet, un grand pourcentage des tables de ces systèmes sont vides, peuvent sembler redondantes ou avoir des liens complexes pour ceux qui ne sont pas des experts du domaine ERP/CRM.

    Troisièmement, le besoin d’initiatives “Data Driven”, agiles et axées sur un ROI rapide, place le personnel compétent en matière d’ERP/CRM au milieu de la mêlée.

    Les experts en ERP/CRM sont des ressources rares, occupées et coûteuses et les entreprises ne peuvent pas se permettre d’augmenter ces équipes ou de les voir perdre leur concentration.

    Quatrièmement, si le data catalog n’est pas en mesure de correctement stocker les métadonnées pour ces systèmes, de manière fluide, complète et efficace, toute initiative de données sera privée d’une grande partie de ses capacités.

    Le besoin de données financières, de données de fabrication et de données clients, pour ne prendre que quelques exemples, est évident et fait donc des systèmes ERP/CRM des sources de données obligatoires pour tout programme de gestion des métadonnées.

     

    Proposition de valeur de Zeenea

     

    Un moyen agile et facile

    Chez Zeenea, nous croyons en un monde de Data Democracy, où tout employé peut découvrir, comprendre et faire confiance à tout jeux de données qui lui est utile.

    Cela n’est possible qu’avec un data catalog à l’épreuve de la réalité, qui se connecte facilement et directement à n’importe quelle source de données, y compris celles provenant des progiciels ERP/CRMP.

    Enfin et surtout, un data catalog doit être intelligent, facile à utiliser, facile à mettre en œuvre et facile à intégrer dans un paysage informatique complexe.

    Une large connectivité

    Zeenea fournit des « connecteurs Premium ERP/CRM » pour les packages suivants

    • SAP et SAP/4HANA
    • SAP BW
    • Salesforce
    • Oracle E Business Suite
    • JD Edwards
    • Siebel
    • Peoplesoft
    • MS Dynamics EX
    • MS Dynamics CRM

     

    Zeenea Les connecteurs “ERP/CRM Premium” aident les entreprises dans les domaines suivants:

    Découvrir et évaluer

    Les connecteurs Zeenea aident les entreprises à construire une couche de traduction automatique, masquant la complexité des tables de base de données sous-jacentes et alimente automatiquement le registre des métadonnées avec des informations précises et utiles, ce qui permet à l’équipe de gouvernance des données d’économiser du temps et de l’argent.

    Identifier et isoler les informations utiles sur les métadonnées pour des cas spécifiques.

    Dans un monde composé de milliers de jeux de données, Zeenea fournit un moyen de construire des modèles précis et autosuffisants pour répondre à des besoins ciblés en extrayant de manière exhaustive :

    • Business and technical names for tables
    • Business and technical names for columns in tables
    • Relationships between tables
    • Data Elements
    • Domains
    • Views
    • Indexes
    • Table row count
    • Application hierarchy (quand c’est possible)

    Conformité

    Les « connecteurs ERP/CRM Premium » de Zeenea sont capables d’identifier et marquer toute donnée personnelle ou PII  provenant de ses progiciels CRM/ERP supportés dans son data catalog afin de respecter la réglementation GDPR/CCPA.

    Data science : mieux exploiter son data lake avec les métadonnées

    Data science : mieux exploiter son data lake avec les métadonnées

    Les data lakes offrent un stockage illimité pour les données et présentent de nombreux avantages pour les data scientists dans l’exploration et la création de nouveaux modèles analytiques. Cependant, ces données structurées, non structurées et semi-structurées sont mélangées et la valeur business qu’elles contiennent est souvent négligée ou mal comprise par les utilisateurs data.

    L’explication est simple: les technologies utilisées pour mettre en œuvre des data lakes n’ont pas les capacités d’information nécessaires. Il est donc essentiel que les entreprises mettent en place une gestion des métadonnées efficace qui prend en compte la découverte des métadonnées, le catalogage des données et une gestion des métadonnées au niveau de l’entreprise en fonction du data lake.

    2020 est l’année où la plupart des cas d’usage de données et analytics nécessiteront une connexion à des sources de données distribuées, ce qui amènera les entreprises à doubler leurs investissements dans la gestion des métadonnées. – Gartner 2019.

    Comment exploiter votre data lake avec la gestion des métadonnées

    Afin de produire de la valeur avec leurs données, les entreprises se doivent de disposer à la fois d’utilisateurs qualifiés (tels que des data scientists ou des citizen data scientists) et d’une stratégie de metadata management. Pour commencer, une organisation pourrait se concentrer sur un jeu de données (et ses métadonnées) spécifique. Ensuite, il faudrait exploiter ces métadonnées au fur et à mesure que d’autres données sont ajoutées au data lake. La mise en place d’une gestion des métadonnées peut faciliter cette tâche pour les utilisateurs du data lake.

    Voici les principales actions à mener pour une gestion des métadonnées réussie:

    La création d’un référentiel de métadonnées

    La mise en place d’une sémantique est essentielle pour découvrir les métadonnées d’entreprise. La découverte de métadonnées ou “metadata discovery” est définie comme le processus de découverte d’informations sur un jeu de données. Ce processus aboutit généralement à un ensemble de mapping entre différents éléments data dans un référentiel de métadonnées centralisé. Cela permet aux data scientists de comprendre leurs données et d’avoir une visibilité sur leurs fiabilité, leurs dernière mise à jour, etc.

     

    L’automatisation de la découverte des métadonnées

    Étant donné le nombre et la diversité des données données ajoutées quotidiennement à un data lake, maintenir l’ingestion peut être une tâche chronophage ! En utilisant des solutions automatisées, il est plus facile pour les équipes du data lake de maintenir cette source compréhensible dans le temps et pour les data scientists ou les CDS de trouver et découvrir leurs les bonnes informations sous la forme de métadonnées.

     

    Cataloguer ses données

    Un data catalog est constitué de métadonnées dans lesquelles sont stockés divers objets, catégories, propriétés et champs. Le catalogage des données est utilisé à la fois pour les données internes et externes (provenant de partenaires ou de fournisseurs par exemple). Dans un data lake, il est utilisé pour capturer un ensemble d’attributs pour chaque élément du data lake et enrichit le catalogue de métadonnées en exploitant ces actifs d’information. Cela permet aux utilisateurs de la data science d’avoir une vue sur les données avec lesquelles ils s’apprêtent à travailler : provenance, qualité, leur dernière mise à jour.

     

    Avoir une gouvernance des données et analytics

    La gouvernance des données et l’analytique sont des cas d’usage importants lorsqu’il s’agit de la gestion des métadonnées. Appliquée aux data lakes, la question « pourrait-elle être exposée ? » doit devenir un élément essentiel du modèle de gouvernance de l’organisation. Les entreprises doivent donc étendre leurs modèles de gouvernance existants pour traiter des cas d’usage spécifiques à l’analyse business et de data science construits sur les data lakes. La gestion des métadonnées d’entreprise permet de mieux comprendre les règles de gouvernance actuelles liées à des actifs d’entreprise stratégiques.

    Contrairement aux approches traditionnelles, l’objectif principal de la gestion des métadonnées est de favoriser une approche consistante à la gestion des informations. Plus la sémantique des métadonnées est cohérente pour l’ensemble du patrimoine de données, plus la cohérence et la compréhension sont grandes, ce qui permet d’exploiter la connaissance autour des données à l’ensemble de l’entreprise.

     

    Démarrer une gestion des métadonnées avec Zeenea

    Comme mentionné ci-dessus, la mise en œuvre de la gestion des métadonnées dans votre stratégie de data management est non seulement bénéfique, mais aussi essentielle pour les entreprises qui cherchent à créer de la valeur business avec leurs données. Les équipes de data science travaillant avec des quantités de données variées dans un data lake ont besoin de solutions adaptées pour pouvoir comprendre et faire confiance à leurs informations. Pour soutenir cette discipline émergente, Zeenea vous donne tout ce dont vous avez besoin pour collecter, mettre à jour et exploiter vos métadonnées grâce à sa plateforme nouvelle génération !

    DataOps: Où en êtes-vous dans la compréhension de vos Big Data ?

    DataOps: Où en êtes-vous dans la compréhension de vos Big Data ?

    Les transformations digitales font émerger de nouveaux challenges autour de la data. Toutefois, le constat fait sur l’investissement des environnements Big Data ces dernières années n’a en rien simplifier la tâche des entreprises. Selon nous, les architectures Big Data devraient, entre autres :

    • Recueillir des informations sur un large éventail de données,
    • Utiliser des techniques d’analyse avancées telles que les algorithmes statistiques, l’apprentissage automatique et l’intelligence artificielle,
    • Permettre le développement d’applications orientées vers les données, comme par exemple, un système de recommandation sur un site web.

    Afin de mettre en place une architecture Big Data réussie, les données d’entreprise sont stockées dans un data lake centralisé, destiné à servir divers objectifs. Cependant, la quantité massive et continue de données provenant de diverses sources transforme un data lake en data swamp ! Alors que les fonctions métier travaillent de plus en plus avec des données, comment les entreprises peuvent les aider à s’y retrouver ?

    Pour que vos Big Data soient exploitées au maximum de leur potentiel, vos données doivent être correctement documentées.

    La documentation des données est la clé. Cependant, documenter des données telles que leur nom, leur description, leur propriétaire, leurs balises, ou encore leur niveau de confidentialité, peut être une tâche extrêmement longue, surtout avec le nombre colossal de données dans votre data lake !

    Avec une approche DataOps, un cadre agile axé sur l’amélioration de la communication, de l’intégration et de l’automatisation des flux de données entre les responsables et les consommateurs de données au sein d’une organisation, les entreprises sont en mesure de mener à bien leurs projets de manière progressive. Soutenues par une solution de data catalog, les entreprises sont en mesure de cartographier et d’exploiter plus facilement leur patrimoine de données, de manière agile, collaborative et intelligente.

     

    Comment un data catalog peut-il soutenir une approche DataOps dans votre projet Big Data ?

    Revenons à l’essentiel… qu’est-ce qu’un data catalog ?

    Un data catalog collecte et met à jour automatiquement les métadonnées techniques et opérationnelles les sources de données d’une entreprise et les stocke dans une unique source de vérité. Son but est de démocratiser la compréhension des données : permettre à vos collaborateurs de trouver les données dont ils ont besoin via une plateforme facile à utiliser. Les data catalogs ne nécessitent pas d’expertise technique pour découvrir, comprendre, et avoir confiance en vos données !

    Une documentation efficace pour vos données Big Data