Mettre en place une gouvernance des données efficace avec Zeenea | S03-E01 – 6 semaines pour démarrer votre gouvernance des données

Mettre en place une gouvernance des données efficace avec Zeenea | S03-E01 – 6 semaines pour démarrer votre gouvernance des données

Ceci est le dernier épisode de la troisième et dernière saison de notre série « Zeenea Effective Data Governance Framework ».

Divisée en deux épisodes , cette saison finale se concentrera sur la mise en place d’une gestion des métadonnées à travers un data catalog. 

Pour ce dernier épisode du Framework, nous expliquerons comment Zeenea vous aide à implémenter le premier incrément de votre data catalog dans un cycle court de 3 à 6 semaines.

Saison 1 : Alignement

  • RComprendre le contexte
  • RTrouver les bonnes personnes
  • RSe préparer pour passer à l'action

    S01 E01

    Évaluer la maturité de vos données

    S01 E02

    Spécifier votre Stratégie Data

    S01 E03

    Obtenir du soutien

    S01 E04

    Réaliser une analyse SWOT

    Saison 2 : Adaptation

    • RCréer vos personas
    • RIdentifier les rôles majeurs
    • RDéfinir vos objectifs

      S02 E01

      Organiser votre Data Office

      S02 E02

      Organiser une Communauté Data

      S02 E03

      Sensibiliser votre entreprise aux données

      Saison 3 : La mise en place d’une gestion des métadonnées à travers un data catalog

      • RConnaître ses données
      • RItération de votre data catalog

        S03 E01

        L’importance des métadonnées

        S03 E02

        6 semaines pour démarrer une gouvernance des données

        Itérations de’une gouvernance des métadonnées

        Nous utilisons une approche itérative basée sur des cycles courts (6 à 12 semaines au maximum) pour déployer et étendre progressivement l’initiative d’une gestion des métadonnées dans un data catalog.

        Ces cycles courts permettent d’obtenir rapidement de la valeur. Ils donnent également l’occasion de communiquer régulièrement via la Communauté Data sur chaque initiative, ainsi que les avantages qui y sont associés.

        Chaque cycle est organisé en étapes prédéterminées :

        itération d'une gouvernance des métadonnées

            1. Identifier l’objectif

            Comment ?

            Atelier :  À partir de vos OKRs, détaillez précisément l’objectif et les risques associés pour la première itération.

            Livrable

            Un périmètre (données, personnes), une cible.

            2. Déployer et connecter

            Comment ?

            Organisez une réunion technique et définissez la nécessité de se conformer au périmètre des données.

            Livrable

            Configuration technique des scanners et capacité à récolter l’information.

            Scanners Zeenea déployés et opérationnels.

            3. Concevoir et configurer

            Comment ?

            Atelier de définition ou adaptation du métamodèle pour répondre aux attentes des premiers cycles.

            Livrable

            Un métamodèle conçu pour répondre aux attentes.

            4. Importer les objets

            Comment ?

            Enrichissez votre plateforme de gestion des métadonnées : chargez et documentez en fonction de la cible.

            Livrable

            Définir les informations de base (minimum viable) pour servir correctement les utilisateurs.

            5. Ouvrir et tester

            Comment ?

            Laissez les utilisateurs tester la valeur produite. Remettez-la en question et validez-la.

            Livrable

            Valider si l’effort a produit la valeur attendue.

            6. Mesurer les gains

            Comment ?

            Atelier rétrospectif : vérifier si les objectifs sont atteints et si les utilisateurs sont satisfaits.

            Livrable

            Analyse fine du cycle pour identifier ce qui a marché, ce qui n’a pas marché et comment améliorer le prochain cycle.

            Démarrez une gestion des métadonnées en seulement 6 semaines !

             

            Dans notre guide, nous expliquons comment démarrer une gestion des métadonnées en moins de 6 semaines. Téléchargez pour obtenir votre guide gratuit !

            Stratégie data : comment briser les silos de données ?

            Stratégie data : comment briser les silos de données ?

            Cycle de vie d’un produit, marketing, relation client, les données sont omniprésentes dans le quotidien de l’entreprise. Clients, fournisseurs, collaborateurs, partenaires, tous les maillons de la chaîne collectent, analysent et exploitent les données à leur façon. Le risque : l’apparition de silos ! Découvrons pourquoi vos données sont silotées et comment y mettre fin.

            Une entreprise, ce sont différents métiers qui coordonnent leur action pour s’imposer sur leur marché et générer du profit. Chacun de ces métiers remplit des missions spécifiques et collecte des données. Le marketing, les forces de vente, la relation client, la communication, toutes ces entités agissent au quotidien et appuient leur action sur des données qui leur sont propres. Le problème, c’est que sur l’ensemble de son parcours, un client va générer un certain volume d’informations. 

            D’abord simple lead, puis prospect, client enfin, une même personne peut être connue par les différents métiers qui composent votre organisation, sans que la connaissance de cet individu soit partagée entre toutes vos équipes. 

            Cette réalité, c’est ce que l’on appelle le silo de données.

            En d’autres termes, les données sont cloisonnées, mal voire jamais partagées et donc trop souvent inexploitées.  Dans une étude réalisée par le cabinet IDC intitulé The Data-Forward Enterprise, publiée en décembre 2020, 46% des entreprises françaises prévoient une croissance annuelle de 40% du volume des données à traiter au cours des deux prochaines années.

            Près de 8 entreprises sur 10 considèrent que la gouvernance des données est essentielle. Pourtant, elles ne sont que 11% à estimer tirer le plein potentiel de leurs données. En cause, le plus souvent : les silos de données.

             

            Quelles sont les conséquences majeures des silos de données ?

            Parmi les problèmes fréquents liés aux silos datas, on trouve d’abord et avant les doublons. Puisque les données sont exploitées par les métiers en aveugle, quoi de plus naturel ?

            Mais ces doublons ont des conséquences fâcheuses. Elles faussent la connaissance que vous pouvez avoir de vos produits ou de vos clients. Ces informations biaisées, imparfaites, amènent bien souvent à des décisions imprécises voire erronées.

            Les doublons occupent également un espace inutile sur vos serveurs. Un espace de stockage qui représente un coût supplémentaire pour votre entreprise. Au-delà de l’impact des silos de données sur les décisions, les stratégies ou les finances de votre entreprise, il y a aussi le déficit organisationnel induit.

            Quand vos données sont en silos, vos équipes ne peuvent collaborer efficacement puisqu’elles ne savent même pas qu’elles exploitent le même terreau ! 

            A l’heure où l’intelligence collective est érigée en valeur cardinale, c’est sans doute le préjudice majeur que causent les silos de données.   

             

            Pourquoi votre entreprise subit des silos de données ?

            Les causes qui génèrent les silos de données sont nombreuses. Le plus souvent, elles sont liées à l’histoire même de votre système d’information. Celui-ci s’est bâti au fil des années comme un mille-feuilles d’applications métiers qui n’étaient pas toujours conçues dans une logique d’interopérabilité. 

            Par ailleurs, une entreprise est comme un organisme vivant. Elle accueille de nouveaux collaborateurs quand d’autres la quittent. Dans le torrent du quotidien, la culture data peine à se propager dans les effectifs. Enfin, il y a la place qu’occupent les données dans les processus clés des organisations. 

            Aujourd’hui centrale, elle l’était beaucoup moins il y a seulement 5 à 10 ans. Mais puisque vous savez maintenant que vous subissez des silos de données, il faut passer à l’action.

             

            Comment faire disparaître les silos data ?

            Pour s’engager sur la voie de l’éradication des silos de données, il faut agir avec méthode.

            Commencez par admettre cette réalité : le processus va forcément prendre un peu de temps. Le prérequis indispensable, c’est la cartographie détaillée de l’ensemble de vos bases de données et de votre système d’informations. Celles-ci peuvent être produites par différents outils (emails, CRM, feuilles de calcul diverses, documents commerciaux, factures clients…).

            Il faut commencer par identifier toutes les sources de données en vue, dans un deuxième de les centraliser dans un collecteur unique. Pour cela, vous pourrez par exemple créer des brèches entre les silos en utilisant des connecteurs spécifiques, également appelés API.

            La deuxième piste consiste à implémenter sur votre système d’information une plateforme qui centralisera l’ensemble des données. 

            Fonctionnant comme un agrégateur de data, cette plateforme se chargera également de consolider les données en traquant les doublons, en conservant les informations les plus récentes. La mise en place d’un data catalog vous évitera une fois déployées,  de voir réapparaître les silos de données. 

            Mais attention, la qualité des données, leur circulation optimisée entre les services, et leur exploitation coordonnée au service de la performance, c’est aussi un projet humain !

            Partager les bonnes pratiques, former, sensibiliser en un mot impulser une culture data dans l’entreprise, sera la clé d’une éradication définitive des silos de données.

             

            Migration Cloud : Les clés du succès

            Migration Cloud : Les clés du succès

            La COVID-19 a provoqué un changement majeur dans la culture du travail et le cloud intervient comme un socle incontournable de la continuité des l’activité des collaborateurs en leur offrant un accès aux données de l’entreprise, où qu’ils se trouvent.  Mais pourquoi migrer ? Comment migrer ? Et pour quels bénéfices ? Tour d’horizon.

            La tête dans les nuages et les pieds sur terre, c’est la promesse du Cloud qui, à la faveur de la crise sanitaire, s’est avéré l’outil essentiel de la continuité de l’activité des entreprises.

            Dans une étude réalisée par le cabinet Vanson Bourne à la fin de l’année 2020, apparaît que plus de 8 dirigeants d’entreprise sur 10 (82%), ont accéléré leur décision de faire migrer leurs données et leurs fonctions métier critiques dans le cloud, après avoir été confrontés à la crise de la COVID-19. 91% des participants à l’enquête affirment avoir davantage conscience de l’importance des données dans le processus de prise de décisions depuis le début de la crise. 

            Cloud et données. Un duo désormais indissociable de la performance des entreprises. Une réalité qui ne se limite pas au marché Français. Le plébiscite de la migration cloud des données est quasiment général. L’étude Vanson Bourne souligne ainsi une prise de conscience partagée à l’échelle internationale, avec des chiffres édifiants :

            •  États-Unis (97 %),
            •  Allemagne et Japon (93 %),
            • Royaume-Uni (92 %).

            Enfin, 99 % des dirigeants chinois accélèrent leurs projets en vue de compléter leur migration dans le cloud. Dans ce contexte, la question « pourquoi migrer vers le cloud » trouve une réponse sans équivoque : si vous ne le faîtes pas, vos concurrents le feront avant vous et vous prendront définitivement de vitesse.

             

            Les principaux bénéfices de la migration cloud

            Assurer la migration cloud des données, c’est d’abord et avant tout la perspective d’en garantir la disponibilité en toutes circonstances. Une fois formulé, ce bénéfice en entraîne de nombreux autres.

            Si les données sont accessibles partout et tout le temps, l’entreprise est en mesure de répondre à l’exigence de mobilité et de flexibilité formulée par les collaborateurs. 

            Une exigence assouvie par la force des choses durant les confinements successifs et qui devrait perdurer alors que le retour à la normale semble enfin envisageable. Des collaborateurs pleinement opérationnels de chez eux, au bureau ou à la campagne, c’est non seulement une promesse de productivité accrue mais aussi d’amélioration considérable de l’expérience utilisateur. Les bénéfices RH ne sont pas les seules conséquences de la migration cloud. 

            Sur le plan financier, le cloud ouvre la voie à une meilleure maîtrise des coûts informatiques. Faisant basculer les données d’une dimension CAPEX à une dimension OPEX, vous pourrez améliorer le TCO (Total Cost of Ownership) de votre Système d’information et de vos actifs data. Meilleure expérience, maîtrise budgétaire, le cloud ouvre la voie à une disponibilité optimisée des données. 

            En effet, lors de la migration cloud, vos partenaires prennent des engagements en termes de maintenance, ou de sauvegardes qui garantissent un accès maximal à vos datas. Vous devrez par conséquent porter une attention particulière à ces engagements que l’on désigne sous le nom de SLA (pour Service Level Agreement). 

            Enfin, en migrant des données sur le cloud, vous bénéficiez de l’expertise et des moyens techniques de partenaires spécialisés qui déploient des moyens bien supérieurs à ceux dont vous pourrez disposer par vous-mêmes.

             

            Réussir la migration vers le Cloud

            Les données sont, après les ressources humaines, l’actif le plus précieux d’une entreprise.

            C’est d’ailleurs l’une des raisons qui plaident pour opérer leur migration vers le cloud. Mais il faut que l’opération se déroule dans les meilleures conditions pour limiter le risque de dégradation des données, mais aussi l’indisponibilité temporaire qui impacte votre activité.

            Pour cela, la préparation est essentielle et repose sur une condition préalable : le projet ne concerne pas seulement les équipes IT, mais l’ensemble de l’entreprise. 

            Accompagner, rassurer, former : le triptyque essentiel à toute conduite du changement devra nécessairement s’appliquer. Veillez ensuite à vous donner du temps. Évitez le mode Big Bang qui risquerait d’irriter les équipes et de doucher l’enthousiasme des collaborateurs. Même si la migration cloud de vos données doit se passer sans encombre, mettez toutes les chances de votre côté en réalisant des sauvegardes de vos données. 

             Misez sur la redondance pour parer à toute éventualité y compris (et surtout !), les plus improbables. Au terme du déploiement sur le cloud, veillez à la qualité de l’expérience pour les collaborateurs. En réalisant un pilotage rigoureux du projet au long cours, vous pourrez facilement identifier s’il faut effectuer des ajustements sur vos arbitrages initiaux. 

             

            L’évolutivité du modèle cloud est une force dont vous devrez vous saisir pour adapter constamment votre stratégie !

            Mettre en place une gouvernance des données efficace avec Zeenea | S03-E01 – L’importance des métadonnées

            Mettre en place une gouvernance des données efficace avec Zeenea | S03-E01 – L’importance des métadonnées

            Ceci est le premier épisode de la troisième et dernière saison de notre série « Zeenea Effective Data Governance Framework ».

            Divisée en deux épisodes , cette saison finale se concentrera sur la mise en place d’une gestion des métadonnées à travers un data catalog. 

            Pour ce premier épisode, nous vous donnerons les bonnes questions à se poser pour construire un métamodèle pour vos métadonnées.

            Saison 1 : Alignement

            • RComprendre le contexte
            • RTrouver les bonnes personnes
            • RSe préparer pour passer à l'action

              S01 E01

              Évaluer la maturité de vos données

              S01 E02

              Spécifier votre Stratégie Data

              S01 E03

              Obtenir du soutien

              S01 E04

              Réaliser une analyse SWOT

              Saison 2 : Adaptation

              • RCréer vos personas
              • RIdentifier les rôles majeurs
              • RDéfinir vos objectifs

                S02 E01

                Organiser votre Data Office

                S02 E02

                Organiser une Communauté Data

                S02 E03

                Sensibiliser votre entreprise aux données

                Saison 3 : La mise en place d’une gestion des métadonnées à travers un data catalog

                • RConnaître ses données
                • RItération de votre data catalog

                  S03 E01

                  L’importance des métadonnées

                  S03 E02

                  6 semaines pour démarrer une gouvernance des données

                  Dans la saison précédente, nous vous avons donné nos conseils sur la façon de créer votre Data Office, d’organiser votre Communauté Data et de sensibiliser votre organisation aux données.

                  Dans cette troisième saison, vous allez entrer dans le monde réel de la mise en œuvre d’un data catalog, là où les saisons 1 et 2 vous ont aidé à spécifier votre stratégie data.

                  Dans cet épisode, vous apprendrez à poser les bonnes questions pour concevoir votre métamodèle de métadonnées.

                   

                  L’importance des métadonnées

                  La gestion des métadonnées est une discipline naissante et nécessaire pour les entreprises souhaitant renforcer des démarches d’innovation ou de conformité réglementaire sur leur patrimoine de données.

                  Nombre d’entre elles essaient d’acquérir des convictions sur le sujet et de se doter de solutions permettant de relever ce nouveau pari. En conséquence, les métadonnées se voient de plus en plus administrées, en parallèle des données, de manière cloisonnée et silotée, ne permettant pas d’actionner tout le potentiel de cette discipline à l’échelle de l’entreprise.

                  Pour poser votre gouvernance des données, vous allez devoir couvrir différents aspects, vous poser les bonnes questions et identifier comment y répondre.

                  Notre template de métamodèle a vocation à vous permettre de balayer les principaux aspects avec des questions où pour chacune vous déciderez de la pertinence de couvrir le point concerné.

                  Ces questions peuvent aussi servir de support pour construire votre modèle de documentation de la donnée et apporter aux acteurs de la donnée les éléments qui leur sont utiles.

                   

                    Le Qui ?

                    • Qui a créé cette donnée ?
                    • Qui est responsable de cette donnée ?
                    • À qui appartient cette donnée ?
                    • Qui utilise cette donnée ?
                    • Qui contrôle ou audite cette donnée ?
                    • Qui est garant (et acteur) de la qualité de la donnée ?
                    • Qui accorde le droit d’accès à la donnée ?

                     

                    Le Quoi ?

                    • Quelle est la définition « métier » de cette donnée ?
                    • Quelles sont les règles métiers associées à cette donnée ?
                    • Quel est le niveau de sécurité et/ou confidentialité de cette donnée ?
                    • Quels sont les acronymes ou alias associés à cette donnée ?
                    • Quelles sont les règles liées à la sécurité ou confidentialité concernant cette donnée ?
                    • Quel niveau de fiabilité (qualité, véracité, etc.) définit cette donnée ?
                    • Quels sont les contextes d’utilisation autorisés (lié à la confidentialité par exemple) ?
                    • Quels sont les contextes (techniques) d’utilisation possibles (ou impossibles) de cette donnée ?
                    • Cette donnée est-elle considérée comme la « Golden Source » ?

                     

                    Le Où ?

                    • Où est située cette donnée ?
                    • D’où provient cette donnée ? (partenaire, open data, interne, etc.)
                    • Où est utilisée / partagée cette donnée ?
                    • Où est sauvegardée cette donnée ?

                     

                    Le Pourquoi ?

                    • Pourquoi stockons-nous cette donnée (plutôt que de traiter un flux) ?
                    • Quel est l’objectif / l’usage actuel de cette donnée ?
                    • Quels sont les usages possibles identifiés de cette donnée ? (futur)

                     

                    Le Quand ?

                    • Quand a été créée cette donnée ?
                    • Quand a été mise à jour cette donnée ?
                    • Quel est le cycle de vie de cette donnée (fréquence de mise à jour) ?
                    • Combien de temps stockons nous cette donnée ?
                    • A quel moment cette donnée doit-elle être supprimée ?

                     

                    Le Comment ?

                    • Comment est structurée cette donnée (schéma) ?
                    • Comment les systèmes consomment cette donnée ?
                    • Comment obtenir l’accès à cette donnée ?

                    Commencez à Définir un Template de Métamodèle !

                     

                    Ces questions peuvent servir de support pour construire votre modèle de documentation de la donnée et apporter aux consommateurs de la donnée les éléments qui leur sont utiles.

                    Ne manquez pas notre dernier épisode du Zeenea Data Governance Framework la semaine prochaine:

                    « 6 semaines pour démarrer votre gouvernance des données où nous vous expliquerons comment Zeenea vous aide à implémenter le premier incrément de votre data catalog dans un cycle court de 3 à 6 semaines.

                     

                    Copyright Zeenea 2021, tous droits réservés.

                    Mettre en place une gouvernance des données efficace avec Zeenea | S02-E03 – Sensibilisation autour de la donnée

                    Mettre en place une gouvernance des données efficace avec Zeenea | S02-E03 – Sensibilisation autour de la donnée

                    Ceci est le dernier épisode de la deuxième saison de notre série « Zeenea Effective Data Governance Framework ».

                    Divisée en trois parties , cette deuxième partie se concentrera sur l’Adaptation. Ceci consiste à : 

                    • Organiser votre Data Office 
                    • Mettre en place une communauté Data  
                    • Sensibiliser votre entreprise aux données

                    Pour ce dernier épisode, nous vous donnerons les clés pour créer de la sensibilisation autour des données au sein de votre organisation.

                    Saison 1 : Alignement

                    • RComprendre le contexte
                    • RTrouver les bonnes personnes
                    • RSe préparer pour passer à l'action

                      S01 E01

                      Évaluer la maturité de vos données

                      S01 E02

                      Spécifier votre Stratégie Data

                      S01 E03

                      Obtenir du soutien

                      S01 E04

                      Réaliser une analyse SWOT

                      Saison 2 : Adaptation

                      • RCréer vos personas
                      • RIdentifier les rôles majeurs
                      • RDéfinir vos objectifs

                        S02 E01

                        Organiser votre Data Office

                        S02 E02

                        Organiser une Communauté Data

                        S02 E03

                        Sensibiliser votre entreprise aux données

                        Saison 3 : La mise en place d’une gestion des métadonnées à travers un data catalog

                        • RConnaître ses données
                        • RItération de votre data catalog

                          S03 E01

                          L’importance des métadonnées

                          S03 E02

                          6 semaines pour démarrer une gouvernance des données

                          Dans le dernier épisode, nous vous avons donné des astuces pour organiser votre communauté data en organisant vos Chapters et Guildes Data.

                          Dans cet article, nous vous donnerons des techniques pour créer de la sensibilisation autour des données à tout niveau de l’entreprise.

                          Chaque personne pourra donc connaître les missions et enjeux de l’équipe Data Governance, ce qui à terme, alignera tous les départements pour une organisation data-driven.

                          Définir vos objectifs en utilisant la méthode “SMART” 

                          Chez Zeenea, nous conseillons d’utiliser la méthode SMART (intelligent en anglais) pour planifier et exécuter votre programme de sensibilisation aux données. 

                          L’acronyme SMART signifie :

                          • Specific (Spécifique) :  Que voulez-vous accomplir ?  Pourquoi cet objectif est-il important ?  Qui est impliqué ?  Quelles sont les ressources impliquées ?
                          • Measurable (Mesurable) :  Êtes-vous en mesure de suivre vos progrès ?  Comment saurez-vous que l’objectif est atteint ?
                          • Achievable (Réalisable) :  L’atteinte de cet objectif est-elle réaliste au vu des efforts et engagements ?  Disposez-vous des ressources nécessaires pour atteindre cet objectif ?  Sinon, comment allez-vous les obtenir ?
                          • Relevant (Pertinent) :  Pourquoi cet objectif est-il important ?  Est-ce qu’il semble en valoir la peine ?  Est-ce le bon moment ?  Cela correspond-il aux efforts/besoins ? 
                          • Timely (Opportun) :  Quand allez-vous atteindre cet objectif ?

                          La méthodologie des objectifs SMART que vous allez mettre en place est progressif, même si vous cherchez à avoir une vue d’ensemble. 

                          La méthode “SMART” pour vos équipes data

                          Si vous réfléchissez au niveau de portée d’une équipe, vous pouvez les résumer en 3 catégories :

                          • La sphère de contrôle (Control Sphere) est celle que vous pouvez atteindre directement et avec laquelle l’équipe Data peut interagir. 
                          • La sphère de l’influence (Influence Sphere) est le niveau où vous pouvez trouver des sponsors et obtenir de l’aide.
                          • La sphère managériales (Concern Sphere) est constituée de C-levels qui ont besoin d’être informés de l’évolution des choses d’un point de vue de haut niveau.

                          En d’autres termes, vous devrez toucher toutes les parties prenantes concernées, mais avec des moyens, un calendrier et des interactions différents.

                          Passez du temps à créer de beaux formats, faites attention à la forme de tous vos artefacts.

                          Des exemples de tâches SMART 

                          Pour la sphère de contrôle, nous vous conseillons de faire ce qui suit :

                          • Former vos équipes (tant pour les équipes de gouvernance des données que pour les utilisateurs finaux)
                          • Faire des présentations spécifiques aux équipes concernées (Stratégie, OKRs, Roadmap, etc)
                          • Gardez vos “burn-down charts” et tous les outils de gestion visuels affichés à tout moment

                          Pour la sphère de l’influence, nous vous conseillons de :

                          • Célébrer vos premiers jalons
                          • Organiser des sprints
                          • Afficher constamment les OKRs de vos équipes 

                          Et pour la sphère managériale, nous vous conseillons de :

                          • Célébrer la fin d’un projet
                          • Organiser des démos produits
                          • Enregistrer des vidéos et les rendre disponibles

                            S2E3 - Graph FR

                              Ne manquez pas la semaine prochaine, dans notre nouvelle saison :

                              Ne manquez pas notre troisième et dernière saison du “Zeenea Effective Data Governance Framework » la semaine prochaine ! Nous vous parlerons de comment implémenter une gestion des données et de vos métadonnées grâce à un data catalog.

                               

                              Copyright Zeenea 2021, tous droits réservés.

                              Mettre en place une gouvernance des données efficace avec Zeenea | S02-E02 – Organiser votre communauté data

                              Mettre en place une gouvernance des données efficace avec Zeenea | S02-E02 – Organiser votre communauté data

                              Ceci est le deuxième épisode de la deuxième saison de notre série « Zeenea Effective Data Governance Framework ».

                              Divisée en trois parties , cette deuxième partie se concentrera sur l’Adaptation. Ceci consiste à : 

                              • Organiser votre Data Office 
                              • Mettre en place une communauté Data  
                              • Sensibiliser votre entreprise aux données

                              Pour ce deuxième épisode, nous vous donnerons les clés pour organiser de manière efficace votre communauté data au sein de votre entreprise.

                              Saison 1 : Alignement

                              • RComprendre le contexte
                              • RTrouver les bonnes personnes
                              • RSe préparer pour passer à l'action

                                S01 E01

                                Évaluer la maturité de vos données

                                S01 E02

                                Spécifier votre Stratégie Data

                                S01 E03

                                Obtenir du soutien

                                S01 E04

                                Réaliser une analyse SWOT

                                Saison 2 : Adaptation

                                • RCréer vos personas
                                • RIdentifier les rôles majeurs
                                • RDéfinir vos objectifs

                                  S02 E01

                                  Organiser votre Data Office

                                  S02 E02

                                  Organiser une Communauté Data

                                  S02 E03

                                  Sensibiliser votre entreprise aux données

                                  Saison 3 : La mise en place d’une gestion des métadonnées à travers un data catalog

                                  • RConnaître ses données
                                  • RItération de votre data catalog

                                    S03 E01

                                    L’importance des métadonnées

                                    S03 E02

                                    6 semaines pour démarrer une gouvernance des données

                                    Spotify Feature Teams: une bonne pratique, ou un échec ?

                                     

                                    Dans l’épisode précédent, nous vous avons partagé nos astuces pour construire votre Pôle Data à l’aide de personas et du paradigme des “Spotify Feature Teams”.

                                    Le modèle Spotify a cependant été critiqué car les entreprises qui ont essayé de le mettre en œuvre ont connu des échecs.

                                    Les trois principales raisons étaient les suivantes :

                                    • L’autonomie, c’est bien, mais cela ne signifie pas que les équipes peuvent faire ce qu’elles veulent et il est nécessaire de mettre l’accent sur l’alignement.
                                    • Les résultats clés doivent être définis au niveau de la direction et c’est pourquoi la mise en place dOKR est la bonne chose à faire.
                                    • L’autonomie signifie responsabilité et les équipes doivent être mesurées. Les incréments sur lesquels elles travaillent et la définition de “Fait” doit être spécifiée.

                                    Nous nous concentrerons dans cet épisode sur les Chapters et les Guildes et sur la manière d’organiser et de mieux exploiter votre communauté data.

                                     

                                    Comment organiser vos Chapters et vos Guildes

                                    Chapters

                                    La collaboration dans les Chapters et les Guildes nécessite des connaissances et une expérience spécifique. Il est faux de supposer que les équipes connaissent des pratiques agiles !

                                    Lorsque les équipes s’agrandissent, il est nécessaire de disposer d’un soutien dédié et, par conséquent, les gestionnaires en charge des sujets liés aux données sont responsables des processus et de l’organisation de la communauté data.

                                    Au plus haut niveau, l’organisation de votre communauté data signifie le partage des connaissances à tous les niveaux : technologiques, fonctionnelles, organisationnelles à travers la communauté ou les pratiques autour des sujets liés aux données.

                                    Les principales raisons de se concentrer sur l’organisation des Chapters sont les suivantes :

                                    • Les équipes manquent d’informations
                                    • Les équipes manquent de connaissances
                                    • Les équipes répètent leurs erreurs
                                    • Les équipes ont besoin de cérémonies et de pratiques agiles communes.

                                    Les Chapters doivent se réunir régulièrement et souvent. Nous conseillons de se réunir une fois par mois.

                                    Lorsqu’il est trop important, un Chapter peut être divisé en plusieurs parties. Même s’il s’agit d’un poste qui peut changer au fil du temps, un Chapter a besoin d’un leader qui n’est pas un manager.

                                    Il ou elle est chargé(e) d’animer et de rendre efficace en :

                                    • faisant participer les bonnes personnes,
                                    • partageant les résultats avec la direction générale,
                                    • coordonnant et en animant les réunions,
                                    • aidant à établir de la transparence,
                                    • trouver un moyen de partager et de garder à disposition toutes les connaissances partagées,
                                    • définir le Chapter : pourquoi, pour qui et à quoi il sert.

                                    Un conseil est de définir un « elevator pitch » pour le Chapter.

                                    Le dirigeant du Chapter est également responsable de la constitution d’un backlog afin d’éviter des discussions interminables sans résultat.

                                    En général, le backlog comprend les sujets suivants :

                                    Sujets relatifs aux données

                                    • Chapter des culture des personnes concernées par les données 
                                    • Chapter des sujets relatifs aux données en amélioration continue
                                    • Chapter des pratiques relatives aux données 
                                    • Chapter des processus relatifs aux données
                                    • Chapter des outils de données

                                     

                                    Thèmes génériques

                                    • Chapter de l’amélioration continue
                                    • Chapter de la collecte des retours d’expérience
                                    • Chapter des pratiques d’agilité
                                    • Chapter des outils génériques
                                    • partage d’informations entre les Chapters
                                    • programme d’éducation du Chapter

                                     

                                    Le responsable de Chapter est chargé de communiquer en dehors de son Chapter avec les autres responsables de Chapter et doit obtenir une allocation de temps pour l’animation.

                                     

                                    Comment créer un Chapter

                                    • identifier la communauté et tous ses membres
                                    • nommer le Chapter
                                    • organiser la première réunion du Chapter
                                    • définir un slogan
                                    • initialiser la page Web du Chapter (et la maintenir à jour pour l’accueil de nouveaux membres)
                                    • négocier et construire un premier backlog
                                    • planifier les réunions

                                      Guildes

                                      Les guildes devraient être organisées différemment et de manière plus autonome.

                                      Les guildes sont créées par la passion et les équipes ne sont construites que sur une base de volontariat.

                                      Afin d’éviter le syndrome du trop grand nombre de réunions inefficaces, nous conseillons de permettre aux guildes de se réunir uniquement dans certaines circonstances :

                                      • lors de formations, d’ateliers mais dans des formats courts comme des BBL (Brown Bag Lunch) pour les sujets pour lesquels ils ont construit la Guilde,
                                      • des séances de questions-réponses avec des cadres supérieurs pour souligner le pourquoi de la stratégie data,
                                      • lors de “Hack Days” pour approfondir un sujet 
                                      • des réunions post mortem après un problème majeur.

                                      Téléchargez notre toolkit gratuit : Guide pour un Data Chapter Leader

                                      En téléchargeant notre exemple, élaborez votre Chapter Data et mettez en place les bonnes pratiques pour une communauté data efficace.

                                      Ne manquez pas la semaine prochaine, dans notre prochain épisode :

                                      « Sensibiliser votre entreprise aux données” qui vous aidera à obtenir une adoption et un déploiement de votre stratégie data à l’échelle de l’entreprise. 

                                      Copyright Zeenea 2021, tous droits réservés.

                                      Mettre en place une gouvernance des données efficace avec Zeenea | S02-01 – Organiser votre Data Office

                                      Mettre en place une gouvernance des données efficace avec Zeenea | S02-01 – Organiser votre Data Office

                                      Ceci est le premier épisode de la deuxième saison de notre série « Zeenea Effective Data Governance Framework ».

                                      Divisée en trois parties , cette deuxième partie se concentrera sur l’Adaptation. Ceci consiste à : 

                                      • Organiser votre Data Office 
                                      • Mettre en place une communauté Data  
                                      • Sensibiliser votre entreprise aux données

                                      Pour ce premier épisode, nous vous donnerons les clés pour construire vos fiches personas data, afin de mettre en place un Data Office clair et bien défini. 

                                      Saison 1 : Alignement

                                      • RComprendre le contexte
                                      • RTrouver les bonnes personnes
                                      • RSe préparer pour passer à l'action

                                        S01 E01

                                        Évaluer la maturité de vos données

                                        S01 E02

                                        Spécifier votre Stratégie Data

                                        S01 E03

                                        Obtenir du soutien

                                        S01 E04

                                        Réaliser une analyse SWOT

                                        Saison 2 : Adaptation

                                        • RCréer vos personas
                                        • RIdentifier les rôles majeurs
                                        • RDéfinir vos objectifs

                                          S02 E01

                                          Organiser votre Data Office

                                          S02 E02

                                          Organiser une Communauté Data

                                          S02 E03

                                          Sensibiliser votre entreprise aux données

                                          Saison 3 : La mise en place d’une gestion des métadonnées à travers un data catalog

                                          • RConnaître ses données
                                          • RItération de votre data catalog

                                            S03 E01

                                            L’importance des métadonnées

                                            S03 E02

                                            6 semaines pour démarrer une gouvernance des données

                                            Dans la première saison, nous vous avons partagé les bonnes pratiques pour aligner votre stratégie data. Pour nous, il est indispensable de :

                                             

                                            Dans ce premier épisode de cette nouvelle saison, nous vous apprendrons comment construire votre Data Office.

                                             

                                            L’évolution des pôles data en entreprise

                                             

                                            Chez Zeenea, nous sommes convaincus par le pouvoir de la gouvernance des données agile. 

                                            Par le passé, la mise en place d’une gouvernance des données au sein des organisations ont rarement été couronnées de succès. Les Pôles Data se sont trop souvent concentrés sur la gestion technique ou le contrôle strict des données.

                                            Pour les utilisateurs qui s’efforcent d’expérimenter et d’innover autour de leurs données, les comportements des teams data sont souvent synonymes de restrictions ou de limitations.

                                            La donnée peut paraître comme étant un actif enfermé dans de sombres catacombes, accessibles uniquement après des mois de paperasses administratives. 

                                            Les collaborateurs se souviennent de l’énergie gaspillée lors de réunions, de la mise à jour de tableau excel et de la maintenance de wikis, pour constater que personne ne bénéficiait des fruits de leur travail.

                                            Il est évident que les entreprises sont aujourd’hui conditionnées par la conformité réglementaire pour garantir la confidentialité des données, leur sécurité et la gestion des risques (comme par exemple le RGPD).

                                            Cela dit, il est crucial d’adopter une approche plus offensive pour améliorer l’utilisation des données dans une organisation en s’assurant que les données sont utiles, utilisables et exploitées.

                                            L’utilisation de méthodes d’organisation avec de nouveaux modes d’interaction est un bon moyen de mettre en place une organisation efficace au sein d’un Data Office. 

                                             

                                            Les rôles typiques dans un Data Office 

                                            Les rôles typiques d’un Data Office sont les suivants, même si très souvent, certains rôles sont exercés par la même personne : 

                                            • Chief Data Officer
                                            • Responsables de portefeuille/programme/projet liés aux données
                                            • Data Engineer / Architect
                                            • Data Scientist
                                            • Data Analyst
                                            • Data Stewards

                                             

                                            Création de personas data

                                            Un moyen efficace de spécifier les rôles des parties prenantes du Data Office est de travailler sur leurs personas.

                                            Les entretiens individuels vous permettront d’en apprendre beaucoup sur eux : contexte, objectifs et attentes. Notre toolkit de mise en place d’OKRs est un bon guide pour construire ces personas en posant des questions précises.

                                            Voici un exemple d’une fiche persona :

                                            exemple de fiche persona zeenea

                                              Quelques astuces pour votre élaboration  de personas :

                                               

                                              • Les personas doivent être affichés dans le bureau de tous les membres de l’équipe de Data Office.

                                              • Rendez-les amusants, choisissez un avatar ou une photo pour chaque membre de l’équipe, écrivez une petite biographie personnelle et professionnelle, énumérez leurs valeurs intrinsèques et travaillez sur l’aspect et la convivialité.

                                              • Créez un persona par  personne, ne créez pas de personas pour des équipes.

                                              • Soyez très pointilleux dans les entretiens de définition des personas, reformulez-les si nécessaire.

                                              • Traitez les gens avec respect et considérez toutes les remarques et idées de la même manière.

                                              • Imprimez-les et affichez-les sur les murs des bureaux de tous les membres de l’équipe.

                                              Constitution d’équipes transversales

                                              Le deuxième conseil, pour se débarrasser des silos de données et d’organisation, est d’organiser votre Data Office en Feature Teams (voir la littérature sur le cadre des Feature Teams de Spotify).

                                              Le principe est de constituer des équipes transversales pour répondre à une caractéristique spécifique importante attendue par votre entreprise.

                                              Le modèle Spotify définit les équipes suivantes :

                                              Squads

                                              Les “Squads” sont des équipes transversales et autonomes qui se concentrent sur un domaine de features. Chaque Squad a une mission unique qui guide son travail. 

                                              Dans l’épisode 2 de la saison 1, dans notre exemple de OKRs, le PDG a 3 OKRs et le premier OKR (Augmenter les ventes en ligne de 2%) a généré 2 autres OKRs :

                                              • Préparer le Data Lake pour la croissance, porté par le CIO.
                                              • Avoir des données gouvernées pour la croissance, porté par le CDO.

                                              Il y aurait alors 2 équipes :

                                              Feature 1 : préparer le Data Lake pour la croissance.

                                              Feature 2 : faire en sorte que les données soient gouvernées pour la croissance.

                                               

                                              Tribus

                                              Au niveau inférieur, plusieurs Squads se coordonnent entre eux sur la même zone de caractéristiques. Celles-ci forment une tribu. 

                                              Les tribus aident à établir un alignement entre les Squads. Chaque tribu a un chef de tribu qui est chargé d’aider à la coordination entre les Squads et d’encourager la collaboration. 

                                              Dans notre exemple, pour l’équipe chargée de la fonctionnalité « Avoir des données gouvernées pour la croissance », notre toolkit pour la mise en place d’OKRs nous indique qu’une tribu est chargée de « Préparer le Data Catalog ».

                                              Chapter

                                              Même si les Squads sont autonomes, il est important que les spécialistes (gestionnaires de données, analystes) s’alignent sur les meilleures pratiques. Les Chapitres sont la famille de chaque spécialiste et aident à maintenir les normes en place dans une discipline.

                                               

                                              Guilde

                                              Les membres de l’équipe qui sont passionnés par un sujet peuvent former une guilde, qui est essentiellement une communauté d’intérêt (par exemple : la qualité des données). Tout le monde peut adhérer à une guilde, sur la base du volontariat. 

                                              Alors que les Chapitres appartiennent à une tribu, les guildes peuvent traverser différentes tribus. Il n’y a pas de leader officiel d’une guilde.

                                              Au contraire, quelqu’un lève la main pour être le coordinateur de la guilde et aider à rassembler les gens.

                                              Des exemples de Feature Team basée sur notre contexte:

                                              exemple de feature teams zeenea

                                              Ne manquez pas la semaine prochaine, dans notre prochain épisode :

                                              Mise en place d’une communauté data, où nous vous aiderons à adapter votre organisation pour qu’elle soit plus data-driven.

                                              Copyright Zeenea 2021, tous droits réservés.

                                              Mettre en place une gouvernance des données efficace avec Zeenea | S01-E04 – Analyse de SWOT

                                              Mettre en place une gouvernance des données efficace avec Zeenea | S01-E04 – Analyse de SWOT

                                              Ceci est l’épisode final de la première saison de notre série « Zeenea Effective Data Governance Framework ».

                                              Divisée en trois parties , cette première partie se concentrera sur l’Alignement

                                              • Comprendre le contexte
                                              • Trouver les bonnes personnes 
                                              • Préparer un plan d’action dans votre transformation data-driven. 

                                              Pour ce dernier épisode sur l’alignement, nous vous donnerons les clés pour construire une analyse SWOT concrète et exploitable pour évaluer au mieux la stratégie de gouvernance des données de l’entreprise.

                                              Saison 1 : Alignement

                                              • RComprendre le contexte
                                              • RTrouver les bonnes personnes
                                              • RSe préparer pour passer à l'action

                                                S01 E01

                                                Évaluer la maturité de vos données

                                                S01 E02

                                                Spécifier votre Stratégie Data

                                                S01 E03

                                                Obtenir du soutien

                                                S01 E04

                                                Réaliser une analyse SWOT

                                                Saison 2 : Adaptation

                                                • RCréer vos personas
                                                • RIdentifier les rôles majeurs
                                                • RDéfinir vos objectifs

                                                  S02 E01

                                                  Organiser votre Data Office

                                                  S02 E02

                                                  Organiser une Communauté Data

                                                  S02 E03

                                                  Sensibiliser votre entreprise aux données

                                                  Saison 3 : La mise en place d’une gestion des métadonnées à travers un data catalog

                                                  • RConnaître ses données
                                                  • RItération de votre data catalog

                                                    S03 E01

                                                    L’importance des métadonnées

                                                    S03 E02

                                                    6 semaines pour démarrer une gouvernance des données

                                                    Dans l’épisode précédent, nous avons abordé les différents moyens pour assurer l’aval des décisionnaires.

                                                    Cette semaine, nous verrons comment établir une analyse SWOT concrète et exploitable afin d’ évaluer au mieux la stratégie de gouvernance des données de l’entreprise.

                                                    Qu’est-ce qu’une analyse SWOT ?

                                                    Avant de vous donner nos conseils et astuces pour réaliser la meilleure analyse SWOT possible, revenons en arrière et définissons ce qu’est une analyse SWOT. 

                                                    Une analyse SWOT est une technique utilisée pour déterminer et définir vos forces, faiblesses, opportunités et menaces (Strengths, Weaknesses, Opportunities, & Threats en anglais). Voici quelques exemples :

                                                    Points forts (Strengths)

                                                    Cet élément concerne les choses que votre entreprise ou un département / service fait particulièrement bien. Il peut s’agir d’un avantage concurrentiel ou d’un attribut particulier de votre produit. Un exemple de « point fort » pour une initiative data-driven serait « Bonne culture des données » ou « Données partagées dans toute l’entreprise ». 

                                                    Faiblesses (Weaknesses)

                                                    Une fois vos forces énumérées, il est important de lister les faiblesses de votre entreprise. Qu’est-ce qui freine votre entreprise ou votre projet ? Si l’on prend notre exemple, une faiblesse de votre département informatique ou data pourrait être « des limitations financières », « une technologie legacy » ou même « l’absence d’un CDO ». 

                                                    Opportunités 

                                                    Les opportunités font référence à des facteurs externes favorables qui pourraient donner à une organisation un avantage concurrentiel. Peu de concurrents sur votre marché, des besoins émergents pour votre produit… tous ces éléments sont des opportunités pour une entreprise. Dans notre contexte, une opportunité pourrait être « Migrer vers le Cloud » ou « Un budget supplémentaire pour les équipes data ». 

                                                    Menaces (Threats)

                                                    Le dernier élément d’une analyse SWOT est constitué par les menaces – tout ce qui représente un risque pour l’entreprise elle-même ou pour ses chances de réussite ou de croissance. Pour une équipe chargée des données d’entreprise, une menace pourrait être « un environnement réglementaire plus strict », par exemple.

                                                    S1E4 - SWOT

                                                      Comment commencer à construire une analyse SWOT intelligente ?

                                                      Pour réaliser une bonne analyse SWOT, il faut adopter une approche démocratique qui vous permettra de ne pas passer à côté de sujets importants.

                                                      Il y a 3 principes que vous devez suivre :

                                                      Réunissez les bonnes personnes

                                                      Invitez les différentes parties prenantes de votre équipe de gouvernance des données, de vos équipes métier, aux services informatiques, en passant par les représentants du CDO et du CPO. Vous constaterez que différents groupes au sein de votre entreprise auront des points de vue totalement différents qui seront essentiels à la réussite de votre analyse SWOT.

                                                       

                                                      Lancez vos idées contre le mur

                                                      La réalisation d’une analyse SWOT consiste, en partie, en réunions de brainstorming. Nous suggérons de distribuer des post-its et d’encourager l’équipe à générer des idées par elle-même pour commencer. Cela permet d’éviter la pensée de groupe et de s’assurer que toutes les voix sont entendues.

                                                      Cette première cérémonie ne devrait pas durer plus de 15 minutes de brainstorming individuel. Affichez tous les post-its au mur et regroupez les idées similaires. 

                                                      Vous pouvez allouer du temps supplémentaire pour permettre à chacun d’ajouter des notes à ce stade si l’idée de quelqu’un d’autre suscite une nouvelle pensée.

                                                      Classer les idées

                                                      Il est maintenant temps de classer les idées. Nous suggérons d’attribuer un certain nombre de points à chaque participant. Chaque participant notera les idées en attribuant des points à celles qu’il juge les plus pertinentes. Vous serez alors en mesure de les classer par ordre de priorité avec précision.

                                                       

                                                      Des toolkits pour votre analyse SWOT

                                                      Dans notre premier épisode, nous vous avons aidé à analyser votre maturité des données.

                                                      Nous vous avons suggéré de réaliser une analyse SWOT pour chaque aspect. Il est intéressant de se concentrer sur ceux pour lesquels le score de votre entreprise était faible, d’y consacrer plus de temps et de rédiger un plan d’amélioration comme décrit ci-dessous :

                                                      S1E4 - GROUP

                                                      Le plan d’amélioration doit mettre à jour vos OKR, avec de nouvelles activités réalisables et potentiellement de nouvelles parties prenantes avec des objectifs, des résultats clés et des échéances.

                                                      Par exemple, afin d’améliorer la culture des données, vous pouvez impliquer le responsable des RH pour lancer des sessions de formation spécifiques et créer de nouveaux rôles, responsabilités ou descriptions de poste.

                                                      Vous pourriez également vouloir modifier les demandes d’accès aux données de certaines sources de données afin de gagner en flexibilité et en fluidité.

                                                      Ne manquez pas le début de la saison 2 la semaine prochaine où nous vous aiderons à adapter votre organisation pour qu’elle devienne plus data-driven.

                                                      Copyright Zeenea 2021, tous droits réservés.

                                                      [COMMUNIQUÉ DE PRESSE] Année record pour Zeenea : croissance à trois chiffres et une forte expansion internationale

                                                      [COMMUNIQUÉ DE PRESSE] Année record pour Zeenea : croissance à trois chiffres et une forte expansion internationale

                                                      Paris, le 3 mai 2021.

                                                      Zeenea, éditeur du data catalog éponyme, annonce une croissance à trois chiffres et une forte expansion internationale.

                                                      Nos caractéristiques uniques, telles que notre plateforme SaaS-native, notre connectivité universelle, notre Knowledge Graph pour traiter les ontologies complexes ainsi que le lancement de Zeenea Explorer, nous ont donné un fort avantage concurrentiel sur les fournisseurs de data catalogs plus traditionnels.

                                                      Nous battons nos concurrents et les remplaçons car notre data catalog est moderne, facile à utiliser, facile à mettre en œuvre et facile à adapter.

                                                      Guillaume Bodet

                                                      PDG , Zeenea

                                                      L’expansion internationale de Zeenea n’a commencé qu’en 2020, avec déjà des clients dans 10 pays différents.

                                                      Avec des drapeaux implémentés aux États-Unis, au Royaume-Uni, en Allemagne, dans les pays scandinaves, aux Pays-Bas et en Afrique du Sud, nous avons démontré que notre modèle SaaS facilite une expansion internationale considérablement rapide.

                                                      Notre plateforme n’est pas spécifique à un secteur d’activité et nous sommes fiers de répondre aux besoins de clients dans les secteurs suivants : les banques et assurances, l’industrie, la vente au détail, les produits pharmaceutiques, les logiciels, les médias et les jeux vidéos.

                                                      Luc Legardeur

                                                      VP International Operations, Zeenea

                                                      Zeeena a signé, entre autres, avec des marques prestigieuses telles que Natixis, BMW et Kering.

                                                      QUELQUES CLIENTS DE ZEENEA

                                                      natixis
                                                      Kering_Logo
                                                      healios_logo_standard

                                                      Qui sommes-nous ?

                                                      Zeenea est le cloud data catalog qui aide les entreprises à accélérer leurs initiatives data. Notre plateforme basée sur le cloud offre une base de données fiable et compréhensible disponible avec un maximum de simplicité et d’automaticité. En quelques clics, vous pouvez trouver, découvrir, gouverner et gérer les informations de votre entreprise. Ce qui rend la plateforme de Zeenea unique, c’est que nous offrons un catalogue de données avec deux expériences utilisateur différentes pour démocratiser l’accès aux données pour tous.

                                                      Quelles sont les différences entre un Data Analyst et un Business Analyst ?

                                                      Quelles sont les différences entre un Data Analyst et un Business Analyst ?

                                                      Tellement proches, tellement différentes ! Les fonctions de Data Analyst et de Business Analyst sont très souvent confondues, alors que leurs missions se superposent rarement. Plus complémentaires que concurrents, retour sur deux profils très recherchés.

                                                      La Data est désormais au cœur de tous les processus décisionnels dans les entreprises. Si l’on s’en réfère à une étude réalisée par l’institut IDC pour le compte de Seagate, les volumes de données générés par les entreprises devraient atteindre les 175 Zétaoctets à l’horizon 2025… 

                                                      Dans ce contexte, collecter l’information ne suffit plus. Ce qui prime, c’est la capacité à tirer de ces données des enseignements permettant des prises de décisions éclairées. Mais en fonction des missions, des enjeux, du type de donnée, les méthodes d’interprétation et la façon même d’exploiter le précieux minerai peuvent être très différentes. 

                                                      Le caractère protéiforme de la data a permis l’émergence de différents domaines d’expertise, suscitant parfois un certain flou entre des fonctions dont les appellations peuvent être trompeuses. La frontière qui sépare ainsi les missions du Data Analyst et celles du Business Analyst peut sembler ténue. Et pourtant, leurs fonctions, rôles et responsabilités sont très différents… et complémentaires !

                                                       

                                                      Business Analyst & Data Analyst : un terreau commun

                                                      Si les fonctions de Business Analyst (en français Analyste d’affaires) et celle de Data Analyst font parfois l’objet d’une confusion, c’est que leurs missions sont intrinsèquement liées à la notion de valorisation de l’information. 

                                                      Ce qui les distingue, c’est la nature de cette information. 

                                                      Alors que le Data Analyst travaille sur des données numériques, issues des systèmes d’information de l’entreprise, le Business Analyst quant à lui, peut exploiter les données numériques autant que non-numériques.

                                                      Lorsque le premier doit assurer le traitement des données disponibles au sein de l’entreprise pour en extraire les enseignements permettant d’adapter les stratégies, le second apporte des réponses à des enjeux métiers concrets et fondées sur un échantillon de données pouvant dépasser le portefeuille data généré par l’entreprise.

                                                       

                                                      Un large éventail de compétences

                                                      De son côté, le Data Analyst doit pouvoir se prévaloir de compétences avancées en mathématiques et en statistiques. Véritable expert des bases de données et du langage informatique, cet artisan de la donnée est bien souvent titulaire d’un diplôme dans le secteur de l’ingénierie informatique ou d’études statistiques. 

                                                      Le Business Analyst quant à lui, présentera un profil moins marqué data (dans l’acception numérique du terme). S’il exploite l’information pour remplir ses missions, il restera toujours en prise directe avec le management et l’ensemble des directions métiers de l’entreprise.

                                                      Si le Business Analyst peut avoir des compétences en algorithmie, en base de données SQL ou maîtriser le langage XML, celles-ci ne constituent pas nécessairement un pré-requis indispensable. 

                                                      En revanche, le Business Analyst devra être en mesure de démontrer un réel savoir-faire pour communiquer, écouter, entendre et comprendre les enjeux terrain de l’entreprise. 

                                                      Pour le Data Analyst au contraire, les compétences techniques sont essentielles. Langage SQL, Python, Data modeling et Power BI, expertise IT et analytics lui permettront d’exploiter la donnée dans une dynamique opérationnelle pour l’entreprise.

                                                       

                                                      Les différences de responsabilités et objectifs de chacun

                                                      Le quotidien du Data Analyst consiste avant tout à valoriser le patrimoine de l’entreprise. A cette fin, il sera par exemple garant de la qualité des données, de leur nettoyage et de leur optimisation.

                                                      L’objectif : tenir à disposition des équipes internes des bases données exploitables dans les meilleures conditions et identifier en permanences tous les leviers d’amélioration susceptibles d’impacter le projet data. 

                                                      Le Business Analyst tirera profit du travail du Data Analyst qu’il contribuera à valoriser au maximum en mettant en perspective les données natives de l’entreprise avec des données et informations périphériques. En réconciliant et valorisant différentes sources d’informations, l’analyste d’affaires contribuera à faire émerger de nouvelles opportunités marché, organisationnelles ou structurelles pour accélérer le développement de l’entreprise. 

                                                       En résumé, le Data Analyst est l’artisan du quotidien du projet data de l’entreprise. Le Business Analyst est celui qui intervient, au long cours, sur la stratégie commerciale. Pour relever ce défi, il fonde son action sur la qualité du travail de l’analyste de la donnée. 

                                                      Deux missions complémentaires, deux profils convergents qui permettront de tirer le meilleur profit de culture data dont les organisations !

                                                      Mettre en place une gouvernance des données efficace avec Zeenea | S01-E03 – Se faire sponsoriser

                                                      Mettre en place une gouvernance des données efficace avec Zeenea | S01-E03 – Se faire sponsoriser

                                                      Ceci est le troisième épisode de notre série « Zeenea Effective Data Governance Framework ».

                                                      Divisée en trois parties , cette première partie se concentrera sur l’Alignement

                                                      • Comprendre le contexte
                                                      • Trouver les bonnes personnes 
                                                      • Préparer un plan d’action dans votre transformation data-driven. 

                                                      Ce troisième épisode vous donnera les clés pour se faire sponsoriser pour vos projets data.

                                                      Saison 1 : Alignement

                                                      • RComprendre le contexte
                                                      • RTrouver les bonnes personnes
                                                      • RSe préparer pour passer à l'action

                                                        S01 E01

                                                        Évaluer la maturité de vos données

                                                        S01 E02

                                                        Spécifier votre Stratégie Data

                                                        S01 E03

                                                        Obtenir du soutien

                                                        S01 E04

                                                        Réaliser une analyse SWOT

                                                        Saison 2 : Adaptation

                                                        • RCréer vos personas
                                                        • RIdentifier les rôles majeurs
                                                        • RDéfinir vos objectifs

                                                          S02 E01

                                                          Organiser votre Data Office

                                                          S02 E02

                                                          Organiser une Communauté Data

                                                          S02 E03

                                                          Sensibiliser votre entreprise aux données

                                                          Saison 3 : La mise en place d’une gestion des métadonnées à travers un data catalog

                                                          • RConnaître ses données
                                                          • RItération de votre data catalog

                                                            S03 E01

                                                            L’importance des métadonnées

                                                            S03 E02

                                                            6 semaines pour démarrer une gouvernance des données

                                                            Dans l’épisode précédent , nous vous avons donné des conseils clés pour construire votre stratégie data d’entreprise en mettant en place des OKR qui garantissent la concentration, la responsabilité et l’engagement des parties prenantes. Cet exercice permettra à vos équipes d’avoir une meilleure transparence et la possibilité de négocier les objectifs à tous les niveaux.

                                                            Grâce à cet outil, les OKR devraient vous aider à obtenir un bon sponsoring.

                                                            >> TÉLÉCHARGER NOTRE TOOLKIT MISE EN PLACE D’OKR <<

                                                            Ce troisième épisode mettra en avant  “Comment se faire sponsorisé pour vos projets data.”

                                                            Afin de déclencher une initiative de gouvernance des données efficace, vous devrez suivre les étapes suivantes de manière très attentive.

                                                            • Se faire comprendre
                                                            • Obtenir du financement
                                                            • Trouver de l'aide
                                                            • Créer un calendrier

                                                              Étape 1 : Identifier les potentiels sponsors

                                                              La première étape consiste à identifier les sponsors potentiels et à organiser des réunions d’équipes  pour s’assurer de leur soutien et faire avancer la gouvernance des données que vous souhaitez mettre en place. 

                                                              Vous avez beaucoup appris lors des réunions OKR et vous avez maintenant la substance pour vous assurer de leur soutien. 

                                                               

                                                              Étape 2 : Préparer un storytelling

                                                              La deuxième étape consiste à écrire une histoire pour chaque sponsor. Vous devriez être en mesure de rédiger une histoire personnalisée,  sur la base des ateliers auxquels vous avez participé sur la stratégie de données de l’entreprise.

                                                              Il existe 3 formes de storytelling qui peuvent être combinées :

                                                              • Un témoignage et une histoire réelle pour renforcer la vôtre,
                                                              • Une métaphore pour illustrer les concepts de données lorsqu’ils vous semblent trop complexes.
                                                              • Créer une histoire à partir d’une caractéristique spécifique pour donner une vue d’ensemble.

                                                               

                                                              Étape 3 : Se présenter

                                                              La troisième étape consiste à décrire qui vous êtes, ce que vous faites et pourquoi vous le faites à travers le prisme de chaque sponsor.

                                                               

                                                              Étape 4 : Demander de l’argent

                                                              Cette quatrième étape consiste à se préparer à demander de l’argent. Demander de l’argent implique de proposer différents scénarios avec différents résultats, une analyse détaillée des coûts, une vue quantitative des avantages financiers et enfin une analyse du retour sur investissement.

                                                               

                                                              Étape 5 : Assurer des résultats 

                                                              La cinquième étape consiste à vous engager sur l’obtention de résultats concrets. Il n’y aura pas d’adhésion si vous ne vous engagez pas à fournir des résultats tangibles et mesurables.

                                                               

                                                              Quelques astuces pour maximiser vos chances d’aligner des sponsors :

                                                               

                                                              Demandez plus que ce dont vous avez besoin. Ne vous sous-estimez pas, préparez-vous à une réduction de vos attentes en matière de financement et préparez-vous en conséquence.

                                                              Trouvez un champion. Dans la liste des sponsors, essayez d’établir une bonne relation avec un sponsor en particulier et demandez-lui de l’aide et des idées pour maximiser vos chances de gagner.

                                                              Soyez irréprochable à tous égards. Lorsque vous courtisez un sponsor, respectez toujours votre parole, soyez toujours à l’heure ou en avance à un rendez-vous. Faites-lui savoir que vous êtes une personne intègre. N’oubliez pas de partager la carte des OKR dans laquelle le sponsor est impliqué jusqu’à votre propre OKR.

                                                              Soyez bref et précis. Demandez ce que vous voulez, mais ne prenez pas beaucoup de temps à un sponsor potentiel pour le faire.

                                                              Respectez vos engagements. À la fin du processus de sponsoring, vous devriez être en mesure d’obtenir les résultats suivants :

                                                              • La compréhension et l’alignement
                                                              • Un financement (moyens et ressources)
                                                              • De l’aide pour lever les obstacles (et construire une voie rapide dans les obstacles de l’organisation)
                                                              • Un calendrier/retroplanning pour organiser du feedback 

                                                              Démarrer la mise en place de sponsoring !

                                                              Pour que votre organisation réussisse sa stratégie data, il est essentiel de se faire sponsoriser ! Notre toolkit ROI vous donne les ingrédients nécessaires pour que vous et vos équipes puissiez montrer à vos sponsors potentiels le retour sur leur investissement dans vos projets data. 

                                                              Téléchargez notre toolkit dès maintenant ! 

                                                              Ne manquez pas la semaine prochaine : S02 E04 – Construire une analyse SWOT.

                                                              Copyright Zeenea 2021, tous droits réservés.

                                                               

                                                              Qu’est-ce que le BCBS 239 ?

                                                              Qu’est-ce que le BCBS 239 ?

                                                              Pour disposer d’une visibilité complète sur l’exposition au risque des établissements bancaires majeurs, le Comité de Bâle a défini 14 principes clés réunis dans une norme appelée BCBS 239. Au cœur des enjeux : l’accès à des données fiables et consolidées. Explications.

                                                              En 2007, l’économie mondiale vacillait sur ses bases. Un certain nombre d’institutions bancaires supposées stables ont flirté avec la faillite suite à la défaillance de la banque américaine Lehman Brothers.

                                                              En réaction à une crise d’une violence inédite, un vent de régulation a soufflé sur le monde, donnant naissance à BCBS 239 connu également sous le nom de Basel Committee on Banking Supervision standard numéro 239. 

                                                              Derrière cette appellation, on trouve la norme n°239 du Comité de Bâle, publiée en 2013. Intitulée « Principes aux fins de l’agrégation des données sur les risques et de la notification des risques », BCBS 239 a vocation à créer les conditions de la transparence dans des établissements bancaires en définissant un cadre précis en matière d’agrégation des données de risques financiers.

                                                              En pratique, il s’agit de permettre aux institutions financières et établissements bancaires de produire des reportings précis des risques auxquels ils sont exposés. BCBS 239 constitue un cadre contraignant mais contribue à la stabilité du système financier mondial, durement éprouvé lors de la crise financière de 2007.

                                                               

                                                              BCBS 239 : un peu d’histoire

                                                              A l’origine de BCBS 239, il y a le Comité de Bâle qui a vu le jour en 1974 à l’instigation des gouverneurs des banques centrales du G10. Depuis 2009, l’organisation compte 27 pays membres et s’est donnée pour mission de renforcer la sécurité et la fiabilité du système financier et d’établir des standards en matière de contrôle prudentiel. 

                                                              BCBS 239 est l’une des normes les plus emblématiques du Comité de Bâle car elle constitue un barrage aux dérives qui ont mené à la crise de 2007. 

                                                              En effet, la croissance et la diversification des activités des institutions bancaires ainsi que la multiplication des filiales au sein d’un même groupe, créaient un certaine opacité qui générait des imprécisions dans les reportings des banques. 

                                                              Des imprécisions qui pouvaient, une fois accumulées, représenter des milliards d’euros de flou, entravant les prises de décision rapides et sûres des dirigeants. La taille critique atteinte par les établissements financiers exigeait de garantir des prises de décision fiables et fondées sur des données consolidées et de qualité. C’est la vocation même de BCBS 239.

                                                               

                                                              Les 14 principes fondateurs de BCBS 239

                                                              Si la norme BCBS 239 a été publiée en 2013, la trentaine d’établissements bancaires de type G-SIBs (établissements d’importance systémique au niveau mondial) devant s’y conformer avaient jusqu’au 1 janvier 2016 pour le faire. Les établissements bancaires d’importance systémique au niveau national quant à eux (également appelés D-SIBs) ont eu trois ans de plus pour se mettre en conformité.

                                                              Depuis le 1er janvier 2019, G-SIBs et D-SIBs doivent donc répondre aux 14 principes édictés par BCBS 239. Onze d’entre eux concernent les établissements bancaires au premier chef. Les trois autres s’adressent aux autorités de contrôle. 

                                                              Les 14 principes de BCBS 239 peuvent être classés selon quatre catégories : gouvernance et infrastructure, capacités d’agrégations de données sur les risques, capacités de reporting, surveillance prudentielle. 

                                                               

                                                              Gouvernance et infrastructure

                                                              En matière de gouvernance et d’infrastructure, on dénombre deux principes.

                                                              Le premier porte sur le déploiement d’un dispositif de gouvernance de la qualité des données en vue d’améliorer la communication financière et la production de reporting à la fois plus précis et plus pertinents afin d’accélérer et fiabiliser les processus de décision. 

                                                               

                                                              Capacités d’agrégations de données sur les risques

                                                              Le second principe affecte l’infrastructure informatique et fait obligation aux banques de mettre en place une architecture de données permettant l’automatisation et la fiabilisation de la chaîne d’agrégation de données.

                                                              La partie concernant les capacités d’intégration des données sur les risques rassemble quant à elle quatre principes clé : l’exactitude et l’intégrité des données, l’exhaustivité, le respect des délais et l’adaptabilité.

                                                              Quatre piliers permettant de fonder les prises de décisions sur des éléments tangibles, fiables et actualisés. 

                                                               

                                                              Capacités de reporting

                                                              Le troisième volet de BCBS 239, concerne l’amélioration des pratiques de notification des risques.

                                                              C’est un volet important de la norme qui rassemble cinq principes : l’exactitude et la précision des informations, l’exhaustivité des informations liées aux risques encourus afin de garantir une visibilité réelle et sincère sur l’exposition de l’établissement aux risques, mais aussi la clarté et l’utilité des reportings, la fréquence d’actualisation et la sincérité de la distribution.

                                                              Ces reportings devant être transmis aux personnes concernés. 

                                                               

                                                              Supervision

                                                              Les trois derniers principes s’appliquent aux autorités de contrôle et de supervision.

                                                              Ils fixent les conditions de la surveillance sur la conformité des banques aux 11 premiers principes. Ils prévoient par ailleurs la mise en place d’actions correctives et de mesures prudentielles et fixent le cadre d’une coopération avec les autorités de contrôles.

                                                               

                                                              Grâce à BCBS 239, la donnée devient l’un des leviers de la stabilité d’une économie mondialisée !

                                                              Mettre en place une gouvernance des données efficace avec Zeenea | Épisode 2 – Spécifiez votre stratégie data

                                                              Mettre en place une gouvernance des données efficace avec Zeenea | Épisode 2 – Spécifiez votre stratégie data

                                                              Ceci est le deuxième épisode de notre série « The Zeenea Effective Data Governance Framework ».

                                                              Divisée en trois parties , cette première partie se concentrera sur l’Alignement

                                                              • Comprendre le contexte
                                                              • Trouver les bonnes personnes 
                                                              • Préparer un plan d’action dans votre transformation data-driven.

                                                              Ce deuxième épisode vous donnera les clés pour mettre en place une stratégie de données efficace à travers la mise en place d’OKR. 

                                                              Saison 1 : Alignement

                                                              • RComprendre le contexte
                                                              • RTrouver les bonnes personnes
                                                              • RSe préparer pour passer à l'action

                                                                S01 E01

                                                                Évaluer la maturité de vos données

                                                                S01 E02

                                                                Spécifier votre Stratégie Data

                                                                S01 E03

                                                                Obtenir du soutien

                                                                S01 E04

                                                                Réaliser une analyse SWOT

                                                                Saison 2 : Adaptation

                                                                • RCréer vos personas
                                                                • RIdentifier les rôles majeurs
                                                                • RDéfinir vos objectifs

                                                                  S02 E01

                                                                  Organiser votre Data Office

                                                                  S02 E02

                                                                  Organiser une Communauté Data

                                                                  S02 E03

                                                                  Sensibiliser votre entreprise aux données

                                                                  Saison 3 : La mise en place d’une gestion des métadonnées à travers un data catalog

                                                                  • RConnaître ses données
                                                                  • RItération de votre data catalog

                                                                    S03 E01

                                                                    L’importance des métadonnées

                                                                    S03 E02

                                                                    6 semaines pour démarrer une gouvernance des données

                                                                    Dans le précédent épisode, nous avons abordé la maturité des données de votre entreprise sous différents angles.

                                                                    Sous la forme d’un atelier, nous avons partagé notre Audit de Maturité de la Gouvernance des Données qui vous permet, à travers un diagramme de Kiviat, d’établir votre point de départ et de visualiser où vos efforts doivent porter.

                                                                    >> TÉLÉCHARGER NOTRE MATRICE DE MATURITÉ DE LA GOUVERNANCE DES DONNÉES <<

                                                                    Dans ce deuxième épisode, nous vous aidons à définir votre stratégie data !

                                                                    Quelle est la première étape pour définir sa stratégie data?

                                                                    Afin de vous organiser de manière optimale, nous recommandons d’utiliser la mise en place de “OKR” (Objective Key Results en anglais) pour élaborer une stratégie data efficace.

                                                                    Avant d’entrer dans le vif du sujet, voyons ce que signifient les OKR ainsi que comment ils sont construits. Nous partagerons ensuite quelques conseils utiles. 

                                                                     

                                                                    Qu’est-ce les OKR?

                                                                    Un “Objectif” est quelque chose que vous voulez atteindre (et) qui est une aspiration pour tous les employés de l’entreprise.

                                                                    Un “Key Results”, ou résultat clé, est la façon dont vous prévoyez de mesurer quantitativement ces objectifs. 

                                                                    Nous vous recommandons de limiter à 3 résultats clés par objectif.

                                                                    Les 5 avantages clés de mettre en place des OKR sont :

                                                                    • Moins de dissipation
                                                                    • Plus de responsabilité
                                                                    • Plus d’engagement 
                                                                    • Un meilleur alignement
                                                                    • Plus de transparence

                                                                    Dans le cadre du “Zeenea Effective Data Governance Framework » les OKR sont répartis par acteurs sous forme d’entonnoir, ce qui donne lieu à des résultats clés, allant des cadres supérieurs impliqués dans la stratégie des données aux agents impliqués de manière opérationnelle. 

                                                                    Alors que Zeenea croit en une approche “bottom-up”, l’exercice de définition des OKR est une approche “top-down”.

                                                                    Il est très important qu’à chaque niveau, tout individu soit capable de comprendre les OKR des niveaux supérieurs et comment ses OKR contribuent à la stratégie data globale de l’entreprise.

                                                                    Nous vous recommandons de fixer un délai raisonnable pour chaque OKR. En procédant de la sorte, tous les OKR déduits seront cohérents avec les échéances des niveaux supérieurs.

                                                                    D’autre part, nous  vous recommandons également de partager, d’afficher et d’expliquer continuellement les OKR à toutes les parties prenantes.

                                                                    De cette façon, vous garantissez l‘engagement, l’alignement et la transparence de vos équipes.

                                                                     

                                                                    Pour finir, nous vous suggérons de négocier les OKR, en particulier leurs échéances, plutôt que de les imposer.

                                                                    Mise en place d’OKR : Exemple 

                                                                    Vous pouvez démarrer la mise en place de vos OKR sur votre stratégie data avec ceux du PDG, s’il ou elle est impliqué.

                                                                    Au niveau le plus élevé, un OKR donnera lieu à un autre objectif dédié. Aux niveaux inférieurs, vous pouvez avoir plusieurs résultats clés par équipe ou par employé.

                                                                    Par exemple, un PDG avec 3 OKR qui ont un impact sur la stratégie des données peut être mis en place comme indiqué ci-dessous :

                                                                    S1E2 - OKR CEO

                                                                    Ensuite, en travaillant à partir des OKR du niveau supérieur, vous pourrez déduire les OKR des CXO et des cadres supérieurs comme le Chief Data Officer, le Chief Information Officer, le Chief Product Officer, le VP des ventes, etc.

                                                                    Pour chaque dirigeant décisionnaire , des OKR seront attribués  aux différents acteurs de son équipe (tels que les responsables de l’analyse, les responsables de l’architecture informatique, les responsables RH, etc.), suivis par des OKR pour les équipes (gouvernance des données, architecture informatique, analystes, business intelligence, science des données, etc.)

                                                                    En prenant l’exemple ci-dessus, regardons le OKR1 du PDG, qui concerne l’augmentation des ventes en ligne de 2 % d’ici le 30 juin 2021.

                                                                    Ce schéma montre la cascade d’OKR connexe réalisée par les C-levels et les cadres, les équipes et les individus résultant de l’OKR1 de la hiérarchie. 

                                                                    S1E2 - OKR Q1

                                                                    Sur ce plan, nous prenons en compte les échéances à tous les niveaux, ce qui donne lieu à un aperçu mensuel des OKR individuels.

                                                                    A titre d’exemple, comme décrit, l’OKR1 du CEO génère un OKR1 pour le CDO qui se compose des éléments suivants :

                                                                    • Objectif : Catalogue de données prêt pour le Data Lake
                                                                    • Résultat clé : 100% des actifs de données provenant du Data Lake gouverné
                                                                    • Echéance : 30 mars 2021

                                                                    Et pour le niveau inférieur, un Data Steward porte l’OKR1 suivant

                                                                    • Objectif : Actifs de données provenant du Data Lake documentés
                                                                    • Résultat clé : 100% des actifs de données disponibles pour les équipes d’analyse.
                                                                    • Echéance : 30 mars 2021

                                                                     Gérer vos OKRs : Astuces 

                                                                    Nous conseillons de suivre les OKR tous les trimestres pour les niveaux 1 et 2, puis plus fréquemment aux niveaux équipe et individuel.

                                                                    Tout changement dans les délais peut se répercuter au niveau supérieur.  Nous incitons alors d’adapter l’impact d’un OKR en réduisant autant que possible sa portée, en tant que MVP afin de garder le rythme.

                                                                    Sélectionnez un OKR au niveau du PDG (ou à un niveau inférieur) et mettez-le en pratique avant de généraliser la pratique des OKR.

                                                                    Considérez la pratique des OKR comme un OKR lui-même et surveillez-la.

                                                                    Nommez une personne chargée de la mise en œuvre des OKR afin de vous assurer que l’équipe respecte les pratiques OKR convenues. Cette personne encadrera et administrera l’équipe sur les processus et les outils OKR (vous pouvez en trouver ici).

                                                                    Démarrer la mise en place de vos OKR pour votre stratégie data !

                                                                     

                                                                    L’équipe Customer Success de Zeenea et ses services professionnels vous aideront à initier l’ensemble des OKR la mieux adaptée à votre stratégie data. Vous bénéficierez de notre expertise sur  les sujets liés aux données, notamment  sur  la gouvernance des données et le catalogage data. 

                                                                    En général, un projet de gouvernance des données, dans lequel Zeenea est impliqué, peut générer entre 2 et 10 ateliers (la durée de chaque atelier varie entre 2 heures et une demi-journée) afin de rédiger et d’initier la stratégie de données de l’entreprise pour les 3 à 6 premiers mois.

                                                                     

                                                                    Téléchargez notre toolkit gratuitement pour démarrer la mise en place de vos OKR !

                                                                    Ne manquez pas la semaine prochaine : Épisode 3 – Obtenir du sponsoring.

                                                                     

                                                                    Copyright Zeenea 2021, tous droits réservés.

                                                                    mockup-ressource-toolkit-okr
                                                                    Mettre en place une gouvernance des données efficace avec Zeenea | Épisode 1 – Évaluez votre maturité

                                                                    Mettre en place une gouvernance des données efficace avec Zeenea | Épisode 1 – Évaluez votre maturité

                                                                    Ceci est le premier épisode de notre série « Zeenea Effective Data Governance Framework ».

                                                                    Divisée en trois parties , cette première partie se concentrera sur l’Alignement

                                                                    • Comprendre le contexte
                                                                    • Trouver les bonnes personnes 
                                                                    • Préparer un plan d’action dans votre transformation data-driven. 

                                                                    Ce premier épisode vous donnera les clés pour évaluer la maturité de votre gouvernance et culture des données.

                                                                     

                                                                    La Data : le pétrole du 21ème siècle

                                                                    Avec l’émergence des GAFA ces dernières années (Google, Apple, Facebook et Amazon), la donnée est unanimement devenue un actif incontournable pour toute stratégie d’entreprise.

                                                                    Son importance a été amplifiée par l’arrivée de nouveaux services et usages du digital qui ont bouleversé notre quotidien. Les entreprises “traditionnelles” qui prennent du retard dans cette révolution data sont inévitablement placées dans une situation de désavantage concurrentiel !

                                                                    Et personne n’est à l’abri ! Toutes les organisations et tous les secteurs d’activité sont impacté par le nouveau rôle que les données représentent en tant qu’actif stratégique. La plupart des entreprises ont désormais compris que pour suivre les startups innovantes et ces puissants Géants du Web, elles doivent dorénavant valoriser leurs données.

                                                                    Cette évolution du paysage digital a conduit à des transformations digitales généralisées dans le monde entier, avec pour objectif de devenir « Data-Driven ».

                                                                    En route vers une entreprise data-driven

                                                                    Pour devenir une entreprise data-driven, il faut considérer les données comme un actif stratégique qu’il faut avant tout identifier, maîtriser, comprendre puis exploiter.

                                                                    L’approche data-driven est un moyen de collecter, de garder et de maintenir un patrimoine de données de la plus haute qualité tout en s’attaquant aux nouveaux problèmes de sécurité des données qui sont de plus en plus nombreux. Aujourd’hui, c’est l’enjeu des utilisateurs data. Ils doivent avoir accès à des données précises, intelligibles, complètes et cohérentes afin de :

                                                                    • Détecter des opportunités business potentielles
                                                                    • De réduire les délais de commercialisation
                                                                    • De se conformer aux réglementations.

                                                                    La route vers la Terre Promise de l’innovation data est semée d’embûches !
                                                                    Les technologies legacy, souvent très silotées avec une connaissance tribale, sont rarement de bon augure pour la qualité des données.

                                                                    L’avènement du Big Data a également renforcé la perception, selon laquelle le cycle de vie de toute donnée doit être maîtrisé, afin de pouvoir vous frayer un chemin dans le volume massif des données stockées au sein de l’entreprise. C’est un défi qui englobe de nombreux rôles, responsabilités, processus et outils.

                                                                    La mise en œuvre d’une gouvernance des données est un chapitre que toute entreprise data-driven doit écrire.

                                                                    Cependant, nous remarquons que les diverses approches de la gouvernance des données de ces dernières années n’ont pas tenu leurs promesses. En effet, cela a été confirmé par notre propre expérience de terrain, ainsi que des nombreuses discussions avec les principaux acteurs de données.

                                                                    Chez Zeenea, nous croyons solidement ou vigoureusement à l’adoption d’une approche différente pour maximiser les chances de votre succès. Nos équipes de Professional Services et de Customer Success fournissent à nos clients l’expertise dont ils ont besoin pour mettre en place une gouvernance des données efficace, par le biais d’une approche plus pragmatique et itérative qui s’adapte à un environnement en constante évolution.

                                                                    Nous l’appelons le Zeenea Effective Data Governance Framework.

                                                                     

                                                                    Nos convictions sur la data

                                                                    La prise de conscience de l’importance des données est un long chemin que chaque entreprise doit parcourir. Mais chaque parcours est différent : la maturité des données de l’entreprise varie continuellement et pendant que les attentes et obligations peuvent également varier considérablement.

                                                                    La réussite globale sera le fruit d’une succession de petites victoires au fil du temps.

                                                                    Nous avons organisé notre cadre en 3 étapes majeures :

                                                                    Saison 1 : Alignement

                                                                    • RComprendre le contexte
                                                                    • RTrouver les bonnes personnes
                                                                    • RSe préparer pour passer à l'action

                                                                      S01 E01

                                                                      Évaluer la maturité de vos données

                                                                      S01 E02

                                                                      Spécifier votre Stratégie Data

                                                                      S01 E03

                                                                      Obtenir du soutien

                                                                      S01 E04

                                                                      Réaliser une analyse SWOT

                                                                      Saison 2 : Adaptation

                                                                      • RCréer vos personas
                                                                      • RIdentifier les rôles majeurs
                                                                      • RDéfinir vos objectifs

                                                                        S02 E01

                                                                        Organiser votre Data Office

                                                                        S02 E02

                                                                        Organiser une Communauté Data

                                                                        S02 E03

                                                                        Sensibiliser votre entreprise aux données

                                                                        Saison 3 : La mise en place d’une gestion des métadonnées à travers un data catalog

                                                                        • RConnaître ses données
                                                                        • RItération de votre data catalog

                                                                          S03 E01

                                                                          L’importance des métadonnées

                                                                          S03 E02

                                                                          6 semaines pour démarrer une gouvernance des données

                                                                          Nous avons décidé de vous élaborer un cadre de gouvernance des données efficace en 3 saisons. Chaque semaine, nous publierons un nouvel épisode.

                                                                          Saison 1, Épisode 1 : Alignement

                                                                          Cette première saison est conçue pour aider votre organisation à s’aligner sur votre stratégie data en assurant la compréhension du contexte global.

                                                                          Ce qui suit vous aidera, ainsi que tous les sponsors clés, à identifier les bonnes parties prenantes dès le départ. Cette première itération vous aidera à évaluer la maturité des données de votre organisation sous différents angles.

                                                                          Sous la forme d’un atelier, notre audit de maturité de la gouvernance des données vous aidera à dessiner, à travers un diagramme de Kiviat, vos scores comme indiqué ci-dessous :

                                                                          data-governance-matrix-results

                                                                          Audit de maturité des données : les questions à se poser

                                                                          Autorité compétente pour la prise de décision et la supervision

                                                                          Structuration

                                                                          Est-ce qu’une structure organisationnelle avec différents niveaux de gouvernance (exec, juridique, métier, …) est en place, ainsi que des rôles et responsabilités à différents niveaux spécifiés (comités de gouvernance, tech leaders, data stewards, …) ?

                                                                          Data stewards

                                                                          Est-ce que des data stewards, responsables de la coordination des activités de gouvernance des données, ont été identifiés et affectés à chaque domaine ou activité ?

                                                                          Ordres de mission

                                                                          Est-ce que les rôles, la mission et les responsabilités concernant les prises de décision, la gestion et la sécurité des données ont été clairement définis et communiqués (aux data stewards eux mêmes, mais aussi à toute personne concernée dans l’entreprise) ?

                                                                          Moyens à disposition

                                                                          Est-ce que les data stewards possèdent l’autorité suffisante pour rapidement et de façon efficace corriger les problèmes liés aux données tout en s’assurant que leur accès n’enfreint pas les règles liées aux données à caractère personnel ou sensible ?

                                                                           

                                                                          Règles et procédures

                                                                          Règles principales

                                                                          Est-ce qu’une politique de priorité affectant les principales règles et exigences de gouvernance des données a été définie, et un accord (un accord formel ou une approbation verbale) sur ces priorités obtenu des parties prenantes clés (sponsors, décideurs, exec) ?

                                                                          Gestion du cycle de vie

                                                                          Les règles et procédures standard concernant tous les aspects de la gouvernance et du cycle de vie des données, y compris la collecte, la maintenance, l’utilisation et la diffusion, ont-elles été clairement définies et documentées ?

                                                                          Respect réglementaire données confidentielles

                                                                          Est-ce que les règles et procédures pour s’assurer que toutes les données sont collectées, gérées, stockées, transmises, utilisées et détruites de telle manière que soit préservée la confidentialité dans le respect des normes de sécurité (incluant par exemple les obligations du RGPD) ont été définies ?

                                                                          Rétroaction

                                                                          Est-ce qu’une évaluation a été menée pour s’assurer de la pertinence et l’efficacité à long terme des règles et procédures en place, incluant l’appréciation du dispositif humain, les outils, les technologies et les ressources ?

                                                                          Vision processus

                                                                          Disposez-vous d’une cartographie décrivant les processus permettant de surveiller la conformité avec ses politiques et procédures établies ?

                                                                          Transparence

                                                                          Est-ce que les règles et procédures ont été documentées et communiquées de façon ouverte et accessible à toutes les parties prenantes, incluant les collaborateurs, les partenaires et le public (via par exemple une publication sur votre site web) ?

                                                                           

                                                                          Inventaire des données

                                                                          Vision générale

                                                                          Disposez vous d’un inventaire ou catalogue de toutes les sources de données de votre entreprise (issues de progiciels, de bases de données internes, de data lakes, de fichiers locaux, …)

                                                                          Classification des données sensibles

                                                                          Disposez-vous d’un inventaire détaillé, à jour de toutes les données classées sensibles (cad qui présentent un risque d’être compromises/altérées/corrompues par une divulgation non autorisée ou par inadvertance), personnelles ou les deux ?

                                                                          Pondération du niveau de risque

                                                                          Est-ce que vos données ont été caractérisées selon leur niveau de risque en cas de divulgation relativement aux informations personnelles potentiellement contenues dans les enregistrements ?

                                                                          Règle générale de documentation

                                                                          Est-ce que votre organisation dispose d’une règle écrite et partagée décrivant ce qui doit figurer dans un catalogue des données, ainsi que comment, quand et à quelle fréquence les informations y sont écrites ainsi que par qui ?

                                                                          Accessibilité de l’information

                                                                          Le catalogue de données est-il ouvert à tout collaborateur susceptible de travailler sur un jeu de données, qui y serait répertorié ou non ?

                                                                          Culture des données

                                                                          Communication stratégique globale

                                                                          Votre organisation communique-t-elle en interne sur l’importance que peut jouer la donnée dans sa stratégie ?

                                                                          Communication obligations réglementaires

                                                                          Votre organisation sensibilise-t-elle ses employés (à minima ceux directement appelés à utiliser ou manipuler des données) au sujet des obligations reglementaires en vigueur liées aux données ?

                                                                          Notion de bien commun

                                                                          Votre organisation encourage-t-elle le partage de jeux de données qui pourraient être produits de façon isolée par divers moyens (communication, plateforme de partage, …)

                                                                          Optimisation des usages

                                                                          Votre organisation propose-t-elle, à minima à certains profils, une formation, quelle qu’en soit la forme (interne, externe, …), sur la façon de lire, de comprendre et d’utiliser la donnée ?

                                                                          Promotion de la valorisation

                                                                          Votre organisation valorise-t-elle les succès et innovations produits grâce (tout ou partie) aux données ?

                                                                          Gestion de la donnée

                                                                          Justification collecte et rétention

                                                                          Est-ce que votre organisation dispose d’une information claire de la justification de capture et conservation de données personnelles (besoin opérationnel, R&D, juridique, …) ?

                                                                          Contrôle de la justification

                                                                          Est-ce que votre organisation dispose d’une procédure régulière de vérification que les données collectées sont conformes aux informations évoquées dans la question précédente ?

                                                                          Anonymisation

                                                                          Est-ce que des mécanismes d’anonymisation ou pseudo anonymisation ont été mis en place concernant les données personnelles, directes ou indirectes ?

                                                                          Procédures détaillées

                                                                          L’organisation a-t-elle établi et communiqué des règles et procédures de traitement des enregistrements à toutes les étapes du cycle de vie des données, y compris l’acquisition, la maintenance, l’utilisation, l’archivage ou la destruction des données ?

                                                                          Qualité des données

                                                                          Règles de gestion de la qualité

                                                                          L’organisation a-t-elle des règles et des procédures en place pour garantir que les données sont exactes, complètes, à jour et pertinentes pour les besoins des utilisateurs ?

                                                                          Audit de la qualité

                                                                          L’organisation effectue-t-elle des audits réguliers de la qualité des données pour s’assurer que ses stratégies de contrôle de la qualité sont à jour et que les mesures correctives prises dans le passé ont permis d’améliorer la qualité des données ?

                                                                          Accès aux données

                                                                          Politique d’accès aux données

                                                                          Existe-t-il des politiques et des procédures en place pour restreindre et surveiller l’accès aux données, limitant qui peut accéder à quelles données, y compris l’attribution de niveaux d’accès différenciés en fonction des descriptions de poste et des responsabilités, en conformité avec les lois et réglementations locales, nationales, internationales, … relatives à la confidentialité (y compris le RGPD)?

                                                                          Are these policies and procedures consistent with local, national, … privacy laws and regulations (including the GDPR)?

                                                                          Contrôle d’accès aux données

                                                                          Des procédures de contrôle internes ont-elles été mises en place pour gérer l’accès aux données par les utilisateurs, notamment les contrôles de sécurité, la formation/sensibilisation et les accords de confidentialité requis par le personnel disposant de privilèges d’accès aux données sensibles ou personnelles ?

                                                                          Sécurité et gestion du risque

                                                                          Cadre général

                                                                          Un cadre de sécurité complet a-t-il été défini, comprenant des procédures administratives, physiques et techniques pour traiter les problèmes de sécurité des données (telles que les restrictions d’accès et de partage des données, une politique de mots de passe renforcés, la sélection et la formation régulières du personnel, etc.) ?

                                                                          Evaluation des risques

                                                                          Une évaluation des risques a-t-elle été entreprise, notamment une évaluation des risques et des vulnérabilités liés à la fois à une utilisation abusive intentionnelle des données par des personnes malveillantes (par exemple, des pirates informatiques) et à une divulgation par inadvertance par des utilisateurs autorisés ?

                                                                          Plan d’atténuation des risques

                                                                          Un plan est-il en place pour atténuer les risques associés aux violations de données intentionnelles et involontaires ?

                                                                          Prévention

                                                                          L’organisation surveille-t-elle ou audite-t-elle régulièrement la sécurité des données ?

                                                                          Plan de reprise

                                                                          Des politiques et des procédures ont-elles été établies pour assurer la continuité des services de données en cas de violation de données, de perte ou de tout autre sinistre (ceci inclut un plan de reprise après sinistre) ?

                                                                          Régulation des flux

                                                                          Des politiques sont-elles en place pour guider les décisions en matière d’échange et de communication de données, y compris le partage de données (sous forme d’enregistrements individuels contenant des informations personnelles ou de rapports globaux anonymisés) en interne avec des profils métier, des analystes/data scientists, des décideurs ou en externe avec des partenaires ?

                                                                          Contrats d’usage et engagement légal

                                                                          Lors du partage de données, des procédures appropriées, telles que des accords de partage, sont-elles mises en place pour garantir que les informations personnelles restent strictement confidentielles et protégées contre toute divulgation non autorisée ? Notez que les accords de partage de données doivent être autorisés par toutes les réglementations applicables, telles que le RGPD.

                                                                          Ces accords ne peuvent avoir lieu que si le partage de données est autorisé par la loi.

                                                                          Contrôle sur les produits dérivés

                                                                          Des procédures appropriées, telles que l’obfuscation ou la suppression, sont-elles mises en place pour garantir que les informations ne sont pas divulguées par inadvertance dans toute production de contenu basée sur les données (exemple : rapports) et que les pratiques de l’entreprise en matière de production restent conformes aux lois et réglementations en vigueur (par exemple, le RGPD) ?

                                                                          Information des parties prenantes

                                                                          Les parties prenantes, y compris les personnes dont les données sont conservées, sont-elles régulièrement informées de leurs droits en vertu des lois ou réglementations applicables régissant la confidentialité des données ?

                                                                          Commencez dès maintenant à évaluer la maturité des données de votre entreprise !

                                                                           

                                                                          Notre toolkit interactif vous permettra de visualiser où doivent porter vos efforts lors de la mise en œuvre d’une stratégie de gouvernance des données.

                                                                          Qu’est-ce qu’un Data Product Manager ?

                                                                          Qu’est-ce qu’un Data Product Manager ?

                                                                          Depuis quelques années, nous parlons de Data Product Management. Ce sujet est récurrent dans les équipes de Data Scientists, Data Engineers et bien sûr, de Product Management. Comme son nom l’implique, un Data Product Manager correspond au nouveau titre de Product Manager mais spécialisé sur les produits de Data Science et de Machine Learning. 

                                                                          Le Data Product Manager a un rôle similaire à celui d’un Software Product Manager, il doit avoir une compréhension approfondie des exigences business de ses clients. Toutefois, il existe quelques différences essentielles dans leurs responsabilités et les compétences requises.

                                                                          Petit tour d’horizon du rôle d’un Data Product Manager.  

                                                                           

                                                                          Quel est l’environnement habituel d’un Data Product Manager ?

                                                                          Il n’est pas exagéré de dire que les produits de Machine Learning ont un impact sur notre vie quotidienne !  Les plateformes de réseaux sociaux (Linkedin, Facebook, Twitter), Google, Uber et Airbnb ont tous développé des algorithmes ML très sophistiqués pour améliorer la qualité de leurs produits.

                                                                          Aujourd’hui, les produits de la Data Science sont loin d’être la chasse gardée des grandes entreprises technologiques. Analyse prédictive, gestion de la chaîne d’approvisionnement, détection de fraude, prévention du churn rate…se sont que quelques exemples de domaines liés au Machine Learning ! 

                                                                          Les Data Product Managers interviennent donc lorsqu’il y a des produits de Data Science sous les radars. En d’autres termes, leurs connaissances techniques et analytiques sont essentielles quand la valeur commerciale dépend du Machine Learning et de l’intelligence artificielle.

                                                                           

                                                                          Alors, quel est le rôle d’un Data Product Manager exactement ?

                                                                          Comme pour un Product Manager, la mission principale d’un Data Product Manager est de développer le meilleur produit possible pour les clients / utilisateurs de l’entreprise.  Il existe toutefois quelques différences subtiles qui rendent le quotidien du Data Product Manager particulier.

                                                                          Un Data Product Manager s’adresse souvent à une population très large qui inclut des Data Scientists, des Data Engineers, des Data Analysts, des Data Architects et même des développeurs ! Le Data Product Manager doit donc comprendre les enjeux de chacun de ces rôles et aligner ces mondes différents pour atteindre les objectifs du produit. 

                                                                          Pour démontrer la diversité des compétences impliquées dans ce nouveau rôle, le Data Product Manager idéal aura une large compréhension des algorithmes de Machine Learning, de l’intelligence artificielle et des statistiques. Il aura une certaine expérience du codage (suffisante pour s’y plonger si nécessaire), sera doué pour les mathématiques, comprendra les technologies du Big Data… et aura des compétences en communication hors pair.

                                                                          Nous pouvons même lui confier la responsabilité de centraliser l’accès aux données au niveau de l’entreprise.* 

                                                                          Ici, sa mission serait de trouver de nouvelles façons de gérer, collecter et exploiter les données afin d’améliorer la convivialité et la qualité des ses informations. Comment ? En choisissant un logiciel de Data Management qui permet la centralisation et la démocratisation des données et de briser les silos entre les équipes data.

                                                                          Ils peuvent ensuite choisir un Data Catalog avec un puissant knowledge graph et un simple moteur de recherche… de telles plateformes existent 😉

                                                                           

                                                                           

                                                                          *Dans ce cas, en quoi le rôle du Data Product Manager diffère-t-il de celui du Data Steward ? Après tout, n’est-ce pas à ce dernier qu’il incombe de conserver, gérer, traiter les autorisations et mettre les données à la disposition des consommateurs de données ? Une façon de considérer les distinctions entre les deux rôles pourrait être de voir le Data Steward comme le gardien des données du présent et le Data Product Manager comme le gardien et l’innovateur des données du futur. 

                                                                          Data quality management : les ingrédients pour renforcer la qualité de vos données

                                                                          Data quality management : les ingrédients pour renforcer la qualité de vos données

                                                                          data-quality

                                                                          Photo credit: Akeneo

                                                                          Disposer d’un important volume de données ne sert à rien si celles-ci sont de piètre qualité. L’enjeu du Data Quality Management est une priorité pour les entreprises. Outil d’aide à la décision, au pilotage de l’innovation autant que de la satisfaction des clients, veiller sur la qualité des données exige rigueur et méthode.

                                                                          Produire de la donnée pour produire de la donnée, parce que c’est la mode, que vos concurrents le font, que vous lisez dans la presse professionnelle ou sur Internet, que cela se fait, c’était avant.

                                                                          Aujourd’hui aucun secteur d’activité ne nie le caractère éminemment stratégique de la donnée. Mais derrière cet engouement généralisé pour la data, le véritable enjeu c’est la qualité de la donnée. Or, si l’on s’en réfère à l’édition 2020 du Gartner Magic Quadrant for Data Quality Solutions, il apparaît que plus d’un quart des données critiques des plus grandes entreprises sont erronées. Une situation qui engendre des coûts directs et indirects. 

                                                                          Erreurs stratégiques, mauvaises décisions, frais divers associés à la gestion des données… Le coût moyen d’une mauvaise Data Quality s’établit à 11 millions d’euros par an. Pourquoi ? Tout simplement parce que désormais l’ensemble des stratégies de votre entreprise sont guidées par votre connaissance de vos clients, de vos fournisseurs, de vos partenaires. Si l’on considère que la donnée est omniprésente dans votre activité, la Data Quality devient l’enjeu central. Gartner n’est pas le seul à souligner cette réalité. 

                                                                          Ainsi à la fin de l’année 2020, le célèbre cabinet IDC révélait dans une étude que les entreprises sont confrontées à de nombreux défis pour tirer profit de l’exploitation de leurs données. Près de 2 entreprises sur 3 considèrent ainsi l’identification des données pertinentes comme un défi et elles sont 76% à juger perfectible la collecte des données et 72% à penser que leurs processus de transformation des données à des fins d’analyse pourraient être améliorés.

                                                                           

                                                                          Data Quality Management : Une discipline exigeante

                                                                          Comme en cuisine, plus vous vous appuyez sur des ingrédients de qualité, plus la recette sera appréciée de vos convives. Parce que les données sont des éléments qui doivent amener à de meilleures analyses et donc à de meilleures décisions, il est capital de s’assurer que celles-ci soient de bonne qualité. 

                                                                          Mais qu’est-ce qu’une donnée de qualité ? 

                                                                          Plusieurs critères peuvent entrer en ligne de compte. L’exactitude de la donnée (un numéro de téléphone complet), sa conformité (un numéro se compose de 10 chiffres précédés d’un préfixe national), sa validité (il est toujours utilisé), sa fiabilité (il permet en effet de joindre votre correspondant), etc. 

                                                                          Pour un Data Quality Management efficace, il s’agit de s’assurer que l’ensemble des critères que vous aurez défini pour considérer que la donnée est de qualité soient remplis. Mais attention ! Il faudra encore distinguer faire vivre ces données pour s’assurer de leur qualité dans le temps. Cela signifie que lorsqu’une donnée n’a pas été actualisée depuis un moment, elle est peut-être devenue obsolète. Et une donnée obsolète ou une donnée qui n’est ni actualisée, ni partagée, ni exploitée, perd instantanément de sa valeur car elle ne contribue plus efficacement à nourrir vos réflexions, vos stratégies et vos décisions.

                                                                          Les “best practices” de la Data Quality

                                                                          Pour garantir l’intégrité, la cohérence, l’exactitude, la validité et, en un mot la qualité de vos données, vous devrez agir avec méthode. L’étape essentielle d’un projet Data Quality Management efficace, c’est d’abord d’éviter les doublonsAu-delà d’agir comme un poids mort dans vos bases de données, les doublons faussent les analyses et peuvent entamer la pertinence de vos décisions.

                                                                          Si vous optez pour un outil de Data Quality Management, assurez-vous qu’il intègre un module permettant d’automatiser l’exploitation des métadonnées. En centralisant l’ensemble des connaissances dont vous disposez sur vos données au sein d’une interface unique, leur exploitation est facilitée. C’est le deuxième pilier constitutif de votre projet de Data Quality management. 

                                                                          La définition précise de vos données, leur nomenclature permet d’engager efficacement le processus d’optimisation de la qualité. Ensuite, vos données étant clairement identifiées, classées, il s’agit pour en évaluer la qualité de les mettre en perspective avec les attentes des différents métiers au sein de l’entreprise. 

                                                                          Ce travail de rapprochement entre la nature des données disponibles et leur exploitation par les métiers est un élément déterminant du pilotage de la Data Quality. Mais il faut aussi aller plus loin et s’interroger sur la sensibilité des données. Du caractère sensible ou non de la Data, dépendent vos arbitrages par rapport à l’enjeu de la conformité aux réglementations. 

                                                                          Depuis l’entrée en vigueur du RGPD en 2018, les conséquences de choix hasardeux sur le plan de la sécurité des données sont sévères et pas seulement du point de vue financier.

                                                                          En effet, les citoyens, vos clients sont désormais très sensibles à la nature, à l’usage et à la protection des données qu’ils partagent avec vous. En pilotant efficacement la Data Quality, vous contribuez également à entretenir la confiance avec vos clients… Une confiance qui n’a pas de prix !

                                                                          Nouveau Livre Blanc : Unlock data pour le secteur de la banque, l’assurance et la finance !

                                                                          Nouveau Livre Blanc : Unlock data pour le secteur de la banque, l’assurance et la finance !

                                                                          unlock-data-banque-finance-header-FR

                                                                          En janvier dernier, nous avons annoncé le lancement de notre nouvelle série de livres blancs : Unlock Data. Dédiés aux responsables data, ces livres blancs ont pour objectif de servir de guide à toutes les entreprises en transition vers une organisation data-driven. Au fil de leurs pages, nous vous donnons les clés pour « déverrouiller » l’usage aux données de votre entreprise, par industry. 

                                                                          Le premier livre blanc de cette série portait sur l’industrie. Nous avons présenté les principaux cas d’utilisation des données, ainsi que le point de départ pour « déverrouiller » l’accès aux données pour les data citizens travaillant dans le secteur de l’automobile, la construction et la manufacture.  

                                                                          >> Lire « Unlock Data pour l’industrie » <<

                                                                          Aujourd’hui, nous lançons notre prochain volume, dédié au secteur de la banque, de l’assurance et de la finance : Unlock data pour le secteur de la banque, de l’assurance et la finance ». 

                                                                           

                                                                          Une introduction rapide…

                                                                          La transformation digitale est un passage obligé pour le secteur de la banque, de l’assurance et de la finance.  

                                                                          Cependant, la plupart de ces organisations peinent encore à mettre en place une stratégie data-driven qui leur permette à la fois d’offrir des services innovants et de se conformer aux réglementations data de plus en plus exigeantes.

                                                                          Cette situation s’explique. L’expansion des services digitaux de ces dernières années s’est traduite par une augmentation exponentielle d’informations et de données engendrant de surcroît de nouvelles responsabilités.

                                                                          Par ailleurs, ce secteur d’activité assiste à l’émergence de start-ups, appelés AssurTech ou FinTech, qui combinent cœur de métier et technologie.  Faisant d’eux, les bêtes noires des acteurs déjà établis.

                                                                          Cette situation poussent les banques et assurances les plus traditionnelles dans un défi majeur qui ne pourra être atteint qu’en recherchant le bon équilibre entre une gouvernance des données défensive et offensive.

                                                                           

                                                                          Téléchargez notre nouveau livre blanc

                                                                          Vous êtes dans le secteur de la banque, de l’assurance ou des services financiers et vous travaillez avec les données ? Obtenez les clés pour déverrouiller l’accès aux données en téléchargeant notre guide. Dans ce livre blanc, vous découvrirez : 

                                                                          ✔️ Comment les données ont accéléré les transformations digitales de grandes sociétés dans le secteur de la finance,

                                                                          ✔️ Les principaux cas d’usage data pour les banques et assurances, 

                                                                          ✔️ Le point de départ pour démarrer une stratégie data-driven,

                                                                          ✔ ️ Comment Zeenea peut « unlock data » grâce à nos fonctionnalités uniques conçues pour votre secteur.

                                                                           

                                                                          Téléchargez dès maintenant !

                                                                          Défis data : les clés pour être un bon Chief Data Officer en 2021 ?

                                                                          Défis data : les clés pour être un bon Chief Data Officer en 2021 ?

                                                                          cdo-2021

                                                                          A l’heure où la donnée s’est imposée comme un actif majeur dans l‘entreprise, personne ne nie le rôle clé du Chief Data Officer. Nous avons déjà eu l’occasion dans un de nos précédents articles d’évoquer la mission des CDO

                                                                          Acteur de la transformation des processus et usages data dans leurs entreprises, le Chief Data Officer doit se prévaloir de qualités techniques mais aussi humaines. Retour sur le rôle du CDO en 2021 !

                                                                          Pédagogie, accompagnement, empathie, vision… Autant de caractéristiques parfois difficiles à réunir et à concilier au quotidien. Et pourtant ! Parce que le rôle du Chief Data Officer est aussi stratégique qu’opérationnel, il doit non seulement pouvoir s’appuyer sur des compétences reconnues, mais aussi adosser son action au sponsorship inconditionnel de la direction générale, tout en restant au contact des équipes métier. Afin de répondre à ces challenges, le CDO doit donc faire preuve de savoir-être autant que de savoir-faire.

                                                                          D’un côté, il doit être apte à proposer des nouvelles solutions et outils qui permettent à l’entreprise de correctement analyser et exploiter les données, et de l’autre, savoir mettre les données au centre de l’entreprise, afin de construire une culture data et faire le lien entre métier et IT.

                                                                           

                                                                          Un champ d’action qui s’étend progressivement

                                                                          Dans son étude intitulée Quels sont les rôles et les défis du Chief Data Officer (CDO) d’aujourd’hui ? – Focus sur une fonction clé de la transformation data-driven, le cabinet PwC définit le périmètre des défis que doit relever le CDO : 

                                                                          « Dans la mesure où les équipes data se sont constituées et professionnalisées dans les grands groupes, l’enjeu se déplace aujourd’hui vers la capacité à faire travailler ensemble tous les départements de l’organisation. L’acculturation de l’entreprise et la formation des équipes data sont au cœur des enjeux du Chief Data Officer ».  Cette réalité est renforcée par un autre constat : « Le CDO doit s’adapter à la transition entre des systèmes hérités, des nouvelles technologies de stockage et d’analyse des données ainsi qu’à des interfaces répondant à de nouveaux usages (Cloud, Data Marketplaces, Data virtualization, IoT, chatbot, etc.) ». 

                                                                          Enfin, comme l’indiquent les auteurs de la synthèse de l’étude, « avec une croissance du nombre de cas d’usages combinant la RPA et l’IA, le champ d’action du Chief Data Officer s’étend ». Preuve de la criticité de la mission de CDO, la place qu’il occupe au sein des organisations.

                                                                          Une autre étude réalisée par IDC pour le compte d’Informatica et publiée en août 2020, révèle que 59% des CDO interrogés rapportent directement à un responsable clé de l’entreprise, notamment au CEO. Et le Chief Data Officer est directement impliqué dans la performance des entreprises. En effet, cette même étude souligne que 80% des indicateurs clés de performance des CDO sont liés à des objectifs commerciaux (efficacité opérationnelle, satisfaction des clients, protection des données, innovation, chiffre d’affaires et productivité).

                                                                           

                                                                          Les défis du CDO au quotidien

                                                                          Le rôle essentiel du Chief Data Officer c’est de construire un pipeline data pertinent, performant, et valorisable, tout en composant une équipe capable de faire vivre cet actif et le transformer en matière première exploitable par l’ensemble des métiers. 

                                                                          Cette mission de grand architecte de la Data, impose au CDO de composer des équipes constituées de personnes compétentes et totalement data-driven. C’est l’une des difficultés majeures selon l’étude IDC qui rappelle que 71% des répondants ne disposent que de quatre gestionnaires de données ou moins, et 26% n’en ont même aucun ! La capacité à recruter, à s’entourer et à animer une équipe Data constitue par conséquent le premier de tous les défis du CDO. 

                                                                          Mais ce n’est pas le seul. 

                                                                          Si l’on s’en réfère à l’étude PwC déjà évoquée, il apparaît que pour 70% des CDO interrogés, l’acculturation data de l’entreprise est mise en œuvre au sein de leur entreprise. Une acculturation dont ils sont les premiers artisans en mettant sur pied une documentation des données disponibles, qui soit intelligible de tous, y compris des profils non IT. Une réalité qui fait écho à un autre des défis majeurs du CDO qui consiste à jouer le rôle de passerelle entre les acteurs de l’IT dans l’entreprise et l’ensemble des métiers.  

                                                                          « Nous constatons que cela est accentué par le passage à l’échelle des projets data ; passant d’initiatives sur un périmètre restreint – ayant davantage la forme d’un « Proof of Concept » (PoC) – à des projets globaux impliquant de multiples parties prenantes », observe-t-on chez PwC. Garant du développement des processus data pour améliorer la qualité des données, le CDO est présent sur tous les fronts. 

                                                                          Un véritable chef d’orchestre qui devra savoir insuffler énergie et dynamisme pour contribuer à la relance économique des entreprises en 2021 !

                                                                          Défis data : les challenges des équipes data science

                                                                          Défis data : les challenges des équipes data science

                                                                          data-science-team

                                                                          Parce que le monde de l’entreprise est entré de plain-pied dans l’ère de la donnée, la course à l’exploitation de la data est engagée. Organisation, traitement, valorisation de volumes de données considérables sont des priorités stratégiques qui reposent avant tout sur des talents. Les équipes Data Science, animées par le Chief Data Officer et les Data Scientists, sont au cœur des transformations et font face à des défis majeurs. Tour d’horizon.

                                                                          La donnée, c’est l’or noir du XXIe siècle. Si vous en doutiez encore, un simple chiffre devrait achever de vous convaincre. Si l’on s’en réfère au Digital Economy Compass 2019 de Statista, le volume mondial annuel de données a été multiplié par plus de vingt entre 2010 et 2020. L’an passé, 50 zettaoctets de data ont été générés, et ce chiffre augmente de manière exponentielle. En effet, il devrait atteindre 2100 zettaoctets à l’horizon 2035.

                                                                          Parce que l’heure n’est plus aux promesses des Big Data mais à l’exploitation rationnelle et ROIste de cet actif précieux, les entreprises s’organisent.

                                                                          Au-delà des équipements techniques, ce sont les talents humains qui font, aujourd’hui comme demain, la différence. Le grand enjeu actuel des entreprises consiste à recruter des data scientists. En 2019, Indeed, la célèbre plateforme de recrutement mettait déjà en évidence la difficulté à pourvoir ces postes à haute valeur ajoutée. La fonction de Data Scientist se classait ainsi au huitième rang des profils les plus recherchés sur la plateforme en 2019… alors qu’il n’était même pas mentionné en 2018 ! Constat similaire du côté de LinkedIn qui annonçait qu’en 2020, le Data Scientist était le dixième métier recherché. Un profil pénurique qui n’empêche pas les entreprises de se montrer exigeantes… à juste titre, car les missions sont complexes.

                                                                          Data Scientist : des missions variées, un rôle complexe

                                                                          Identifier la typologie de données disponibles dans l’entreprise, être à même de cartographier les sources internes de data afin de procéder à leur exploitation à des fins d’amélioration des performances, construction d’algorithmes, élaboration de modèles prédictifs… inutile d’énumérer la longue litanie des missions clés du Data Scientist et des équipes Data Science qu’il est chargé d’animer.

                                                                          Ces enjeux techniques sont bien connus, de même que ces missions connexes qui pèsent sur le Data Scientist et l’amènent à définir les meilleures solutions de stockage de données en bonne intelligence avec la direction des Systèmes d’Information ou encore à s’investir dans la recherche et le développement liés au traitement d’importants volumes de données.

                                                                          Oui, le rôle du Data Scientist est d’abord et avant tout celui d’un technicien de la donnée. Mais, parce qu’il est au cœur de la transformation digitale de l’entreprise, il ne peut se cantonner à ces savoir-faire techniques et scientifiques. Véritable ambassadeur de la donnée au sein de l’entreprise, il doit penser son action comme celle d’un trait d’union entre les métiers, un point de convergence vers l’excellence opérationnelle.

                                                                          Des qualités humaines autant que techniques

                                                                          Le Data Scientist et ses équipes ne peuvent s’enfermer dans un rôle de scientifique éthéré.

                                                                          Bien au contraire, ils sont amenés en permanence à échanger avec l’ensemble de métiers dans l’entreprise. Une réalité qui fait du goût de l’humain, de la capacité à faire preuve de pédagogie, de compréhension parfois et de patience souvent, pour inscrire l’ensemble de l’entreprise sur le chemin d’une valorisation constante du patrimoine data.

                                                                          Parce que chaque service dans l’entreprise produit ses propres données, pour ses propres usages, le Data Scientist a pour mission première de réconcilier les données avec des usages empiriques. La donnée, une fois passée entre les mains des équipes Data Science, devient naturellement et de manière intelligible de tous, des insights business, des opportunités de développement, des perspectives de performance.

                                                                           

                                                                          Entre goût du partage et pédagogie 

                                                                          Alors que l’Intelligence Artificielle et le Machine Learning sont de plus en plus fréquemment exploités dans les entreprises, le Data Scientist doit également se muer régulièrement en pédagogue. Sans faire des cadres de l’entreprise des experts de la valorisation des données, le partage de connaissance est capital.

                                                                          C’est une spécificité des missions dévolues aux équipes Data Science : former et sensibiliser les maillons essentiels de l’organisation aux bonnes pratiques data.

                                                                          Et pour cause, pour engager la transformation de l’entreprise sur voie d’une stratégie Data-driven, tous les profils de l’entreprise doivent comprendre et mesurer l’importance de raisonner « data » à tous les stades de l’activité et pas seulement lorsqu’il s’agit de comprendre un parcours client. Sensibilité, humanité, technicité, trois qualités essentielles dont le Data Scientist devra impérativement pouvoir se prévaloir pour être à la hauteur d’une mission hautement stratégique !

                                                                          Donnez à vos équipe de data science les clés pour découvrir leurs données

                                                                          Découvrez les solutions de data discovery développées par différents géants du web qui ont permis à leurs équipes data science de comprendre et de faire confiance à leurs actifs d’entreprise. 

                                                                          Les expériences de ces géants du web ont largement inspiré Zeenea quant aux valeurs proposées par son data catalog pour faciliter la découverte d’information par les équipes data, de la manière la plus simple et la plus intelligente possible. 

                                                                          Découvrez les différentes plateformes de data discovery en téléchargeant notre dernier livre blanc ! 

                                                                          La cartographie des données, clé pour rester conforme aux réglementations

                                                                          La cartographie des données, clé pour rester conforme aux réglementations

                                                                          data-mapping-1

                                                                          Quel que soit le secteur d’activité, la maîtrise des données est un axe stratégique clé pour les entreprises. Ces informations sont clés pour innover sur les produits et services de demain. De plus, avec l’essor de nouvelles technologies comme le Big Data, l’IoT ou encore l’intelligence artificielle, les organisations récoltent des volumes exponentiels de données, provenant de sources différentes avec des formats variés.

                                                                          De plus, avec les réglementations data de plus en plus strictes comme le RGPD, le traitement des données nécessite désormais la mise en place de mesures de sécurité adaptées afin de protéger les fuites d’informations et des traitements abusifs. 

                                                                          Tout l’enjeu se trouve ainsi dans la réappropriation de son patrimoine de données. Autrement dit, les entreprises cherchent des solutions pour maintenir une cartographie des données reflétant leur réalité opérationnelle

                                                                           

                                                                          Qu’est ce qu’une cartographie des données ?

                                                                          Retournons aux bases : une cartographie des données est un “mapping” qui permet d’évaluer et visualiser de manière graphique les points d’entrée des données ainsi que leurs traitements. Il y a plusieurs types d’informations à cartographier, tels que:

                                                                          • Les informations sur les données
                                                                          • Les traitements des données

                                                                          Sur les données

                                                                          L’idée d’une cartographie sur les données est de travailler sur la sémantique data (étude des sens et de leurs significations

                                                                          Ce travail ne se fait pas sur les données elles-mêmes, mais plutôt à travers les métadonnées. Elles permettent d’appréhender au mieux le sens de la donnée et son contexte. Ces métadonnées peuvent représenter le nom “métier” de la donnée, son nom technique, la localisation de la donnée, quand elle à été stockée, par qui, etc. 

                                                                          En mettant en place des règles sémantiques et un langage data commun à travers un business glossary, les entreprises peuvent identifier et localiser leurs données, et donc, faciliter l’accès aux données pour l’ensemble des collaborateurs.

                                                                           

                                                                          Sur les traitements data

                                                                          Concernant les traitements des données, il est important de recenser :

                                                                          • les flux de données: avec leurs sources et leurs destinations,
                                                                          • les transformations des données : toutes les transformations appliquées à la donnée au cours du traitement.

                                                                          Un outil puissant : Le Data Lineage

                                                                          Le Data Lineage se définit comme étant le cycle de vie d’une donnée et un suivi de toutes les transformations qui ont eu lieu entre son état initial et son état final. 

                                                                          Le data lineage est fortement lié à la cartographie d’un traitement des données ; on doit voir quelles données sont concernées par ce traitement et pouvoir analyser les impacts très rapidement. Par exemple, si une anomalie du traitement a provoqué une corruption des données, on peut savoir quelles données sont potentiellement concernées.

                                                                          Dans un autre cas de figure, la cartographie du point de vue d’une donnée doit pouvoir dire sur quels jeux de données la donnée est issue.  Ainsi, on peut analyser rapidement les impacts d’une modification de jeu de données source en retrouvant rapidement les données liées. 

                                                                           

                                                                          Les bénéfices de la mise en place de cartographie des données

                                                                          Avec une solution de cartographie, les entreprises peuvent donc répondre aux réglementations data, notamment le RGPD, en répondant à ces questions :

                                                                          Qui ? Qui est responsable d’une donnée ou d’un traitement ? À la protection des données ? Qui sont les éventuels sous-traitants ?

                                                                          Quoi ? Quelle est la nature des données collectées ? Est-ce des données sensibles ?

                                                                          Pourquoi ? Pouvons-nous justifier de la finalité de la collecte et du traitement des informations?

                                                                          Où ? Où sont hébergées les données ? Dans quelle base ? 

                                                                          Jusqu’à quand ? Quelle est la durée de conservation de chaque catégorie de données ?

                                                                          Comment ? Quel est le cadre et quelles sont les mesures de sécurité mises en place pour une collecte et un stockage sécurisé des données personnelles?

                                                                          En répondant à ces questions, les Responsable SI, Responsable Data Lab, Business Analyst ou encore Data Scientist se posent pour rendre un travail sur la donnée pertinent et efficace.

                                                                          Ces questions mises en exergue permettent aux entreprises à être conforme aux réglementation mais également de :

                                                                          • Améliorer la qualité des données et renseigner un maximum d’informations qui permet aux utilisateurs de savoir si les données sont aptes à être utilisées.
                                                                          • Rendre les collaborateurs plus efficaces et autonomes dans la compréhension des données grâce à une cartographie des données graphique et ergonomique.
                                                                          • Analyser de manière profonde les données, afin de pouvoir prendre de meilleures décisions basées sur les données et finalement, devenir une organisation data-driven.

                                                                           

                                                                          Conclusion

                                                                          C’est en ayant un patrimoine de données correctement cartographié qu’une entreprise va pouvoir tirer parti de ses données. Une analyse des données de qualité n’est possible qu’avec des data correctement documentées, tracées, et accessibles à tous. 

                                                                          Vous êtes en recherche d’outil de cartographie des données?

                                                                          Vous pouvez avoir plus d’informations sur notre solution de catalogue de données en visitant les liens ci-dessous :

                                                                          Zeenea Data Catalog

                                                                          Zeenea Studio – la solution pour les data managers

                                                                          Zeenea Explorer – faciliter le quotidien de vos équipes data

                                                                          ou prendre rendez-vous directement avec nous pour une démo de notre solution :

                                                                          COVID19 : les entreprises face au défi des transformations digitales

                                                                          COVID19 : les entreprises face au défi des transformations digitales

                                                                          covid-digital-transformations

                                                                          L’année 2020 aura marqué un tournant dans le processus de transformation digitale des entreprises. Le Coronavirus et son cortège de mesures sanitaires, de restrictions, de précautions ont fortement impacté les sociétés humaines et le monde de l’entreprise. Retour sur les défis data-management liés à la COVID19.

                                                                          Fermeture des points de contact physiques, généralisation du télétravail, tensions logistiques, incertitudes tous azimuts, tout au long de l’année 2020, les entreprises ont dû réinventer des codes, instaurer de nouvelles méthodes, développer de nouvelles stratégies.

                                                                          L’enjeu ? Entretenir le lien tant avec les collaborateurs qu’avec des clients, maintenus à distance par des confinements plus ou moins stricts.

                                                                          Selon une étude de l’institut Gartner, 69% des entreprises estiment que la crise sanitaire a accéléré la nécessité de développer la part du digital dans leur activité. Pour 60% d’entre elles, la transformation digitale est une perspective d’améliorer leur efficacité opérationnelle.

                                                                          Une autre étude réalisée par PegaSystems révèle par ailleurs que 56% des entreprises ont augmenté les budgets liés à leur transformation digitale. Elles sont 69% à considérer que la crise sanitaire les amènent à toujours plus d’empathie avec leur client. Au cœur de ces enjeux : la gestion des données.

                                                                           

                                                                          Accélérer les transformations… grâce à la donnée

                                                                          Selon les estimations d’une étude réalisée à la fin 2020, la crise de la COVID-19 a accéléré la stratégie de numérique des entreprises de 6 ans en moyenne. Et 97% des décideurs d’entreprise estiment que la pandémie a accéléré la transformation numérique de leur entreprise. Cette même étude révèle que face à la crise, 95% des entreprises recherchent de nouvelles façons d’engager les clients et 92% déclarent que la transformation des communications numériques est critique pour relever les défis commerciaux actuels.

                                                                          Derrière ces constatations, il existe une nécessité impérieuse : valoriser la donnée. En effet, au-delà de l’identification de nouveaux leviers pour engager les clients et conserver le contact avec vos audiences, il s’agit d’abord et avant tout de bien les connaître. Pour faire preuve d’empathie, vous devez savoir à qui vous vous adressez, par quel canal vous pouvez interagir efficacement.

                                                                          La gestion de la donnée constitue le socle de toute cette démarche d’accélération de votre transformation digitale !

                                                                          La donnée permet de définir vos stratégies marketing, de définir les axes de vos campagnes de fidélisation (si essentielles pour préserver la continuité de l’activité en temps de crise). Elle conditionne par ailleurs vos priorités en termes de R&D. En effet la connaissance client portée par le data-management, permet d’inscrire l’innovation dans une dimension data-driven. L’objectif : concevoir et développer des produits et services correspondant aux attentes et besoins des cibles visées.

                                                                          Une étude de Solocal, publiée à la fin de l’année 2020 mettait ainsi en évidence que l’un des leviers de l’accélération de la transformation digitale passerait pour 81% des entreprises par la sollicitation et la réponse au aux avis clients.

                                                                           

                                                                          Des secteurs à la pointe de la transformation

                                                                          Intégrer les données en temps réel dans les stratégies des entreprises, analyser les parcours clients, déployer des solutions d’analyse prédictives pour accélérer les engagements ou détecter des signaux faibles sur l’activité afin d’anticiper… Le champ d’application de la gestion des données est chaque jour plus large.

                                                                          Durant la crise de la COVID-19, certains secteurs d’activité ont dû totalement se réinventer et sont parvenus grâce à leur actif Data à trouver des leviers pour maintenir la continuité de l’activité.

                                                                          Ainsi, une étude récente du cabinet de conseil QuantMetry, publiée en octobre dernier, démontrait que 68 % entreprises ont maintenu voire augmenté les budgets liés à la donnée en 2020.

                                                                          Durant la crise sanitaire, Uber for Business a constaté une explosion des demandes de livraison de repas dans un cadre professionnel. Grâce à l’exploitation fine de son patrimoine data, l’entreprise est parvenue, en quelques mois, à concevoir une nouvelle offre à destination des directions marketing.

                                                                          Le concept ? Proposer des bons de livraison de repas non plus seulement pour les collaborateurs en télétravail, mais à destination des clients des entreprises comme levier de fidélisation. L’offre, déclinée dans le cadre de stratégie BtoBtoC, se positionne également comme une alternative à tous ces instants de sociabilité liés aux événements professionnels. Ces bons, également vouchers sont également des outils marketing de premier ordre car de nombreux indicateurs s’y rattachent (type d’utilisation, type de repas commandés, zones géographiques…).

                                                                          Autant de KPI utiles à Uber for Business mais aussi aux entreprises qui y ont recours, pour affiner leurs stratégies de rétention de clients… ou de talents.

                                                                          Vous êtes en pleine transformation digitale? Nous vous proposons de lire notre article : Les bonnes pratiques pour s’engager dans une transformation digitale.

                                                                          Zeenea parlera au Big Data & AI World : Sommet Banque, Finance & Assurance les 10 et 11 Mars 2021

                                                                          Zeenea parlera au Big Data & AI World : Sommet Banque, Finance & Assurance les 10 et 11 Mars 2021

                                                                          sponsoring big data & ai world banque et finance

                                                                          Les entreprises du secteur financier (banques, assurances, …) disposent d’une quantité considérable de données. Celles-ci sont une véritable mine d’or, à condition que l’on soit en mesure de les transformer en informations exploitables, au service de la stratégie et des objectifs business de l’entreprise.

                                                                          La majorité des organisations l’ont bien compris et déploient, depuis plusieurs années déjà, d’importantes stratégies et de vastes programmes de transformation axés sur la donnée.

                                                                          Mais devenir data-driven n’est pas chose facile. Les challenges à relever peuvent être à la hauteur des bénéfices espérés !

                                                                          Nous vous donnons rendez-vous les 10 & 11 mars prochains pour un évènement 100% gratuit, 100% data, 100% secteur bancaire et financier !

                                                                          Retours d’expérience, tables rondes, avis d’experts, études de cas… Venez prendre part aux échanges sur les enjeux liés à la gestion des données et au déploiement de l’Intelligence Artificielle.

                                                                           

                                                                          Zeenea prendra la parole pour parler data, culture et gouvernance

                                                                          Aucun doute, Zeenea sera de la partie avec deux interventions, un livre blanc à télécharger et des Zeepeople à votre disposition pour répondre à vos questions !

                                                                          Le 10 mars à 11h

                                                                          Data Catalog ou comment y voir plus clair dans un patrimoine de données siloté et aux technologies diverses ?

                                                                          Stéphane Jotic, co-fondateur de Zeenea

                                                                          Cette présentation de 25 minutes partagera nos expertises et connaissances sur la gestion d’un patrimoine siloté, comme peut souvent l’être celui de nos clients du secteur bancaire et assurance. Ensemble, nous aborderons ces différents points :

                                                                          1. Les problématiques des métier à valoriser les données
                                                                          2. L’essor d’une nouvelle discipline : la gestion des métadonnées
                                                                          3. Le data catalog : Définition et spécificités
                                                                          4. Les best practices pour le deployer

                                                                           Le 11 mars à 9h30

                                                                          Culture data : faites de vos collaborateurs la force motrice de votre transformation !

                                                                          Retrouvez Guillaume Bodet, CEO de Zeenea, sur une table ronde dédiée à la culture data, en compagnie de deux autres intervenants : Nathalie Pasquin, Group Transformation Officer – AXA, et Ludovic Favarette, Directeur Relation Etablissements, Démocratisation et Support Data – Groupe BPCE.  

                                                                          • Qui doit porter cette transformation au sein de l’organisation ?
                                                                          • Démocratiser la donnée – Par où commencer ?
                                                                          • Informer, impliquer, former les collaborateurs : quelle feuille de route ?
                                                                          • Quel est le rôle des data owners, des data stewards ?
                                                                          • Quelles bonnes pratiques pour sensibiliser et responsabiliser autour des enjeux de la donnée (véracité, qualité, sécurité, protection, éthique…)
                                                                          • Quelles sont les erreurs à éviter ?

                                                                           

                                                                          La data est un formidable levier de transformation et de création de valeur.
                                                                          Les entreprises l’ont bien compris et n’hésitent plus à investir largement dans de nouveaux outils pour capitaliser sur leur patrimoine de données.
                                                                          Néanmoins, l’expérience a montré que le recrutement d’experts et le déploiement de technologies modernes ne suffisent pas à assurer la réussite des projets data. Pour mener à bien cette transformation, le facteur humain, aussi complexe soit-il, est clé.

                                                                          Embarquer l’ensemble des équipes Métiers est la condition sine qua non au développement d’une véritable culture data au sein de l’entreprise.

                                                                           

                                                                          Recevez le prochain livre blanc « Unlock Data » pour la banque et l’assurance

                                                                          livre blanc unblock data banking

                                                                          Vous êtes pas dans le secteur bancaire, financier ou de l’assurance ? Et, évidemment la data est le sujet du moment ?

                                                                          Soyez informé(e) de la sortie de notre prochain livre blanc Unlock Data pour la banque et l’assurance. Vous retrouverez des success stories, des cas d’usages et bien d’autres tips !

                                                                          Pour le recevoir en avant première, inscrivez-vous en cliquant sur le bouton ci-dessous👇

                                                                          Les bonnes pratiques pour s’engager dans une transformation digitale

                                                                          Les bonnes pratiques pour s’engager dans une transformation digitale

                                                                          digital-transformation

                                                                          Aujourd’hui, la donnée concerne tous les secteurs d’activité. Les entreprises sont toutes de près ou de loin confrontées à des enjeux de data management. Malgré ces constats, la plupart de celles-ci ont toujours du mal à réellement se transformer en organisation data-driven. Une des raisons pour lesquelles elles ne réussissent pas, c’est qu’elles se retrouvent souvent face à des systèmes d’informations complexes et chronophages, ce qui représentent un véritable frein pour leur transformation digitale. 

                                                                          En effet, peu d’organisations sont capables de réellement trouver leurs données d’entreprises, surtout quand elles ont un patrimoine de données regroupant des formats, tailles, et variétés de données différentes. De plus, il est difficile de pouvoir les interpréter, ou même de savoir si elles sont de qualité quand elles sont mal, ou tout simplement pas, documentées. 

                                                                          Dans cet article, nous partageons quelques bonnes pratiques afin que les entreprises puissent trouver les clés pour démarrer leur transformation digitale grâce à la découverte des données. 

                                                                          Repenser son SI d’entreprise

                                                                          Pendant de nombreuses années, la données et les enjeux du data management étaient réservés aux Géants du Web, comme les GAFAM par exemple (Google, Apple, Facebook, Amazon, Microsoft). Étant des acteurs du web et travaillant principalement avec des ressources digitales, leurs SI et infrastructures étaient déjà pensés et développés autour de la data. Il était donc plus difficile pour les autres acteurs du marché d’implémenter des nouveaux modèles et stratégies : les forces n’étaient pas équivalentes !

                                                                          Ces autres organisations étaient confrontées à des technologies construites sur une accumulation dans les temps. Il est donc évident qu’il est plus complexe d’engager une transformation digitale avec ce cas de figure.

                                                                          Un exemple frappant se trouve dans le secteur bancaire. Alors que les banques ont su normaliser les données du fait de la succession de directives internationales, elles ont dû faire face aux nouvelles banques digitales, proposant des services beaucoup plus agiles et performants. Afin de rester compétitives, elles ont compris qu’il était nécessaire de changer de modèle stratégique pour rester dans le peloton de la course digitale.

                                                                           Un autre exemple se trouve dans le secteur automobile. Le comportement de leurs consommateurs tend à changer progressivement et le marché s’en ressent. La demande grandissante des déplacements « eco-friendly » avec l’utilisation de vélos, l’accès à des services de VTC ou encore une mobilité partagée avec la hausse du covoiturage.

                                                                          Ces faits montrent principalement que le marché de la mobilité évolue ; la demande ne se place plus sur l’acquisition de nouveaux biens, mais plutôt sur des services de mobilités mis à leur disposition. Ainsi, pour rester compétitifs et répondre aux attentes des nouveaux comportements de leurs usagers, les acteurs du marché automobile doivent se diversifier. 

                                                                          Se doter des bonnes solutions data

                                                                          Afin de répondre aux besoins des usagers de la donnée, il est essentiel d’outiller ses équipes data des bonnes solutions. Il faut ainsi, répondre à la question : quelles technologies transverses à l’ensemble des silos de l’entreprise faut-il déployer pour disposer d’une configuration agile ? Pour cela, les ressources IT doivent être organisées pour couvrir trois grandes étapes :

                                                                          1. la découverte des données (ou, data discovery en anglais),
                                                                          2. la préparation et la transformation de ces données,
                                                                          3. la consommation de celles-ci par les différents services de l’entreprise.

                                                                          Pour plus d’informations sur le data discovery, vous trouverez ci-dessous, des articles détaillés : 

                                                                          Ces trois étapes sont primordiales pour démarrer sa transformation vers une entreprise data-driven.

                                                                          D’une part, elles aident à mettre en œuvre les mesures de sécurité appropriées pour prévenir la perte de données sensibles et éviter des conséquences financières et de réputation dévastatrice pour l’entreprise. D’autre part, elle permet aux équipes data d’approfondir les données afin d’identifier les éléments spécifiques qui révèlent les réponses et de trouver des moyens de montrer les réponses. 

                                                                           

                                                                          Tout cela avec un data catalog

                                                                          Chez Zeenea, nous définissons un catalogue de données comme étant :

                                                                          “Un inventaire détaillé de tous les actifs de données d’une organisation et de leurs métadonnées, conçu pour aider les professionnels de la donnée à trouver rapidement les informations les plus appropriées pour tout objectif business et analytique.”

                                                                          En vous outillant d’un data catalog, aussi bien les équipes que les responsables data seront à même de démarrer une transformation digitale en s’appuyant sur les données d’entreprise. 

                                                                          Choisir Zeenea, c’est choisir:

                                                                          • Une vue d’ensemble sur toutes les données contenues dans les diverses plateformes data de l’entreprise,
                                                                          • Un moteur de recherche Google-esque qui donne la possibilité de rechercher un jeu de données, terme métier, ou même un champ à partir d’un mot clé. Affinez la recherche avec divers filtres.
                                                                          • Une application collaborative qui permet une acculturation à la donnée dans l’entreprise grâce à un système de discussion,
                                                                          • Une technologie de Machine Learning qui notifie et donne des suggestions intelligentes concernant les informations des données cataloguées,
                                                                          • Une expérience utilisateur dédiée qui donne la possibilité aux data leaders de permettre à leurs équipes data de devenir autonomes dans leurs découverte des données.

                                                                          En savoir plus sur notre data catalog 

                                                                           

                                                                          Accélérez vos initiatives data dès maintenant

                                                                          Si vous souhaitez obtenir plus d’informations, une démo gratuite et personnalisée, ou si vous voulez juste nous dire bonjour, n’hésitez pas à nous contacter et notre équipe commerciale se chargera de vous répondre dès réception de votre demande 🙂

                                                                          La gouvernance des données, une priorité renforcée pour les entreprises en 2021 ?

                                                                          La gouvernance des données, une priorité renforcée pour les entreprises en 2021 ?

                                                                          Sous l’effet conjugué d’une transformation digitale massive de nos sociétés et des puissances de calcul de l’outil informatique, la place de la donnée dans les stratégies des entreprises explose. Une réalité qui induit la notion de gouvernance des données ou data governance comme une priorité incontournable. Retour sur un enjeu qui reste capital en 2021 !

                                                                          Avec la place croissante qu’occupent les nouvelles technologies, les entreprises sont à la croisée des chemins. D’un côté, elles collectent et produisent des volumes considérables de données. De l’autre, elles doivent être en mesure d’en exploiter toute la richesse à des fins d’adaptation à leurs marchés en temps réel.

                                                                          L’enjeu ? Mettre en œuvre des stratégies de gouvernance des données solides pour garantir non seulement l’exactitude et la pertinence des données, mais aussi leur fiabilité et leur sécurisation. 

                                                                          Mais le défi ne s’arrête pas là ! Elles doivent aussi délivrer à leurs équipes, en interne, les informations dont elles ont besoin pour remplir leurs missions.  Selon les estimations publiées dans le Digital Economy Compass 2019 de Statista, le volume annuel de données créées à l’échelle mondiale a été multiplié par plus de vingt entre 2010 et 2020 et a atteint 50 zettaoctet cette année ! 50 zettaoctet, cela représente 500 millions de disques durs de 100To. Un chiffre qui donne le tournis et ne fait qu’illustrer l’importance de définir une vraie politique de gouvernance des données. 

                                                                          La question ne se limite pas à une simple préoccupation de stockage ou de sécurisation mais aussi et surtout d’exploitation de la donnée. Une exploitation qui permette à l’entreprise de valoriser un actif précieux pour faciliter le quotidien de ses équipes et la satisfaction de ses clients ! 

                                                                          Et le constat de l’institut Gartner est sans équivoque : « l’incertitude générée en 2020 persistera pendant plusieurs années. Mais de ces perturbations, découle une opportunité de forger de nouvelles voies. Les leaders de l’analyse des données concevront et exécuteront une stratégie qui accélère le changement, renforce la résilience et optimise l’impact business ».

                                                                           

                                                                          Gouvernance des données : Mode d’emploi

                                                                          Plus personne ne doute de l’importance d’une politique de gouvernance des données. La crise de la COVID-19 en est une illustration évidente. Les données de santé sont capitales dans la maîtrise de l’épidémie et lorsque la gouvernance n’est pas assurée dans les meilleures conditions, les conséquences peuvent se révéler désastreuses.

                                                                          Au sens strict du terme, la gouvernance des données consiste en la gestion globale de la disponibilité, de l’exploitabilité, de l’intégrité et de la sécurité des données utilisées dans une entreprise. Mais derrière ce principe, il y a les faits… et les difficultés organisationnelles ou techniques. Au sein d’une entreprise, la définition d’une politique de gouvernance des données adaptée doit s’appuyer sur les bons interlocuteurs. L’équipe en charge de la politique de gouvernance des données est garante de la détermination des normes, l’utilisation et l’intégration des données entre les projets, des domaines et des secteurs d’activité… Une mission exigeante qui impose de relever des challenges complexes…

                                                                           

                                                                          Relever les défis de la data governance d’aujourd’hui

                                                                          Puisque la place de la donnée est centrale dans la vie d’une entreprise, il est, plus que jamais, indispensable d’abolir les silos qui, trop souvent, entravent une valorisation optimale de la data. C’est le cœur même d’un projet de gouvernance des données : faire en sorte que la data devienne information. Un enjeu qui suppose démocratiser l’accès aux données à des profils non IT.

                                                                          L’ensemble des métiers doivent pouvoir manipuler, exploiter, interroger la donnée. 

                                                                          Pour cela, les solutions déployées dans les organisations doivent proposer une expérience intuitive et ergonomique. Mais derrière le partage de l’information, qui induit la notion de data quality, persiste le défi constant de la sécurisation de la données… surtout lorsque vos collaborateurs ne sont physiquement présents dans l’entreprise et accèdent à cet actif stratégique depuis leur domicile par exemple. La gestion des identités, le respect des « bonnes pratiques » en matière de sécurité informatique, doivent faire l’objet d’un accompagnement constant. Accompagnement qui doit constituer le pendant immédiat du développement d’une culture interne de la gouvernance de la donnée. 

                                                                          Élaborer des politiques, des procédures et des pratiques qui permettent de contrôler et protéger efficacement les données tout en renforçant leur manipulation et leur exploitation, c’est l’ADN d’une politique de Gouvernance des données !

                                                                          C’est jamais trop tard pour s’y mettre! Démarrez votre projet gouvernance des données

                                                                          Découvrez les secrets pour mettre en œuvre une gouvernance des données agile en téléchargeant gratuitement notre livre blanc : « Pourquoi démarrer une gouvernance des données agile ». Dans ce guide, vous découvrirez :

                                                                           

                                                                          • Les définitions de la gouvernance des données
                                                                          • Les avantages de la mise en œuvre d’une stratégie de gouvernance des données
                                                                          • Ce que signifie une gouvernance des données « agile »
                                                                          • 5 attributs clés pour que votre entreprise puisse commencer à déployer la gouvernance des données agile dans votre organisation !
                                                                          L’IoT dans l’industrie : pourquoi votre entreprise a-t-elle besoin d’un catalogue de données

                                                                          L’IoT dans l’industrie : pourquoi votre entreprise a-t-elle besoin d’un catalogue de données

                                                                          iot-manufacturing-industry-fr

                                                                          La transformation digitale est devenue une priorité dans la stratégie globale des entreprises et les industries ne font pas exception à la règle ! Avec des attentes plus fortes des clients, des demandes de personnalisation accrues et la complexité de la chaîne d’approvisionnement mondiale, les industries doivent trouver de nouveaux produits et services plus innovants. En réponse à ces challenge, les entreprises manufacturières investissent de plus en plus dans l’IoT (Internet des objets). 

                                                                          En effet, le marché de l’IoT a connu une croissance exponentielle au cours des dernières années. Selon IDC, l’empreinte de l’IoT devrait atteindre 1,2 billion de dollars en 2022, et Statista, en revanche, estime que son impact économique pourrait se situer entre 3,9 et 11,1 billions de dollars d’ici 2025. 

                                                                          Dans cet article, nous définissons ce qu’est l’IoT et certains cas d’utilisation spécifiques à la fabrication, et nous expliquons pourquoi un catalogue de données Zeenea est un outil essentiel pour permettre aux fabricants de progresser dans la mise en œuvre de l’IoT.

                                                                          Qu’est-ce que l’IoT ?

                                                                          Une définition rapide 

                                                                          Selon Tech Target, l’Internet of Things (IoT), ou Internet des Objets en français, « est un système de dispositifs informatiques interconnectés, de machines mécaniques et numériques, d’objets ou de personnes qui sont dotés d’identificateurs uniques et de la capacité de transférer des données sur un réseau sans nécessiter d’interaction d’homme à homme ou d’homme à ordinateur ».

                                                                          Une « chose » dans l’IoT peut donc être une personne munie d’un implant de moniteur cardiaque, une automobile qui possède des capteurs intégrés pour alerter le conducteur lorsque la pression des pneus est basse ou tout autre objet auquel on peut attribuer un identifiant et qui est capable de transférer des données sur un réseau.

                                                                          Du point de vue de la fabrication, l’IoT est un moyen de numériser les processus industriels. L’IoT industriel utilise un réseau de capteurs pour collecter des données de production critiques et utilise divers logiciels pour transformer ces données en informations précieuses sur l’efficacité des opérations de fabrication.

                                                                          Cas d’utilisation de l’IoT dans les industries manufacturières

                                                                          Actuellement, de nombreux projets IoT portent sur la gestion des installations et des actifs, la sécurité et les opérations, la logistique, le service à la clientèle, etc. Voici une liste d’exemples de cas d’utilisation de l’IoT dans le secteur manufacturier :

                                                                          Maintenance prédictive

                                                                          Pour les industries, les temps d’arrêt et les pannes imprévus sont les plus grands problèmes. Les entreprises manufacturières réalisent donc l’importance d’identifier les pannes potentielles, leurs occurrences et leurs conséquences. Pour surmonter ces problèmes potentiels, les entreprises utilisent désormais le Machine Learning (ML) pour prendre des décisions plus rapides et plus intelligentes fondées sur des données.

                                                                          Grâce au ML, il devient facile d’identifier des modèles dans les données disponibles et de prévoir les résultats des machines. Ce type d’information permet aux fabricants d’estimer l’état actuel des machines, de déterminer les signes d’alerte, de transmettre des alertes et d’activer les processus de réparation correspondants.

                                                                          Grâce à la maintenance prédictive par l’utilisation de l’IoT, les fabricants peuvent réduire les coûts de maintenance, diminuer les temps d’arrêt et prolonger la durée de vie des équipements, améliorant ainsi la qualité de la production en s’occupant des problèmes avant que les équipements ne tombent en panne. 

                                                                          Par exemple, Medivators, l’un des principaux fabricants d’équipements médicaux, a intégré avec succès les solutions IdO dans l’ensemble de son service et a enregistré une augmentation impressionnante de 78 % des événements de service qui ont pu être facilement diagnostiqués et résolus sans ressources humaines supplémentaires.

                                                                          Suivi des actifs

                                                                          Le suivi des actifs de l’IoT est l’un des phénomènes qui se développe le plus rapidement dans les industries. D’ici 2027, on prévoit que 267 millions de systèmes de suivi des actifs seront utilisés dans le monde entier pour l’agriculture, la chaîne d’approvisionnement, la construction, l’exploitation minière et d’autres marchés. 

                                                                          Alors que par le passé, les fabricants passaient beaucoup de temps à suivre et à vérifier manuellement leurs produits, l’IoT utilise des capteurs et des logiciels de gestion des actifs pour suivre les choses de manière automatique. Ces capteurs diffusent en permanence ou périodiquement leurs informations de localisation sur internet et le logiciel affiche ensuite ces informations pour que vous puissiez les consulter. Cela permet donc aux entreprises manufacturières de réduire le temps qu’elles passent à localiser des matériaux, des outils et des équipements.

                                                                          L’industrie automobile en est un exemple frappant : l’IoT a contribué de manière significative au suivi des données relatives aux véhicules individuels. Par exemple, Volvo Trucks a introduit des services de flotte connectée qui comprennent une navigation intelligente avec des conditions routières en temps réel basées sur des informations provenant d’autres camions Volvo locaux. À l’avenir, un plus grand nombre de données en temps réel provenant des véhicules aidera les analyses météorologiques à travailler plus rapidement et avec plus de précision ; par exemple, l’utilisation des essuie-glaces et des phares pendant la journée indique les conditions météorologiques. Ces mises à jour peuvent aider à maximiser l’utilisation des actifs en réorientant les véhicules en fonction des conditions météorologiques.

                                                                          Un autre exemple de suivi est visible sur Amazon. L’entreprise utilise des robots WiFi pour scanner les codes QR de ses produits afin de suivre et de trier ses commandes. Imaginez que vous puissiez suivre votre inventaire, y compris les fournitures que vous avez en stock pour une future fabrication, en un seul clic. Vous ne raterez plus jamais une échéance ! Et encore une fois, toutes ces données peuvent être utilisées pour trouver des tendances afin de rendre les échéances de fabrication encore plus efficaces. 

                                                                          Un moteur pour l’innovation

                                                                          En collectant et en vérifiant les données industrielles, les entreprises peuvent mieux suivre les processus de production et collecter des quantités exponentielles de données. Ces connaissances permettent de développer des produits et des services innovants ainsi que de nouveaux modèles business. Par exemple, JCDecaux Asia a développé sa stratégie d’affichage grâce aux données et à l’IoT. Leur objectif était d’avoir une idée précise de l’intérêt des gens pour les campagnes qu’ils réalisaient, et d’attirer de plus en plus leur attention par des animations sur leurs écrans. « Sur certains écrans, nous avons installé de petites caméras, qui nous permettent de mesurer si les gens ralentissent devant la publicité ou non », explique Emmanuel Bastide, Directeur Général Asie de JCDecaux.

                                                                          A l’avenir, l’affichage des publicités sera-t-il adapté aux profils individuels ? JCDecaux affirme que dans les aéroports, par exemple, il est possible de mieux cibler la publicité en fonction de l’heure de la journée ou de l’atterrissage d’un avion en provenance d’un pays en particulier ! En étant connectées aux systèmes d’arrivée de l’aéroport, les données générées peuvent envoyer l’information aux terminaux d’affichage, qui peuvent alors afficher une publicité spécifique pour les passagers à l’arrivée.

                                                                          Catalogue de données : une source de vérité pour maîtriser vos données industrielles

                                                                          Pour permettre des analyses avancées, collecter des données à partir de capteurs, garantir la sécurité numérique et utiliser le machine learning et l’intelligence artificielle, les industries doivent « déverrouiller leurs données ». Cela signifie les centraliser dans des sortes de « pages jaunes » intelligentes et faciles à utiliser au sein du paysage des données de l’entreprise.

                                                                          Un data catalog est un dépôt central de métadonnées permettant à toute personne dans l’entreprise d’avoir accès, de comprendre et de faire confiance à toutes les données nécessaires pour atteindre un objectif particulier.

                                                                           

                                                                          Zeenea, le data catalog pour les industries 

                                                                          Zeenea aide les industries à construire une chaîne de valeur de l’information de bout en bout. Notre data catalog permet de gérer une base de connaissance à 360° en utilisant tout le potentiel des métadonnées de vos actifs d’entreprise.

                                                                          Renault Success Story : Comment Zeenea Data Catalog est devenu incontournable

                                                                          En 2017, Renault Digital est né avec l’objectif de transformer le groupe Renault en une entreprise data-driven. 

                                                                          Aujourd’hui, cette entité est composée d’une communauté d’experts en termes de pratiques digitales, capable d’innover de manière agile sur les projets informatiques de l’entreprise. Lors d’une conférence au Data Centric Exchange de Zeenea, Jean-Pierre Huchet, responsable du Data Lake de Renault, explique que leurs principaux challenges data étaient : 

                                                                          • Les données étaient trop silotées,
                                                                          • Accès aux données compliqué,
                                                                          • Pas de définition claire et partagée des termes relatifs aux données,
                                                                          • Manque de visibilité sur les données personnelles ou sensibles,
                                                                          • Faible acculturation à la donnée (ou data literacy).

                                                                          En choisissant Zeenea comme data catalog, ils ont pu relever ces défis. Zeenea est aujourd’hui devenu une brique essentielle dans les projets de données de Renault Digital. Son succès peut se traduire par :

                                                                          • Son intégration dans l’embarquement de Renault Digital : la maîtrise du data catalog fait partie de leur programme de formation.
                                                                          • Des processus et des règles de documentation résistants mis en œuvre via Zeenea.
                                                                          • Des centaines d’utilisateurs actifs. 

                                                                          Aujourd’hui, Zeenea est leur principal data catalog. Les objectifs de Renault Digital sont d’acquérir une vision claire des données en amont et en aval de leur data lake hybride, une vue à 360 degrés de l’utilisation de leurs données, ainsi que la création de plusieurs milliers de Data Explorers au sein de Zeenea Data Catalog

                                                                          Les fonctionnalités uniques de Zeenea adaptées à l’industrie

                                                                          Chez Zeenea, notre catalogue de données a les caractéristiques suivantes pour résoudre vos problématiques IoT :

                                                                          • Connectivité universelle à toutes les technologies utilisées par les fabricants
                                                                          • Des métamodèles flexibles et adaptés aux contextes des industries
                                                                          • Une mise en conformité facilitée grâce au data lineage automatique
                                                                          • Une transition sans heurts pour devenir data literate à travers des expériences utilisateurs captivantes 
                                                                          • Une plateforme au prix raisonnable et au retour sur investissement rapide 

                                                                           

                                                                          Vous souhaitez déverrouiller l’accès aux données pour votre entreprise ?

                                                                          Vous êtes dans l’industrie ? Obtenez les clés pour déverrouiller l’accès aux données de votre entreprise en téléchargeant notre nouveau livre blanc « Unlock data pour l’industrie ».

                                                                          Nouvelle série de livres blancs : “Unlock Data” – quel que soit votre secteur d’activité

                                                                          Nouvelle série de livres blancs : “Unlock Data” – quel que soit votre secteur d’activité

                                                                          new-white-paper-series-FR

                                                                          Zeenea a le plaisir de vous annoncer le lancement de sa nouvelle série de livres blancs destinées à aider les responsables data à relever les nouveaux défis de leur secteur d’activité. Cette série revient sur l’importance des données ainsi que les opportunités qu’elles offrent aux industries. Au fil des pages, vous découvrirez comment déverrouiller l’accès aux données. 

                                                                          Nos livres blancs visent à fournir aux consommateurs de la donnée un guide qui confirmera la nécessité de passer à une organisation data-driven. Dans un premier temps, nous nous concentrerons sur les réussites de transformations digitales et data de différentes industries puis, sur les défis auxquels vous pourriez être confrontés. Nous expliquerons ensuite ce qu’est un data catalog et ses avantages pour une organisation qui souhaite initier une stratégie de gestion de données. Enfin, la dernière partie développera les raisons pour lesquelles Zeenea est LE data catalog pour votre industrie, à travers une présentation de nos fonctionnalités uniques. 

                                                                          Notre premier livre blanc de la série « Unlock Data » sera consacré aux industries et manufactures

                                                                          Pourquoi ? Parce que…

                                                                          Dans la course à la transformation digitale, les industries investissent de plus en plus dans les nouvelles technologies, comme le Big Data, l’intelligence artificielle (IA), ou encore l’internet des objets (IoT en anglais). Leurs principaux objectifs sont, entre autres, d’augmenter la productivité, réduire les coûts de fabrication et logistique ou encore renforcer la traçabilité.

                                                                          Cependant, les industries ont encore du mal à mettre en place une stratégie data-driven. Elles sont confrontées à des défis tels que la difficulté de récupérer des investissements financiers pour poursuivre l’innovation à grande échelle, dans le but de répondre aux changements de modèles économiques. 

                                                                           Pour faire face à ces multiples changements, la transformation digitale est un sujet prioritaire pour des industries en quête d’un renouveau. Par conséquent, devenir data-driven est une question de survie.

                                                                          Vous souhaitez déverrouiller des données pour votre industrie ? Téléchargez notre livre blanc « Unlock data pour l’industrie” !  

                                                                          Vous n’êtes pas dans l’industrie ? Soyez à l’écoute de la sortie de nos prochains livres blancs dans notre série « Unlock Data », de nouvelles industries seront à venir très bientôt 🙂

                                                                          Total : la réussite de sa transformation digitale

                                                                          Total : la réussite de sa transformation digitale

                                                                          total-data

                                                                          Total, l’une des 7 compagnies pétrolières “SuperMajor”, a récemment ouvert son usine numérique “Digital Factory” en début d’année à Paris. La Digital Factory réunira jusqu’à 300 profils différents, tels que des développeurs, des spécialistes data et d’autres experts en digital, afin d’accélérer la transformation numérique du groupe.

                                                                          Plus précisément, la Digital Factory de Total vise à développer les solutions numériques dont Total a besoin pour améliorer ses opérations de disponibilité et de coût afin d’offrir de nouveaux services à ses clients. Leurs priorités sont principalement centrées sur la gestion et le contrôle de la consommation d’énergie, la capacité à étendre leur portée à de nouvelles énergies distribuées, ainsi qu’à fournir des solutions plus respectueuses de l’environnement. L’ambition de Total est de générer 1,5 milliard de dollars de valeur par an pour l’entreprise d’ici 2025.

                                                                          A l’occasion du concours du Meilleur Développeur de France 2019, Patrick Pouyanné, Président-Directeur Général de Total, a déclaré

                                                                          « Je suis convaincu que le digital est un moteur essentiel pour atteindre nos objectifs d’excellence dans tous les secteurs d’activité de Total. La Digital Factory de Total servira d’accélérateur, permettant au Groupe de déployer systématiquement des solutions digitales sur-mesure. L’intelligence artificielle (IA), l’Internet des objets (IoT) et la 5G révolutionnent nos pratiques industrielles, et nous aurons le savoir-faire à Paris pour les intégrer le plus tôt possible dans nos activités. La Digital Factory attirera également les nouveaux talents indispensables à l’avenir de notre entreprise ».

                                                                           

                                                                          Qui compose les équipes de la Digital Factory ?

                                                                          Dans une interview accordée à Forbes en octobre dernier, Frédéric Gimenez, Chief Digital Officer de Total et responsable du projet Digital Factory, a décrit la manière dont les équipes seront structurées au sein de l’usine numérique. 

                                                                          Comme mentionné ci-dessus, l’équipe comptera environ 300 profils différents, tous travaillant selon des méthodologies agiles : les lignes managériales seront auto-organisées, sans hiérarchie, en grande autonomie et les cycles de développement seront courts afin de « test & learn » rapidement et efficacement. 

                                                                           Gimenez explique qu’il y aura plusieurs équipes dans son usine numérique :

                                                                          • Le Data Studio, qui sera composée de data scientists. Le CDO (Chief Data Officer) de Total sera le responsable de cette équipe et leurs principales missions seront d’acculturer l’entreprise aux données et de gérer les compétences data de la Digital Factory. 
                                                                          • Un pool de développeurs et de coachs agiles.

                                                                          •  Le Design Studio, regroupera des professionnels de l’UX et de l’UI. Ils contribueront à l’élaboration de diverses idées créatives et interviendront non seulement au stade de l’analyse des projets commerciaux de Total, mais aussi au cours du parcours du client.

                                                                          • Une équipe Tech Authority, chargée de la sécurité et de l’architecture data, afin de transformer efficacement leur legacy dans un environnement digital.

                                                                          • Une équipe « plateforme », qui sera en charge des différents stockages de données tels que leur environnement Cloud, leur data lake, etc.

                                                                          •  Un bureau Product & Value, chargé de gérer le portefeuille de la Digital Factory, il évaluera la valeur des projets avec l’entreprise et analysera tous les cas d’utilisation soumis à la Digital Factory. 
                                                                          • Un service des ressources humaines et un secrétariat général 

                                                                          •  Des Product Owners qui viennent du monde entier. Ils sont formés aux méthodes agiles dès leur arrivée et sont ensuite inclus dans leur projet pendant 4 à 6 mois. Ils accompagnent ensuite à la transformation digitale.  

                                                                          Ces équipes seront bientôt réunies dans un espace de travail de 5 500 m2 au cœur de Paris dans le 2ème arrondissement, un espace ouvert favorisant la créativité et l’innovation. 

                                                                           

                                                                          Comment fonctionne la gouvernance chez Digital Factory 

                                                                          Gimenez a expliqué que les métiers sont responsables de leurs cas d’utilisation dans la Digital Factory.

                                                                          Cette usine analyse l’éligibilité de leurs cas d’utilisation à travers quatre critères :

                                                                          • Valeur apportée lors de la 1ère itération et lors de sa mise à l’échelle 
                                                                          • Faisabilité (technologie / données)
                                                                          • Appétence du client / Impact interne
                                                                          • Scalabilité 

                                                                          Un comité interne de l’Usine numérique décide alors si le cas d’utilisation est pris en charge ou non et la décision finale est validée par Gimenez lui-même. 

                                                                          Pour une bonne coordination avec les métiers, les représentants digitaux des branches sont également situés au sein de la Digital Factory. Ils sont chargés d’acculturer les métiers et de piloter la génération d’idées, mais aussi de veiller à la cohérence des initiatives numériques de leur branche avec les ambitions du Groupe, Total les appelle les Digital Transformation Officers. 

                                                                           

                                                                          Premiers succès de la Digital Factory de Total

                                                                          Digital Factory a démarré en mars dernier et a déployé ses premières équipes en avril lors du premier confinement en France. Dans l’interview accordée à Forbes, M. Gimenez a expliqué que 16 projets sont en cours avec un objectif de 25 squads en régime permanent.

                                                                          Les deux premières solutions numériques seront livrées d’ici la fin de l’année :

                                                                          • Un outil pour Total Direct Energie pour aider les clients à trouver le meilleur échéancier de paiement en utilisant des algorithmes et de la data

                                                                          • Une solution d’optimisation logistique basée sur l’IoT des camions pour la branche Marketing et Services, qui sera déployée dans 40 filiales.

                                                                          Par ailleurs, Total a réussi à attirer des experts tels que des data scientists (malgré une forme de communication encore très limitée comme Welcome to the Jungle ou Linkedin) et à les fidéliser en proposant une diversité de projets.

                                                                          « Nous réalisons actuellement une première évaluation de ce qui a fonctionné et de ce qui doit être amélioré, nous sommes dans un processus d’adaptation permanente », a déclaré M. Gimenez.

                                                                           

                                                                          La Digital Factory dans le futur ?

                                                                          Gimenez a conclu l’interview de Forbes en disant que la principale raison du succès de son projet est la mobilisation générale que tout le monde a conservé malgré le contexte sanitaire : « Nous avons reçu plus de cas d’utilisation que nous ne sommes en mesure d’en fournir (50 projets par an pour alimenter en permanence nos 25 squads) !

                                                                          Sinon, nous avons Total a deux grands ensembles de KPI :

                                                                          . mesurer le bon fonctionnement des squads en examinant les KPI de leurs méthodologies agiles

                                                                          . suivre la valeur générée

                                                                           

                                                                          Vous souhaitez déverrouiller l’accès aux données pour votre entreprise ?

                                                                          Vous êtes dans l’industrie ? Obtenez les clés pour déverrouiller l’accès aux données de votre entreprise en téléchargeant notre nouveau livre blanc « Unlock data pour l’industrie ». 

                                                                          Comment les données ont-elles impacté le secteur industriel ?

                                                                          Comment les données ont-elles impacté le secteur industriel ?

                                                                          iot-dans-l'industrie

                                                                          La place de la data est – ou devrait être – centrale dans l’industrie. De l’optimisation des flux de production en passant par la maintenance prédictive, jusqu’à la personnalisation, l’exploitation de la donnée est un levier majeur de transformation de l’Industrie. Mais derrière les promesses, la data implique de grandes responsabilités. Explications.

                                                                          Le secteur industriel est déjà engagé sur la voie d’une production data-driven. Dans l’édition 2020 de son Baromètre de l’industrie 4.0, le cabinet Wavestone révèle ainsi que 86% des répondants déclarent avoir lancé des projets Industrie 4.0. Déploiement de plateformes IoT, refonte de l’architecture IT historique, mouvement vers le Cloud, mise en œuvre de data lake…  la donnée est au cœur des enjeux de transformation de l’industrie. 

                                                                          « En 2020, nous commençons à voir de plus en plus de projets autour de la donnée, de l’algorithmie, autour de l’intelligence artificielle, du machine learning ou encore des chatbots, etc. », précise Wavestone. 

                                                                          Tous les secteurs sont impactés par cette transformation. Ainsi, selon les prévisions de Netscribes Market Research, le marché mondial de l’IoT automobile par exemple devrait atteindre 106,32 milliards de dollars à l’horizon 2023. Le moteur de l’adoption de stratégies data-driven dans l’industrie, c’est la nécessité d’une productivité accrue à moindre coût.

                                                                          Quels sont les challenges data dans l’industrie ?

                                                                          L’exploitation de la data dans l’industrie est aussi une perspective de répondre à un enjeu clé : celui de la mass-personnalisation de la production. Une réalité qui affecte tout particulièrement le secteur automobile. Chaque consommateur est unique et il entend bien disposer des produits qui lui ressemblent. Mais par essence, l’industrie a fondé ses modes de production sur les volumes et les standards ! 

                                                                          La Mass-Personnalisation de la production est, par conséquent, le levier de la révolution data-driven aujourd’hui en marche dans l’industrie. Mais d’autres considérations entrent en ligne de compte. Un outil industriel plus intelligent permet de réduire les coûts et délais de production et de répondre à l’accélération générale du time-to-market. La data contribue également à répondre à des enjeux écologiques en réduisant l’empreinte environnementale de l’outil de production. 

                                                                          Qu’il s’agisse d’intégrer l’IoT, d’utiliser les big data, la business Intelligence, le Machine Learning, ces technologies sont autant d’opportunités de réinventer une industrie nouvelle fondée sur la donnée (capteurs embarqués, machines et produits connectés, internet des objets, virtualisation). 

                                                                          Mais, derrière ces perspectives, les défis sont nombreux. Le premier d’entre eux, c’est le cadre extrêmement rigoureux défini par le RGPD (Règlement Général sur la protection des données) en application en mai 2018. L’omniprésence de la donnée dans le monde industriel n’a pas échappé aux organisations mafieuses et au cybercriminels qui multiplient les assauts sur les infrastructures IT des acteurs de l’industrie depuis 2017 avec le tristement célèbre ransomware Wannacry. 

                                                                          Une attention qui se nourrit d’une autre difficulté du secteur industriel : des environnements IT souvent anciens et conçus comme des mille-feuilles technologiques multipliant les vulnérabilités potentielles. L’hétérogénéité des sources de données est une autre difficulté sensible pour l’industrie. Données marketing, données produits, données logistiques, sont souvent fortement silotées et difficiles à réconcilier en temps réel.

                                                                           

                                                                          Data & Industrie : des bénéfices bien réels

                                                                          Si l’on s’en réfère aux chiffres du Baromètre Wavestone, 74% des entreprises interrogées ont enregistré des résultats tangibles sous 2 ans. Près de 7 entreprises sur 10 (69%) soulignent une réduction des coûts, et 68% évoquent une amélioration de la qualité des services, des produits ou du processus. 

                                                                          En moyenne, les programmes de transformations autour des technologies créant ou traitant de la donnée ont permis une optimisation de la performance énergétique de 20 à 30%, une réduction des temps d’indisponibilité grâce à une meilleure surveillance des équipements pouvant atteindre jusqu’à 40% dans certains secteurs). 

                                                                          Augmentation de la traçabilité des opérations et des outillages, supervision en temps réel des conditions de fonctionnement des outils de production, autant d’éléments contribuant à prévenir les erreurs, à optimiser le suivi des produits mais aussi à détecter de nouveaux leviers d’innovation liés à l’analyse de signaux faibles grâce aux solutions d’IA par exemple. 

                                                                          Au cœur de cette transformation du secteur industriel : la nécessité de s’appuyer sur des solutions d’intégration et de gestion de la donnée à la fois puissantes, stables et ergonomiques pour accélérer l’adoption d’une culture data forte.

                                                                          Vous souhaitez déverrouiller l’accès aux données pour votre entreprise ?

                                                                          Vous êtes dans l’industrie ? Obtenez les clés pour déverrouiller l’accès aux données de votre entreprise en téléchargeant notre nouveau livre blanc « Unlock data pour l’industrie »

                                                                          manufacturing-white-paper-maquette-FR

                                                                          IMAgineDay : Zeenea présente sa solution innovante au Trophée Outillage IA et Data

                                                                          IMAgineDay : Zeenea présente sa solution innovante au Trophée Outillage IA et Data

                                                                          imagineday-zeenea

                                                                          Qu’est-ce que IMAgine Day ?

                                                                          L’IMA (ou Innovation Maker Alliance) est un groupement français de directions innovation & data.

                                                                          Créée en juin 2015, cette association rassemble 3796 responsables stratégiques et opérationnels d’innovation technologique et digitale (Innovation Officers, CDOs, Directions Métiers, R&D, DSI/CTOs, Data Officers, Heads of Data Science, etc.) de Grands Groupes, ETI et Administrations, pour fédérer et développer les initiatives innovantes.

                                                                          L’IMA organise le 3 février 2021 prochain une rencontre 100% digitale sur l’Outillage DATA / IA. Évènement organisé et recommandé pour leurs pairs.

                                                                          Cette matinée permet de présenter des solutions et offres innovantes à +150 décideurs de grandes entreprises & administrations françaises, en duo avec un client final.

                                                                          Une récompense pour les acteurs les plus innovants

                                                                          Les décideurs voteront en live pour récompenser les solutions les plus innovantes et décerneront un trophée dans chaque catégories du concours et 3 trophées transverses (public, jury et jeune pousse).

                                                                            1. Valorisation des données (monétisation, plateforme de partage, efficacité opérationnelle)
                                                                            2. Data gouvernance (catalogue, qualité des données, conformité RGPD, Data Vizualization, Data analytics)
                                                                            3. Gestion du patrimoine des données (Data lake, Data driven)
                                                                            4. Services cognitifs associés (NLP, NLG, search, speech to tex )

                                                                          Zeenea présentera son data catalog nouvelle génération

                                                                          Zeenea sera présent pour cet évènement afin que de partager avec les acteurs de l’association sa proposition de valeur : be data fluent!

                                                                          Nous essaierons dans le temps imparti de mettre en lumière nos promesses, nos points forts, nos cas d’usage et les facteurs de succès pour l’accélération des projets data !

                                                                          Product spotlight : confidentialité, knowledge graph et exploration vont ravir vos data stewards et vos équipes data pour 2021

                                                                          Product spotlight : confidentialité, knowledge graph et exploration vont ravir vos data stewards et vos équipes data pour 2021

                                                                          be data fluent
                                                                          Zeenea offre une nouvelle génération de data catalog centrée sur l’expérience utilisateur. Elle permet de découvrir et comprendre facilement le patrimoine de données avec un maximum de simplicité grâce à des capacités automatisées et une personnalisation de la solution.  Nos articles Product Spotlight proposent un aperçu des dernières grandes mises à jour du data catalog de Zeenea release après release. Découvrez dans cet article les objectifs de cette dernière sortie ainsi que ses dernières avancées.
                                                                          1. La confidentialité de vos informations n’est plus une option
                                                                          2. Une nouvelle interface pour les administrateurs
                                                                          3. Gérez autant de types d’objet que vous souhaitez dans Zeenea Data Catalog
                                                                          4. Le coup d’envoi est lancé pour notre application de data discovery

                                                                          1. La confidentialité de vos informations n’est pas une option

                                                                           

                                                                          Nouvelle configuration des connexions et des scanners

                                                                          Pour cette nouvelle release, Zeenea propose un nouveau système de configuration des connexions aux systèmes de stockage de données de nos clients afin de sécuriser leurs informations.
                                                                          Cette nouvelle approche, sous forme de fichiers de configuration embarqués dans les scanners, permet aux entreprises de ne plus stocker leurs secrets de connexions dans la plateforme SaaS de Zeenea et de garder confidentiel les informations liées à leurs systèmes, restées en local sur le SI.

                                                                          architecture zeenea

                                                                          Les autres + de notre approche

                                                                          En plus d’une sécurité accrue, cette nouveauté alliée à une approche multi-scanners vise :

                                                                          • plus de modularité sur les capacités d’intégration de Zeenea dans les SI. Plusieurs scanners peuvent désormais être intégrés en même temps sur la plateforme et chaque scanner possède sa propre liste de connexions configurées
                                                                          • une meilleure automatisation des déploiements sur l’ensemble du SI. Les configurations sont maintenant stockées sur des fichiers de configuration indépendants au niveau des scanners.
                                                                          • une meilleure visibilité des statuts des connexions pour les utilisateurs finaux quant à la qualité des données présentes dans le catalogue.

                                                                          NB : Zeenea Scanner est le processus permettant d’établir des connexions sur les systèmes de stockage pour en extraire les métadonnées.

                                                                          2. Une nouvelle interface pour les administrateurs

                                                                          Nous proposons à présent un espace dédié pour les administrateurs, permettant de mieux séparer les actions des métiers et la gestion de la plateforme Zeenea.

                                                                          L’interface Administration permet :

                                                                          • la gestion des utilisateurs et des contacts (gestion des accès et du carnet d’adresse)
                                                                          • la visibilité complète sur les connexions actuellement paramétrées dans le catalogue et leur statut
                                                                          • le suivi du journal d’operations sur le fonctionnement de la plateforme
                                                                          • une meilleure visibilité de la liste des scanners et leur statut
                                                                          • la gestion des clés d’API utilisées pour les communications avec les scanners et les appels MachineToMachine
                                                                          Zeenea Administration

                                                                          3. Gérez autant de types d’objets que vous souhaitez dans Zeenea Data Catalog

                                                                          Nous avions introduit les “Objets Personnalisés” (ou custom items) lors de notre précédent Product Spotlight en juin dernier. Ces objets permettent de documenter des concepts entièrement nouveaux, sans être limité par les types natifs fournis par défaut dans Zeenea, tels que :

                                                                          • les jeux de données,
                                                                          • les champs des jeux de données associés,
                                                                          • les traitements,
                                                                          • les visualisations,
                                                                          • les termes métier de votre glossaire.

                                                                          En résumé, ils offrent une plus grande flexibilité aux équipes de data management lors de la construction de la documentation pour modéliser des notions abstraites et complémentaires des métadonnées structurellement proposées par Zeenea.

                                                                          Chaque nouveau type d’objet peut ensuite être utilisé sur chacun des métamodèles pour créer des relations avec l’ensemble des types d’objets géré dans Zeenea et ainsi, améliorer l’exploration du catalogue en s’aidant du concept de knowledge graph.

                                                                          Sa grande nouveauté porte sur la manière dont peuvent être alimentés en Objets personnalisés dans Zeenea Studio. Nous proposons aujourd’hui deux façons de procéder :

                                                                            • soit automatiquement, via un connecteur dédié, développé selon la nature de la source depuis laquelle la synchronisation doit s’effectuer,
                                                                            • et dès aujourd’hui, de manière manuelle, comme peuvent l’être les Termes Métier (Business Terms) du glossaire dans Zeenea.

                                                                          4. Le coup d’envoi est lancé pour notre application de data discovery

                                                                          En septembre dernier, nous vous annoncions le lancement de notre nouvelle application Zeenea Explorer. Elle propose une expérience de recherche et d’exploration décorélée de l’application Zeenea Studio.

                                                                          Recherchez tous les objets natifs du catalogue de données dans Zeenea Explorer

                                                                          Avec Zeenea Explorer, nos clients peuvent dès à présent proposer à leurs équipes une application dédiée à la recherche et à l’exploration des objets natifs déjà renseignés dans Zeenea Studio.

                                                                          Les jeux de données :

                                                                          ce sont les éléments les plus standards représentés dans un catalogue. Ce concept fait référence à une table dans une base de données ou encore à un fichier CSV.

                                                                          Les champs :

                                                                          La structure d’un jeu de données est décrite dans le schéma de celui-ci. Cette structure contient l’énumération, si connue, des Champs, qui correspondent typiquement aux colonnes d’une table dans une base de données.

                                                                          Les visualisations :

                                                                          ce sont des rapports où sont liés Les jeux de données ayant permis de les construire.

                                                                          Les traitements :

                                                                          ils décrivent les actions de transformation effectuées sur un / plusieurs jeux de données entrants et qui donnent lieu à un ou plusieurs jeux de données sortants. Ils matérialisent des relations entre les datasets et décrivent le lignage.

                                                                          Les termes métier :

                                                                          ce sont les éléments de définition constitutifs d’un ou de plusieurs glossaire(s) d’entreprise. Ils renseignent les autres objets du catalogue auxquels ils sont liés et apportent une vision business / métier. des propriétés

                                                                           

                                                                          Profilage des données sur Big Query

                                                                          Le profilage des données renseignent les utilisateurs sur les statistiques liées sur les champs des jeux de données. Ils permettent une consultation approfondie de ceux-ci en leur mettant à disposition des caractéristiques telles que : le nombre de valeurs comptées dans le champ, les top valeurs, la moyenne, le minimum, le maximum, la médiane, l’écart-type, la distribution des données, etc. Seul le nombre de valeurs comptées dans le champ est une statistique réelle. Le reste des éléments présents sont des données approximatives calculées à partir d’un échantillonnage. Les différents graphiques proposés :  
                                                                          La barre de progression / jauge
                                                                          La proportion de valeurs manquantes du champ par rapport au nombre de valeurs comptées est représentée sous forme de barre progressive. Lorsqu’un champ comporte de nombreuses valeurs manquantes, la jauge se colorie en proportion en orange vif permettant une première information visuelle facile à lire.  
                                                                          Les histogrammes horizontaux
                                                                          Ces graphiques affichent les 1 à 6 valeurs les plus importantes représentées dans les champs de type chaînes de caractères. Il s’agit des valeurs les plus représentées dans l’échantillon observé et non dans l’intégralité du champ.  
                                                                          Les histogrammes verticaux
                                                                          Les histogrammes verticaux présentent la distribution des données pour les champs de type valeurs numériques. Ils donnent donc l’information du nombre de valeurs comptées par tranches sur une échelle allant de la valeur minimale à la valeur maximale.
                                                                          Les boîtes à moustaches
                                                                          Les boîtes à moustaches résument l’information statistique de manière simple et visuelle et viennent compléter les histogrammes verticaux quant à l’observation de la distribution. Elles mettent en exergue les quartiles (premier et troisième), la médiane, et les extrémités des moustaches. Ces dernières sont calculées en utilisant 1,5 fois l’espace interquartile (la distance entre le premier et le troisième quartile). Les graphiques représentant des valeurs numériques disposent de tooltips permettant aux utilisateurs d’observer plus finement les valeurs présentées au passage de leur souris sur le graph.
                                                                          Zeenea vous souhaite ses meilleurs voeux pour 2021 !

                                                                          Zeenea vous souhaite ses meilleurs voeux pour 2021 !

                                                                          happy-new-year-2021-zeenea

                                                                          Zeenea vous souhaite une bonne année 2021 !  ⭐️

                                                                          Ce n’est un secret pour personne, l’année 2020 n’est pas prête d’être oubliée…  Elle a été marquée par de nombreux événements qui ont changés le monde. La plupart d’entre nous ont dû s’adapter à de nouvelles façons de travailler et de communiquer les uns avec les autres. Les entreprises ont dû accélérer leurs transformations digitales afin d’offrir leurs produits et services dans le respect des nouvelles réglementations sanitaires. Et pour beaucoup d’entre elles, les données en étaient la clé. 

                                                                          Et Zeenea n’a pas fait exception à la règle 😊

                                                                          Malgré la tournure des événements de l’année passée, Zeenea a pu accomplir beaucoup de choses et rester actif dans le secteur data. Non seulement nous avons acquis de nouveaux utilisateurs dans le monde entier, mais nous avons lancé un nouveau produit, changé notre logo et identité de marque, été cité par divers cabinets de recherche en data analytics, et bien plus encore. 

                                                                          La chronologie de Zeenea en 2020

                                                                          L’expansion de Zeenea Data Catalog à travers le monde

                                                                          Zeenea a démarré l’année avec des clients sur de nouveaux continents  ! En janvier, nous avons acquis notre tout premier client en Afrique, et en février notre premier client américain. Zeenea était enthousiaste à l’idée de commencer à travailler avec ces différentes entreprises internationales. Nous leur souhaitons la bienvenue !

                                                                          Zeenea prend la parole 

                                                                          1) En mars dernier, nous avons publié notre troisième livre blanc sur la gestion des métadonnées. A travers ce document, nous avons partagé nos conseils et astuces sur la façon dont les responsables de données peuvent commencer leur processus de gestion des métadonnées en seulement six semaines !
                                                                          👉Le guide du metadata management

                                                                          2) Courant août, nous étions au Data Innovation Summit 2020, l’événement majeur du monde de la data dans les pays scandinaves. Guillaume Bodet, CEO de Zeenea, a présenté sa conférence intitulée « Smart Data Catalogs, A Must-Have for Data Leaders ». 
                                                                          👉Smart Data Catalog: a must-have for data leaders

                                                                          3) Nous avons également participé en tant que sponsor au Big Data Paris 2020 en septembre, le plus grand salon européen de la Data & de l’IA. Nous avons eu le plaisir d’animer une conférence sur la gestion des métadonnées, où David Martin, Customer Success Manager chez Zeenea, a évoqué les défis de la gestion des métadonnées et la façon de démarrer cette aventure à l’aide d’un data catalog.

                                                                          4) La parution de notre quatrième livre blanc : « Le Data Discovery vu par les Géants du Web » s’est faite au début du mois d’octobre. Dans ce livre blanc, nous faisons un focus sur le contexte et la mise en œuvre des solutions de data discovery développées par les grandes entreprises du web, dont certaines font partie du célèbre «Big Five» ou «GAFAM» (Google, Apple, Facebook, Amazon, Microsoft)
                                                                          👉Lire le livre blanc sur le data discovery

                                                                          5) En décembre, Zeenea a clôturé l’année avec le Salon de la Data à Nantes, où nous avons présenté deux conférences sur les catalogues de données intelligents et la gestion des métadonnées. 
                                                                          👉 Webinar Replay : 6 semaines pour commencer la gestion des métadonnées !

                                                                          Zeenea continue son ascension

                                                                          En août, Zeenea a changé d’identité ! Alors que nous commençons à nous agrandir, à être déployé en Europe et par-delà l’Atlantique, il nous semblait essentiel d’affirmer notre position de data catalog nouvelle génération par une nouvelle identité représentant nos valeurs et nos forces : l’automaticité, la flexibilité et la simplicité d’utilisation.

                                                                          👉Lire notre article pour savoir pourquoi le moment était venu de changer.

                                                                          Au début de l’automne, nous avons annoncé le lancement de notre nouveau produit : Zeenea Explorer, l’application de découverte de données pour vos équipes data !

                                                                          Cette application s’est d’abord concentrée sur les data scientists, les premiers profils à être impactés dans la recherche et le data mining au sein de l’entreprise. Cette innovation profonde vise à accélérer les projets de data science. 

                                                                           👉 Lire notre article sur le produit Spotlight. 

                                                                          Zeenea à la une des journaux

                                                                          Alors que la France est dans sa deuxième phase de confinement, Zeenea a été défini comme « The Adaptive Data Catalog » par BARC, le cabinet de conseil allemand ! Dans leur article, Timm Grosser, analyste principal du Data Management chez BARC, considère Zeenea comme un jeune fournisseur de data catalog en pleine croissance sur le marché. 

                                                                          « Zeenea est un produit relativement jeune et a déjà fait ses preuves, étant donné qu’il n’a que trois ans d’expérience sur le marché et 50 clients. L’entreprise se concentre sur le cœur de métier du Data Catalog, se démarquant ainsi de la concurrence, qui devient de plus en plus large de mon point de vue. L’outil est clairement agencé pour moi.

                                                                          👉Lire l’article zeenea is the adaptative data catalog by BARC

                                                                          Nous avons également été cités par le célèbre cabinet de recherche américain Forrester comme l’un des 27 fournisseurs de Machine Learning Data Catalog en 2020 du monde entier. Avec des enjeux aussi importants, nous pensons que Forrester reconnaît la flexibilité de notre data catalog, qui sert aux objectifs de gouvernance et d’analyse avec une expérience utilisateur propre et intuitive.

                                                                          Zeenea a également été cité par différents journaux de la presse IT française :

                                                                           

                                                                          Quelle est la prochaine étape pour Zeenea ?

                                                                          Zeenea finit l’année 2020 en beauté pour mieux se retrouver en 2021

                                                                          Il est temps de dire au revoir à 2020, et bonjour à 2021 ! En cette nouvelle année, Zeenea a beaucoup de projets à venir. 

                                                                          Notre application Zeenea Explorer sera officiellement lancée avec de toutes nouvelles fonctionnalités innovantes pour permettre à vos équipes data de trouver rapidement les bonnes informations dans le but d’offrir une expérience de recherche unique.

                                                                          👉Visitez notre page Zeenea Explorer ici.

                                                                          Soyez sur vos gardes pour ne rater aucun nouveau contenu, sponsoring d’événements et tant d’autres choses encore. 😄

                                                                          infographie-zeenea-en-2020

                                                                          Big Data Hebdo : Data catalog, data discovery, et gouvernance des données featuring Zeenea

                                                                          Big Data Hebdo : Data catalog, data discovery, et gouvernance des données featuring Zeenea

                                                                          big data hebdo feat. zeenea

                                                                          Enregistré le 20 novembre 2020, Sandrine Bernaud, Product Manager chez Zeenea, avait été invitée pour participer au podcast Big Data Hebdo pour parler data catalog, data discovery et gouvernance des données. 

                                                                          Présentation de Big Data Hebdo en quelques mots :

                                                                          Fondé en 2014 par Vincent Heuschling et Benjamin Guinebertière, le podcast Big Data Hebdo rassemble une équipe de quatre animateurs, tous passionnés par la data sous toutes ses formes ! Vous y retrouverez Alexander Dejanovski, consultant Apache Cassandra chez Datastax, Jérôme Mainaud, Architecte logiciel chez Zeenea, Nicolas Steinmetz, fondateur de CérénIT, et Vincent Heuschling, Fondateur d’Affini-Tech.

                                                                          Ce 113ème épisode s’est concentré sur qu’est-ce un data catalog, pourquoi est-ce un outil nécessaire pour les utilisateurs et managers data, et comment les data catalogs aident les entreprises à découvrir leurs données et initier une gouvernance des données au sein de leur organisation. 

                                                                          Sylvain L., un utilisateur de Zeenea Data Catalog et occupant le poste de Responsable de la gouvernance des données dans une grande banque française, confirme que “le gros point fort [d’un catalogue de données], c’est vraiment de pouvoir rassembler la connaissance de la donnée et de pouvoir permettre aux utilisateurs à la fois métier et IT d’avoir un langage commun, c’est vraiment ça la force dont on a besoin pour développer efficacement nos cas d’usage autour de la donnée.”

                                                                          Vous pouvez écouter le podcast en entier ici 👇

                                                                          https://bigdatahebdo.com/podcast/episode-113-data-catalog-et-data-discovery/

                                                                          Salon de la Data : Zeenea sponsorise l’évènement organisé pour et par les passionnés de data

                                                                          Salon de la Data : Zeenea sponsorise l’évènement organisé pour et par les passionnés de data

                                                                          salon de la data

                                                                          Crise sanitaire oblige, les événements IT s’ancrent sur un nouveau modèle digital.

                                                                          Le Salon de la Data, rendez-vous incontournable des professionnels et des organisations data-driven dans la région nantaise, se tiendra au format full-virtuel le 15 décembre prochain.

                                                                          Fidèle au rendez-vous, nous prendrons également la parole lors de deux conférences pour parler de notre data catalog nouvelle génération facilitant la compréhension, la recherche et les échanges autour des données des entreprises.

                                                                          Ces dernières seront retransmises et directement accessibles via l’application dédiée imagina.io.

                                                                          Nous dévoilerons également les contours de notre “smart” data catalog (Machine Learning Data Catalog) visant à convertir les data natives et surtout les autres aux bénéfices des Data Catalogs.

                                                                          Aujourd’hui, il appartient à l’ensemble des consommateurs de données d’en tirer la valeur économique et commerciale associée. C’est pour répondre aux impératifs de ces nouveaux profils et des départements opérationnels (produit, marketing, finance, ressources humaines, relation client, logistique) dont la maturité autour de ces sujets augmente progressivement que Zeenea propose une solution 100% Cloud, flexible et scalable.

                                                                          Elle consiste à construire un registre des jeux de données disponibles, à les documenter à l’aide de métadonnées, et à mettre à leur disposition un catalogue permettant de rechercher et consulter simplement ces informations.  

                                                                           

                                                                          Lors du Salon de la Data, Zeenea animera les conférences suivantes :

                                                                          conférence-data-democracy

                                                                          Smart Data Catalog, la clé d’une démocratisation des données

                                                                          Le 15.12.20 de 10h30 à 11h

                                                                          Le terme “smart data catalog” est devenu tendance ces derniers mois. Cependant, lorsqu’on parle de quelque chose de “smart”, la plupart d’entre nous l’associent automatiquement, et à juste titre, à un data catalog ne comportant que des capacités de machine learning et d’IA. Pour Zeenea, être smart ne se résume cependant pas à ces fonctionnalités. Guillaume Bodet – co-fondateur et CEO de la société – décryptera comment et pourquoi un “Smart data catalog » est un atout stratégique permettant aux entreprises de devenir à la fois plus compétitives et plus résilientes.

                                                                          conférence gestion des métadonnées

                                                                           Atelier + démonstration

                                                                          Comment démarrer une gestion de ses métadonnées en 6 semaines avec Zeenea Data Catalog ?

                                                                          Le 15.12.20 de 14h à 14h45

                                                                          Présentation/retour d’expérience de 30 minutes par David Martin – Customer Success Director de la société – qui reviendra sur la manière de valoriser efficacement ses métadonnées dans le data catalog Zeenea en suivant une démarche itérative et incrémentale éprouvée, effective dès 6 semaines après sa mise en place.
                                                                           
                                                                          Depuis la plateforme, les experts Zeenea présents vous accueilleront en visio-conférence pour une démonstration personnalisée de leur portefeuille de solutions : les applications Zeenea Studio et Zeenea Explorer.

                                                                          Inscrivez-vous gratuitement pour en savoir plus et les rencontrer autour d’un café digital.

                                                                          En savoir plus : https://salondata.fr/

                                                                          Machine Learning Data Catalog : c’est bien mais pas suffisant !

                                                                          Machine Learning Data Catalog : c’est bien mais pas suffisant !

                                                                          machine-learning-data-catalog

                                                                          Comment tirer parti d’un Machine Learning Data Catalog ?

                                                                          Vous pouvez utiliser les data catalogs d’apprentissage automatique (MLDC) pour interpréter les données, accélérer l’utilisation des données dans votre organisation, et relier les données aux résultats des entreprises.  Nous donnons des exemples concrets des fonctionnalités intelligentes d’un data catalog dans nos précédents articles : 

                                                                          Force est de constater que cette spécificité des data catalogs est une pierre angulaire dans le choix d’un data catalog. Forrester le met d’ailleurs en évidence dans son dernier rapport : Now Tech: Machine Learning Data Catalogs, Q4 2020. En ne manquant pas de nous citer comme l’un des fournisseurs de Machine Learning Data Catalog clé sur le marché.

                                                                          Toutefois, comprenez que en tant que professionnels de la data en recherche d’un data catalog, la brique intelligente est certes une évidence mais n’est pas suffisante pour mener à bien votre mission de démocratisation de la donnée.

                                                                          De machine learning data catalog à Smart data catalogs : quelle est la différence ?

                                                                          Le terme « ML data catalog » est devenu un mot à la mode ces derniers mois. Cependant, lorsqu’on parle d’une chose « intelligente », la plupart du temps nous pensons automatiquement, et à juste titre, à un data catalog ne comportant que des capacités d’apprentissage automatique.

                                                                          Chez Zeenea, nous ne pensons pas qu’un ML data catalog ne doit pas seulement se résumer à des fonctionnalités de Machine Learning et d’Intelligence Artificielle !

                                                                          Il existe différentes façons d’être « intelligent ». Nous aimons ainsi parler de Smart Data Catalog dans lequel l’aspect ML est brique parmi d’autres.

                                                                          Les 5 piliers d’un smart data catalog se trouvent dans son :

                                                                          1. Design : la façon dont les utilisateurs explorent le catalogue et consomment l’information,
                                                                          2. Expérience utilisateur : comment il s’adapte à différents profils,
                                                                          3. Inventaire : fournit un moyen intelligent et automatique d’inventorier,
                                                                          4. Moteur de recherche : répond aux différentes attentes et donne des suggestions intelligentes,
                                                                          5. Gestion des métadonnées : un catalogue qui marque et relie les données entre elles grâce à des fonctionnalités ML.

                                                                          Cette conviction est détaillée sur notre article : Le “smart” data catalog, essentiel pour les data leaders et à également donné lieu à une présentation par Guillaume Bodet, CEO de Zeenea, en septembre dernier. 

                                                                          Qu’est-ce qu’un knowledge graph et comment renforce-t-il les capacités d’un data catalog ?

                                                                          Qu’est-ce qu’un knowledge graph et comment renforce-t-il les capacités d’un data catalog ?

                                                                          knowledge-graphs

                                                                          Depuis quelques années, les knowledge graphs nous entourent… Que ce soient par des expériences d’achat personnalisées via des recommandations en ligne sur des sites web tels que Amazon, Zalando, ou par notre moteur de recherche préféré Google.

                                                                          Cependant, ce concept reste encore bien souvent un challenge pour la plupart des responsables data et analytics qui tente d’agréger et lier leurs actifs d’entreprise afin d’en tirer profit à l’instar de ces géants du web.

                                                                          Pour appuyer ce constat, Gartner a déclaré dans leur article “How to Build Knowledge Graphs That Enable AI-Driven Enterprise Applications” que les « Data and analytics leaders are encountering increased hype around knowledge graphs, but struggle to find meaningful use cases that can secure business buy-in ».

                                                                          Dans cet article, nous définirons ce qu’est le concept de knowledge graph en l’illustrant avec l’exemple de Google puis, nous mettrons en lumière sa puissance intégrée à un data catalog.

                                                                          Qu’est-ce qu’un knowledge graph exactement ?

                                                                          Selon GitHub, un knowledge graph est un type d’ontologie qui décrit les connaissances en termes d’entités et de leurs relations de manière dynamique et automatisée. Contrairement aux ontologies statiques, qui sont très difficiles à maintenir.

                                                                          Voici d’autres définitions d’un knowledge graph proposées par différents experts : 

                                                                          • Un « moyen de stocker et d’utiliser ses données, qui permet aux personnes et aux machines de mieux exploiter les connexions dans leurs jeux de données ». (Datanami)

                                                                             

                                                                          • Une « base de données qui stocke des informations dans un format graphique – et, surtout, peut être utilisée pour générer une représentation graphique des relations entre n’importe lequel de ses points de données ». (Forbes)
                                                                          • « Encyclopédies du monde sémantique ». (Forbes)

                                                                          Grâce à des algorithmes de machine learning, un knowledge graph fournit une structure pour toutes vos données et permet la création de relations multilatérales dans l’ensemble de vos sources de données. 

                                                                          La fluidité de cette structure s’accroît au fur et à mesure que de nouvelles données sont introduites, ce qui permet de créer plus de relations et d’ajouter plus de contexte, et aider vos équipes de données à prendre des décisions éclairées avec des connexions que vous n’auriez peut-être jamais trouvées.

                                                                          L’idée d’un knowledge graph est de construire un réseau d’objets et, plus important encore, de créer des relations sémantiques ou fonctionnelles entre les différents actifs. 

                                                                          Dans un data catalog, un knowledge graph est donc ce qui représente différents concepts et relie les objets entre eux par des liens sémantiques ou statiques.

                                                                           

                                                                          Exemple de Google 

                                                                          L’algorithme de Google utilise ce système pour recueillir et fournir aux utilisateurs finaux des informations pertinentes pour leurs requêtes. Le knowledge graph de Google contient plus de 500 millions d’objets, ainsi que plus de 3,5 milliards de faits sur ces différents objets et les relations entre eux. 

                                                                          Le knowledge graph améliore la recherche Google de trois manières principales :

                                                                          • Trouver le bon résultat : une recherche non seulement basée sur des mots-clés mais aussi sur leur signification.
                                                                          • Obtenir le meilleur résumé : recueillir les informations les plus pertinentes à partir de diverses sources en fonction de l’intention de l’utilisateur.
                                                                          • Approfondir et élargir la recherche : découvrez plus que ce que vous attendiez grâce à des suggestions pertinentes.
                                                                            knowledge-graph

                                                                            Comment les knowledge graphs renforcent-ils l’usage des data catalogs ?

                                                                            Grâce à un data catalog, les knowledge graphs peuvent aider votre entreprise dans sa stratégie data en proposant :

                                                                            Des résultats de recherche riches et approfondis

                                                                            Aujourd’hui, de nombreux moteurs de recherche utilisent de multiples knowledge graphs afin d’aller au-delà de la recherche basée sur des mots-clés. Les knowledge graphs permettent à aux moteurs de recherche de comprendre les concepts, les entités et les relations entre eux. Les avantages sont les suivants :

                                                                            • La possibilité de fournir des résultats plus profonds et plus pertinents, y compris des faits et des relations, plutôt que de simples documents,

                                                                            • La possibilité de former des recherches sous forme de questions ou de phrases – plutôt que de liste de mots clés,

                                                                            • La capacité à comprendre des recherches complexes qui se réfèrent à des connaissances trouvées dans plusieurs éléments en utilisant les relations définies dans le graph.

                                                                            Optimisation du data discovery

                                                                            Les données d’entreprise se déplacent d’un endroit à l’autre à la vitesse de la lumière, et sont stockées dans diverses sources de données et applications de stockage. Les employés et les partenaires accèdent à ces données de partout et à tout moment. Identifier, localiser et classer vos données afin de les protéger et d’en tirer des informations devrait donc être la priorité !

                                                                            Les avantages des knowledge graphs pour le data discovery sont notamment les suivants :

                                                                            • Une meilleure compréhension des données de l’entreprise, où elles se trouvent, qui peut y accéder et où, et comment elles seront transmises,
                                                                            • Classification automatique des données en fonction du contexte,
                                                                            • Gestion des risques et respect de la réglementation,
                                                                            • Visibilité complète des données,
                                                                            • Identification, classification et suivi des données sensibles,
                                                                            • La capacité d’appliquer des contrôles de protection aux données en temps réel sur la base de politiques et de facteurs contextuels prédéfinis,
                                                                            • Évaluer correctement l’ensemble des données.

                                                                            D’une part, elle aide à mettre en œuvre les mesures de sécurité appropriées pour prévenir la perte de données sensibles et éviter des conséquences financières ou de réputation  pour l’entreprise. D’autre part, elle permet aux équipes d’approfondir le contexte des données afin d’identifier les éléments spécifiques qui révèlent les réponses et de trouver des moyens de répondre à vos questions.

                                                                             

                                                                            Des recommandations pertinentes

                                                                            Comme mentionné dans l’introduction, les services de recommandation sont désormais une composante familière de nombreux magasins en ligne, assistants personnels et plateformes digitales.

                                                                            Les recommandations doivent adopter une approche basée sur le contenu. Dans un data catalog, les capacités de machine learning combinées à un knowledge graph, pourront détecter certains types de données, appliquer des tags ou des règles statistiques sur les données pour exécuter des suggestions d’informations efficaces et intelligentes.

                                                                            Cette capacité est également connue sous le nom de “data pattern recognition” (reconnaissance de pattern). Elle consiste à pouvoir identifier des actifs similaires et à s’appuyer sur des algorithmes statistiques et des capacités de ML qui sont dérivés d’autres systèmes.

                                                                            Ce système de reconnaissance de pattern aide les responsables data à gérer leurs métadonnées :

                                                                            • Identifier les doublons et copier les métadonnées
                                                                            • Détecter les types de données logiques (e-mails, ville, adresses, etc.)
                                                                            • Suggérer des valeurs d’attribut (reconnaître des modèles de documentation à appliquer à un objet similaire ou à un nouvel objet)
                                                                            • Suggérer des liens – liens sémantiques ou de lineage
                                                                            • Détecter les erreurs potentielles afin d’améliorer la qualité et la pertinence du catalogue

                                                                            L’idée est d’utiliser certaines techniques dérivées de recommandations, basées sur le contenu que l’on trouve dans les catalogues d’usage standard. Lorsque l’utilisateur a trouvé quelque chose, le catalogue lui propose des alternatives basées à la fois sur son profil et sur la reconnaissance de patterns.

                                                                            Certains cas d’usage d’un data catalog à l’aide d’un knowledge graph

                                                                            • Rassembler les biens qui ont été utilisés ou liés aux causes d’échec des projets digitales.
                                                                            • Trouver des actifs ayant un intérêt commun pour la sortie de nouveaux produits pour le département marketing.
                                                                            • Générer une vue à 360° des personnes et entreprises pour le service commercial.
                                                                            • Faire correspondre les besoins de l’entreprise aux personnes et aux projets pour les ressources humaines.
                                                                            • Trouver des réglementations relatives à des contrats et des investissements spécifiques au sein du département financier.

                                                                            Conclusion

                                                                            Avec l’augmentation constante des données dans les entreprises, organiser ses informations sans stratégie signifie ne pas pouvoir rester compétitif et pertinent dans cette course pour la digitalisation. Pour éviter le redoutable effet de « boîte noire », il est essentiel de veiller à ce que votre data catalog ait un knowledge graph d’entreprise.

                                                                            Grâce à un knowledge graph combiné à l’IA et aux algorithmes de machine learning, vos données seront mieux contextualisées et vous permettront non seulement de découvrir des données plus profondes et subtiles, mais aussi de prendre des décisions plus intelligentes sur le long terme.

                                                                            Pour plus d’informations sur le knowledge graph, voici un article très intéressant par l’analyste Gartner, Timm Grosser : « Linked Data for Analytics?« 

                                                                            Démarrez avec Zeenea Data Catalog

                                                                            Zeenea est une solution 100% cloud, disponible partout dans le monde, en quelques clics. En choisissant Zeenea Data Catalog, maîtrisez les coûts liés à l’implémentation et à la maintenance d’un data catalog tout en simplifiant son accès par vos équipes.

                                                                            Les mécanismes d’alimentation automatique, ainsi que les algorithmes de suggestion et de correction, permettent de réduire le coût global du catalogue, et de garantir la qualité des informations qu’il contient pour vos équipes data en un temps record.

                                                                            Air France : stratégie Big Data dans un contexte de cloud hybride

                                                                            Air France : stratégie Big Data dans un contexte de cloud hybride

                                                                            airfrance big data

                                                                            Air France-KLM est le premier groupe en matière de trafic international au départ de l’Europe. La compagnie est membre de l’alliance SkyTeam regroupant 19 compagnies aériennes et offrant un accès à un réseau mondial de plus de 14 500 vols quotidiens vers plus de 1 150 destinations autour du monde. En 2019, Air France c’était : 

                                                                            • 104,2 millions de passagers,
                                                                            • 312 destinations 
                                                                            • 119 pays,
                                                                            • 546 avions,
                                                                            • 15 millions de membres inscrits à leur programme de fidélité “Flying Blue”*,
                                                                            • 2 300 vols par jour*. 

                                                                            Au Big Data Paris 2020, Eric Poutrin, Lead Enterprise Architect Data Management & Analytics chez Air France, nous a expliqué comment fonctionne une compagnie aérienne, le parcours de leur stratégie big data jusqu’à la mise en place d’une structure Cloud Hybride et où ils en sont aujourd’hui.

                                                                            air-france-big-data-paris-1-1

                                                                            Comment fonctionne une compagnie aérienne ?

                                                                            Avant de commencer à parler data, il est impératif de comprendre comment fonctionne une compagnie aérienne de la création du trajet de vol, à l’atterrissage de l’avion. 

                                                                            Avant de planifier un trajet, la première étape pour une compagnie aérienne telle que Air France est d’avoir un programme de vol. Notez qu’en période de crise sanitaire, ils sont amenés à changer assez fréquemment. Une fois le programme de vol mis en place, il y a trois flux totalement séparés qui se mettent en marche pour qu’un vol ait lieu, avec une date et une heure de départ données :

                                                                             

                                                                            • le flux des passagers, qui passe par différentes formes de services pour faciliter l’expérience du voyageur dans son parcours, de l’achat des billets sur leurs différentes plateformes (web, app, physique) à la mise à disposition de personnels ou de bornes automatiques dans les différents aéroports pour aider les voyageurs à s’enregistrer, déposer leurs bagages, etc.

                                                                            • le flux du personnel de bord, avec des profils adaptés avec les qualifications requises pour faire fonctionner ou piloter les avions, ainsi que la gestion des plannings des stewards et hôtesses de l’air.

                                                                            •  le flux ingénierie pour avoir le bon avion avec la bonne configuration au bon point de parking.
                                                                            air-france-big-data-paris-2

                                                                            Cependant, Eric nous confie que tout cela… c’est dans un monde idéal : 

                                                                            “Le “produit” d’une compagnie aérienne passe par le client, et donc tous les aléas se voient. Puis, tous les aléas de chaque flux impactent les uns les autres ! Donc plus on approche de la date du vol, plus ces aléas deviennent critiques.”

                                                                            Suite à ces constats, il y a 25 ans maintenant, Air France a décidé de mettre en place une architecture orientée “service,” qui permet de pouvoir, entre autres,  la notification des abonnés en cas d’aléas sur n’importe quel flux. Ces notificationsen temps réel sont poussées soit aux agents ou aux passagers en fonction des besoins : la prévention d’aléas techniques (un avion qui tombe en panne), des aléas météorologiques, la prévention des retards, etc.

                                                                            “L’objectif c’était de franchir la marge entre une approche analytics traditionnelle et une approche analytics moderne axée sur l’analyse omniprésente, prédictive et prescriptive, à grande échelle.” Nous affirme Éric. 

                                                                            La parcours de la stratégie Big Data d’Air France

                                                                            air-france-big-data-paris-3

                                                                            La chronologie

                                                                            En 1998, Air France avait commencé par monter un data warehouse d’entreprise sur la partie commerciale rassemblant les données clients, équipages et techniques qui permettaient aux équipes informatiques de la firme de construire des reportings d’analyse. 

                                                                            Eric nous livre qu’en 2001, suite à la crise sanitaire du SRAS (syndrome respiratoire aigu sévère), Air France a dû redéployer des avions suite à l’interdiction de vols entrants aux États Unis. C’est le data warehouse de la firme qui leur a permis de trouver d’autres sources de revenus, grâce leurs algorithmes de machine learning et d’intelligence artificielle. Cette manière de travailler avec la donnée avait bien fonctionné pendant 10 ans et a même permis à la firme de pouvoir surmonter plusieurs autres difficultés, notamment la tragédie du 11 septembre 2001 et la crise de la montée des prix du pétrole. 

                                                                            En 2012, les équipes data d’Air France ont décidé de mettre en place une plateforme Hadoop afin de pouvoir faire des analyses prédictives ou prescriptives (selon les besoins de chacun) en temps réel, car le data warehouse ne répondait plus à ces nouveaux besoins et à la forte volumétrie d’informations à gérer. C’est seulement en quelques mois après l’implémentation d’Hadoop, de KAFKA, et d’autres technologies nouvelle-génération que la firme a pu réussir à avoir des données beaucoup plus “fraîches” et pertinentes. 

                                                                            Depuis, les équipes améliorent et optimisent constamment leur écosystème data afin de toujours pouvoir être à jour avec les nouvelles technologies et donc, permettre aux utilisateurs data de travailler efficacement avec leurs analyses. 

                                                                            Les défis data d’Air France

                                                                            Durant la conférence, Éric nous a également présenté les défis data de la firme dans la mise en place d’une stratégie data :

                                                                            • Délivrer un écosystème analytics fiable avec des données de qualité,
                                                                            • Mettre en place des technologies adaptées pour tous les profils et adaptées pour les cas d’usage de chaque secteur d’activité,
                                                                            • Avoir une infrastructure qui supporte tous types de données en temps réel. 

                                                                            Air France a pu résoudre certaines de ces problématiques grâce à la mise en place d’une architecture robuste (qui a notamment  permis à la firme de pouvoir résister à la crise du COVID-19), ainsi que la mise en place d’équipes dédiées, le déploiement d’applications et la structure de sécurité lié notamment au RGPD et autres réglementations pilotes. 

                                                                            Cependant, Air France KLM n’a pas fini de travailler pour atteindre ses défis data. Avec des volumes de données qui ne cessent de croître, le nombre d’utilisateurs data et métier qui augmente, la gestion des flux de données à travers les différents canaux de l’entreprise et la gestion des données, c’est un travail de gouvernance constant :

                                                                            “Il faut toujours qu’on soit au service des métiers, et comme les gens et les tendances changent, il est impératif de faire des efforts continus pour que tout le monde puisse comprendre la donnée.”

                                                                            air-france-big-data-paris-4

                                                                            L’architecture data unifiée d’Air France

                                                                            L’unified data architecture (UDA) est la pierre angulaire d’Air France. Éric nous explique qu’il y a quatre types de plateformes :

                                                                            La plateforme de data discovery 

                                                                            Séparée en deux plateformes différentes, elles sont les applications de prédilection des data scientists et citizen data scientists. Elles permettent, entre autres, de :

                                                                            • extraire la “connaissance” de la donnée,
                                                                            • traiter des données non-structurées, (des textes, des images, des voix, etc.)
                                                                            • avoir un support d’analyse prédictive afin de comprendre les comportements des clients

                                                                            Un data lake 

                                                                            Le data lake d’Air France est une instance logique et est accessible à tous les employés de l’entreprise, qu’importe le métier. Attention, Eric précise que les données sont bien sécurisées : “Le data lake n’est pas un open bar du tout ! Tout est fait sous le contrôle des data officers et data owners. Le data lake :

                                                                            • stocke les données structurées et non-structurées,
                                                                            • combine les différentes sources data provenant de métiers variés,
                                                                            • permet d’avoir une vision complète d’une situation, un topic ou un environnement data,
                                                                            • est très scalable.

                                                                            Des plateformes “Real Time Data Processing” 

                                                                            Pour opérer les données, Air France a implémenté 8 plateformes de data processing en temps réel afin de répondre aux besoins de chaque “grand” cas d’usage métier.  Par exemple, ils ont une plateforme pour la maintenance prédictive, la connaissance comportement client, ou encore l’optimisation processus en escale.

                                                                            Eric nous confirme que lorsqu’un évènement ou aléa survient,  leur plateforme est capable de pousser des recommandations sous la forme de  notifications en “real time” en seulement 10 secondes !

                                                                            Des Data Warehouses 

                                                                            Comme précisé ci-dessus, Air France avait également déjà mis en place des data warehouses pour stocker les données externes telles que les données clients, partenaires et les données des systèmes opérationnels.  Ces Data Warehouses permettent encore aux utilisateurs de faire des requêtes sur ces jeux de données en toute sécurité, et sont un excellent vecteur de communication pour expliquer la stratégie data entre les différents métiers de l’entreprise.

                                                                            air-france-big-data-paris-5

                                                                            L’intérêt de la mise en place d’une architecture Cloud Hybride

                                                                            Les questions initiales d’Air France par rapport à la bascule vers le Cloud étaient :

                                                                            • Air France KLM vise à standardiser au maximum ses services de calcul et de stockage
                                                                            • Toutes les données ne sont pas éligibles à la sortie des locaux d’Air France en raison de réglementations ou de données sensibles
                                                                            • Tous les outils déjà exploités dans les plateformes UDA sont disponibles à la fois on-premise et dans le cloud public

                                                                            Éric soutient qu’une architecture Cloud hybride permettrait à la firme d’avoir plus de souplesse pour répondre aux challenges actuels :

                                                                            “Mettre notre UDA sur le Cloud publique donnerait une meilleure flexibilité aux métiers et plus d’options en terme de déploiement data.”. 

                                                                            Selon Air France, voici la check liste des bonnes pratiques à vérifier avant de faire un migration vers le Cloud Hybride:

                                                                            • vérifier si la donnée a une bonne raison d’être migrée vers le Cloud public
                                                                            • vérifier le niveau de sensibilité de la donnée (selon les politiques de data management internes)
                                                                            • vérifier la conformité des directives de mise en œuvre du UDA
                                                                            • vérifier les designs des flux de données
                                                                            • configurer la bonne connexion réseau
                                                                            • pour chaque outil d’implémentation, choisir le bon niveau de service management
                                                                            • pour chaque composant, évaluer le niveau de verrouillage et les conditions de sortie
                                                                            • monitorer et prévoir les éventuels coûts
                                                                            • adopter un modèle de sécurité qui permet la sécurité du Cloud Hybride d’être le plus transparent possible
                                                                            • étendre la gouvernance des données sur le Cloud

                                                                            Air France aujourd’hui, où en sont-ils ? 

                                                                            Il est évident que la crise du COVID-19 a complètement changé le secteur de l’aviation. Chaque jour, Air France doit prendre le temps de comprendre les nouveaux comportements des passagers et adapter les programmes de vol en temps réel, en accord avec les restrictions de voyage mis en place par les différents gouvernements. D’ici la fin de l’été  2020, Air France aura desservi près de 170 destinations, soit 85% de leur réseau habituel. 

                                                                            L’architecture data d’Air France a donc été un catalyseur clé pour la reprise de leurs compagnies aériennes :

                                                                            “un grand bravo à nos utilisateurs métiers (data scientists) qui chaque jour essaient d’optimiser en temps réel les services afin de pouvoir comprendre comment les voyageurs se comportent en pleine crise sanitaire. Même si nous travaillons sur l’intelligence artificielle, l’humain est quand même une ressource essentielle dans le succès d’une stratégie data.” 

                                                                            Quelle est la différence entre un Data Steward et un Data Owner ?

                                                                            Quelle est la différence entre un Data Steward et un Data Owner ?

                                                                            data-steward-vs-data-owner

                                                                            Quelle est la différence entre des Data Stewards et des Data Owners ? Cette question revient inlassablement !

                                                                            Vous pourrez sur la toile internet lire différentes définitions associées à la gestion des données et à leur gouvernance. De plus, selon les entreprises, leurs définitions et leurs responsabilités peuvent très largement varier. 

                                                                            Pour tenter de clarifier la situation, nous proposons à travers cet article de faire un résumé de ces deux profils que nous avons pu rencontrer chez nos clients et d’établir une potentielle complémentarité.

                                                                            Avant tout, nous croyons fermement qu’il n’existe pas de cadre idyllique ou standard et que ces définitions sont propres à chaque entreprise du fait de leur organisation et de leur “legacy”.

                                                                            Data owner et data stewards : deux rôles aux maturités différentes

                                                                            La nomination récente des CDOs a largement été guidée par les transformations digitales entreprises de ces dernières années : maîtriser le cycle de vie de la donnée de sa collecte à son création de valeur. Pour tenter d’y parvenir, un objectif simple – mais pourtant complexe – s’est dessiné : connaître en premier lieu le patrimoine informationnel de l’entreprise bien trop souvent siloté. 

                                                                            Ainsi, la première étape de nombreux CDOs a été d’aller référencer ces actifs, de les documenter tant sur l’angle business, les traitements qui les ont transformés que les moyens techniques pour les exploiter.

                                                                            Ce principe fondateur d’une gouvernance des données a également été évoqué par Christina Poirson, CDO du groupe Société Général lors d’une table ronde qui s’est déroulée au Big Data Paris 2020. Elle explique l’importance de connaître son environnement data ainsi que les risques associés pour in fine créer de la valeur.

                                                                            Lors de son intervention, Christina Poirson a développé les rôles des Data Owners au sein de ce challenge du partage de la connaissance data. Intégrés au métier, ils ont la responsabilité de définir leurs jeux de données, leurs usages ainsi que la qualité associée, sans pour autant mettre en cause le Data Owner :

                                                                            “la donnée chez nous appartient soit au client, ou à toute l’entreprise, mais pas à une BU ou un département particulier. On réussit à créer de la valeur à partir du moment où les données sont partagées”.  

                                                                            Vous en conviendrez, les data owners sont des rôles présents depuis plus longtemps dans les organisations que les data stewards. Ce sont des parties prenantes de la collecte, l’accessibilité et la qualité de jeux de données. 

                                                                            Nous qualifions le Data Owner comme le responsable de la donnée finale. Nous pouvons prendre l’exemple simple d’un directeur marketing, qui pourra entreprendre ce rôle dans la gestion des données clients. Il aura ainsi la responsabilité et le devoir d’en maîtriser sa collecte, sa protection et ses usages.

                                                                             La démocratisation des data stewards s’est faite plus récemment, jusqu’à créer des postes dédiés dans les organisations. À l’inverse d’un data owner, propriétaire et responsable de données, celui-ci intervient plus largement dans un challenge, qui re-gagne en popularité depuis quelques temps, la gouvernance des données.

                                                                            Dans nos articles, “Qui sont les data stewards ?” ou encore “Les multiples facettes du stewards”, nous parlons plus en détails de ce profil impliqué dans le référencement, la documentation des actifs d’entreprise (nous parlons bien évidemment des données) pour en simplifier leur compréhension et leurs usages. 

                                                                            Data Steward et Data Owner : deux rôles complémentaires ?

                                                                            Dans les faits, les entreprises n’ont pas toujours les moyens d’ouvrir de nouveaux postes aux data stewards. Dans une organisation idéalisée, la complémentarité de ces profils pourrait tendre vers :  

                                                                            Un data owner est responsable des données de son périmètre dans sa collecte, sa protection, et sa qualité. La suite serait alors prise par le data steward en charge de rédiger et agréger les informations, les définitions et tout autre besoin de l’entreprise pour simplifier la découverte et la compréhension de ces actifs.

                                                                            Prenons l’exemple de la qualité d’un jeu de données. Si un problème de qualité des données subvient, il faudrait vous attendre à ce que le data steward souligne les problèmes rencontrés par ses consommateurs au Data Owner chargé alors d’enquêter et proposer les mesures correctives.

                                                                            Pour illustrer cette complémentarité, Chafika Chettaoui, CDO chez Suez – également présente lors de la table ronde du Big Data Paris 2020 – confirme qu’ils ont ajouté un autre rôle dans leur organisation, celui du Data Steward. Chez eux, le Data Steward est la personne qui s’assure que le flux de données fonctionne. Elle explique :

                                                                            “Le Data Steward est la personne qui va animer ce qu’on appelle les Data Producers (les personnes qui collectent les données dans les systèmes), s’assurer qu’ils soient bien formés et qu’ils comprennent la qualité et le contexte des données pour créer leurs dashboards de reporting et d’analyses. Pour résumer, c’est un profil métier, mais avec une vraie valence data et une compréhension de la donnée et de sa valeur”. 

                                                                            Pour conclure, il existe en anglais, deux notions difficiles à traduire dans la langue française qui pourtant font une différence certaine entre ses deux rôles: le data owner est “accountable for data” tandis que le data stewards est “responsible for” l’activité de la donnée au jour le jour.

                                                                            Comment déployer une gouvernance des données performante et adoptée par tous

                                                                            Comment déployer une gouvernance des données performante et adoptée par tous

                                                                            big-data-paris-table-ronde-CDO-1

                                                                            Il est évident que la COVID-19 a bousculé l’économie et le monde du travail à travers le monde entier. En mars 2020, la France a été mise en confinement total, et de nombreuses entreprises ont dû s’adapter à de nouvelles manières de travailler, que ce soit à travers la mise en place du télétravail, des changements de rythmes de production, ou encore l’arrêt total du fonctionnement de l’organisation. Cette crise sanitaire a donc chamboulé les entreprises : comment faire face aux risques financiers, technologiques, et de conformité suite à la pandémie ?

                                                                            Au Big Data Paris 2020, nous avons eu le plaisir d’assister à la table ronde “Comment déployer une gouvernance des données performante et adoptée par tous” animée par Christina Poirson, Groupe CDO de la Société Générale, Chafika Chettaoui, CDO du Groupe Suez et Elias Baltassis, Partner & Director, Data & Analytics du Boston Consulting Group. Dans cette table ronde d’environ 35 minutes, les trois experts data nous expliquent l’importance et les “best practices” de la mise en place d’une gouvernance des données. 

                                                                            Les premières étapes pour implémenter une gouvernance des données

                                                                            L’impact du COVID-19 n’a pas été sans souligner le défi essentiel de la connaissance, de la collecte, de la conservation et de la transmission de données de qualité. Donc, est-ce que le confinement a poussé les entreprises à vouloir mettre en place une stratégie de gouvernance des données ? Cette première question répondue par Elias Baltassis a confirmé la forte augmentation de demande de mise en place de gouvernance des données en France :

                                                                            “le confinement a certainement accéléré la demande de mise en place de data governance ! La gouvernance des données était déjà un sujet pour la majorité de ces entreprises bien avant le confinement, mais la crise sanitaire a bien sûr poussé les entreprises à renforcer la sécurité et fiabilité de leur patrimoine de données.”

                                                                            Mais donc, quel est l’objectif d’une gouvernance des données ? Et par où commencer ? Elias nous explique qu’il faut tout d’abord faire un diagnostique des actifs de données dans l’entreprise, et identifier les points de friction : “Identifiez les endroits dans l’entreprise où il y a une déperdition de valeur à cause de la mauvaise qualité des données. Ceci est important car la gouvernance des données peut facilement dériver vers un exercice bureaucratique, et c’est pour ça qu’il faut toujours garder comme “guide” la valeur créée pour l’organisation, qui se traduit par une meilleure accessibilité, meilleure qualité, etc”. 

                                                                            Une fois que le diagnostique a été posé et que les sources de valeur sont identifiées, Elias nous explique qu’il y a quatre étapes de méthodologie à suivre :

                                                                            1. Connaître les données d’entreprise, leur structure, et à qui elles appartiennent  (via un glossaire de données par exemple),
                                                                            2. Mettre en place une politique de données ciblée sur les points de friction,
                                                                            3. Choisir le bon outil pour déployer ces politiques à travers l’entreprise
                                                                            4. Mettre en place une culture des données au sein de l’organisation en commençant par embaucher des personnes data-driven, telles que des Chief Data Officers. 

                                                                            La méthodologie ci-dessus est donc primordiale avant de démarrer tout projet de gouvernance des données qui, selon Elias, peut se mettre en place assez rapidement : “la gouvernance des données peut être implémentée rapidement, par contre l’augmentation de la qualité des données va prendre plus ou moins de temps, ça dépend de la complexité de l’entreprise ; une entreprise qui travaille avec un seul pays prendra moins de temps qu’une entreprise travaillant avec toute l’Europe par exemple”. 

                                                                            big-data-paris-table-ronde-CDO-3

                                                                            Le rôle du Chief Data Officer dans la mise en place d’une gouvernance des données

                                                                            Au tour de Christina Poirson, qui explique que pour elle et la Société Générale, la gouvernance des données a joué un rôle très important durant cette période exceptionnelle : “heureusement que nous avions mis en place une gouvernance des données qui a su assurer la qualité et la protection des données durant le confinement à nos clients professionnels et particuliers. Nous avons réalisé l’importance du couple digitalisation et data qui s’est montré vital pour non seulement notre travaille durant la crise, mais également pour les activités de demain”.  

                                                                            Mais donc, comment est-ce qu’une entreprise aussi grande, ancienne et ayant des milliers de données comme la Société Générale a-t-elle pu mettre en place une nouvelle stratégie de data governance ? Christina nous explique que la donnée au sein de la Société Générale n’est pas un sujet récent. Effectivement, dès la naissance des premières agences, la firme a demandé des informations sur le client afin de pouvoir le conseiller sur quel type de prêt mettre en place par exemple. 

                                                                            Cependant, la CDO de la Société Générale nous affirme qu’il y a aujourd’hui, avec la digitalisation, de nouveaux types, formats et volumes de données. Elle confirme ce qu’Elias Baltassis disait juste avant : “La mise en place d’un data office et de Chief Data Officers était une des premières étapes dans la stratégie data de l’entreprise. Notre rôle est de maximiser la valeur des données tout en respectant la protection des données sensibles, ce qui est très important dans le monde de la banque !”

                                                                            Pour faire cela, Christina explique que la Société Générale accompagne cette stratégie tout au long du cycle de la donnée : de sa création jusqu’à sa fin de vie en passant par sa qualification, sa protection, son utilisation, son anonymisation et sa destruction.

                                                                            De l’autre côté, Chafika Chettaoui, CDO du groupe Suez explique qu’elle se voit en chef d’orchestre :

                                                                            “ce qui manquait à Suez c’était un chef d’orchestre qui doit organiser comment la technique peut répondre à un objectif métier. Aujourd’hui avec le nombre de données qui augmente, le CDO doit être le chef d’orchestre pour les départements IT, métier, et même ceux du RH et de la communication car la transformation data et digitale est surtout une transformation humaine. Il doit être l’organisateur afin d’assurer la qualité et l’accessibilité des données ainsi que leurs analyses.”

                                                                            Mais surtout, les deux intervenantes sont d’accord pour dire qu’un CDO ont deux principales missions :

                                                                            • La mise en place de différentes normes sur la qualité et protection des données,
                                                                            • Doit casser les silos data en créant un langage commun autour de la data , ou la data fluency, dans toute partie de l’entreprise

                                                                            L’acculturation des données dans l’entreprise

                                                                            Nous n’avons pas besoin de vous rappeler que la mise en place d’une culture des données au sein de l’entreprise est essentielle pour créer de la valeur avec ses data. Christina Poirson explique que l’acculturation data a été assez longue pour la Société Générale : 

                                                                            “Pour mettre en place une culture data, nous sommes passés par la cartographie des données à tous les niveaux des structures managériales, du top management au collaborateur. Nous avons également dû mettre en place des sessions de coaching, des formations de coding ou autres sensibilisations dédiées. Nous avons aussi mis à disposition tous les cas d’usage du groupe SG dans un catalogue d’idées qui sert à ce que chaque entreprise du groupe (quel que soit le pays) puisse être inspirée : c’est une bibliothèque de cas d’usage qui est là pour inspirer les gens.” 

                                                                            Elle continue à expliquer qu’ils ont d’autres manières d’acculturer les employés à la Société Générale :

                                                                            • La mise en place de bibliothèque d’algorithmes pour réutiliser ce qui a déjà été mis en place
                                                                            • Mise en place d’outils spécifiques pour évaluer si la donnée est conforme aux réglementations
                                                                            • Rendre les données accessibles en passant par un catalogue de données du groupe

                                                                            L’acculturation des données n’était donc pas un long fleuve tranquille pour la société générale. Mais, Christina reste positive et nous raconte une petite analogie :

                                                                            “la data c’est comme l’eau, des DSI sont les tuyaux, et les métiers font des demandes liées à l’eau. Il doit donc avoir une symbiose entre la DSI, l’IT et les métiers”. 

                                                                            Chafika Chettaoui ajoute : “Effectivement, il est impératif de travailler avec et pour le métier. Notre travail est de nommer des gens chez les métiers qui vont être responsable de leurs données.  Il faut redonner la responsabilité à chacun : l’IT pour la construction de la maison, et le métier pour ce qu’on met à l’intérieur. En mettant cet équilibre-là, il y a un vrai aller-retour et non pas juste l’IT qui est responsable de tout”.

                                                                            big-data-paris-table-ronde-CDO-2

                                                                            Les rôles dans la gouvernance des données

                                                                            Bien que les rôles et responsabilités varient d’entreprise à entreprise, lors de cette table ronde, les deux Chief Data Officers nous expliquent comment fonctionne l’attribution des rôles au sein de leur stratégie data. 

                                                                            À la Société Générale ils ont des convictions assez forte. Premièrement, ils mettent en place des “Data Owners”, qui font partie du métier, qui sont responsables de :

                                                                            • la définition de la donnée
                                                                            • les principaux usages
                                                                            • le niveau de qualité associé

                                                                            Par contre, si un utilisateur data veut utiliser une donnée, il n’a pas à demander la permission du Data Owner, sinon ça crispe tout le système. De ce fait, la Société Générale met des dispositifs qui font qu’ils vérifient le respect des règles et réglementations, sans pour autant mettre en cause le Data Owner : “la donnée chez nous appartient soit au client, ou à toute l’entreprise, mais pas une BU ou département particulier. On réussit à créer de la valeur à partir du moment où les données sont partagées”.  

                                                                            Chez Suez, Chafika Chettaoui confirme qu’ils ont la même définition du Data Owner, mais il ajoute un autre rôle, celui du Data Steward. À Suez, le Data Steward c’est celui qui est sur place, qui s’assure que le flux de données fonctionne. Elle explique : “Le Data Steward c’est quelqu’un qui va animer ce qu’on appelle les Data Producers (les personnes qui collectent les données dans les systèmes), s’assurer qu’ils soient bien formés et qu’ils comprennent la qualité des données, et celui qui vont tenir les dashboards de reporting et analyser s’il y a des incohérences. C’est quelqu’un du métier, mais avec une vraie valence data et une compréhension de la donnée ainsi que de sa valeur”. 

                                                                            Quelles sont les bonnes pratiques essentielles pour la mise en place d’une gouvernance des données ?

                                                                            Ce qu’il ne faut jamais oublier dans l’implémentation d’une gouvernance des données c’est de se rappeler qu’une donnée n’appartient pas à une seule partie de l’organisation mais doit être partagée. Il est donc impératif de normer la donnée. Pour cela, Christina Poirson nous explique l’importance d’un dictionnaire des données : “en ajoutant un dictionnaire des données incluant le nom, la définition, le data owner, et le niveau de qualité de la donnée, vous avez déjà une première brique dans votre gouvernance”. 

                                                                            Comme mentionné ci-dessus, la deuxième bonne pratique de la data governance c’est de définir des rôles et responsabilités autour des données. En plus d’un Data Owner ou Data Steward, il est essentiel de définir une série de rôles pour accompagner à chaque étape clé de l’utilisation des données. Certains de ces rôles peuvent être :

                                                                            • Data Quality Manager
                                                                            • Data Protection Analyst
                                                                            • Data Usages Analyst 
                                                                            • Data Analyst
                                                                            • Data Scientist
                                                                            • Data Protection Officer
                                                                            • etc

                                                                            Pour une dernière recommandation de bonne pratique pour une gouvernance des données réussie, Christina Poirson nous explique l’importance de connaître son environnement data ainsi que de connaître son appétence aux risques, les règles de chaque métier, industrie et service pour réellement faciliter l’accessibilité aux données et le respect des lois. 

                                                                             

                                                                            …et les erreurs à éviter ?

                                                                            Pour finir la table ronde, Chafika Chettaoui nous parle des erreurs à éviter pour réussir sa gouvernance. Selon elle, il ne faut surtout pas commencer par la technologie. Même si évidemment, la technique et l’expertise sont essentielles à une mise en oeuvre d’une gouvernance des données, il est très important de se concentrer tout d’abord sur la culture de l’entreprise. 

                                                                            Chafika Chettaoui affirme : “Mettre en place une culture des données avec des formations est essentielle. D’un côté il faut casser le mythe que les données et l’IA sont “magiques”, et d’un autre côté casser le mythe de “l’intuition” de certains experts, en expliquant l’importance des données dans l’entreprise. L’aspect culturel est clé, et à tout niveau de l’organisation. ” 

                                                                            BARC déclare que Zeenea est The Adaptive Data Catalog

                                                                            BARC déclare que Zeenea est The Adaptive Data Catalog

                                                                            barc states data catalog zeenea

                                                                            La semaine dernière, nous avons eu le plaisir de lire sur le site de BARC son dernier rapport sur le thème du Data Management :“Zeenea is the Adaptive Data Catalog”.

                                                                            Pour comprendre la portée de ce rapport, expliquons d’abord qui est BARC.

                                                                            Qu’est-ce que le cabinet de conseil BARC ?

                                                                            Le Business Application Research Center (BARC) est une société de conseil pour les logiciels d’entreprise, avec un accent sur Business Intelligence/Analytics, Data Management, Enterprise Content Management (ECM), Customer Relationship Management (CRM) et Enterprise Resource Planning (ERP).

                                                                            Les analystes du BARC aident les entreprises à évaluer leur stratégie, leur organisation, leur architecture et leurs logiciels depuis plus de 20 ans.

                                                                            Un programme continu et bien établi d’études de marché et de comparaison de produits constitue la base des connaissances approfondies du BARC sur tous les principaux fournisseurs de logiciels et produits, les meilleures pratiques et les dernières tendances et évolutions du marché.

                                                                            Les rapports du BARC offrent un aperçu ciblé des solutions logicielles de pointe, des développements novateurs et des exigences actuelles, ainsi que des évolutions du marché dans les différents domaines des applications d’entreprise.

                                                                            En bref, ils veulent transformer les entreprises – plus spécifiquement basées dans les pays DACH (l’Allemagne, la Suisse, et l’Autriche) – en data leaders !

                                                                            Que dit BARC à propos de Zeenea Data Catalog ?

                                                                            La recherche a été rédigée par Timm Grosser, analyste principal du Data Management chez BARCIl considère Zeenea comme un jeune fournisseur de data catalog en pleine croissance sur le marché. 

                                                                            Timm Grosser BARC

                                                                            Timm a déclaré :

                                                                            « Zeenea est un produit relativement jeune et a déjà fait ses preuves, étant donné qu’il n’a que trois ans d’expérience sur le marché et 50 clients. L’entreprise se concentre sur le cœur de métier du Data Catalog, se démarquant ainsi de la concurrence, qui devient de plus en plus large de mon point de vue. L’outil est clairement agencé pour moi. 

                                                                            […]

                                                                            La feuille de route comporte de nombreuses fonctions innovantes basées sur le ML, telles qu’une meilleure détection des similitudes, la reconnaissance des formes et l’identification des valeurs d’attributs pertinentes.

                                                                            Je pense que l’idée et les approches ont réussi à faire évoluer le Data Catalog de manière incrémentale avec l’entreprise. Je suis d’avis que nous n’avons pas besoin d’un autre catalogue additionnel. 

                                                                            Au contraire, il est important d’emmener l’entreprise et les utilisateurs vers une entreprise centrée sur les données. Et ce voyage doit être réalisable. Il faut tenir compte de l’organisation, des capacités au sein de l’entreprise et d’une structure flexible et simple pour le contenu du catalogue. L’idée est là et les premières précautions technologiques ont été prises. Je suis curieux de voir ce que Zeenea en fera ».

                                                                            Lire les recherches de Zeenea x BARC

                                                                            1. Découvrez la note de recherches du BARC sur Zeenea via ce lien 👉 The Adaptive Data Catalog
                                                                            2. Ou si vous préférez savoir comment choisir un data catalog en tant que Data Leader, veuillez lire cette autre recherche du BARC 👉 The Data Catalog – The “Yellow Pages” for Business-Relevant Data

                                                                            Retail 4.0 : Comment Monoprix a migré sur le cloud

                                                                            Retail 4.0 : Comment Monoprix a migré sur le cloud

                                                                            monoprix

                                                                            Leader omni-canal du centre-ville avec une présence dans plus de 250 villes en France, Monoprix offre chaque jour des produits et services innovants et variés avec un seul objectif en tête : “rendre le beau et le bon accessible à tous”. 

                                                                            En effet, Monoprix en 2020 c’est :

                                                                            • Près de 590 magasins en France,
                                                                            • 22 000 collaborateurs,
                                                                            • Environ 100 magasins à l’international,
                                                                            • 800 000 clients par jour,
                                                                            • 466 producteurs partenaires locaux.

                                                                            Avec près d’un million de clients en physique et plus de 1,5 million de visiteurs sur leur site web chaque jour, il est clair que Monoprix fait face à de milliers de données à gérer ! Que celles-ci proviennent des cartes de fidélité, tickets clients ou de commandes de livraisons en ligne, la firme doit donc gérer un nombre colossal de data de formats variés. 

                                                                            Au Big Data Paris 2020, Damien Pichot, Directeur des Opérations et des Flux Marchandises chez Monoprix, nous a partagé le parcours de la firme dans leur mise en place d’une culture data-driven grâce au Cloud.  

                                                                            big-data-paris-monoprix-1

                                                                            Le Big Data au sein de Monoprix

                                                                            En réponse du nombre de données qui arrivaient chaque jour dans les systèmes data de Monoprix, l’entreprise avait mis en place différentes technologies : un data warehouse on-premise pour les données structurées et un data lake dans le Cloud, qui servait à gérer les données semi-structurées de leurs sites web. De plus, beaucoup de données proviennent également de partenaires ou prestataires dans le cadre d’échanges et d’acquisitions d’informations.

                                                                            Malgré que l’architecture ait bien fonctionné et tenu son rôle pendant de nombreuses années, elle commençait à montrer ses limites et ses faiblesses : 

                                                                            “Pour vous donner une illustration, chaque lundi par nos métiers, nous analysons le chiffre d’affaire et tout ce qui s’est passé la semaine précédente. Au fur et à mesure du temps, nous nous sommes aperçus que chaque semaine le nombre d’utilisateurs qui se connectait sur nos systèmes d’informations augmentait et on arrivait à saturation. En réponse, certains de nos collaborateurs se levaient à 5h du matin pour lancer leur requête pour ensuite se recoucher, et récupérer celle-ci en fin de matinée voire début d’après-midi !” explique Damien Pichot. 

                                                                            Une autre point négatif de la structure IT de la firme, concernait les utilisateurs métier et plus précisément ceux du marketing. Ils commençaient à développer des environnement analytiques en dehors du contrôle de la DSI, créant donc ce qu’on appelle le “shadow IT”.  Les équipes data de Monoprix  étaient bien évidemment insatisfaites car elles n’avaient aucune supervision sur les projets métiers. 

                                                                            “La DSI représentée au sein de Monoprix  n’était donc pas au service des métiers et ne répondait pas à ses attentes.” 

                                                                            Après avoir consulté son comité IT, ils ont  ensemble décidé de faire une rupture avec leur grande structure on-premise. La nouvelle solution devait donc répondre à quatre questions :

                                                                            1. Est-ce que la solution redonne la main aux métiers pour qu’ils soient autonomes
                                                                            2. Le service est-il performant / résilient ?
                                                                            3. La solution permettra-t-elle de baisser les coûts de fonctionnement ?
                                                                            4. Aura-t-on accès à une plateforme unique qui permettra de mutualiser toutes les données issues du data warehouse et du data lake afin de répondre aux enjeux business, décisionnels, machine learning et data science ? 

                                                                            Après réflexion, Monoprix a  finalement pris la décision de tout migrer vers le Cloud ! “Même si nous avions opté pour une autre grosse solution on-prem, nous aurions été confrontés aux mêmes problèmes à un moment où un autre. On aurait peut être gagné deux ans mais ce n’est pas viable sur le long terme.” 

                                                                            Le parcours de Monoprix dans le Cloud

                                                                            Monoprix a donc démarré cette nouvelle aventure dans le Cloud avec Snowflake ! Seulement quelques mois après son implémentation, Monoprix s’est très vite rendu compte  des améliorations de performance comparées à leur ancienne architecture. Snowflake a également su répondre à leurs besoins en matière de partage des données, chose qu’ils avaient du mal à faire auparavant, en robustesse et en disponibilité de la donnée.

                                                                            Les premières étapes

                                                                            Lors de sa conférence, Damien Pichot a expliqué que cela n’était pas facile de convaincre les équipes de Monoprix qu’une migration dans le Cloud était sécurisé. Ils ont pu être rassurés avec la mise en place de Snowflake, qui implémente un niveau de sécurité aussi important que celui de l’industrie pharmaceutique et bancaire aux États Unis. 

                                                                            Pour se donner tous les moyens possibles pour réussir ce projet, Monoprix a décidé de créer une équipe dédiée, constituée de nombreuses personnes  telles que des responsables projet, des intégrateurs, des responsables d’applications spécifiques, etc. C’est en Mars 2019 que le lancement du projet commence officiellement. Damien Pichot avait organisé un kickoff en invitant tous les métiers de l’entreprise : “Je ne voulais pas que ce soit un projet informatique mais un projet d’entreprise, je suis convaincue que ce projet devait être porté par les métiers et fait pour les métiers”. 

                                                                            Damien nous confie que la veille du lancement du projet, il avait du mal à dormir ! En effet, Monoprix est la première entreprise française à se lancer dans la migration totale d’un data warehouse on-premise vers le Cloud ! 

                                                                            big-data-paris-monoprix-2

                                                                            Les complications du projet 

                                                                            La migration s’est faite de façon itérative, du fait d’un fort legacy technique, pour tout réintégrer dans une technologie aussi moderne que Snowflake. En effet, Monoprix avait eu des gros soucis avec les connecteurs : “Nous pensions à l’époque que le plus dur du projet serait d’automatiser les traitements. Or, le plus compliqué a été de re-platformer nos ETL sur un nouvel environnement. On est donc passé d’un projet de 12 mois à 15 mois.”

                                                                            La nouvelle architecture 

                                                                            Monoprix traite donc deux formats de données : les données structurées et les semi-structurées. Les données structurées qui concernaient leur datawarehouse classique, donc les données provenant du Supply Chain, Marketing, transactions clients, etc. Et les semi-structurées qui provenaient d’évènements liés aux sites web. Tout ça maintenant est convergé via les ETL dans une plateforme unique qui tourne sur Azure avec Snowflake. “Grâce à cette nouvelle architecture dans le Cloud nous pouvons attaquer les données comme nous le souhaitons via différentes applications” dit Damien.

                                                                            big-data-paris-monoprix-3

                                                                            Conclusion : Monoprix est mieux dans le Cloud

                                                                            Cela fait depuis le mois de mai 2020 que Monoprix gère ses données dans le Cloud, et c’est “que du plus”. Côté métier, il y a moins de latence, les requêtes qui prenaient des heures durent maintenant des minutes, (et les employés dorment enfin le matin !). Les analyses du métier sont également beaucoup plus profondes avec la possibilité de faire des analyses sur cinq ans, ce qui n’était pas possible avec l’ancienne structure IT. Mais le point le plus important est la facilitation de partager des données plus facilement (data sharing en anglais) avec les partenaires et prestataires de la firme, en autres.

                                                                            Damien nous explique fièrement.  “Avec l’ancienne structure, nos équipes marketing mettaient 15 jours à préparer les données et devaient envoyer des milliers de fichiers à nos prestataires, aujourd’hui ils se connectent en une minute et ils vont chercher les données seuls, sans que nous devons intervenir. Rien que ça, c’est un ROI direct.