« L’année prochaine, le nombre d’experts en data & analytics dans les business unit augmentera à un rythme trois fois supérieur à celui des experts des départements IT, ce qui obligera les entreprises à repenser leurs modèles organisationnels ». – Gartner, 2020.
Les équipes data & analytics sont essentielles pour soutenir une activité commerciale de plus en plus complexe. Nombre d’entités sont amenées à adapter le travail qu’elles effectuent en analysant des données pour soutenir, livrer plus rapidement et avec une meilleure qualité leurs travaux.
Ce nouveau défi amène les data leaders à repenser la façon dont leurs équipes sont organisées…
Alors que les modèles traditionnels également appelés Waterfall s étaient largement répandus et utilisés dans les entreprises, ces méthodologies s’avèrent aujourd’hui trop longues, trop cloisonnées et trop prise de tête dans un time to market toujours plus raccourci !
C’est là que Data Ops intervient : une approche plus agile, plus collaborative et plus propice au changement pour la gestion des données.
Définition du Data Ops
Gartner définit le Data Ops comme étant une « pratique collaborative de gestion des données visant à améliorer la communication, l’intégration et l’automatisation des flux de données entre les gestionnaires et les consommateurs de données au sein d’une organisation« . Autrement dit, il s’agit de faciliter la vie des utilisateurs de données.
Similaire à la façon dont le DevOps, un ensemble de pratiques qui combine le développement de logiciels (Dev) et les opérations de technologies de l’information (Ops), a changé notre façon de livrer les logiciels, DataOps utilise les mêmes méthodologies pour les équipes qui travaillent avec des produits data.
Les deux méthodes se veulent les plus agiles possibles et, pour atteindre cet objectif, DataOps exige de la coordination de toute personne qui travaille avec des données dans l’ensemble de l’entreprise.
Plus précisément, la promotion de l’approche DataOps dans les organisations s’avère apporter une grande valeur pour les organisations :
- Augmentation de la fréquence des déploiements : l’évolution vers une méthode de livraison plus rapide et plus continue permet aux organisations de réduire le délai de mise sur le marché.
- Tests automatisés : la suppression des tests manuels, qui prennent beaucoup de temps, permet d’obtenir des données de meilleure qualité.
- Contrôle des métadonnées : le suivi et le signalement des métadonnées pour tous les consommateurs dans le pipeline de données garantissent une meilleure gestion des changements et évitent les erreurs.
- Surveillance : le suivi du comportement des données et de l’utilisation du pipeline permet d’identifier plus rapidement les défauts – qui doivent être corrigés – et les données de bonne qualité pour les nouvelles capacités.
- Collaboration constante : la communication entre les parties prenantes sur les données est essentielle pour une livraison plus rapide des données.
Qui est impliqué dans le Data Ops ?
Compte tenu de l’importance des cas d’utilisation liés aux données, les rôles impliqués dans la réussite d’un projet de données sont plus nombreux et plus répartis que jamais. Des équipes de data science, aux personnes extérieures au secteur IT, un grand nombre de rôles sont impliqués :
- Business analysts,
- Data architects,
- Data engineers,
- Data stewards,
- Data scientists,
- Data product managers,
- Machine Learning developers,
- Database administrators,
- Etc.
Comme mentionné ci-dessus, une approche de Data Ops nécessite une communication et une collaboration intense entre ces rôles. Chacun d’entre eux doit comprendre ce que les autres attendent d’eux, ce que les autres produisent, et doit avoir une compréhension commune des objectifs des pipelines de données qu’ils créent et font évoluer.
La création de canaux par lesquels ces rôles peuvent travailler ensemble, tels qu’un outil de collaboration ou une solution de gestion des métadonnées, est un point de départ !