Selon une étude menée par IDC, 83% des CEO souhaitent que leur organisation soit plus axée sur l’utilisation de la donnée. Paradoxalement, 92% d’entre eux n’ont pas confiance dans les données de leur entreprise. Comment convaincre les décideurs d’appuyer davantage leurs décisions sur les données (Data Driven) plutôt que sur leurs intuitions et leurs connaissances du métier ?
Les enjeux actuels dans la chaîne d’approvisionnement confirment que les données s’imposent comme un actif précieux et indispensable dans l’élaboration et l’exécution d’une stratégie Data Driven.
Une Smart Data Fabric est le préalable à toute entreprise Data Driven
Pour devenir une entreprise Data Driven, le préalable est de bâtir une Smart Data Fabric, une architecture visant à garantir que les données sont saines, c’est-à-dire, sécurisées, fiables, à jour, toujours disponibles, tracées, etc.
Une brève histoire de l'architecture des données
Il y a quelques décennies, les entreprises fonctionnaient avec un système d’information monolithique qui gérait dans un point central les données opérationnelles et analytiques. Cette approche architecturale offrait l’avantage d’un système d’information unifié, mais souffrait d’un manque de scalabilité pour répondre à la charge croissante du nombre d’utilisateurs et à la quantité de données. Une première solution, pour mieux absorber ces montées en charge, a été de séparer les systèmes transactionnels des systèmes décisionnels ; les opérations d’un côté, les analyses de l’autre.
Quelques années plus tard, un autre problème est survenu : les systèmes transactionnels se sont tellement spécialisés, qu’une multitude d’applications en silos se sont développées d’un côté, pendant que de l’autre, les besoins métiers se sont également précisés, avec des systèmes décisionnels cherchant à offrir à chacun une vue spécifique à son domaine d’expertise. La conséquence est qu’un fossé s’est creusé entre le monde transactionnel et l’univers décisionnel, entraînant une désynchronisation entre les systèmes opérationnels et analytiques, sans avoir au passage réglé les nouveaux besoins de performances et de temps-réel.
Comment réconcilier ces deux mondes ?
La première option est la mise en place d’un data warehouse pour combler ce fossé. Le principe général est d’effectuer dans le data warehouse toutes les étapes de transformation des données, pour alimenter les différents data marts, eux-mêmes stockés au sein de cet entrepôt. L’inconvénient de cette approche est que les transformations des données dans l’entrepôt rendent les data marts peu flexibles pour couvrir rapidement un nouveau besoin métier, et qu’il est souvent nécessaire de dupliquer la donnée en créant de nouveaux data marts, dédiés à chaque nouveau besoin.
La deuxième option est la mise en place d’un data lake dans lequel toutes les données vont être déposées dans leur format brut, sans transformation. Les étapes de transformation étant volontairement décalées dans un second temps, pour s’effectuer au plus proche des besoins métiers, qui peuvent dès lors évoluer sans impact sur les données d’origine.
Malheureusement ces deux approches donnent rarement satisfaction : les projets sont complexes, longs, donc coûteux, sans être suivis de succès, les données sont dupliquées et, ce qui est plus problématique, les données ne sont toujours pas analysées en temps-réel, rendant les décisions Data Driven plus risquées.
Une autre approche est possible : la mise en place d’une Smart Data Fabric.
En fin d’année 2021, Gartner a publié son rapport sur les tendances technologiques actuelles qui identifie la Data Fabric comme la 1ère tendance pour 2022. De quoi s’agit-il ?
Forrester définit la Data Fabric comme les moyens mis en œuvre pour « orchestrer intelligemment et en toute sécurité des sources de données disparates en libre-service, en tirant parti des platesformes de données telles que les lacs de données, les entrepôts de données, les bases de données NoSQL, les plateformes translytiques et autres, pour fournir une vue unifiée, fiable et complète des données clients et commerciales à travers l'entreprise pour prendre en charge les applications et les perspectives. ».
De manière très simple, la Data Fabric est une architecture de données qui facilite le stockage, l’accès et le partage des données au sein des applications internes et externes de l’entreprise. Une Smart Data Fabric combine des technologies clés de gestion des données, telles que le catalogue de données, la gouvernance des données, l'intégration des données, la canalisation des données, l’orchestration des données, la persistance des données et l’analyse des données en temps-réel.
Le principe général est de permettre, de manière fiable, le rapprochement entre les producteurs des données et les consommateurs de données. Le but ultime est de garantir que les différentes sources de données soient correctement transmises aux différents métiers, afin que les bonnes décisions puissent être prises, avec un minimum de risque, au bon moment. Dès l’instant où toutes les étapes et services déployés dans la Smart Data Fabric respectent les bonnes pratiques, les données peuvent être considérées comme saines.
Une Smart Data Fabric doit également traiter les capacités techniques clés telles que :
- La scalabilité à hautes performances
- L'évolutivité dynamique à la hausse et à la baisse, de manière transparente, quelle que soit la taille du volume de données
- La Gestion des charges de travail opérationnelles et analytiques, à l'échelle de l'entreprise
- L’accessibilité
- La prise en charge de tous les modes d'accès aux données, sources de données et types de données, et intégration des données de référence et transactionnelles, au repos ou en transaction
- L'ingestion et unification des données des systèmes dans le Cloud, et On-Premise, dans n'importe quel format – structuré ou non structuré
- La couche d'accès logique de la structure de données doit permettre la consommation de données, quel que soit l'endroit ou la manière dont les données sont stockées ou distribuées
- Le déploiement
- Le support du déploiement dans un environnement multicloud, sur site ou hybride
- Le support d’une stratégie de virtualisation intelligente des données
- La sécurité
- Le chiffrement : les données doivent pouvoir être chiffrées et/ou masquées pour respecter les réglementations sur la confidentialité des données
- La traçabilité : être en mesure de fournir les informations d'identification des utilisateurs aux systèmes sources, afin que les droits d'accès soient correctement vérifiés et autorisés
Quand la Smart Data Fabric a atteint son objectif, l’entreprise a elle-même atteint sa maturité Data Driven.
La mise en place d’une Smart Data Fabric pour la Supply Chain
La chaîne d’approvisionnement nécessite de coordonner un ensemble complexe d’intervenants et de SI différents : centrale d’achat, fournisseurs, site de production, plateforme de stockage, plateforme logistique, transport… jusqu’à la livraison et la satisfaction du client final.
Si la mise en place d’une Data Fabric au sein de la supply chain est un pré-requis indispensable quant à la mise en place d’une stratégie autour de la donnée, c’est notamment parce qu’elle permet de lier et d’orchestrer tous ces systèmes d’information entre eux.
Elle va aider les entreprises à exploiter tout le potentiel de leurs données afin de répondre aux besoins business et gagner en compétitivité. En effet, grâce à cette Data Fabric, les responsables de la chaîne d’approvisionnement pourront optimiser les coûts, améliorer les performances opérationnelles et renforcer l'efficacité et l’agilité de la chaîne d’approvisionnement quel que soit l'emplacement de leurs données et applications. Après avoir obtenu des informations exploitables tirées directement des données, les responsables métiers pourront anticiper les problèmes ou encore mieux gérer les risques de sécurité et de conformité. En somme, la Data Fabric permet d’avoir une vue d’ensemble complète, en temps réel, de toute l’activité de la chaîne d’approvisionnement.
InterSystems, partenaire de confiance dans le déploiement d’une Data Fabric
Depuis sa création, InterSystems aide les entreprises à exploiter tout le potentiel des données dont elles ont besoin pour être plus performantes et améliorer l'expérience clients.
C’est donc naturellement que l’entreprise s’est lancée dans le développement d’une nouvelle génération de plateformes de gestion de données qui traite l’ensemble du cycle de vie de la donnée dans un socle unifié : InterSystems IRIS®. À destination des professionnels de la supply chain InterSystems IRIS permet de mieux valoriser vos données via la mise en place d’une architecture de type « Data Fabric ».
Á l’occasion d’une conférence commune au salon Supply Chain Event 2021, InterSystems et DataValue Consulting ont pu partager leurs visions et retours d’expérience sur ces problématiques, autour des pratiques de Data Fabric et de stratégie data centric.
Découvrez le dernier rapport Ventana Research Data Platforms Value Index 2023 qui nomme InterSystems IRIS comme "Exemplaire" devant Microsoft, SAP, AWS ou encore Google dans le classement général.