Lorsqu'une entreprise décide de se lancer dans le Big Data, elle doit le faire en connaissant les enjeux et les risques internes qui vont en découler nécessairement et déterminer comment l'intégrer aux différentes normes et standards corporatifs. Pour en réaliser la pleine valeur, l'adoption du Big Data nécessite la mise en place d'un cadre de gouvernance et de gestion des données. Ce cadre d'analyse doit considérer les différentes dimensions de l'organisation, à savoir l'organisation, les processus et les technologies.
Le Big Data vient bousculer les pratiques actuelles et domaines de connaissance de gestion des données, en particulier l'architecture, la modélisation et conception, le stockage et les opérations, la sécurité, l'intégration, la qualité et finalement les entrepôts de données et système d'intelligence d'affaires. La qualité des mégadonnées revêt une importance capitale dans un contexte de grand volume, de haute vélocité et de la diversité de provenance des données.
Contrairement à la gestion des données traditionnelle qui est orientée sur les données des systèmes internes de l'entreprise, le Big Data est plutôt orienté vers de grands volumes de données généralement externes pour découvrir de nouvelles connaissances ou idées utiles à l'entreprise et impossibles à détecter autrement. À titre d’exemple, le « Big Data BI » peut combiner les données internes consolidées des entrepôts de données traditionnels et les sources de données semi (ex : médias sociaux) ou non structurées (ex : vidéo).
Vers une nouvelle génération d’entrepôts de données
Le « Big data BI » nécessite une nouvelle génération d'entrepôts de données utilisant des fonctionnalités et technologies nouvelles pour stocker et nettoyer des données provenant de ces sources variées en un format de données uniforme. Cet entrepôt de données de nouvelle génération devient le dépôt central et uniformisé des données structurées, semi et non structurées pour alimenter les outils du « Big Data BI », et devient donc la couche d'accès universelle de l'ensemble des sources de données.
Même si la plupart des entreprises possèdent des entrepôts de données et des systèmes d'intelligence d'affaires, l'introduction de la technologie du Big Data pose plusieurs défis. Elle aura nécessairement des impacts sur l'organisation TI, ne serait-ce que sur les profils de compétences requis pour l'exploiter adéquatement.
La technologie Big Data représente généralement une nouvelle infrastructure, comportant de nouveaux composants technologiques et demandant des façons de faire nouvelles pour l'entreprise. Comment doit-on organiser l'exploitation de cette technologie? Doit-on créer un nouveau groupe ou adapter une structure existante? Combien de personnes et profils de compétences additionnels sont nécessaires?
Les experts en Big Data préconisent généralement un fonctionnement en mode agile, privilégiant la rapidité sur la stabilité et la sécurité. Comment les intégrer dans un groupe où les valeurs privilégiées sont la stabilité et la sécurité des systèmes? En somme, quelle gouvernance des mégadonnées doit-on mettre en place?
Pour aider les entreprises dans leurs projets Big Data, NOVIPRO a élaboré une méthode d’analyse de risques complète couvrant tous les aspects qui doivent être évalués pour éviter les écueils potentiels et élaborer le plan de réduction de risques conséquent. L'analyse est fondée sur les cadres de références connus et réputés tels que CoBIT, GTAG, ITIL, DMBOK. L’analyse tient compte des facteurs de risques impactant l’organisation, les processus, et les technologies, et dresse le parcours d’amélioration ciblé pour chaque client dans l’atteinte de sa maturité Big Data.
Dans la suite de ce dossier, nous aborderons de façon plus précise les enjeux reliés aux infrastructures supportant l’exploitation du Big Data.
Lire l'article suivant de notre dossier Big Data : Le Big Data, une boîte à surprises?