Derrière un projet de transformation digitale par les données, il faut comprendre “projet d’information” et comment l’extraire. Avoir accès à des informations précieuses est la clé de tout projet stratégique d’entreprise et comme l’a dit Napoléon Bonaparte : « La guerre c’est 90% d’informations ».

L'objectif d'un projet de data transformation

Le but d’un projet de transformation digitale par les données est :

  • Identifier de nouvelles opportunités commerciales, par exemple en identifiant de nouveaux groupes de clients et de besoins.
  • Améliorer les performances des activités existantes, par exemple en augmentant la base de vente, en prédisant les comportements des clients ou en automatisant les processus.

C’est donc comment augmenter les revenus et réduire les coûts.

Des initiatives commerciales innovantes peuvent être lancées en se concentrant sur ces nouveaux marchés, ce qui obligera l’entreprise à développer de nouveaux produits, de nouvelles compétences et à s’adapter d’un point de vue organisationnel.

Un projet de transformation de données est essentiellement un projet où les données sont affectées par le contexte commercial. De nos jours, il sera très probablement associé au concept de Big Data.

Un projet Big Data peut être lancé pour apporter un avantage concurrentiel à une organisation en extrayant une grande variété et un grand volume de données.

Dans cet article, nous nous sommes intéressés à la démarche stratégique qui permettra à une entreprise d’extraire des informations pertinentes de ses données. Pour cette raison, bien que de nature différente, nous considérerons les projets de conception d’entrepôts de données (Warehouse) et les projets d’architecture Big Data comme des projets de transformation digitale par les données. Nous proposons d’utiliser l’approche utilisée pour l’analyse des besoins des entrepôts de données afin de définir les objectifs business de tout projet de transformation digitale par les données.

A quel moment les données deviennent-elles des «Big Data»?

On peut parler de Big Data1 lorsque les types de données, les sources, les volumes et les stratégies de traitement sont utilisés « pour fournir des informations qui étaient jusqu’alors hors de portée des technologies de stockage et de base de données et des capacités de traitement des logiciels actuels ». En d’autres termes, lorsque les ensembles de données sont si volumineux et complexes, et incluent des types de données et des sources que les technologies de base de données traditionnelles ne peuvent gérer, alors nous parlons de projets Big Data.

Une bonne pratique proposée pour une architecture d’analyse Big Data comprend quatre grandes couches architecturales2 :

  1. Les données,
  2. L’agrégation de données,
  3. L’analyse,
  4. L’exploration d’informations.

Si les données sont sensibles, comme dans les soins, vous pouvez ajouter une cinquième couche :

  1. La gouvernance des données.
  1. Les données: toutes les sources de données nécessaires pour fournir les informations à la prise en charge des opérations quotidiennes et à la résolution des problèmes métier. Les données sont divisées en données structurées, semi-structurées et non structurées
  1. L’agrégation de données: responsable du traitement des données provenant des différentes sources de données. Dans cette couche, les données seront digérées de manière intelligente en effectuant trois étapes : acquisition, transformation et stockage des données.
  1. L’analyse: chargée de traiter toutes sortes de données et d’effectuer les analyses appropriées. L’analyse des données elle-même peut être divisée en trois composants principaux : HadoopMap / Reduce, l’analyse de flux et l’analyse de base de données, en fonction du type de données et de l’objectif de l’analyse
  1. L’exploration d’informations: génère des sorties telles que divers rapports de visualisation, la surveillance des informations en temps réel et des informations métier significatives dérivées de la couche d’analyse pour les utilisateurs de l’organisation. Semblable aux plates-formes de Business Intelligence traditionnelles, le reporting est une fonction d’analyse de Big Data critique qui permet de visualiser les données de manière utile pour les opérations quotidiennes des utilisateurs et aider les décideurs à prendre des décisions plus rapidement.
  1. La gouvernance des données:
  • Gestion des Master Data (MDM) : correspond aux processus, à la gouvernance, aux politiques, aux normes et aux outils de gestion des données et d’analyse des données et de prise de décision.
  • Gestion du cycle de vie des données : consiste à gérer les informations commerciales tout au long de leur cycle de vie, de l’archivage des données à la gestion de l’entrepôt de données, en passant par la suppression et l’élimination des données.
  • La gestion de la sécurité et de la confidentialité des données.

 

Références :

  1. Gupta, U. G. & Gupta, A. Vision: A Missing Key Dimension in the 5V Big Data Framework. J. Int. Bus. Res. Mark. 1, 50–56 (2016).
  2. Wang, Y., Kung, L. & Byrd, T. A. Big data analytics: Understanding its capabilities and potential benefits for healthcare organizations. Technol. Forecast. Soc. Change 126, 3–13 (2018).
anne-sophie-merot-esn-lille-ssii-grenoble-paris-lyon-nantes-bordeaux-hardis-group

Anne-Sophie Merot

Consultante senior

Sur le même thème

Retailers ? Devenez une entreprise connectée

Retailers ? Devenez une entreprise connectée

Generation-Y---esn-lille-ssii-grenoble-paris-lyon-nantes-bordeaux-hardis-group

La génération Y ou l’âge de l’ennui : les métiers de service à l’heure du «design de l’expérience collaborateur»

La génération Y ou l’âge de l’ennui : les métiers de service à l’heure du «design de l’expérience collaborateur»

banniere de fond article

Cloud public : Les étapes pour une mise en oeuvre rapide, sécurisée et porteuse de valeurs

Cloud public : Les étapes pour une mise en oeuvre rapide, sécurisée et porteuse de valeurs