Aller au contenu
Analytics & Insights devient BrightCape !

Les 10 ‘V’ du Big Data

Le Big Data va au-delà du volume, de la variété et de la vélocité, les fameux 3v. Nous vous proposons aujourd’hui 10 caractéristiques et propriétés du Big Data pour vous préparer aux défis et aux avantages des initiatives Big Data. 10 caractéristiques commençant par V 

Le terme big data apparaît avec parcimonie au début des années 90 et son importance a augmenté de façon exponentielle au fil des années. Actuellement, le big data fait partie intégrante de la stratégie de l’entreprise en matière de données.

Les mégadonnées ont des caractéristiques et des propriétés spécifiques qui peuvent vous aider à comprendre à la fois les défis et les avantages du Big Data.

Voici Nos 10 Vs

# 1: volume

Le volume est la composante la plus évidente du big data. Ce n’est pas surprenant, si l’on considère que plus de 95% de toutes les données actuelles ont été créées ces cinq dernières années. La masse actuelle de données peut être réellement stupéfiante. 

# 2: Vitesse

Par Vitesse on désigne ici la vitesse à laquelle les données sont générées, produites, créées ou actualisées.

Certes, il semble impressionnant que l’entrepôt de données de Facebook stocke plus de 300 pétaoctets de données. Mais la vitesse à laquelle les nouvelles données sont créées doit être prise en compte. Facebook réclame 600 téraoctets de données entrantes par jour.

# 3: Variété

Quand on évoque le Big Data, on évoque une immense variété de données. Il nous faut non seulement gérer des données structurées, mais également des données semi-structurées et surtout non structurées. Comme vous pouvez le déduire des exemples ci-dessus. La plupart des données volumineuses semblent non structurées. Mais outre les fichiers audio, images, fichiers vidéo, mises à jour des médias sociaux et autres formats de texte, il existe également des fichiers journaux etc.

# 4: Variabilité

La variabilité quand on parle de Big Data fait référence à plusieurs choses. Tout d’abord c’est le nombre d’incohérences dans les données. Celles-ci doivent être détectées par des techniques de détection d’anomalies et de valeurs aberrantes pour faciliter la creation d’analyse significative.

Les mégadonnées sont également variables en raison de la diversité de dimensions résultant de multiples types et sources de données. La variabilité peut également faire référence à la vitesse incohérente à laquelle les données volumineuses sont chargées dans votre base de données.

# 5: Véracité

Quand l’une ou toutes les propriétés ci-dessus augmentent, la véracité ,  c’est a dire la confiance en ces données, diminue. La véracité fait référence à la provenance ou à la fiabilité de la source de données, à son contexte et à son importance pour l’analyse qui en découle.

Des réponses à ces questions sont nécessaires pour déterminer la véracité de ces informations. La connaissance de la véracité des données nous aide à mieux comprendre les risques associés aux analyses et aux décisions commerciales basées sur cet ensemble de données particulier.

# 6: Validité

Similaire à la véracité, la validité fait référence à la précision et à la correction des données pour l’usage auquel elles sont destinées. Selon Forbes, environ 60% du temps d’un scientifique est consacré au nettoyage de ses données avant de pouvoir effectuer une analyse. L’avantage de l’analyse des données massives est aussi primordiale que celui des données sous-jacentes. Vous devez donc avoir de bonnes pratiques. De gouvernance des données pour garantir une qualité des données cohérente, des définitions communes et des métadonnées.

# 7: Vulnérabilité

Le Big Data apporte de nouveaux problèmes de sécurité. Après tout, une violation de données avec Big Data est une grande violation. Est-ce que quelqu’un se souvient de l’infâme AshleyMadison en 2015?

Malheureusement, il y a quotidiennement des violations de données massives. Un exemple, rapporté par CRN: en mai 2016, “un pirate informatique appelé Peace a posté des données sur le web sombre pour les vendre, qui auraient inclus des informations sur 167 millions de comptes LinkedIn et … 360 millions d’e-mails et de mots de passe pour les utilisateurs de MySpace”.

# 8: Volatilité

Quel âge doivent avoir vos données pour qu’elles soient considérées comme non pertinentes, historiques ou obsolete? Combien de temps faut-il conserver les données? Avant l’ere big data, en general on stockait les données indéfiniment. Quelques téraoctets de données ne pouvaient pas engendrer de dépenses de stockage élevées.

En raison de la vitesse et du volume de ces données massives, leur volatilité doit être soigneusement prise en compte. Il est maintenant fondamental d’établir des règles pour la disponibilité et à la mise à jour des données afin de garantir une récupération rapide des informations en cas de besoin.

# 9: Visualisation

Une autre caractéristique du Big Data est la difficulté à les visualiser.

Les logiciels de visualisation de données volumineuses actuels sont confrontés à des problèmes techniques en raison des limitations de la technologie en mémoire, de leur faible évolutivité, de leur fonctionnalité et de leur temps de réponse. Il est impossible de vous fier aux graphiques traditionnels lorsque vous essayez de tracer un milliard de points de données. Il est donc nécessaire d’avoir différentes manières de représenter des données. Telles que la mise en cluster de données ou l’utilisation de cartes d’arbres, de sunbursts, de coordonnées parallèles, de diagrammes de réseau circulaires ou de cônes.

Si on associe cela avec la multitude de composante résultant de la variété et de la vélocité des données massives et des relations complexes qui les lient, il est possible de voir qu’il n’est pas si simple de créer une visualisation significative.

# 10: valeur

Dernier point, mais pas des moindre, est bien évidemment la Valeur. Les autres caractéristiques du Big Data n’ont pas de sens si vous ne tirez pas de valeur commerciale de ces données.

Les Données massives offrent une valeur substantielle: comprendre mieux vos clients. Les cibler en conséquence, optimiser les processus et améliorer les performances de la machine ou de l’entreprise. Avant de vous lancer dans une stratégie Big Data, vous devez comprendre le potentiel et les caractéristiques les plus difficiles.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *