La notion d’ordre de grandeur est capitale dans l’appréhension d’un jeu de données et dans les analyses que vous produirez au quotidien.

Prendre conscience de cette notion c’est être capable de relativiser ou, rappelez vous, “d’objectiver une réalité”.

<aside> 💡 Se rendre compte d’un ordre de grandeur c’est être en capacité de répondre à la question “Qu’est ce que représente ce que j’observe ?”

</aside>

Nous venons d’aborder l’unité “Zettaoctets” dans notre partie sur l’histoire des données en utilisant des nombres assez courants comme 64 ou encore 181. La communication est donc aisée.

Observons maintenant ce que représente un Zettaoctet ci-dessous :

1 Zo = 10 puissance 21 octet. Ce qui lorsque nous l’affichons représente “1 000 000 000 000 000 000 000 octets”.

Rien qu’en décomposant cette unité nous avons dégradé sa capacité à être communiquée. En effet l’être humain ne peut pas se représenter ce que vaut en réalité 1 Zettaoctet.

En tant que formateur, lorsque je suis contraint d’aborder ces questions d’ordres de grandeurs que ce soit pour mieux expliquer une analyse à un client, l’aider à comprendre ses données et son modèle de donnée ou encore pour normaliser des données, j’aborde souvent la question de l’argent et du temps qui sont deux facteurs très parlants puisqu’ils s’approchent du quotidien des collaborateurs ou client ou de votre contexte en entreprise.

Il est capital de comprendre ces notions d’ordres de grandeurs dans la mesure où un volume de donnée traité peut être très grand et certaines actions de traitement peuvent nous obliger à supprimer des millions de données ou encore à normaliser certains résultats.

De ce fait, être en mesure d’appréhender cet ordre de grandeur permet de connaître notre impact sur un jeu de données.

L’exemple le plus flagrant reste la différence entre le million et le milliard.

Pour rappel, 1 milliard représente 1000 millions.