L’Europe est la superpuissance mondiale des données d’entreprise

Une nouvelle étude de Digital Realty désigne l’Europe comme la superpuissance mondiale des données d’entreprise. On prévoit que les données d’entreprise atteindront des niveaux quantiques d’ici 2024 alors que les volumes de données créés et échangés ne cessent d’augmenter de façon exponentielle.

L’Europe est la superpuissance mondiale des données d’entreprise, dépassant l’Amérique du Nord, selon une nouvelle étude publiée par Digital Realty et Interxion.

L’étude arrive alors que le monde se prépare à une croissance issue de la quatrième révolution industrielle, ou industrie 4.0. D’après une recherche récente de McKinsey et du Forum économique mondial, l’industrie 4.0 a le potentiel de créer une valeur de 3,7 milliards de dollars d’ici 2025. Alors que la transformation numérique s’accélère, la place de l’Europe en tant que l’un des principaux centres de données d’entreprise du monde lui donne une forte position pour capitaliser sur cette croissance.

Le Data Gravity Index DGx, qui mesure la création, l’agrégation et l’échange privé de données d’entreprise dans 21 villes, révèle que les régions disposant d’une forte connectivité globale et de nombreuses industries basées sur les données, comme la scène technologique ou le secteur reconnu des services financiers, créent un volume de données d’entreprise tel qu’elles produisent un effet de « gravité des données », attirant de façon exponentielle plus de données dans la région.

La prédominance de l’Europe dans un large éventail d’industries de l’économie fondée sur la connaissance, comme les services financiers et l’industrie complexe – qui créent de grandes quantités de données d’entreprise – combinée à l’émergence d’industries basées sur les données en Europe, a transformé la région en une « superpuissance des données d’entreprise » mondiale. D’après l’étude, le volume de données d’entreprise créées, agrégées et échangées entre les villes européennes est le plus important au monde, dépassant l’Amérique du Nord. On prévoit que l’Europe étende encore plus son avance en tant que superpuissance mondiale des données d’entreprise en 2024.

Dave McCrory, qui a créé le terme de gravité des données en 2010 et mené la recherche sur le Data Gravity Index DGx explique : « Nous avons vu que la gravité des données attire les données, mais aussi qu’elle rend plus difficile à déplacer les données et services qui s’appuient sur elle de façon exponentielle. Cela donne aux villes disposant d’industries fortes, telles que les services financiers à Londres ou le secteur complexe de l’industrie à Francfort, un énorme avantage, car elles attirent naturellement plus de données et de services du même genre, et donc d’entreprises, et dans le même temps, il devient encore plus difficile de leur retirer des opportunités. Pour les entreprises, c’est moins avantageux, les données sont devenues une ressource stratégique clé, mais la gravité des données signifie qu’en avoir trop peut les rendre difficiles à utiliser et impossible à déplacer tout en en créant et attirant plus de manière constante. »

Données : l’avance de l’Europe

Londres est actuellement le centre le plus puissant au monde pour les données d’entreprise, avec un score de gravité des données de 167,05, dépassant à la fois New York (79,61) et Tokyo (80,32) ; un centre largement alimenté par le secteur reconnu et hautement connecté des services financiers. Le score moyen de gravité des données de toutes les villes est de 22,64 et de 48,45 en Europe. Quatre autres villes européennes se trouvent actuellement dans le classement des plus grands centres de données d’entreprise : Amsterdam, Dublin, Francfort et Paris.

Cependant, ce n’est pas seulement l’abondance de données d’entreprise qui donne cette avance aux villes européennes, c’est également les flux de données générés entre elles. D’après le Data Gravity Index DGx, l’Europe abrite plusieurs associations de villes les plus interconnectées au monde, ce qui est sans aucun doute favorisé par les facilités réglementaires à faire des affaires entre elles, mais également entre les principaux centres financiers des villes. Cela inclut Londres et Amsterdam (1er au niveau global), Paris et Londres (2e), Francfort et Paris (5e), Londres et Francfort (6e), ainsi que Dublin et Londres (10e).

Niveaux de données quantiques

Malgré les nombreux avantages associés à une économie de données prospère, avec de forts échanges des données ouverts avec d’autres villes, être une ville disposant d’une gravité de données importante est un avantage en demi-teinte pour les entreprises. Nombre d’entre elles augmentent significativement les quantités de données d’entreprise afin de transformer leurs activités grâce au numérique, mais elles sont débordées par le volume, ralentissant leur transformation, au lieu de la favoriser.

D’ici 2024, l’ensemble des entreprises Forbes Global 2000 aura accumulé assez de données, pour avoir besoin d’accéder à un calcul quantique afin de les gérer efficacement. Elles auront besoin d’une puissance de calcul de 8,96 exaflops supplémentaires et de 15 635 exaoctets de stockage privé de données par an pour gérer efficacement leurs données d’entreprise. À titre de comparaison, le prochain ordinateur quantique du laboratoire Oak Ridge National tournera à seulement 1,5 exaflops d’ici 2021.

Ces volumes ingérables de données d’entreprise et la gravité qu’ils génèrent induisent déjà des problèmes pour les entreprises, allant au-delà du service informatique, dont :

  • Une innovation limitée : l’incapacité de traiter efficacement les données d’entreprise freinera les avancées technologiques.
  • Mauvaises expériences client et employés : la production de trop de données d’entreprise résultera en un traitement inefficace de ces données, menant ensuite à une expérience client négative.
  • Augmentation des coûts : la production de plus de données d’entreprise signifiera qu’il faut investir plus de capital pour les capturer, les gérer et les traiter.
  • Problèmes de conformité : une abondance des données d’entreprise résultera en des défis organisationnels quand il s’agira de gérer les problèmes réglementaires et de conformité.
  • Sécurité : une abondance de données offre plus de postes d’observation à des acteurs mal intentionnés.

Munu Gandhi, vice-président des services d’infrastructure principaux d’AON plc, l’entreprise de services professionnels basée à Londres, indiquait que la compréhension de la gravité des données – ainsi que son impact mis en lumière avec d’autres facteurs macro tels que l’administration et les évolutions règlementaires des données d’entreprise – est une tendance importante dont les entreprises mondiales doivent commencer à se saisir.

« Comprendre la gravité des données et son impact sur notre infrastructure IT est un facteur de différenciation pour nos opérations, un fait de plus en plus important si les données continuent d’agir comme la devise de l’économie numérique, précise Gandhi. Alors que les entreprises continuent de manipuler un volume de données toujours plus important, il existe un effet cumulatif entre les points de présence des entreprises, la surveillance réglementaire et la complexité croissante associée à la conformité et la confidentialité des données que les responsables informatiques sont maintenant obligés de résoudre. »

Les tendances impactant la gravité des données

La tendance forte de la gravité des données est l’addition de forces en présence dans les entreprises, la plupart ayant accéléré au cours des derniers mois alors que la COVID-19 a poussé plus d’entreprises dans le monde à se digitaliser :

  • Administration des données d’entreprise : le déplacement global des populations des zones rurales vers les zones urbaines signifie que d’ici 2030, 43 villes dans le monde auront une population de plus de dix millions d’habitants, ce qui par conséquent augmentera le nombre d’utilisateurs créant et échangeant des données dans l’entreprise.
  • Fusions et acquisitions : la mondialisation entraîne un plus grand volume de fusions et acquisitions, et ces volumes devraient retrouver leur niveau pré-COVID en 2021, ce qui augmentera alors le nombre de sources de données participant dans ces échanges régionaux de données d’entreprise.
  • Interactions numériques : les opérations des entreprises passent du monde physique au monde digital, avec des interactions numériques perçues comme deux fois plus importantes que les interactions physiques. Plus d’interactions numériques implique plus de données d’entreprise produites.
  • Localisation des données : le renforcement des réglementations augmente le besoin de stockage local des données. D’ici 2022, 87 % des responsables informatiques conserveront des copies locales des données client et des transactions afin d’être conformes, augmentant le nombre de locaux d’entreprises où la donnée sera présente.
  • Cyber-physique : les entreprises intègrent de plus en plus leurs systèmes physiques et digitaux afin d’améliorer la cybersécurité. D’ici 2033, 70 % des produits de sécurité devraient être intégrés numériquement, ce qui augmentera les types et volumes des données créés et échangés.

Citations

  • Tony Bishop, pionnier de l’industrie des data centers et vice-président senior chez Digital Realty, qui a soutenu l’étude :

« Les données augmentent à des niveaux stratosphériques en raison de la croissance de l’IoT, de l’Intelligence Artificielle et des analyses des comportements sociaux sur mobiles. C’est une histoire à creuser. Mais cette histoire a également un autre visage, avec la croissance résultant en la force d’agrégation de la gravité des données. Si elle n’est pas contrôlée, la gravité des données peut résulter en une limitation de l’innovation, de mauvaises expériences clients et employés, une augmentation des coûts, des silos d’information, des problèmes de conformité, des inquiétudes concernant la sécurité et un processus de prise de décision lent pour l’entreprise. »

  • Eric Hanselman, analyste en chef, 451 Research :

« La gravité des données est l’idée que les données sont une ancre qu’il est souvent difficile de déplacer, surtout quand le volume des données augmente. Si cette augmentation a lieu dans des cloud qui ne sont pas facilement accessibles par l’entreprise les utilisant, la valeur ajoutée de ces données sera amoindrie et l’entreprise sera piégée, devant dépenser des sommes exorbitantes pour les libérer. »

  • Allen Holmes, vice-président, développement d’affaires stratégiques et alliances chez Yellowbrick Data :

« Yellowbrick Data propose le seul entrepôt de données moderne au monde pour le cloud hybride et offre une performance, un rapport qualité-prix et des fonctionnalités pour entreprises inégalés pour les besoins les plus exigeants et complexes des entreprises. Nos clients font face au stress des volumes de données et d’une base d’utilisateurs croissants, deux facteurs qui créent une complexité opérationnelle. Le Data Gravity Index DGx™ met en lumière cette complexité et offre des mesures que nous pouvons appliquer pour surmonter les défis auxquels font face toutes les entreprises. »

  • Chris Sharp, CTO, Digital Realty :

« La plupart des entreprises et fournisseurs de services n’en est qu’aux premières étapes de la compréhension de l’impact potentiel de la gravité des données sur leur innovation, leur expérience client ainsi que leur profitabilité et doivent anticiper sa gestion dès maintenant. L’étude est conçue pour donner aux DSI, aux architectes, et aux responsables infrastructures davantage de compréhension sur les contraintes d’architecture liées à ce phénomène, ainsi que des éléments de réponse pour mieux s’y préparer. »

  • Joe Zhu, fondateur et PDG, Zenlayer :

« Avec le Data Gravity Index DGx, Digital Realty a examiné des milliers de points de données relatifs à l’emplacement de stockage et de traitement des données, puis les a consolidés en créant un seul indicateur facile à comprendre. Le DGx met plus que jamais en avant le besoin de réseaux à faible latence des marchés émergents (par ex. la Chine, l’Inde, le Brésil). Ces connaissances marché guideront Zenlayer dans ses futurs déploiements dans le monde. »

Méthodologie

Le Data Gravity Index DGx met en oeuvre une formule en cours de dépôt de brevet permettant de quantifier et prédire la création continue de données provenant de 21 villes dans le monde.

  • Analyser des milliers d’attributs

La méthodologie se base sur l’analyse de milliers d’attributs provenant des 2000 entreprises les plus importantes dans le monde (Global 2000) et de leur présence dans chaque ville. Les facteurs et/ou considérations pour chaque ville prennent en compte le PIB, le nombre d’habitants, le nombre de salariés, les dépenses IT, la bande passante et la latence moyennes, ainsi que les flux de données.

  • Résoudre les problèmes de Data Mass et de Data Activity

Pour chaque ville, la quantité et l’activité des données ont été quantifiées par l’intermédiaire de deux index « Data Mass » et « Data Activity ». Le résultat a ensuite été multiplié par la bande passante moyenne et le tout divisé par la latence moyenne au carré.

  • Calculer la gravité des données entre les villes

La gravité des données entre les villes a été calculée en additionnant les masses de données et en y ajoutant les chiffres de l’activité des données, puis en multipliant leur somme par la bande passante et en divisant le résultat par la latence au carré entre les villes.

  • Calculer le cycle de vie de la création des données

La création des données a été calculée en combinant les données créées à la fois par les employés des entreprises G2000 et les points terminaux. Le traitement des données a été calculé en analysant les besoins de traitement informatique des entreprises G2000 pour gérer de nouvelles charges de travail centrées sur les données, comme l’IA, le ML, les analyses, les coûts par TFLOPS et d’autres facteurs. Le stockage des données a été calculé en croisant la capacité de stockage, la croissance et le taux annuel de déploiement du stockage de l’entreprise (HDD, SSD et bande) parmi les 21 villes sur lesquelles porte l’étude.

à lire