Pas à 100% dans le cloud… les datacenters ont la dent dure, avec les avantages d’un système informatique existant

Par Bruno Demouron, Rosenberger OSI

Le succès du « cloud » est indéniable. L’évolutivité, la flexibilité et la possibilité de mettre en œuvre de nouveaux processus dans les entreprises en très peu de temps parlent clairement en faveur de la « cloudification ». Il n’est donc pas surprenant que, selon une étude réalisée par Bitkom et KPMG, trois quarts des entreprises utilisent déjà des services cloud et que ces derniers occupent une place de plus en plus importante dans le paysage informatique. Le cloud est souvent considéré comme un élément permettant à une entreprise de pousser la numérisation des processus internes même avec peu d’expertise technique et de ressources humaines.

En conséquence, Gartner avait déjà prédit la mort lente mais certaine des datacenters locaux dès 2019. Cependant, à la grande surprise des analystes, les derniers résultats de l’enquête suggèrent une toute autre tendance. Selon l’Enterprise Cloud Index 2019, 73 % des personnes interrogées ont déclaré qu’elles allaient ramener certaines applications actuellement stockées dans un cloud public vers leur propre datacenter. Cette tendance est également confirmée dans l’Enterprise Cloud Index 2020, selon lequel une solution hybride est la solution idéale pour 86 %.

Ces chiffres suggèrent que les responsables informatiques ont une attitude conservatrice dans certains domaines. Mais d’où viennent ces appréhensions ? Quels sont les arguments pour investir dans le maintien ou l’extension d’un système informatique existant ? Pourquoi ne pas tout mettre dans le cloud ?

Informatique existante : plus de transparence et une meilleure protection des données

La sécurité des données est un élément essentiel à prendre en compte lors du choix d’une stratégie informatique. Alors que de nombreuses entreprises pensaient que leurs données étaient en sécurité dans le cloud, la presse a fait de nombreuses unes sur les failles de sécurité et les pertes de données irréversibles de fournisseurs de cloud public renommés ces dernières années. Cela se reflète également dans les conclusions des « Rapports 2019 sur la sécurité des données dans le cloud« . Selon ce rapport, 75 % des organisations interrogées dans le monde entier qui stockaient des données personnelles non classifiées dans le cloud ont connu au moins un incident de sécurité. Dans 36 % des cas, il n’a pas été possible de retracer l’origine de ce problème. À titre de comparaison, ce chiffre n’était que de 8 % en 2018.

Il devient évident qu’un système informatique existant représente un des avantages majeurs. Alors qu’avec les applications cloud, l’emplacement spécifique des serveurs est souvent inconnu et que les contrôles d’accès sur site ne sont pas visibles ou contrôlables pour l’entreprise elle-même, alors que pour son propre datacenter, ce contrôle est complètement transparent. Les politiques de contrôle d’accès physique peuvent être déterminées et, si nécessaire, adaptées de manière flexible. Il en va de même au niveau virtuel. Ainsi, dans le cas des applications cloud, il n’est pas rare que des scandales éclatent au sujet de la connexion des fournisseurs, c’est-à-dire pour savoir qui est autorisé à accéder aux systèmes.

Selon cette argumentation, l’utilisation de sa propre informatique ne va pas, comme on le pense souvent, de pair avec une perte de flexibilité. Bien au contraire, la proximité immédiate de l’infrastructure permet de réagir rapidement aux nouvelles exigences et de mieux contrôler les règles de sécurité. Deux points qui ont un impact positif sur la cybersécurité. Notamment parce qu’une transparence totale offre également des possibilités d’optimisation.

Traitement des données sur site : latence minimale grâce à l’informatique sur site

Une autre vulnérabilité des services cloud, a été particulièrement développée pendant les premiers jours de la crise du corona virus. Du jour au lendemain, des entreprises du monde entier se sont tournées vers le télétravail. Il en a résulté des pics de demande inattendus qui ont provoqué des pannes chez les principaux fournisseurs de cloud public. Une catastrophe, en particulier pour les processus de production ou de fabrication et les applications de l’industrie 4.0 qui dépendent d’une latence minimale pour fonctionner correctement.

Cet incident met en évidence les avantages d’une informatique interne à l’entreprise. Alors qu’avec le cloud, il existe une certaine dépendance dans l’allocation des capacités, dans le cas d’une infrastructure sur site, les ressources peuvent être allouées de manière indépendante et dédiée. En outre, le traitement des données sur place permet de minimiser les latences et d’exploiter les synergies dans des processus similaires. Enfin, il ne faut pas sous-estimer le développement de l’expertise informatique interne, qui sera certainement un avantage concurrentiel à long terme sur un marché dynamique.

CapEx vs. OpEx : une meilleure planification des coûts dans le data center interne

Une autre question très discutée en ce moment est celle du coût. Alors que de nombreuses entreprises ont adopté le cloud sous prétexte de réaliser des économies, cet argument est aujourd’hui remis en question. Selon l’étude IDG « 2020 Cloud Computing« , 40 % des personnes interrogées ont déclaré qu’il était très difficile de garder le contrôle des coûts induits par les clouds publics. L’origine de cette situation réside certainement dans le fait que les utilisateurs n’ont aucune influence sur la structure tarifaire des fournisseurs.

En outre, les prix convenus sont liés à certaines conditions. Alors que les OpEx (dépenses opérationnelles) sont le principal facteur pour les services de cloud, les CapEx, c’est-à-dire les coûts d’acquisition et de mise en service, sont le principal facteur pour l’informatique existante. En d’autres termes, une base de capital plus importante est ici nécessaire. L’avantage, cependant, est qu’avec son propre datacenter, les coûts mensuels ainsi que les capacités requises peuvent être planifiés de manière assez précise.

Les modèles hybrides ont le vent en poupe : quelles sont les stratégies existantes ?

Stimulées par une pression sur les coûts, les directives en matière de protection des données ou les exigences en matière de latence, le marché des datacenters connaît une évolution très dynamique. Alors que le cloud était considéré comme le nec plus ultra il y a encore quelques années, la tendance s’oriente actuellement vers les modèles hybrides. Mais quelle est la bonne stratégie ? Expansion, conversion ou relocalisation de l’infrastructure informatique ?

Trouver la bonne stratégie pour consolider son data center

  • Entre un datacenter sur site, en colocation ou dans le cloud

Dès que les objectifs et les étapes du projet de transformation ont été définis, la prochaine décision fondamentale doit être prise : comment aborder le thème du cloud ? Quelles applications doivent être « cloudifiées », lesquelles doivent être conservées « sur site » dans l’informatique existante de l’entreprise, et lesquelles doivent être externalisées vers une colocation ? Les objectifs seront-ils atteints en renouvelant l’informatique existante ou plutôt en fusionnant différents sites ? Fondamentalement, il s’agit toujours de ces trois options et de leur pondération dans la stratégie informatique.

  • Normes et méthodes pour une transformation informatique réussie

En choisissant l’un des fournisseurs de services cloud établis, des outils prédéfinis seront utilisés pour la mise en œuvre du projet de transformation. Certains renoncent à des moyens de contrôle, mais en même temps, il faut accepter que l’on ne puisse exercer qu’une influence très marginale sur le processus lui-même. Avec les solutions non-cloud, la situation est complètement différente. Il n’y a pas de limites à la personnalisation. Ici, divers outils, tels que les analyses SWOT, les listes de contrôle du BSI (Office fédéral allemand de la sécurité de l’information) ou le catalogue de critères propres à TÜVit, TSI.STANDARD (Trusted Site Infrastructure), peuvent être utilisés et appliqués comme guide. En particulier pour les infrastructures critiques, les nombreux critères d’acceptation sérieux sont décisifs.

Par exemple, pour répondre de manière adéquate aux défis à surmonter lors d’une migration ou lors de la planification d’un nouveau datacenter ou d’une salle de serveurs, une analyse des exigences selon KRITIS, y compris les normes de sécurité spécifiques à l’industrie (B3S) et les normes correspondantes telles que la norme ISO 27799, est indispensable. Lors du renouvellement et de la relocalisation des technologies de l’information, la principale difficulté est d’assurer le déplacement d’un système hautement complexe et sensible sans perte de données, tout en évitant ou en gérant les temps d’arrêt de manière contrôlée.

  • L’hyperconvergence, un facteur de réussite pour les modèles hybrides

Afin de garantir que la possibilité de passer librement d’une option à l’autre (sur site, en colocation et dans le cloud) soit toujours disponible après la transformation informatique, l’interopérabilité entre les différents systèmes doit être au centre du projet. Mot clé : hyperconvergence. Dans un système hyperconvergent, les ressources de calcul, de stockage, de mise en réseau et de virtualisation sont combinées en une unité définie par logiciel et gérée comme une seule application. L’un des grands avantages de ce système est de pouvoir centraliser des infrastructures complexes, ce qui permet de réduire les interfaces, d’éliminer les inefficacités et d’augmenter la puissance de calcul. Dans l’orchestration des systèmes de conteneurs, par exemple, le système open source Kubernetes s’est imposé comme un standard important.

Il est évident qu’en raison de sa grande complexité, la gestion de projet d’une transformation informatique est soumise à des exigences très particulières. Les départements informatiques internes sont extrêmement sollicités. Cela est particulièrement vrai dans le cas des consolidations de centres de données, où, par exemple, les applications sont déplacées des clouds publics vers les locaux. En effet, les grands hyperscalers ne fournissent généralement aucun conseil sur le chemin du retour. Pour une mise en œuvre réussie, il est donc d’autant plus important d’avoir un partenaire compétent à ses côtés.