Par Jean-Pierre Boushira, VP Europe South chez Veritas Technologies LLC
Il existe de nombreuses raisons pour lesquelles une entreprise souhaite rapatrier une application ou encore la transférer vers un autre cloud : pour des questions de sécurité, de coûts ou simplement le souhait de devenir indépendante. Néanmoins, il reste important de planifier ce processus soigneusement afin de s’assurer que les applications pourront continuer à fonctionner sans interruption, malgré le transfert. Certaines pratiques permettent d’ailleurs de simplifier au maximum le déroulement de cette migration.
Dernièrement, l’un des plus grands datacenters de France appartenant au fournisseur OVHcloud a dû interrompre temporairement l’ensemble de ses services en réponse à un incendie de grande ampleur. À peine quelques jours plus tard, le piratage massif de Microsoft Exchange fut rendu public, exposant au grand jour les vulnérabilités de près de 15 000 serveurs français selon l’ANSSI. Peu après, le climat politique entre la Grande-Bretagne et l’Union Européenne s’est dégradé suite aux récentes accusations de violation par cette dernière. Ce contexte pour le moins agité est un parfait exemple des facteurs externes qui poussent une entreprise à déplacer des données ou à migrer des applications dans leur totalité.
Cependant, des facteurs internes peuvent également motiver une entreprise à lancer un projet de migration. Une entreprise peut par exemple décider de changer de fournisseurs pour un question de coûts. De plus, les entreprises envisagent également des migrations lorsque les données collectées sont trop sensibles pour être stockées partiellement ou en totalité dans le cloud. Enfin, l’intégration de certaines charges de travail au sein de leurs propres datacenters peut, sous certaines conditions, permettre aux entreprises de développer plus rapidement et plus efficacement leurs applications.
Mais quel que soit le déclic, la tâche est moins aisée qu’il n’y paraît. Le succès de cette opération dépend essentiellement de la quantité de données à déplacer et du degré de pénétration du cloud dans les applications et services de l’entreprise. En fait, plus l’infrastructure réseau est complexe, plus l’application comporte de couches, plus elle se combine aux ressources externes du cloud et donc plus il est difficile de migrer les charges de travail et les données. En fonction du degré d’adoption du cloud de l’entreprise, plusieurs approches et bonnes pratiques sont disponibles pour les aider à migrer leurs données aussi rapidement et sûrement que possible, sans interruption intempestive.
Faire ses premiers pas dans le cloud
Les petites et moyennes entreprises ainsi que les secteurs fortement réglementés sont les principales organisations à en être encore aux prémices de l’adoption du cloud. Généralement, celles-ci font appel à des services de stockage externes ou à des applications dédiées à la collaboration ou au télétravail pour externaliser certaines de leurs charges de travail. D’ailleurs, selon certains analystes, le piratage massif de Microsoft Exchange et la démocratisation au télétravail devraient encore accélérer la migration des groupware vers le cloud.
Alors, dans un premier temps, il est recommandé à ceux qui souhaitent adopter le cloud ou tout simplement tester de nouvelles solutions d’avoir une vue d’ensemble sur toutes les applications utilisées et, surtout, sur les données échangées par leur biais. Certains outils basés sur l’analyse des métadonnées pourraient également être utiles pour les entreprises puisqu’ils permettront d’obtenir des informations nécessaires à la cartographie des données (date de création, dernier utilisateur, applications, etc.) et à l’identification de celles qui restent non structurées. En outre, ces nouvelles connaissances aideront les entreprises à identifier les risques potentiels, les données obsolètes ou encore critiques. De cette manière, elles pourront décider à l’avance des données à migrer et de celles à supprimer, ou à archiver.
Pour approfondir cette analyse, les entreprises peuvent également associer ces outils à des solutions d’archivage. En les classifiant, les données seront en conformité avec des modèles et des filtres prédéfinis, par exemple pour les données personnelles. Chaque fichier archivé sera alors automatiquement examiné et identifié conformément aux critères présélectionnés.
Grâce à l’association des métadonnées et de la classification, les entreprises auront une réelle visibilité sur les données, leur criticité et leur lieu de stockage. Toutes ces informations permettent de mieux comprendre l’ensemble des données et de déterminer rapidement ce qui peut être supprimé, de sorte que le volume de fichiers à migrer soit le plus faible possible. En effet, la quantité de données à transférer a une influence considérable sur la durée de l’ensemble du processus de migration.
Pour faciliter la vie des entreprises, certaines solutions d‘archivage sont directement connectées à des services en ligne tels que Microsoft Office 365, MS Teams ou Zoom – et reconnaissent les données qui ont été partagées via ces applications. Cet aperçu de l’environnement de travail est important car, suite au premier confinement, de nombreuses entreprises se sont appuyées sur ces services pour développer leurs bureaux distants.
Sur la base de ces informations, les entreprises peuvent également mieux se conformer aux exigences établies par la RGPD. Les risques de conformité sont ainsi réduits et la suppression de certaines données libère idéalement un espace de stockage important tout en réduisant les coûts.
La complexe réalité du multi-cloud
Une récente étude a révélé que les entreprises faisaient appel à 11 fournisseurs de services cloud différents en moyenne (clouds hybrides, privés et publics) pour les aider à prendre le virage du numérique. D’après de nombreux analystes, ce modèle d’architecture (aussi appelé multi-cloud) sera prédominant dans la majorité des entreprises de taille moyenne au cours des prochaines années.
De la même façon que précédemment, un inventaire précis des services et des données de l’entreprise devra en premier lieu être réalisé. Beaucoup plus difficile pour les entreprises débutent dans le cloud, cette tâche concernent généralement des applications stratégiques de l’entreprise liées à la fois au cloud, à des ressources locales ou encore virtuelles. De plus, ces environnements hybrides sont particulièrement hétérogènes et apportent avec eux une vaste diversité de matériels et logiciels. Les entreprises qui souhaitent obtenir une vue d’ensemble, et qui sont réticentes à l’idée d’un cloisonnement dans des outils individuels fragmentés provenant de fournisseurs distincts, peuvent regrouper les différents outils en un seul et même emplacement et obtenir ainsi une vue d’ensemble “hardware-agnostic“.
Des solutions existent pour aider les entreprises à obtenir une vue d’ensemble sur les données en prenant en compte des milliers de points de données différents par exemple. Dans le cas où les entreprises utilisent déjà une base de données de gestion de la configuration, ces données peuvent être importées rendant ainsi visibles les ressources utilisées en local et celles qui le sont dans le cloud. Les responsables informatiques sont ainsi en mesure de visualiser en détail la répartition du stockage sur les différentes machines virtuelles et leur utilisation par les différentes charges de travail. De cette façon, ils veillent à ce que l’ensemble des applications soient intégrées au stockage lors de la migration, qu’aucune machine virtuelle ne soit oubliée ou qu’aucune zone de stockage ne soit négligée.
Cette vision globale des charges de travail est devenue cruciale, d’autant plus que les applications sont de plus en plus basées sur des conteneurs. Ici, des instances entièrement nouvelles sont déployées en un temps extrêmement court. Ceux qui veulent migrer vers un environnement aussi dynamique doivent conserver une vue d’ensemble.
Grâce à cette stratégie, les responsables informatiques sont désormais en capacité de documenter leur politique de coûts beaucoup plus efficacement et précisément auprès de leurs supérieurs tout en justifiant économiquement de la nécessité de la migration des données. Les fonctionnalités prédictives permettent de mieux contrôler l’achat de stockage : en commandant ponctuellement de petites parcelles de stockage à un fournisseur, les entreprises ont un pouvoir de négociation moins important que si elles disposaient d’une estimation précise de leurs besoins pour les deux prochaines années.
L‘importance de la migration
Jusque-là, les entreprises ont inventorié avec précision leurs données et savent donc exactement quelles données sont à supprimer, à archiver ou encore à migrer. Mais pas un seul bit n’a été déplacé. Afin de réaliser la migration des données, les entreprises doivent impérativement faire appel à une application globale qui, au-delà de communiquer avec les dispositifs de transfert de données de tous les fournisseurs de services cloud, devra également capable de connecter tous les stockages possibles (locaux et hybrides), et de transférer les fichiers de manière intelligente sur des réseaux WAN afin d’assurer une migration fluide et rapide. De surcroît, le fonctionnement de la principale application utilisée par l’entreprise ne doit pas être interrompu ; la migration doit avoir lieu durant son temps de fonctionnement.
Dans un contexte de crise, il est également important de mettre en place des programmes de reprise après sinistre. Si, comme cela s’est produit à Strasbourg, le datacenter d’un fournisseur venait à tomber en panne, des solutions existent permettant de faire basculer les applications critiques vers d’autres datacenters ou infrastructures. Les temps de basculement, le comportement des applications concernées ainsi que l’ensemble du processus de basculement peuvent être testés à l’avance et simulés de manière pratique sans affecter les applications critiques en production.
Grâce à ces bonnes pratiques, la migration d’applications complexes dans des infrastructures de cloud hybride devient réalisable, mesurable et surtout contrôlable. Il est important de planifier la migration et de s’assurer que les services et les applications ont la capacité de fonctionner sans interruption malgré le transfert. Mais comme pour toutes les autres phases de l’adoption du cloud, il en va de même ici : le nettoyage préalable des données permet d’alléger le processus et de le rendre aussi efficace que possible.