Julien Raigneau

L’hyperviseur : un point faible à ne pas oublier

Notre monde est dominé par les applications : les services sont accessibles d’un clic et les données se cachent dans les nuages.

Alors, il est facile d’oublier que les infrastructures physiques telles que les datacenters, les serveurs et les équipements réseaux sont des rouages indispensables pour le fonctionnement des usines à services.

Les hyperviseurs sont précisément les serveurs-rouages qui soutiennent les machines virtuelles, containers[1] et services associés. Ils peuvent donc être de sérieux points faibles pour la chaîne de production de services, tant en termes de sécurité que de robustesse.

Les mécanismes d'hyperviseur sont complexes et les compétences rares

Passés les premiers moments avec un hyperviseur (n’importe qui[2] est capable d’en installer un), il apparaît rapidement que les différents mécanismes de fonctionnement nécessitent une maîtrise multifacettes. Celle-ci englobe les systèmes d’exploitation mais aussi les réseaux LAN et le stockage et est requise pour assurer la mise en oeuvre et surtout l’exploitation au quotidien.

En effet, un hyperviseur, bien plus que tout autre système informatique, doit bénéficier d’un suivi régulier comprenant le monitoring, les performances, la gestion des incidents, le “capacity planning”, etc.

Les changements d'un hyperviseur sont à risque

Il est (relativement) simple de prévoir un changement sur une machine virtuelle ou un conteneur en se protégeant avec les mécanismes de robustesse des différentes technologies (par exemple les snapshots). La modification d’un hyperviseur, cependant, peut être bien plus risquée.

En effet, de multiples problèmes peuvent survenir : des incompatibilités de drivers matériel (cela existe encore !) ou encore, des configurations réseau ou système dysfonctionelles qui affectent l’ensemble des services, même avec la meilleure des préparations.

Et donc, les hyperviseurs ne sont pas toujours mis à jour

Dans la vie idéale de la Production Informatique, les mises à jour sont réalisées régulièrement en passant de version mineure en version mineure plutôt que de “sauter” d’un coup à une version majeure pour rattraper le retard.

Dans la vie réelle, maintenir à jour un hyperviseur est une activité risquée nécessitant organisation, compétences et tests complets… Autant dire qu’il s’agit là d’un exercice qui est souvent repoussé au fil des mois, avec un backlog de correctifs qui grossit au fur et à mesure. Ces retards augmentent d’autant les risques de dysfonctionnement en cas de mise à jour et un cercle vicieux s’installe.

Finalement, les rouages de base de votre infrastructure deviennent obsolètes, avec des vulnérabilités non remédiées et des bugs non corrigés. Soit, tous les ingrédients pour un futur incident majeur.

Ce n'est pas une fatalité

Toutefois, en appliquant avec soin les bonnes pratiques classiques de la production, la mise à jour des hyperviseurs peut être maîtrisée et régulière :

  • Tester systématiquement les mises à jour sur les infrastructures de recette ou non critiques pour s’assurer de la non-régression.
  • Rédiger, répéter et valider les procédures et chronogrammes de mises à jour.
  • Utiliser les mécanismes de déplacement des VM entre plusieurs hyperviseurs pour réaliser les opérations de façon séquentielle.
  • Prévoir des plans de retour en arrière et/ou s’assurer de la capacité de réinstaller rapidement en cas de problème.
  • Avoir des périodes d’observation post mise en production pour valider le bon fonctionnement et les performances de l’hyperviseur mis à jour.
  • Réunir une équipe pluridisciplinaire pour préparer les changements et capable de réagir efficacement en cas de problème.

Enfin, on ne le dira jamais assez : un retour d’expérience (RETEX) avec les équipes doit conclure chaque mise à jour, qu’elle soit réussie ou non, pour mieux mener les prochaines opérations.

Et vous, combien de fois par an mettez-vous à jour vos hyperviseurs ?

Articles associés

Sécurité des clés de chiffrement dans le Cloud

22 juillet 2019
La protection des données, et en particulier celles dans le cloud, est capitale aujourd'hui, d'une part à cause des attaques récurrentes sur lesdites données (cf. l'affaire EquiFax) et d'autre part car de nouvelles régulations telles que le GDPR sont apparues et obligent les entreprises à garantir la confidentialité des données sensibles.

Le Cloud et la sécurité orientée événements (Event Driven Security)

4 juin 2018
D’après le Rapport Mandiant 2018, un attaquant passe en…
Partager cet article
Derniers articles

La continuité d’activité face à la pandémie

  Le Coronavirus ou COVID-19, qui touche une grande partie des pays en ce moment, met à l’épreuve les services informatiques et les infrastructures de toutes les sociétés. Les Plans de Continuité d’Activité (PCA), quand il y en a !, sont tous testés grandeur nature actuellement, et parfois dans une situation non prévue, ou dont la […]

Ransomware, sont ils inéluctables?

Une municipalité, un hôpital, une chaîne de télévision, un constructeur automobile, un groupe de lingerie et un fabriquant de charcuterie, aucun rapport a priori ? Eh bien le dénominateur commun est qu’ils ont tous été victimes d’une attaque par ransomware et ont vu tout ou partie de leurs services paralysé, ou a minima fortement perturbé, […]

Sécurisation des accès réseaux, un enjeu majeur pour les entreprises

Les entreprises d’aujourd’hui sont confrontées à une croissance exponentielle du nombre d’équipements interconnectés au sein de leurs réseaux informatiques : Téléphone IP, switches, routeurs,  PC de bureau, ordinateurs portables, photocopieurs, caméras IP, des objets IoT (l’Internet des objets), équipements de visioconférences, ainsi qu’une multitude de mode d’accès à leurs réseaux internes qu’il faudra sécuriser, allant […]

to be or not to be ?

La haute disponibilité est un enjeu important pour les infrastructures informatiques. Une étude de 2007 estime que la non-disponibilité des services informatiques peut avoir un coût de 440 000 euros de l’heure Lors de la construction d’un Datacenter, l’infrastructure est conçue en tenant compte de cet enjeu ; les architectes IT doivent pouvoir concevoir leurs […]