Proxmox VE 6.0 est disponible avec Ceph Nautilus et Corosync 3

Posté par  . Édité par Davy Defaud, palm123 et Ysabeau 🧶 🧦. Modéré par patrick_g. Licence CC By‑SA.
33
17
juil.
2019
Virtualisation

Proxmox Server Solutions GmbH, développeur de la plate‐forme de virtualisation libre Proxmox Virtual Environment (VE), a publié la version 6.0. La plate‐forme Proxmox VE 6.0 est basée sur Debian 10.0 Buster, et un noyau Linux 5.0.15 (basé sur Ubuntu 19.04 Disco Dingo). Les developpeurs ont mis à jour QEMU 4.0.0, LXC 3.1.0, ZFS 0.8.1, Ceph 14.2.1 Nautilus et Corosync 3.0.2.

Découvrez les nouveautés en seconde partie.

Sommaire

Principales nouveautés de la version 6.0

Ceph Nautilus 14.2.1

Ceph Nautilus passe à la version 14.2.1 et le tableau de bord Ceph a été amélioré. Proxmox VE permet à un administrateur de configurer de manière très simple et très rapidement une grappe de serveurs Proxmox VE avec Ceph en hyper‐convergence. La version 6 intègre Ceph 14.2.1 et apporte de nombreuses nouvelles fonctionnalités de gestion à l’interface Web : une vue d’ensemble de la grappe affichée dans la vue « Centre de données » ; un nouveau graphique « beignet » illustrant l’activité et l’état des groupes de placement (PG) ; les versions de tous les services Ceph sont affichées, ce qui facilite la détection des services obsolètes ; les paramètres des fichiers de configuration et de la base de données peuvent être affichés ; un nouveau sélecteur de réseau permet de sélectionner les réseaux publics et/ou locaux de la grappe de serveurs dans l’interface Web ; le chiffrement des OSD peut être facilement activé avec une case à cocher lors de la création.

Corosync 3 et Kronosnet

Avec Proxmox VE 6.0, la communication entre les nœuds de la grappe de serveurs utilise à présent Corosync 3 et Kronosnet, ce qui a modifié le format « on‑the‑wire ». Corosync utilise unicast comme moyen de transport par défaut. Cela permet de mieux contrôler les pannes, car des priorités peuvent être attribuées à différents réseaux. Dans l’interface Web, un nouveau widget de sélection est disponible pour le réseau, ce qui facilite la sélection correcte de l’adresse de lien et permet ainsi d’éviter les erreurs de frappe.

ZFS 0.8.1, avec chiffrement natif et TRIM pour les SSD

Cette toute nouvelle version de ZFS dans Proxmox VE 6.0 permet le chiffrement natif du système de fichiers ZFS, renforçant ainsi la sécurité. Le chiffrement est intégré directement dans l’utilitaire zfs et permet ainsi une gestion pratique des clés. Proxmox VE 6.0 prend également en charge le trim. Avec la commande zpool trim, le système d’exploitation informe le SSD de la disponibilité des blocs inutilisés. TRIM contribue à améliorer l’utilisation des ressources et à augmenter la longévité des stockages SSD. De plus, la prise en charge des checkpoints au niveau du pool ZFS a été ajoutée.

Par ailleurs, ZFS prend à présent en charge l’UEFI et les NVMe. Proxmox VE gère le ZFS root via UEFI. Par exemple, un miroir ZFS peut être démarré sur des périphériques de stockage SSD au format NVMe. En utilisant systemd-boot en tant que gestionnaire d’amorçage au lieu de GRUB, toutes les fonctionnalités au niveau du pool peuvent être activées sur le pool racine.

QEMU 4.0.0

Les utilisateurs peuvent utiliser l’interface Web pour migrer des hôtes à chaud sur un stockage local. On peut aussi modifier le nombre de processeurs virtuels des machines virtuelles. La prise en charge de Hyper-V enlightenments a également été ajoutée, ce qui améliore les performances de Windows sur une machine virtuelle exécutant QEMU/KVM.

Cloud‑init

Proxmox VE 6.0 ajoute la prise en charge de configurations Cloud‑init personnalisées pouvant être stockées sous forme de « snippets » (fragments). La commande qm cloudinit dump utilise la configuration Cloud‑init actuelle comme point de départ pour les extensions.

Autres innovations dans Proxmox VE 6.0

  • les anciennes images du noyau sont nettoyées automatiquement : les anciennes images ne sont plus étiquetées « NeverAutoRemove » ; de cette manière, des complications peuvent être évitées, comme par exemple si /boot est monté sur une petite partition ;
  • affichage de l’état des invités dans la vue arborescente de l’interface Web, les autres états des invités (migration, sauvegarde, instantané, verrouillé) sont affichés directement dans la vue arborescente (tree view) ;
  • meilleure détection du matériel lors de l’installation : la détection du matériel par le programme d’installation a été revue et plusieurs nouveaux périphériques sont à présent détectés ;
  • sauvegarde d’un pool de machines virtuelles : des sauvegardes d’un pool entier peuvent être créées ; si un pool est sélectionné comme source de sauvegarde au lieu d’une liste explicite d’hôtes, les nouveaux membres de ce pool sont automatiquement inclus et les hôtes supprimés sont automatiquement exclus de la sauvegarde ;
  • la clé d’authentification est automatiquement modifiée toutes les 24 heures : la durée de vie de la clé est limitée à 24 heures pour réduire l’impact d’une perte de clé ou d’une violation intentionnelle des règles de sécurité de la part d’un utilisateur ;
  • la vue Nœud dans l’interface utilisateur fournit plus rapidement l’affichage du journal système de ce nœud.

Téléchargement et support

Outil de liste de contrôle pve5to6

Avec l’outil de contrôle pve5to6, on peut vérifier les installations avant, pendant et après la mise à niveau. L’outil fournit des informations sur les sources d’erreur potentielles. Il est inclus dans un paquet Debian installable depuis le dépôt de mise à jour de paquets de Proxmox VE 5.4.

Procédure de mise à niveau

Les mises à niveau de la version Proxmox VE 5.4 à la version 6.0 doivent suivre les instructions détaillées, car une mise à jour de version majeure de Corosync (de 2.x vers 3.x) doit être effectuée. Concernant les grappes de serveurs, il existe une procédure de mise à niveau en trois étapes. Vous devez d’abord passer à Corosync 3, puis passer à Proxmox VE 6.0 et enfin mettre à niveau la grappe Ceph de Luminous vers Nautilus. Pour des guides de mise à niveau détaillés, veuillez consulter la page dédiée du wiki de Proxmox.

Les mises à niveau de la distribution à partir d’une version bêta de Proxmox VE 6.0 sont possibles avec APT. Il est possible d’installer Proxmox VE 6.0 sur Debian Buster.

Support

Proxmox VE est sous licence GNU Affero GPL v3. Proxmox Server Solutions propose un support d’entreprise à partir de 79,90 €/an par processeur. Pour plus d’informations, veuillez consulter le site Web de Proxmox.

Aller plus loin

  • # Mauvais lien mise à jour 5 to 6

    Posté par  . Évalué à 3. Dernière modification le 17 juillet 2019 à 20:07.

    Bonjour,

    le lien qui renvoi vers le wiki pour la mise à jour 5.X vers 6 n'est pas bon, paragraphe "Procédure de mise à niveau", celui-ci est correct:
    lien wiki
    Merci à un membre de la modération de le modifier, si possible, pour les prochains lecteurs.

    PS: merci aux personnes rédactrices pour cet article!!!

  • # Type d'usage

    Posté par  . Évalué à 3.

    Bonjour,

    Je ne connais pas du tout ce type d'outil et l'usage que l'on peut en faire. Est-ce que cela permet de gérer des serveurs dans le cloud type scaleway / digital ocean pour faciliter la redondance ou montée en charge ou est-ce que l'objectif est de l'installer sur une infra locale afin de faire son cloud interne ?

    Merci

    • [^] # Re: Type d'usage

      Posté par  . Évalué à 3.

      Dans mon usage perso à la maison avec Proxmox sur un serveur HP

      J'ai une VM Windows 10 pour du homeoffice
      J'ai une VM OpenMediaVault pour mon NAS (j'ai connecté dessus 4 disques en passtrought direct), c'est du 2x2Tb raid1 et 2x3Tb. Je pense le remplacer plus tard pour un FreeNAS en ZFS.
      J'ai une VM Centreon pour la supervision

      Ensuite ce ne sont que des conteneurs lxc
      Un pour nextcloud
      Un pour wordpress (perso pour ma femme en local)
      Un pour des bases de données pgsql (pour heroku)
      Un pour airsonic
      Un pour rudder
      Un pour 3cx
      Un pour zoneminder
      Un pour ubiquiti (wifi et switch)

      Avant j'avais une VM pour opnsense mais j'ai acheté depuis un pcengine apu2c4 pour ça

      Sinon côté pro, proxmox remplace chez certain client du esxi gratuit.

      de même que nous profitons des avantages que nous apportent les inventions d'autres, nous devrions être heureux d'avoir l'opportunité de servir les autres au moyen de nos propres inventions ;et nous devrions faire cela gratuitement et avec générosité

    • [^] # Re: Type d'usage

      Posté par  . Évalué à 8.

      C'est une solution de virtualisation à installer sur des serveurs physiques pour monter sa propre infra virtuelle.

      • [^] # Re: Type d'usage

        Posté par  . Évalué à 1.

        Merci pour cette précision.

        Du coup est-ce qu'il existe des outils pour piloter des serveurs cloud hébergés chez des fournisseurs ou ce n'est pas un besoin rencontré ?

        C'est seulement à titre informatif parce que je ne connais pas du tout ce domaine.

        Merci

        • [^] # Re: Type d'usage

          Posté par  . Évalué à 2.

          est-ce qu'il existe des outils pour piloter des serveurs cloud hébergés chez des fournisseurs ou ce n'est pas un besoin rencontré ?

          Il faut que le fournisseur expose une API.
          Certains le font, par exemple Amazon, et des outils existent pour cela.

        • [^] # Re: Type d'usage

          Posté par  (Mastodon) . Évalué à 3.

          La plupart proposent une api, et des outils cli.

          Il existe des projets tels que hashicorp/terraform, rancher (orienté kubernetes) qui supportent un certain nombre de ces api et permettent de définir et déployer des infra sur un certain nombre d'entre eux. La majorité des outils permettant de faire de la gestion centralisée sous forme de code (puppet, chef, ansible, salt, cfengine) ont des modules pour supporter les 3 géants (AWS, Google, Azure) et un certain nombre d'autres offres.

          Après il n'existe aucun anneau pour les gouverner tous et dans les ténèbres les lier si c'est ça que tu recherche. Il y'a tout simplement trop d'hébergeurs différents. Si tu te limites à des fournisseurs qui proposent du openstack t'as des chance de pouvoir tout gérer avec le même outil.

          Jami: beabb2b063da0a2f0a2acaddcd9cc1421245d5de

  • # SSD

    Posté par  . Évalué à 1.

    Très bon outil !
    je l'utilise en entreprise depuis la version 3 pour virtualiser une douzaine de serveurs
    Debian et Windows.

    A ce jour, aucun souci, mais je trouve que depuis l'année dernière les versions se succèdent à un rythme plus élevé.
    peut être est-ce uniquement un ressenti…

    Petite question : Quelqu'un à t-il implémenté du SSD en raid 1 (autre que matériel) ?
    Merci pour les retours

    • [^] # Re: SSD

      Posté par  . Évalué à 4. Dernière modification le 18 juillet 2019 à 17:29.

      Petite question : Quelqu'un à t-il implémenté du SSD en raid 1 (autre que matériel) ?

      Oui.

    • [^] # Re: SSD

      Posté par  . Évalué à 1.

      Je n'ai pour le moment monté que des serveurs en RAID-5 matériel avec SSD. Mais bon je peux essayer de faire un petit raid zfs sur SSD en atelier, tu voudrais savoir quoi exactement ?

      de même que nous profitons des avantages que nous apportent les inventions d'autres, nous devrions être heureux d'avoir l'opportunité de servir les autres au moyen de nos propres inventions ;et nous devrions faire cela gratuitement et avec générosité

      • [^] # Re: SSD

        Posté par  . Évalué à 0.

        Actuellement tous mes serveurs sont des SAS en raid 1 ou 10 via carte adaptec

        Je voudrais monter du raid 1 avec des ssd (en ayant le support de la fonction trim).

        De ce que j'ai lu,Les cartes raid matérielles ne le font pas. Il existe des solutions hybrides qui utilisent le ssd en cache mais ce n'est pas le but recherché.

        Le raid 5 matériel en SSD que tu as monté supporte t-il le trim ?

        Merci pour les retours.

        • [^] # Re: SSD

          Posté par  . Évalué à 1.

          Non il ne le supporte pas c'est pour cette raison qu'il faut choisir des SSD overprovisionné généralement estampillé "Read Intensive Entreprise" et bien sur tu blinde de garantie :)

          Mais je te déconseille le raid1, sur un serveur ça n'a pas de sens, mais bon j'imagine que si tu envisages ça c'est une question de coût.

          J'ai vu que sur Proxmox 6 tu as du ZFS qui gère le trim donc c'est à tester.

          de même que nous profitons des avantages que nous apportent les inventions d'autres, nous devrions être heureux d'avoir l'opportunité de servir les autres au moyen de nos propres inventions ;et nous devrions faire cela gratuitement et avec générosité

          • [^] # Re: SSD

            Posté par  . Évalué à 3.

            le raid1, sur un serveur ça n'a pas de sens

            Venant d'une personne qui utilise du RAID-5 matériel (joli combo), ça mérite des arguments.

            • [^] # Re: SSD

              Posté par  . Évalué à 1.

              Tout système RAID à ses inconvénients hein, pour ma part je trouve le RAID-1 assez lent pour un serveur.

              de même que nous profitons des avantages que nous apportent les inventions d'autres, nous devrions être heureux d'avoir l'opportunité de servir les autres au moyen de nos propres inventions ;et nous devrions faire cela gratuitement et avec générosité

              • [^] # Re: SSD

                Posté par  . Évalué à 3.

                En écriture il devrait avoir les mêmes performances qu'un disque seul, et en lecture il peut être nettement meilleur s'il y a des accès concurrents.

                • [^] # Re: SSD

                  Posté par  . Évalué à 1.

                  Tu as donc le débit d'un disque SAS ce qui est assez lent pour un serveur virtualisé.

                  de même que nous profitons des avantages que nous apportent les inventions d'autres, nous devrions être heureux d'avoir l'opportunité de servir les autres au moyen de nos propres inventions ;et nous devrions faire cela gratuitement et avec générosité

              • [^] # Re: SSD

                Posté par  . Évalué à 3.

                je trouve le RAID-1 assez lent pour un serveur.

                Donc tu utilises RAID5 qui est encore plus lent. Logique.

                • [^] # Re: SSD

                  Posté par  . Évalué à 1.

                  J'ai du mal à comprendre ta remarque, tu parles du raid des années 80 ? Je ne vois pas en quoi un raid5 est plus lent qu'un raid1. En software peut-être (et encore j'ai des doutes) mais en hardware surement pas.

                  de même que nous profitons des avantages que nous apportent les inventions d'autres, nous devrions être heureux d'avoir l'opportunité de servir les autres au moyen de nos propres inventions ;et nous devrions faire cela gratuitement et avec générosité

                  • [^] # Re: SSD

                    Posté par  (site web personnel) . Évalué à 2.

                    Du RAID-5 ? J'espère que les disques ne sont pas trop gros… Vaut mieux du RAID-6 globalement.

                    • [^] # Re: SSD

                      Posté par  . Évalué à 1.

                      Non ce ne sont que des 480Go SSD. Le Raid-6 c'est mieux mais selon les clients c'est pas toujours évident, le tarif du stockage serveur a un coût vraiment important.

                      de même que nous profitons des avantages que nous apportent les inventions d'autres, nous devrions être heureux d'avoir l'opportunité de servir les autres au moyen de nos propres inventions ;et nous devrions faire cela gratuitement et avec générosité

    • [^] # Re: SSD

      Posté par  (site web personnel) . Évalué à 1.

      Je fais du raid5 software dessus. J'ai une carte RAID mais les désavantages du RAID hardware m'ont poussé à passer en soft. Y'a vraiment rien de compliqué, tout se configure comme sur un serveur normal, puis on crée le LVM dessus. J'avais rajouté une couche de cache SSD avec bcache, mais le SSD que j'avais mis avait tendance à avoir des erreurs IO, donc je l'ai retiré. J'ai pas énormément d'IOs de toutes façons.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.