Sortie de Perfwatcher 2.0

27
8
mar.
2014
Supervision

La nouvelle version majeure de l'outil de métrologie Perfwatcher vient de sortir, Perfwatcher 2.0. Perfwatcher est un frontend pour Collectd (un outil de mesure de performances du système) écrit en PHP, HTML, JavaScript et C.

Présenté sur LinuxFr.org lors de sa sortie en version 1.2, le fonctionnement interne de Perfwatcher a subi un profond remaniement amenant une modularité permettant aujourd'hui son déploiement sur des grilles de calculs de plus de 20000 nœuds.

Pour rappel, Perfwatcher est une interface utilisateur pour Collectd, il permet d'afficher les graphes RRD générés par ce dernier et étend ses fonctionnalités par l'apport de nombreux modules et patchs.

Parmi ceux-ci, le module Top permet l'affichage de la totalité de la liste des processus à la façon de la commande top et ce, à la date et heure de son choix ainsi que l'affichage des processus sous la forme d'une frise chronologique (timeline).

Perfwatcher permet, en outre et ce fut son premier but, d’agréger les données de Collectd par groupes de serveurs afin de, par exemple, visualiser la charge moyenne de parties d'une grille de calcul.

À ce remaniement et la traditionnelle correction de bogues, s'ajoute un lot de nouveautés parmi lesquelles nous pouvons trouver :

  • l'accès à distance à Collectd rendant l'installation encore plus modulaire,
  • la possibilité d'accéder à plusieurs instances de Collectd,
  • un système de presse-papier permettant de sélectionner des graphes puis de les comparer,
  • des onglets éditables via l'utilisation d'un langage de balisage (Markdown),
  • un zoom des graphes amélioré.

TOP

TimeLine

Aller plus loin

  • # MySQL, désolé

    Posté par  . Évalué à 1.

    Merci pour la dépêche, j'ai découvert collectd, c'est pas mal du tout.

    Par contre Perfwatcher dépend de MySQL, et au risque de déclencher une guerre, je dis clairement que je n'installe plus aucun logiciel qui en dépend explicitement. PostgreSQL est bien meilleur, et puis même, c'est dommage de dépendre d'un seul SGBD, à l'heure des abstractions facile.

    Enfin, c'est pas si grave que ça, mais sur mon petit serveur à la maison, je vais pas faire tourner deux moteurs de base de données pour le plaisir :)

  • # Question

    Posté par  (site web personnel) . Évalué à 2.

    Qu'entendez vous par : "l'accès à distance à Collectd rendant l'installation encore plus modulaire," ? Je n'aime personnellement par trop que le serveur central de monitoring installe quoi que ce soit…

    Imaginons un cluster de 50 noeuds par exemple actuellement géré via ganglia. Comme faire avec ce produit ? Avec ganglia, si mes souvenirs sont bon (j'ai fais cela il y a longtemps), on configure les noeuds pour qu'ils remontent a un serveur central et ce dernier se démerde (je simplifie un peu…).

    Par rapport a ganglia, c'est robuste au perte de connexion. Avec ganglia en mode non multi-cast (on est obligé chez nous) donc unicast, le client ne sais pas se reconnectéer au serveur si celui-ci est relancé (enfin, je n'ai pas réussi). Bref, il faut un ordre de démarrage et c'est très très chiant (et pas du tout robuste).

    • [^] # Re: Question

      Posté par  (site web personnel) . Évalué à 1.

      Salut,

      Par "l'accès à distance à Collectd rendant l'installation encore plus modulaire," il faut comprendre que le l'interface de Perfwatcher peut être sur un serveur autre que celui sur lequel se trouve le serveur Collectd. Il est même d'ailleurs possible d’accéder à plusieurs serveurs Collectd.

      En effet, pas de soucis avec les perte de connexion, le trafic réseau et l'impact de Collectd sur les client sont même minimes comparé à Ganglia.

      J'ai initialement développé Perfwatcher pour palier le manque de souplesse de Ganglia, il a été installé sur des milliers de serveurs dans une grande banque Française pour permettre d'avoir une vue consolidée sur les grid de calcul.

      http://la-rache.com

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.