Le coup du SAN pas fait pour les précoces c'est vraiment pas de chance et comme tu l'a dis, les patchs ont été appliqué sur un SAN pour validation… Ca marche hop déploiement sur les autres SAN. Dans ce cas que tu en ai 1 ou 200 le problème reste le même et je ne vois pas trop quelle solution pour contourner ce cas et le tech est probablement devenu le président de l'asso des looser.
Je suis un fervent défenseur de l'open source et tout et tout… Mais trouve moi un admin qui a décortiqué la totalité d'une mise à jour. Quand je dis décortiqué, c'est pas juste lire le changelog, mais auditer chaque modification de version d'une appli et surtout le code modifié sur ces appli. En principe on regarde le changelog, on analyse par rapport à l'infra pour anticiper au max l'impact. On lance la mise à jour sur du matos de test… On test, on retest et dans le doute on fait un dernier test… C'est validé… On pousse en prod. T'aura beau faire et refaire, lire et relire, tu aura toujours un cas qui est passé au travers car il fallait que le jour du test : la température soit de 20,4°, que le cours de la cacahuète soit positif au Etats-Unis et que tu dise des mots d'amours à l'oreille de ton SAN pour être certain de finir la journée tranquillement. Donc pour moi l'argument "c'est la faute à la boite noir" n'est pas valable, cela arrivera de la même manière si tu as accès aux sources.
Hello, sur mysql j'ai utilisé la réplication en mode maitre/esclave pour synchroniser une base avant une migration. C'est efficace, la donnée est écrite sur le maitre et automatiquement répliqué sur l'esclave. Ca prend un peu prêt 4 minutes à mettre en place.
Mais je n'ai pas testé le cas de crash du maitre comment redirigé vers l'esclave. Je suppose qu'il faut mettre un haproxy devant pour que cela soit transparent pour les utilisateurs/application.
Pour moi il y a deux niveaux :
- faire en sorte qu'un serveur reste disponible;
- faire en sorte qu'une appli reste disponible.
1er niveau : le serveur, tout comme pour un serveur physique, on doit faire le max pour qu'il reste online (merde, un peu de respect pour l'uptime ;) ). L'objectif est de réduire au max le temps de latence pendant le transfert d'un hôte à un autre. Quand je parle de transfert c'est uniquement pour la partie vcpu/vram/réseau, le stockage des VM est commun à tous les hôtes d'un cluster. Forcément la latence aura un impact sur les appli de chaque VM.
2eme niveau : l'appli doit rester disponible. C'est effectivement le plus délicat et encore plus pour les bases de données. J'ai retourné le truc un peu dans tout les sens :
maitre/esclave;
actif/actif;
actif/passif;
…
Il y a forcément un moment où une info se perd même si c'est commité toutes les demi-secondes ou même "instantanément". Une coupure en plein milieu d'un commit et réplication entre base… Et hop incohérence. C'est ici que s'arrête mon "expertise" :D
Merci pour tes précisions. En lisant la doc j'ai eu peur qu'il ne soit pas possible de mettre en place un stockage sur SAN visible par le cluster pve et que je sois obligé de passer par du stockage local sur chaque hôte avec les contraintes qui vont avec.
Je suis d'accord que le SPOF devient le SAN et l'idéal est d'en avoir deux différents dans deux salles différentes. Il y a toujours mieux mais par exemple j'ai deux SAN (HP et Netapp) chacun à deux contrôleurs. Chaque contrôleur a son alim, ses cartes réseaux. Les disques créés une grappe de stockage virtuelle visible par chaque contrôleur avec une répartition de charge, du "mirroging", des disques de spare. Si un contrôleur tombe, l'autre prend le relais quasiment instantanément…
Dans ce contexte si j'ai un problème avec le stockage, je pense que c'est ma baie complète qui a pris feu et j'aurais bien d'autres problèmes :)
Non, mes tests proxmox sont fait un pc tout en mode virtualisation.
J'ai en prod un cluster hyperv et un cluster vmware vsphere sur des matériels dédiés et je te confirme que lorsqu'un hôte tombe, hyperv par exemple, l'autre prend le relais avec juste une coupure d'accès de 1 ou 2 secondes le temps que la détection du down se fasse. Cela n'engendre pas de perte de données à cause d'un décalage de copie de vm d'un hôte à un autre. Le fonctionnement est le même avec vmware vsphere et la logique que se soit hyperv ou vmware est la même : une lun accessible par le cluster.
Pour mon test, le matériel n'est pas en cause, puisque j'en suis encore à l'étape lecture de doc et prise d'info sur le net et pour le moment je n'ai pas trouvé de doc qui explique le fonctionnement lorsque les vm sont stocké sur un san et une lun qui est accessible à tout les hôtes du cluster proxmox.
Je suis l'univers des CRM depuis longtemps pour notre usage et à chaque fois il manque un module : les stats.
Pour une équipe de vente, lorsqu'elle suit un client, avoir ses commandes, devis, factures/avoir, c'est bien. Mais avoir des chiffres c'est mieux. Elle a besoin d'avoir des chiffres pour tailler le bout de gras lors d'un rendez-vous client. Oui parler des commandes en cours est une étape mais savoir que l'année dernière le produit machin a été vendu en quantité de 2500 et comparé à l'année précédente il y a une progression de 50% et savoir (en off pour le commercial) que le copain d'à côté le vend bien mieux me parait quand même bien plus important.
Ou encore que la famille de produit "courgettes" est en progression par rapport à l'année dernière.
L'idée est de pouvoir suivre la vie du référencement d'un client, bien sur ces données sont récupérées de la facturation géré par l'ERP ;)
L'idéal serait d'avoir un requêteur afin de construire ses propres requêtes.
Comme beaucoup j'ai découvert Teams pendant les confinements. Au début j'ai cherché des solutions alternatives viables. En ce limitant uniquement à la fonction visio/chat oui il y a des alternatives et probablement meilleur que Teams.
Mais Teams il y énormément de fonctionnalités qui vont bien au delà de la visio et j'en découvre tout les jours. A telle point que maintenant pour moi et pas mal de collègues on utilisent presque plus les mails pour communiquer et échanger/travailler en équipe.
Pour le moment je n'ai pas trouvé de solution opensource viable, facile à utiliser, ne nécessitant pas un empilement d'applicatifs et connecteurs pour arriver au même niveau de fonctionnalités et d'intégration. Je suis sur un environnement Windows / Office à 99%, le 1% c'est moi qui fait le rebelle sur mon poste utilisateur.
Merde quand même, être admin Linux et prendre la défense le vendredi d'un produit Microsoft… Va peut être falloir que je médite tout ça lors de ma retraite spirituel (le week-end) ou lors de mon offrande matinale.
J'utilise le plus rarement possible flathub sur mon pc car j'ai eu des comportements étonnant suivant l'app. Cela va de la lenteur extrême, à des problèmes d'accès à certains fichiers. Du coups si j'ai le choix je prends le rpm.
Je suis plus dans l'infra et l'opérationnel mais j'aime bien voir ce qui se passe dans les autres camps. Je ne filtre pas par secteur d'activité car j'estime qu'à l'instant t je n'aurais pas besoin de l'info mais c'est toujours bon à savoir que cela existe.
Pour moi il y a deux façons de voir la veille techno :
- généraliste pour avoir une vue d'ensemble;
- spécialisé sur un sujet particulier.
Vu ma position je suis plus sur une vue d'ensemble et parfois il m'arrive d'avoir besoin de creuser à fond certain sujet.
Pas mal tout ces outils en CLI que je garde sous la main pour des usages en oneshot.
Lorsque l'opération revient régulièrement je suis passé sur un ETL (Talend Open Studio). Il y a une phase d'apprentissage qui n'est pas négligeable mais en gros il est possible de prendre X sources différentes et de pousser l'ensemble dans X destinations, de faire de la manipulation de données au milieu, d'avoir des alertes et le plus intéressant : rendre les jobs "batchable". Très pratique pour synchroniser des données régulièrement.
Je cite Talend car je connais que celui-ci en "presque" open source, mais je veux bien changer pour un vrai open source ;)
Effectivement cela aurait pu avoir un impact mais j'ai fais un test avec mon portable qui est un "11th Gen Intel(R) Core(TM) i7-1165G7 @ 2.80GHz" avec 32Go de ram et du nvme connecté au même switch que le serveur émetteur et j'arrive à peu de chose prêt aux mêmes valeurs.
Je l'ai laissé tourner 1 heure pour voir si tout est ok pour lui et si il n'y a rien d'anormal niveau trafic et pas de point de saturation. En première analyse je peux constater que sur les liens passés en blocking par stp, j'ai quelques Kb de trafic. Je suppose que c'est juste le protocole qui test et envoi les états aux autres switch. Sur les liens actifs là j'ai le gros du trafic.
Ensuite depuis un serveur physique connecté sur un des switch du cœur j'ai généré un fichier avec dd de 10G et lancé un transfert par scp ou par rsync "over ssh" vers un autre serveur physique connecté à l'autre switch du cœur. Bien sûr la fenêtre de tir est réduite puisque mrtg se lance toutes les 5mn de mémoire donc il a fallu contrôler l'heure de dernière mise à jour des graphes.
Résultat : le transfert c'est bien passé, pas de coupure. Côté mrtg j'ai suivi les piques de trafic de port en port, cela m'a permis de confirmer que le bon chemin est emprunté. Cette méthode est plus facile à mettre en œuvre à un moment de la journée où il y a peu de trafic.
A la lumière de ces essais une autre question est apparu : Mais c'est quoi ce débit ?!
Le serveur A dispose d'une carte 1G, il est connecté à un switch 1G, l'interconnexion entre switch est un trunk de deux liens 1G (donc 2G) et le serveur B a lui aussi une carte 1G.
Les stats de rsync me donne 49,95Mb/s pour transférer un fichier de 10,74G en 0:03:24 . Pendant le transfert je contrôlais qu'il n'y avait rien d'autre qui pouvait influencer le résultat.
J'ai réalisé le même test depuis le serveur A en direction de mon pc connecté sur le même switch et j'obtiens pratiquement le même résultat.
D'après vous est-ce normal ?
Mes switchs sont des procurves, lldp et lacp sont bien activé.
Mais sauf à ce que je me trompe, traceroute et ping agissent au niveau 3. Ils vont me donner des informations IP. Traceroute va me dire que j'ai traversé tel ou tel routeur et ping va pouvoir me dire que telle ip répond ou pas dans telle délai. Mais aucun des deux ne pourront me dire que pour atteindre la machine 1 je suis passé par le switch 1 ou bien si j'ai traversé 3 switchs car mes switchs agissent au niveau 2.
Je pratique pas souvent mais je ne suis pas totalement débutant non plus ;)
[^] # Re: Je ne comprend pas le souci !
Posté par Philippe M (site web personnel) . En réponse au journal Proxmox et le HA. Évalué à 3 (+1/-0). Dernière modification le 02 décembre 2025 à 16:06.
Le coup du SAN pas fait pour les précoces c'est vraiment pas de chance et comme tu l'a dis, les patchs ont été appliqué sur un SAN pour validation… Ca marche hop déploiement sur les autres SAN. Dans ce cas que tu en ai 1 ou 200 le problème reste le même et je ne vois pas trop quelle solution pour contourner ce cas et le tech est probablement devenu le président de l'asso des looser.
Je suis un fervent défenseur de l'open source et tout et tout… Mais trouve moi un admin qui a décortiqué la totalité d'une mise à jour. Quand je dis décortiqué, c'est pas juste lire le changelog, mais auditer chaque modification de version d'une appli et surtout le code modifié sur ces appli. En principe on regarde le changelog, on analyse par rapport à l'infra pour anticiper au max l'impact. On lance la mise à jour sur du matos de test… On test, on retest et dans le doute on fait un dernier test… C'est validé… On pousse en prod. T'aura beau faire et refaire, lire et relire, tu aura toujours un cas qui est passé au travers car il fallait que le jour du test : la température soit de 20,4°, que le cours de la cacahuète soit positif au Etats-Unis et que tu dise des mots d'amours à l'oreille de ton SAN pour être certain de finir la journée tranquillement. Donc pour moi l'argument "c'est la faute à la boite noir" n'est pas valable, cela arrivera de la même manière si tu as accès aux sources.
Born to Kill EndUser !
[^] # Re: CEPH c'est bien mais ...
Posté par Philippe M (site web personnel) . En réponse au journal Proxmox et le HA. Évalué à 2 (+0/-0).
Hello, sur mysql j'ai utilisé la réplication en mode maitre/esclave pour synchroniser une base avant une migration. C'est efficace, la donnée est écrite sur le maitre et automatiquement répliqué sur l'esclave. Ca prend un peu prêt 4 minutes à mettre en place.
Mais je n'ai pas testé le cas de crash du maitre comment redirigé vers l'esclave. Je suppose qu'il faut mettre un haproxy devant pour que cela soit transparent pour les utilisateurs/application.
Pour moi il y a deux niveaux :
- faire en sorte qu'un serveur reste disponible;
- faire en sorte qu'une appli reste disponible.
1er niveau : le serveur, tout comme pour un serveur physique, on doit faire le max pour qu'il reste online (merde, un peu de respect pour l'uptime ;) ). L'objectif est de réduire au max le temps de latence pendant le transfert d'un hôte à un autre. Quand je parle de transfert c'est uniquement pour la partie vcpu/vram/réseau, le stockage des VM est commun à tous les hôtes d'un cluster. Forcément la latence aura un impact sur les appli de chaque VM.
2eme niveau : l'appli doit rester disponible. C'est effectivement le plus délicat et encore plus pour les bases de données. J'ai retourné le truc un peu dans tout les sens :
Il y a forcément un moment où une info se perd même si c'est commité toutes les demi-secondes ou même "instantanément". Une coupure en plein milieu d'un commit et réplication entre base… Et hop incohérence. C'est ici que s'arrête mon "expertise" :D
Born to Kill EndUser !
[^] # Re: Je ne comprend pas le souci !
Posté par Philippe M (site web personnel) . En réponse au journal Proxmox et le HA. Évalué à 2 (+0/-0). Dernière modification le 01 décembre 2025 à 11:16.
Merci pour tes précisions. En lisant la doc j'ai eu peur qu'il ne soit pas possible de mettre en place un stockage sur SAN visible par le cluster pve et que je sois obligé de passer par du stockage local sur chaque hôte avec les contraintes qui vont avec.
Je suis d'accord que le SPOF devient le SAN et l'idéal est d'en avoir deux différents dans deux salles différentes. Il y a toujours mieux mais par exemple j'ai deux SAN (HP et Netapp) chacun à deux contrôleurs. Chaque contrôleur a son alim, ses cartes réseaux. Les disques créés une grappe de stockage virtuelle visible par chaque contrôleur avec une répartition de charge, du "mirroging", des disques de spare. Si un contrôleur tombe, l'autre prend le relais quasiment instantanément…
Dans ce contexte si j'ai un problème avec le stockage, je pense que c'est ma baie complète qui a pris feu et j'aurais bien d'autres problèmes :)
Born to Kill EndUser !
[^] # Re: Petite question ....
Posté par Philippe M (site web personnel) . En réponse au journal Proxmox et le HA. Évalué à 2 (+0/-0).
Non, mes tests proxmox sont fait un pc tout en mode virtualisation.
J'ai en prod un cluster hyperv et un cluster vmware vsphere sur des matériels dédiés et je te confirme que lorsqu'un hôte tombe, hyperv par exemple, l'autre prend le relais avec juste une coupure d'accès de 1 ou 2 secondes le temps que la détection du down se fasse. Cela n'engendre pas de perte de données à cause d'un décalage de copie de vm d'un hôte à un autre. Le fonctionnement est le même avec vmware vsphere et la logique que se soit hyperv ou vmware est la même : une lun accessible par le cluster.
Pour mon test, le matériel n'est pas en cause, puisque j'en suis encore à l'étape lecture de doc et prise d'info sur le net et pour le moment je n'ai pas trouvé de doc qui explique le fonctionnement lorsque les vm sont stocké sur un san et une lun qui est accessible à tout les hôtes du cluster proxmox.
Born to Kill EndUser !
[^] # Re: Si je puis me permettre de rajouter ...
Posté par Philippe M (site web personnel) . En réponse à la dépêche Interminable liste de terminaux. Évalué à 2 (+0/-0).
Hello, je suis rassuré ;) Déjà rien que le terme sécu est un gros mot.
J'ai regardé rapidement, sans tout comprendre, le projet R#SPACE. Un gros truc qui a l'air intéressant.
De mon côté je suis toujours au même endroit en pleine tourmente migration ERP… Bref je déteste le fonctionnel et je rêve d'informatique !
Born to Kill EndUser !
[^] # Re: Si je puis me permettre de rajouter ...
Posté par Philippe M (site web personnel) . En réponse à la dépêche Interminable liste de terminaux. Évalué à 2 (+0/-0).
Oh merde tu m'inquiète Christophe… Aurais tu été forcé d'avoir ton poste utilisateur sous Windows ? :D
Born to Kill EndUser !
[^] # Re: Statistiques
Posté par Philippe M (site web personnel) . En réponse à la dépêche Sortie de Crème CRM en version 2.6. Évalué à 2.
Nickel !
Il me reste plus qu'à tester Crème alors… Peut être la fin d'un dev interne en vue ;)
Born to Kill EndUser !
# Statistiques
Posté par Philippe M (site web personnel) . En réponse à la dépêche Sortie de Crème CRM en version 2.6. Évalué à 4.
Bonjour à tous,
Je suis l'univers des CRM depuis longtemps pour notre usage et à chaque fois il manque un module : les stats.
Pour une équipe de vente, lorsqu'elle suit un client, avoir ses commandes, devis, factures/avoir, c'est bien. Mais avoir des chiffres c'est mieux. Elle a besoin d'avoir des chiffres pour tailler le bout de gras lors d'un rendez-vous client. Oui parler des commandes en cours est une étape mais savoir que l'année dernière le produit machin a été vendu en quantité de 2500 et comparé à l'année précédente il y a une progression de 50% et savoir (en off pour le commercial) que le copain d'à côté le vend bien mieux me parait quand même bien plus important.
Ou encore que la famille de produit "courgettes" est en progression par rapport à l'année dernière.
L'idée est de pouvoir suivre la vie du référencement d'un client, bien sur ces données sont récupérées de la facturation géré par l'ERP ;)
L'idéal serait d'avoir un requêteur afin de construire ses propres requêtes.
Est-ce intégré, prévu, envisageable ?
Born to Kill EndUser !
[^] # Re: Alternative ?
Posté par Philippe M (site web personnel) . En réponse à la dépêche Enquête de l’UE sur Microsoft pour abus de position dominante avec Teams. Évalué à 2.
Y a même mieux que la version navigateur : Teams-for-Linux https://github.com/IsmaelMartinez/teams-for-linux
Born to Kill EndUser !
# Alternative ?
Posté par Philippe M (site web personnel) . En réponse à la dépêche Enquête de l’UE sur Microsoft pour abus de position dominante avec Teams. Évalué à 3.
Comme beaucoup j'ai découvert Teams pendant les confinements. Au début j'ai cherché des solutions alternatives viables. En ce limitant uniquement à la fonction visio/chat oui il y a des alternatives et probablement meilleur que Teams.
Mais Teams il y énormément de fonctionnalités qui vont bien au delà de la visio et j'en découvre tout les jours. A telle point que maintenant pour moi et pas mal de collègues on utilisent presque plus les mails pour communiquer et échanger/travailler en équipe.
Pour le moment je n'ai pas trouvé de solution opensource viable, facile à utiliser, ne nécessitant pas un empilement d'applicatifs et connecteurs pour arriver au même niveau de fonctionnalités et d'intégration. Je suis sur un environnement Windows / Office à 99%, le 1% c'est moi qui fait le rebelle sur mon poste utilisateur.
Merde quand même, être admin Linux et prendre la défense le vendredi d'un produit Microsoft… Va peut être falloir que je médite tout ça lors de ma retraite spirituel (le week-end) ou lors de mon offrande matinale.
Born to Kill EndUser !
[^] # Re: xauth ?
Posté par Philippe M (site web personnel) . En réponse au message Lancer programme flathub avec une tâche cron. Évalué à 2.
Cette fois c'est la bonne :
Merci
Born to Kill EndUser !
[^] # Re: xauth ?
Posté par Philippe M (site web personnel) . En réponse au message Lancer programme flathub avec une tâche cron. Évalué à 2.
Bon en fait cela marche à condition d'avoir lancer xauth avant. Maintenant reste à intégrer ça dans la tâche cron :(
Born to Kill EndUser !
[^] # Re: xauth ?
Posté par Philippe M (site web personnel) . En réponse au message Lancer programme flathub avec une tâche cron. Évalué à 4.
J'ai quand même continuer les recherches et j'ai ajouté le chemin vers le fichier à ma tâche
Et magie ça marche !
Merci.
Born to Kill EndUser !
[^] # Re: xauth ?
Posté par Philippe M (site web personnel) . En réponse au message Lancer programme flathub avec une tâche cron. Évalué à 2.
Salut,
Malheureusement je n'ai pas trouvé de fichier .Xauthority dans mon ~/ ou bien dans /run/user/1000/… (1000 est bien l'id de mon user).
Au hasard j'ai utilisé la commande xauth et voilà ce qu'elle me retourne :
Et le contenu du "fichier"
Après je vois pas trop ce que je peux faire avec tout ça ?
Born to Kill EndUser !
[^] # Re: Cron pour les gouverner tous ?
Posté par Philippe M (site web personnel) . En réponse au message Gestionnaire de tâches évolué. Évalué à 2.
Oui pour lancer sopalin.sh ;)
Born to Kill EndUser !
[^] # Re: Snap ?
Posté par Philippe M (site web personnel) . En réponse au message Gestionnaire de tâches évolué. Évalué à 2.
J'utilise le plus rarement possible flathub sur mon pc car j'ai eu des comportements étonnant suivant l'app. Cela va de la lenteur extrême, à des problèmes d'accès à certains fichiers. Du coups si j'ai le choix je prends le rpm.
Born to Kill EndUser !
[^] # Re: où, mais aussi comment
Posté par Philippe M (site web personnel) . En réponse au message S'informer, oui mais où ?. Évalué à 3.
Comme disait l'autre : "Les bras m'en tombent !"
Born to Kill EndUser !
[^] # Re: où, mais aussi comment
Posté par Philippe M (site web personnel) . En réponse au message S'informer, oui mais où ?. Évalué à 3.
Je n'avais même pas pensé à un autre moyen de par RSS ;)
Par généraliste je pensais tout de même rester dans l'IT ;)
Born to Kill EndUser !
[^] # Re: Professionnel, c'est large.
Posté par Philippe M (site web personnel) . En réponse au message S'informer, oui mais où ?. Évalué à 3.
Effectivement je n'ai pas précisé.
Je suis plus dans l'infra et l'opérationnel mais j'aime bien voir ce qui se passe dans les autres camps. Je ne filtre pas par secteur d'activité car j'estime qu'à l'instant t je n'aurais pas besoin de l'info mais c'est toujours bon à savoir que cela existe.
Pour moi il y a deux façons de voir la veille techno :
- généraliste pour avoir une vue d'ensemble;
- spécialisé sur un sujet particulier.
Vu ma position je suis plus sur une vue d'ensemble et parfois il m'arrive d'avoir besoin de creuser à fond certain sujet.
Born to Kill EndUser !
# ETL
Posté par Philippe M (site web personnel) . En réponse au journal autocsv2sql : un utilitaire pour convertir ses CSV sans se poser de question, "écris" en OCaml. Évalué à 2.
Hello à tous,
Pas mal tout ces outils en CLI que je garde sous la main pour des usages en oneshot.
Lorsque l'opération revient régulièrement je suis passé sur un ETL (Talend Open Studio). Il y a une phase d'apprentissage qui n'est pas négligeable mais en gros il est possible de prendre X sources différentes et de pousser l'ensemble dans X destinations, de faire de la manipulation de données au milieu, d'avoir des alertes et le plus intéressant : rendre les jobs "batchable". Très pratique pour synchroniser des données régulièrement.
Je cite Talend car je connais que celui-ci en "presque" open source, mais je veux bien changer pour un vrai open source ;)
Born to Kill EndUser !
[^] # Re: Petite remarque Vim
Posté par Philippe M (site web personnel) . En réponse au journal Changer un nom de domaine Windows sur Samba 3.X. Évalué à 2.
Même pas peur !
Yes toujours dans les salles sombres et froides, je fais de la résistance chez qui tu sais seul contre tout ces serveurs sqlserver et Cloud-esrie ;)
A l'occasion que tu passe pas trop loin préviens moi qu'on se fasse une bouffe :)
Born to Kill EndUser !
[^] # Re: Tu ne peux pas
Posté par Philippe M (site web personnel) . En réponse au message Suivre le chemin d'un paquet au travers des switchs. Évalué à 2.
Effectivement cela aurait pu avoir un impact mais j'ai fais un test avec mon portable qui est un "11th Gen Intel(R) Core(TM) i7-1165G7 @ 2.80GHz" avec 32Go de ram et du nvme connecté au même switch que le serveur émetteur et j'arrive à peu de chose prêt aux mêmes valeurs.
Born to Kill EndUser !
[^] # Re: Tu ne peux pas
Posté par Philippe M (site web personnel) . En réponse au message Suivre le chemin d'un paquet au travers des switchs. Évalué à 2.
Passer par ssh aura plus d'impact sur le CPU mais pour le coups j'ai de la marge avec le CPU des serveurs.
Pour l'émetteur, certes c'est pas de dernière génération mais les services installés dessus correspondent à l'ancienneté du CPU
Born to Kill EndUser !
[^] # Re: Tu ne peux pas
Posté par Philippe M (site web personnel) . En réponse au message Suivre le chemin d'un paquet au travers des switchs. Évalué à 3.
J'ai passé tout l'après midi d'hier à faire des tests complémentaires
Avant de me lancer dans la coupure de port et potentiellement perturber la production j'ai opté pour une autre méthode.
Sur mon pc j'ai installé un container mrtg qui graphe tout les ports de tout mes switchs.
Je l'ai laissé tourner 1 heure pour voir si tout est ok pour lui et si il n'y a rien d'anormal niveau trafic et pas de point de saturation. En première analyse je peux constater que sur les liens passés en blocking par stp, j'ai quelques Kb de trafic. Je suppose que c'est juste le protocole qui test et envoi les états aux autres switch. Sur les liens actifs là j'ai le gros du trafic.
Ensuite depuis un serveur physique connecté sur un des switch du cœur j'ai généré un fichier avec dd de 10G et lancé un transfert par scp ou par rsync "over ssh" vers un autre serveur physique connecté à l'autre switch du cœur. Bien sûr la fenêtre de tir est réduite puisque mrtg se lance toutes les 5mn de mémoire donc il a fallu contrôler l'heure de dernière mise à jour des graphes.
Résultat : le transfert c'est bien passé, pas de coupure. Côté mrtg j'ai suivi les piques de trafic de port en port, cela m'a permis de confirmer que le bon chemin est emprunté. Cette méthode est plus facile à mettre en œuvre à un moment de la journée où il y a peu de trafic.
A la lumière de ces essais une autre question est apparu : Mais c'est quoi ce débit ?!
Le serveur A dispose d'une carte 1G, il est connecté à un switch 1G, l'interconnexion entre switch est un trunk de deux liens 1G (donc 2G) et le serveur B a lui aussi une carte 1G.
Les stats de rsync me donne 49,95Mb/s pour transférer un fichier de 10,74G en 0:03:24 . Pendant le transfert je contrôlais qu'il n'y avait rien d'autre qui pouvait influencer le résultat.
J'ai réalisé le même test depuis le serveur A en direction de mon pc connecté sur le même switch et j'obtiens pratiquement le même résultat.
D'après vous est-ce normal ?
Mes switchs sont des procurves, lldp et lacp sont bien activé.
Born to Kill EndUser !
[^] # Re: traceroute
Posté par Philippe M (site web personnel) . En réponse au message Suivre le chemin d'un paquet au travers des switchs. Évalué à 7.
Merci de ta réponse.
Mais sauf à ce que je me trompe, traceroute et ping agissent au niveau 3. Ils vont me donner des informations IP. Traceroute va me dire que j'ai traversé tel ou tel routeur et ping va pouvoir me dire que telle ip répond ou pas dans telle délai. Mais aucun des deux ne pourront me dire que pour atteindre la machine 1 je suis passé par le switch 1 ou bien si j'ai traversé 3 switchs car mes switchs agissent au niveau 2.
Je pratique pas souvent mais je ne suis pas totalement débutant non plus ;)
Born to Kill EndUser !