SauronDeMordor a écrit 138 commentaires

  • [^] # Re: mises à jours et docker

    Posté par  (site web personnel) . En réponse au journal Les outils de l'IT pour un FabLab. Évalué à 1.

    et oui cela existe, comme dis juste avant, c est quelque chose que tu decide.

    opérer une telle séparation fait que tu vas maîtriser mieux tes données et tes configs. que tu poura donc faire des updates des maintenances, et des migration beaucoup plus facilement.

    et surtout que a chaque modif, ou évolution qu on te demandera tu sera plus à même de dire si c est faisable, possible et du temps que cela peu prendre

  • [^] # Re: mises à jours et docker

    Posté par  (site web personnel) . En réponse au journal Les outils de l'IT pour un FabLab. Évalué à 2.

    quand tu lance un VM, tu dédie des morceau de CPU; de RAM a ta VM, ce n est pas le cas des containers, c est un avantage, mais aussi un inconvénient car si un container par en sucette, les autre font être lourdement impacté (sauf si tu met des limites en ressources)

    pour les données, justement tu ne les détruits pas forcement, avec un lxc.mount.entry qui permet de partager des subtree dans un LXC.

    ensuite avec lxc, tu peux lancer des container en tant que user, sans les droits root, il y a un remaping du user root dans le container (uid + 100000 par défaut), ce qui est pas mal pour tester des choses en mode quick and dirty sans pourir une machine ou installer une VM.(je pense au installation du style curl http://…../truc.sh | bash)

    avec le container, cela permet aussi de lancer plein de services sur un systèmes sans que ceux ci interagissent entre eux.

    pour la config, je fais un salt ou un puppet ou un ansible qui met au carré la machine, mais cela reste valable pour les containers ou les machines virtuelles ou les réelles.

    des que tu a plus de 3 ou 4 machines, investir dans un setup géré par l un de ces systèmes est un gain de temps. si tu ne connais pas, ansible sera peut être le plus abordable. parfois pour gagner du temps il faut en perdre un peu.

    si tu vas gérer un parc machine, je te conseil vivement d utiliser cela. car tu ne vas quand même pas aller sur chaque PC et d éditer a la main les configs, ou même faire un scp sur tous ??

  • [^] # Re: mises à jours et docker

    Posté par  (site web personnel) . En réponse au journal Les outils de l'IT pour un FabLab. Évalué à 7.

    pour les techno de conteneur il n y a pas que docker, lxc est très bien, en mode UTS par exemple ou alors, ce que je préfère c est l'utilisation de systemd-nspawn.

    l avantage des conteneur type UTS, je vais prendre LXC comme support, tu te fais un template ou tu en prend 1 de base fourni par lxc, tu démarre un conteneur, et ensuite tu install tes soft dedans comme si c’était une machine réelle, ou une VM, c'est l utilisation du conteneur en temps que machine, un peu comme une VM, mais a moindre coup car si tu ne fait rien, la ram ou le cpu ne sont pas utilisées.

    avantage, si tu a un soft uniquement pour une vielle version de debian, et bien tu peu upgrader la machine, mettre un conteneur de vielle debian, et mettre ton soft. les données sont persistantes.

    ensuite si tu veux tester un upgrade d os, ou de version de soft, tu clone ton conteneur, puis fait ta procédure d upgrade, si ça déconne, tu trash le clone, et tu n'as rien perdu

    et quand on parle de reproductibilité, c est qu il n y a pas un humain derrière qui fait des modif dans la machine, donc que cela soit docker, lxc, nspawn, cela s'inscrit dans une démarche d'industrialisation et d automatisation (pour éviter de dire devops).

    perso je fait cela aussi souvent que possible, même sur les machine perso, comme ça lancer un nouveau service, c'est un conteneur, un setup/config (via puppet,ansible ou salt), que la seule variable c'est le type de service. et si un jour 1 service devient trop gros, et bien je le déplace sur une machine plus grosse

    a la conf kernel recipes, on a vu un conférencier qui lançait des conteneurs sur une machine type x86 pour lancer des conteneurs arm64, l environnement du conteneur était en arm64, et l exécution de code faite par qemu-system-arm, c'est une utilisation détournée, mais plutôt sympa.

    je pourrais continuer longtemps sur les bienfaits des conteneurs…donc je m arrête là :)

  • [^] # Re: j'ai pas tout compris

    Posté par  (site web personnel) . En réponse au message Réseau: vlan qui se connecte avec à la fois wlan0 et eth0. Évalué à 2.

    Teaming

    pour ce que tu veux faire il y a plusieurs solution, teaming, bonding, brigding, il y a peu de différence en teaming et bonding et une très grosse différence avec le bridging.

    ce que tu peux faire c'est une interface de bonding (ou teaming) entre eth0 et wlan0 en mode failover, et ensuite de faire un bridge avec cette interface team0 (par exemple) dans lequel tu ajoute les interfaces de tes VM.

    ainsi chaque interface qui intégrera le bridge sera aiguillé et passera par l'interface de ton choix eth0/wlan0.

    ensuite je t conseil vivement d utiliser systemd-networkd pour cela parce que l'avenir c'est déjà du passé, que systemd c'est bien,… :D

    la doc de arch est bien détaillée pour ca, meme si tu n'est pas sous arch

    https://wiki.archlinux.org/index.php/systemd-networkd

    mais en gros cela revient à mettre quelque fichiers très simples dans /etc/systemd/network, et d activer systemd-netword au boot

    Perso, je trouve la config plus simple à gérer, et de plus c'est cross distrib :)

    Voila

  • # PXE: question bete

    Posté par  (site web personnel) . En réponse au journal Installer Debian 9.2.1 Stretch depuis le disque dur avec une image ISO et GRUB2, sans clé USB ni DVD. Évalué à 2.

    si on est bien des geek, on a toujours une bonne vingtaines de vielles archi et vieux bousins qui traîne au grenier et a la cave, un bon réseau aussi, et de quoi faire un boot PXE

    j instable toutes mes machines comme ça, c'est bien plus pratique

    mais l idee du gurb qui boot l iso c' est bien aussi

  • [^] # Re: sed/awk is your friend

    Posté par  (site web personnel) . En réponse au message 1 ligne de shell pour les changer tous. Évalué à 1. Dernière modification le 08 septembre 2017 à 14:03.

    en fait pour le ls il y a l option -Q qui permet de mettre des " automatiquement pour protéger.

    $ \ls -1 .profile* 
    .profile
    .profile 2
    
    
    $ \ls -1Q .profile*
    ".profile"
    ".profile 2"

    c est la raison pour laquelle je prefere ls plutot que echo ici.

  • [^] # Re: C'est plus

    Posté par  (site web personnel) . En réponse au journal 3% d'ordinateurs personnels sous Linux. Évalué à 1.

    lol

    et f actuellement dire j ai de 5 a 90% ca donne une belle fourchette, ça doit donner écart type sympa

  • [^] # Re: rename

    Posté par  (site web personnel) . En réponse au message 1 ligne de shell pour les changer tous. Évalué à 1.

    je ne connaissais pas rename., sympa

    plus facile à retenir que ce que j ai écrit. lol

  • # sed/awk is your friend

    Posté par  (site web personnel) . En réponse au message 1 ligne de shell pour les changer tous. Évalué à 1.

    en mode crade ca donnerais cela a tester avant bien sur, ou avec backup en cas de misère.

    exemple avec awk car plus lisible, meme si je fais plutot avec sed ce genre de manip

    for i in Sankore*; do 
      echo $i | awk '{OLD=$0;gsub("Sankore","OpenBoard");NEW=$0;printf("mv \"%s\"  \"%s\"",OLD,NEW)'} 
    done

    si tu es content tu resultat tu ajoute "| sh", ce qui donne

    for i in Sankore*; do 
    .....
    done | sh

    avec sed ça donnerais plutot ca

    ls -1d Sankor* | sed 's@^\(Sankore\)\(\)@mv "\1\2" "OpenBoard\2"@'

    et pareil, si tu es content, tu ajoute "|sh"

  • [^] # Re: merci

    Posté par  (site web personnel) . En réponse au message serveur et mailing list. Évalué à 4.

    Bonjour,

    j ajouterais, que même si le mail semble "facile" et sympa, c est l une des choses les plus compliquées en admin. je pratique depuis des decenies avec moultes version de serveur varié.

    la partie config n'étant pas la partie la plus compliquée, mais bien la partie anticipation, gestion des DKIM, greylist, spf et autre système de ralentissement des spam.

    ensuite pour la partie mailing list, et bien tu ajoutes une couche, mais en général le pb des mails non reçu par les listes est surtout un pb d antispam/filtres du destinataire

  • [^] # Re: re

    Posté par  (site web personnel) . En réponse au message Connexion ssh - Permission denied (publickey,gssapi-keyex,gssapi-with-mic. Évalué à 1.

    c est l'idée

    cependant il n y a pas reelement de contraintre sur le serveur source, sauf contrainte dans le fichier de config /etc/ssh/sshd_config sur serveur avec les directive Match.

    en effect c est la clef qui permet la session (de nimporte ou)
    mais ton pb est lié a ssh, pas a rsync a priori, donc dans un premier temps essaye de faire du debug avec le ssh en ligne de commande.

    1) peux tu te connecter avec le password sur le serveur cible?
    - oui
    -> pousse la clef avec ssh-copy-id
    -> reessaye de faire ssh, la passphrase doit etre demandée
    - connextion
    - oui => fait rsync rsync
    - non => il y a un pb avec la clef, detruit le couple clef pub/priv et recomence

    - non
    -> regle ce probleme pour avoir une sesson en ec2-user sur le serveur cible

    ensuite si tu doit transferer des gros volume de fichier, il es préférable de lancer rsync en mode daemon

  • [^] # Re: re

    Posté par  (site web personnel) . En réponse au message Connexion ssh - Permission denied (publickey,gssapi-keyex,gssapi-with-mic. Évalué à 2.

    ec2-usertu as ecrit ca

    rsync -avzh /data/www/ ssh ec2-user@**:/data/www/ > /data/logRSYNC.txt

    Que vient faire la ce ssh.

    soit c est une typo dans le forum, soit c est une erreur et cela peut expliquer ton problème.

    ensuite tu lance la commande en root, donc la clef utilisée pour la session, est celle du user lançant la commande, c est a dire root (dans ton cas). si tu as généré des clef pour ec2-user, et bien ça sert a rien.

    il te fait le couple clef privé/clef public pour établir la session, la cléf privée sur la machine source dans $HOME/.ssh/ ($HOME de root dans ton cas), et concaténer clef public dans le fichier $HOME/.ssh/authorized_keys du user ec2-user de la machine cible.

    en pratique tu as le couple sur la machine source et ensuite tu fais ssh-copy-id ec2-user@ et cela met à jour tout ce qu il faut a partir du moment ou tu peux te connecter avec password sur la machine cible avec le user cible.

    /Enjoy

  • # netboot.xyz

    Posté par  (site web personnel) . En réponse au message Clé USB multiboot. Évalué à 1.

    la réponse est netboot.xyz :)

    ou ipxe pour être précis, mais netboot.xyz ajoute tous les netboot dont tu veux l utilisation.

    sinon tu fait comme les vieux, tu n a pas attendu et tu t es fait un script ipxe qui fait déjà tout ça en moins bien.

  • [^] # oui avec 2 factor auth

    Posté par  (site web personnel) . En réponse au journal Openssh, dernières actus. Évalué à -1.

    j utilise cela pour les connexions venant de l exterieur et aussi avec une règle match dans le sshd_config

    et ensuite avec le google authentication ca fait le taf.
    l'app dans le telephone et on a l'authent avec le totp.

  • [^] # Re: Hadoop ?

    Posté par  (site web personnel) . En réponse au journal Data Warehouse. Évalué à 2.

    sympa, mais on parle de 5To , donc peut être un peu lourd, non?

    ca fait un rouleau compresseur pour écraser une amide, et pour le coup ca fait rien, l amide est trop petite :)

    si tu met un hadoop (HDFS) il te faut au moins 2 serveurs (3 conseillé), ou alors tu squeeze la redondance.

    meme si globalement le choix d'une stack hadoop est plutôt pas mal, ensuite peut être que c ets un POC a 5To et qu ensuite ca sera 50To, et la effectivement, le passage a l échelle sera plutôt facile avec une stack hadoop.

    j utilise une stack bigtop, de apache.org. elle marche plutôt pas mal, et l setup est assez facile a prendre en main.

  • [^] # Re: ceph

    Posté par  (site web personnel) . En réponse au journal Système de fichiers clusterisé - OCFS2, GFS2, GlusterFS, autres. Évalué à 1.

    +1

    et tu expose le cephfs via samba. tu as une bonne solution, et aussi une bonne tolerance à la panne.

    cotes perf c est pas la panacée la couche cephfs à son ovehead mais ca reste bien meilleur que glusterfs.

    sinon, je n ai jamais testé mais il y a aussi l exposition de hdfs via nfs (ca ferait hdfs->nfs->cifs)

    en regardants du cotes de rados et de samba, je vois aussi quelques trucs (mais j'ai pas d avis sur le sujet).

  • [^] # Re: Devoir d'école ?

    Posté par  (site web personnel) . En réponse au message script shell. Évalué à 1.

    voir puppet, chef, salt, ansible.

    et comme dit egalement, man exports, man nfs

    sans info sur le system d exploitation, ca semble delicat, et oui nfs ne se configure pas pareil suivant l os (windows, aix, solaris, irix,…,linux) :D

  • # gitblit

    Posté par  (site web personnel) . En réponse au journal Serveur Git avec Gitolite. Évalué à 1.

    tres leger

    juste un jar et 1 ficher de config et ca gere le ldap, le kerberos, l authent , le ssh …..
    et un interface rustique mais plus sympa que les git de base, moins bien que gitlab, mais gitblit garde le format git donc un rsync et on a tout :)

  • [^] # Re: Développe...

    Posté par  (site web personnel) . En réponse au journal Macron et le numérique : vers "l'Etat plateforme". Évalué à 4.

    d ailleur à ce propos, il se passe quoi si on est pas d accord avec la GCU ?

  • # fio - Flexible IO Tester

    Posté par  (site web personnel) . En réponse au journal HOW TO : Bench this SSD. Évalué à 4. Dernière modification le 26 mai 2017 à 22:39.

    ici

    https://git.kernel.org/pub/scm/linux/kernel/git/axboe/fio.git/

    ce qu il faut faire aussi quand on teste les io, c'est de vérifier/ mettre les cache divers et varié hors scope, c est a dire de faire du directio.

    comprendre que si tu faits des écriture de ficher de 1Go et que tu as 8 ou
    Go de ram , bah tu risque de surtout bencher ta ram :)

    après avec les couches FS, et les caches FS/ kernel … tu bench pas grand chose. donc il te faut travailler avec des fichiers de tailles > RAM, ou en directio

    fio a pas mal de fichiers de conf pour tester et grapher les SSD que ca soit en mode raw ou avec des file systemes et avec la gestion des cache, du directio, en mode séquentiel ou aléatoire suivant ton besoin. :)

    ensuite bencher les io est qq chose de beaucoup plus complexe qu il n y parait, et je ne m étendrais pas sur le sujet car je suis certain de lancer ensuite des bon gros troll bien velus

  • [^] # Re: Matériel ? But à atteindre ?

    Posté par  (site web personnel) . En réponse au message Virtualisation en Haute Disponibilité. Évalué à 2.

    oui et j ajouterais aussi de qui dois gerer manager et le niveau

    car gerer un *stack ou un promox, c est pas pareil

    ovirt est plus facile d approche, et les openstack et cloudstack plus compliqué tant sur le plan du design que de l archi

    ensuite suivant les soft l appche conteneur, kuberned, mesos peut peut etre aussi repondre a certain besoin.

    la solution est rarement dans une reponse unique

  • # avec le reseau

    Posté par  (site web personnel) . En réponse au message Impossible de démarrer un PC Portable.. Évalué à 1.

    est ce que le pc est joignable en remote?
    ping ou autre

    est ce que le pb n est que quand ca boot en windows?

    si ce n est que sous windows peut être un pb de drivers,

    pour vérifier ca, active le remote desktop, et essaye de faire booter le pc de façon a ce que l écran reste noir, et si le réseau es la connecte toi avec remote desktop

    et la tu aura accès au system (en présence du problème) et en remote regarde les journaux d Evénement/drivers

    ensuite est ce un boot BIOS ou UEFI?des outils de debug/diag au bios sont présent?

  • # mmm, ca send l exo a faire

    Posté par  (site web personnel) . En réponse au message estimateur moindre carree en python. Évalué à 1.

    mm ca ressemble bien a un exo de cour :)

    en math appliqué je pense d ailleur car on est en présence d un problème d optimisation non linaire par les MC, et tu nous parle ensuite des résidus, qui viennent du plan complexe pour la valeur de l integrale autour d un pôle :) or en lisant vite nous somme sans un espace vectoriel normé de dimension 8.

    il doit nous manquer furieusement des info, et je doute qu ici on te donne la solution, a un probleme que tu dois résoudre.
    cela dit si tu es a poils avec la méthode des MC, regarde le papier de 1973 sur les chenilles processionaires dans les pins, c est le cas d école justement. ou cherche a optimisation quadratique

    Bon courage a toi

  • [^] # Re: Partitionnement

    Posté par  (site web personnel) . En réponse au journal Retour sur achat d’un ordinateur portable « tout terrain ». Évalué à 2.

    les 16 Go de swap est un minimum si tu fait un suspend to disk car il dump la ram dans le swap et redémarre avec , il vaut même mieux avoir un pouilleme de plus.

    en gros sois tu met 16+Go soit 0
    a 16Go et avec les bon paramètre de swapiness, 0 swap. le swap c est la mort

    quand ta machine swap c est le temps de la rebooter. comme c est pas un server avec un uptime de folie, et bien c est du gachi,

  • [^] # Re: Moui...

    Posté par  (site web personnel) . En réponse au journal LE véritable intérêt du logiciel libre. Évalué à 0.

    merci :)

    je ne savais pas, et intéressant pour le coup.

    par contre "au jour d aujourd'hui" me gênait (pour être gentil), aujourd'hui pareil -> Ouch

    au jour d aujourd'hui pléonasme de aujourd'hui lui-même pléonasme de hui.

    tu ne vas pas nous dire que "i" à le même sens que hui :)