Kwiknclean a écrit 400 commentaires

  • [^] # Re: ext2 ou ext3

    Posté par  . En réponse à la dépêche FreeBSD 9.3 sort des cartons. Évalué à 6. Dernière modification le 19 août 2014 à 23:52.

    Essayé il y a à peine quelques semaines sous FreeBSD 10.0 + un disque USB formaté en ext4 , c'est juste une blague ext4 est uniquement utilisable en lecture seule avec un paquet fusefs-ext4 (je ne sais plus trop comment) … ça fait un peu honte quand même …

    Faire cohabiter les deux OS ou avoir un disque dur USB lisible par les deux OS, c'est juste la croix et la bannière, sérieusement ils branlent quoi ?

    NTFS est presque mieux géré par les deux OS …

  • # Ha oui ..

    Posté par  . En réponse à la dépêche YunoHost 2.0 : l’auto-hébergement à portée de clic. Évalué à 1.

    Mais il manque quand même un p'tit serveur de streaming à la ampache ou subsonic pour que cela soit complet :/

    Comment cela fonctionne t il si je veux utiliser une application qui n'est pas dans la liste initiale … je peux l'ajouter sous couvert de quelques bidouilles ?!

  • # Et bha ...

    Posté par  . En réponse à la dépêche Encore une couche de rouille avec Rust 0.11. Évalué à 2.

    … ça m'a l'air tout de même beaucoup claire à lire que C++ quand même : )

  • [^] # Re: analogie avec linux

    Posté par  . En réponse au message [BSD-Debutant] S'en sortir avec PF ... et les jails. Évalué à 1.

    En gros j'ai ceci en conf :

    root@cube-box:~ # pfctl -sn
    No ALTQ support in kernel
    ALTQ related functions disabled
    nat pass on bge0 inet from 10.8.8.0/24 to any -> 192.168.0.25
    nat on bge0 inet proto tcp from 10.8.8.8 to 192.168.0.25 -> 192.168.0.24
    nat on bge0 inet proto udp from 10.8.8.8 to 192.168.0.25 -> 192.168.0.24
    nat on bge0 inet proto icmp from 10.8.8.8 to 192.168.0.25 -> 192.168.0.24
    rdr pass on bge0 inet proto tcp from any to 192.168.0.25 port = http -> 10.8.8.8
    rdr pass on bge0 inet proto tcp from any to 192.168.0.25 port = https -> 10.8.8.8
    

    Effectivement le principe est le même qu'avec IpTable.

  • [^] # Re: Docker vs LXC

    Posté par  . En réponse à la dépêche La folie Docker. Évalué à 1.

    Hello,

    Je me pose le même genre de question.
    Docker est-il conçu dans le cadre de "dock" qui auraient des nécessités d'inter-connnexion (Socket Unix pour une BDD mutualisée par exemple, ou encore pour un proxy-http style Varnish).
    J'ai du mal à vraiment voir ce que m'apporterait Docker par rapport aux Conteneurs "standards".
    Docker me semble être avant tout des conteneurs isolés et indépendant les un des autres ?
    En fait … j'ai vraiment du mal à saisir la différence de concept entre les Docks et les conteneurs LxC.

  • [^] # Sauvé !

    Posté par  . En réponse au message Problémes avec contener LxC qui ne démarrent plus .... Évalué à 2.

    La méthode "brutale" est celle ayant donnée le plus de résultat j'ai réussi à retrouver mes tables, et effectué mes dumps de mes deux bases …. ouf …

    Bon vu que j'ai complétement explosé la conf de l'host Ubuntu Server mon N54L et que je ne peux plus démarrer aucun conteneur (et que j'ai clairement la flemme et pas le temps, de passer en mode debug testing pour Ubuntu) … je vais en profiter pour enfin sauter le pas vers le combo FreeeBSD / JAIL / ZFS … qui m'a l'air d'être une combinaison bien plus cohérente.

    J'utilisais déjà ZFS / LxC sous Ubuntu mais la montée de version vers 14.04 a bien foutu la grouille notamment dans les conteneurs … faut dire que bon couplé à ZFS c'est p'tête pas très "best practice" …

  • [^] # Re: Le système a accès au conteneur

    Posté par  . En réponse au message Problémes avec contener LxC qui ne démarrent plus .... Évalué à 1.

    Effectivement le contener est de type debian 6 :/ pas si eloigné donc …

  • [^] # Re: Le système a accès au conteneur

    Posté par  . En réponse au message Problémes avec contener LxC qui ne démarrent plus .... Évalué à 1.

    Bon en fait j'avais mal modifié le my.cnf,

    en forçant le paramètre datadir=/var/lib/lxc/www-prod/rootfs/var/lib/mysql/

    MySQL refuse bien de démarrée … j'ai pourtant collé un 777 de cochon sur le repertoire du conteneur …

    mysql.error :

    140704 22:04:42 mysqld_safe mysqld from pid file /var/run/mysqld/mysqld.pid ended
    140704 22:05:17 mysqld_safe Starting mysqld daemon with databases from /var/lib/lxc/www-prod/rootfs/var/lib/mysql
    140704 22:05:17 [Warning] Using unique option prefix key_buffer instead of key_buffer_size is deprecated and will be removed in a future release. Please use the full name instead.
    140704 22:05:17 [Warning] Can't create test file /var/lib/lxc/www-prod/rootfs/var/lib/mysql/cube-box.lower-test
    140704 22:05:17 [Warning] Can't create test file /var/lib/lxc/www-prod/rootfs/var/lib/mysql/cube-box.lower-test
    140704 22:05:17 [Warning] Using unique option prefix myisam-recover instead of myisam-recover-options is deprecated and will be removed in a future release. Please use the full name instead.
    140704 22:05:17 [Note] Plugin 'FEDERATED' is disabled.
    /usr/sbin/mysqld: Can't find file: './mysql/plugin.frm' (errno: 13)
    140704 22:05:17 [ERROR] Can't open the mysql.plugin table. Please run mysql_upgrade to create it.
    140704 22:05:17 InnoDB: The InnoDB memory heap is disabled
    140704 22:05:17 InnoDB: Mutexes and rw_locks use GCC atomic builtins
    140704 22:05:17 InnoDB: Compressed tables use zlib 1.2.8
    140704 22:05:17 InnoDB: Using Linux native AIO
    140704 22:05:17 InnoDB: Initializing buffer pool, size = 128.0M
    140704 22:05:17 InnoDB: Completed initialization of buffer pool
    140704 22:05:17 InnoDB: Operating system error number 13 in a file operation.
    InnoDB: The error means mysqld does not have the access rights to
    InnoDB: the directory.
    InnoDB: File name ./ibdata1
    InnoDB: File operation call: 'create'.
    InnoDB: Cannot continue operation.
    140704 22:05:17 mysqld_safe mysqld from pid file /var/run/mysqld/mysqld.pid ended

  • [^] # Re: Le système a accès au conteneur

    Posté par  . En réponse au message Problémes avec contener LxC qui ne démarrent plus .... Évalué à 1.

    J'ai testé cette méthode mais je rencontre un petit problème.

    L'instance MySQL ne démarrait pas en modifiant simplement la ligne datafile avec le repertoire du conteneur,

    Alors j'ai brutalement copié le my.cnf de mon conteneur vers celui de mon hôte.
    Mysql démarre à présent correctement mais je ne vois pas mes bases …

    mysql> show databases;
    +--------------------+
    | Database           |
    +--------------------+
    | information_schema |
    | mysql              |
    | performance_schema |
    +--------------------+
    3 rows in set (0.00 sec)
    
  • [^] # Re: Le système a accès au conteneur

    Posté par  . En réponse au message Problémes avec contener LxC qui ne démarrent plus .... Évalué à 1.

    Oui la question est effectivement :

    "Comment est il possible de réaliser un dump SQL, sachant que le contener est down donc le service mysql down aussi" … evidemment je n'ai pas fait de sauvegardes depuis longtemps … :/

    C'est faisable ?

  • # Merci de continuer ce genre de dépêche.

    Posté par  . En réponse à la dépêche Ça bouge du côté de la virtualisation chez FreeBSD. Évalué à 4. Dernière modification le 02 juillet 2014 à 17:04.

    Sympa de nous tenir informé de la virtu côté BSD, continuez comme ça.

    J'aime beaucoup les jails notamment avec ezjail que je trouve bien,bien plus mature que LxC, bien qu'il manque quand même quelques fonctionnalités je trouve (notamment sur la gestion de la RAM, du CPU … qu'il n'est pas possible de définir je crois).

    Avec l'intégration casi native de ZFS on "/root_fs" ça rend simplement les machines et la data hypermodulable.

    Cela fait pas mal de temps que je me tate à dégager ma Ubuntu Server vers une FreeBSD Jail/ZFS … je ne sais pas ce qui me retient …

  • # Je n'ai toujours pas compris comment fonctionnait ce bordel ...

    Posté par  . En réponse à la dépêche Mise aux poings sur systemd. Évalué à -3.

    … faudrait que je prenne le temps de me documenter un jour.
    Le seul avantage que je perçois actuellement sur ce sac de nouille est que sur les dernières RH lorsqu'un LUN iSCSI est introuvable tu ne patientes pas 1 à 2 minutes avant d'avoir le timeout et continuer le boot .. plutôt pratique lorsque tu en as plusieurs en carafes.

    Après c'est sûrement exceptionnel puisque c'est porté par RH, ça je peux pas remettre en cause, tout comme la saincro-saint puissance de VMWare plébiscitée chaque jour par mes collègues.

  • [^] # Re: En prod

    Posté par  . En réponse à la dépêche Sortie de ZFS On Linux (ZOL) 0.6.3. Évalué à 1.

    He .. le titre principal du billet c'est simplement l'annonce de la nouvelle version de ZOL … je peux me tromper toutefois, je ne suis que le contributeur.

  • [^] # Re: Le vendredi c'est permis.

    Posté par  . En réponse à la dépêche Mise aux poings sur systemd. Évalué à 4. Dernière modification le 17 juin 2014 à 23:21.

    En même temps ils avaient/ont raison les quinca, ADSL c'est clairement de la merde face à T1 … jusqu'a preuve du contraire il n'y a strictement aucune causalité entre standard de fait, et performance/efficience … malheureusement l'expérience montre que cela semble être plutôt l'inverse … M$, VHS …

  • [^] # Re: En prod

    Posté par  . En réponse à la dépêche Sortie de ZFS On Linux (ZOL) 0.6.3. Évalué à 5.

    La question n'est pas sur la taille de la volumétrie, mais la capacité de disponibilité de cette dernière.

    6To de data (utile) à 100€/euros par mois, je veux bien mais avec quelles genre de sécurités ? Quel Niveau de RAID ? Redondance, Double, triple, avec réplication topologie Fabric (la ton DSI vient de transpirer à cause du tarif), Alimentation redondée ? Combien de disques de Spare ? Quel Niveau de service pour le changement d'un disque ? Réactivé sous 4H lors du claquage d'un disque ? A mon avis rien de tout ça, un disque ou deux en Raid 1 et c'est tout : 6To de Stockage avec tout ça, c'est lourd même en 2014 …

    Il y a une petite différence entre de la volumétrie "NAS" qui est sensée garantir une très haute disponibilité, limite, paranoïaque et du stockage disque lambda sur une machine physique sans sauvegarde (et la sauvegarde ça pèse lourd en UO), si tu veux de la perf oublie le SAN, achète un Dell R715 avec une dizaine de disques SAS 15K (ou SSD si t'as du fric) et laisse le bon vieux LVM / EXT4 et la carte RAID Dell (si t'es confiant) s'occuper de tout ça, prévoit quand même un bon budget sauvegarde, les perfs exploseront n'importe quelle solution SAN.

    Je ne suis pas inquiet concernant la capacité de ZFS à s'occuper de PetaOctet de fichiers (Jusqu'a Zeta comme son nom l'indique).

    Concernant l'infra de notre client cité en exemple, c'est clairement du lowcost (Déjà Supermicro Bon ça fait un peu rire …) avec du disque SATA et ses fabuleux 10 i/o secondes …, on ne fait pas de RAIDZ , mais du pool Mirroring façon RAID10, pour ne pas charger le CPU avec le calcul de la parité, pas non plus de compression (du moins je ne crois) au fait la / les baies (car c'est répliqué sur nos deux salles via Gigabit ou FC je ne sais plus), pour "uniquement" 20To Utiles, (et non pas 6 comme indiqué) c'est pas lourd, mais faut bien la servir H24, puis le client à pas besoin de 50 Peta de stockages non plus, tout le monde n' a pas l'infra d'Orange, ou Total ;) Pis si le client avait eu des sous, il aurait acheté un FAS2240 en SAS 15K mais là on change encore de grille tarifaire … ;)

    Sinon faut quand même faire attention à bien tuner ta conf ZFS, car en cas de "low memory" la Ubuntu va se charger elle même de libérer de l'espace en mémoire et elle ne se prive pas, elle purge, que ça soit les daemons de supervision ou le daemon d'export NFS .. elle purge …

    sudo zpool status
      pool: zdata
    state: ONLINE
      scan: resilvered 1K in 0h0m with 0 errors on Sun Apr 21 13:45:37 2013
    config:
            NAME                                           STATE     READ WRI
            zdata                                          ONLINE       0
              mirror-0                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-1                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-2                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-3                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-4                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-5                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-6                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-7                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-8                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
              mirror-9                                     ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
                scsi-SATA_WDC_WD3000FYYZ-_WD-XXXXXXXXXXXX  ONLINE       0
            cache
              scsi-SATA_INTEL_SSDSC2XXXXXXXXXXXXXXXXXXXXXX ONLINE       0
            spares
              scsi-SATA_WDC_WDXXXXXXXXXXXXXXXXXXXXXXXXX    AVAIL
    

    Tout ces disques pour "uniquement" 21 To ..

    sudo zfs list
    NAME                                          USED  AVAIL  REFER  MOUNTPOINT
    zdata                                        21,4T  5,37T    46K  /zdata
    

    Je ne mets pas les autres mountpoint de l’agrégat ZFS pour des raisons évidentes ;)

    free -g
                 total       used       free     shared    buffers     cached
    Mem:            31         31          0          0          0          0
    -/+ buffers/cache:         30          0
    Swap:           18          0         18
    

    Bha oui il a tout mangé le cochon de ZFS …

  • [^] # Re: En prod

    Posté par  . En réponse à la dépêche Sortie de ZFS On Linux (ZOL) 0.6.3. Évalué à 6. Dernière modification le 15 juin 2014 à 13:42.

    Un de nos clients s'en sert pour présenter du NFS à des ESX sur une infra supermicro + Ubuntu 12.04 + ZFS 0.6.2 avec environ 5 ou 6T de data et une bonne 20aine de VM.

    Avec un disque SSD pour le cache et 32 Go de RAM et des disques SATA (basses perfs donc) de type Western Digital Raid (on doit changer à peu près un disque tout les deux à trois mois) : Ça fonctionne correctement.
    On se sert des snapshots pour la sauvegarde restauration, ce qui est plutôt efficace (bien plus que de s'emmerder avec un soft de sauvegarde type Netbackup).
    Le seul soucis que l'on a vient apparemment du hardware supermicro qui n'est pas VMWare Certified, du coup en cas d'appel vers le support ce dernier nous rit un peu au nez … à part ça, ça fait son boulot.

    En revanche je ne saurais dire si les perfs auraient été équivalentes/supérieurs avec du stockage proprio type EMC / NetApp … à un tarif autrement différent. Le soucis étant que pour le coup avec cette solution y a peu d'outils pour monitorer/bencher produire du reporting du graphe, latence NFS, Fibre .. peut être que ZED change un peu la donne.

    Pour la prod je pense que c'est OK depuis la 0.6.1 (fin des RC), le fait que nous soyons encore en numéro < 1 ne signifie pas que le projet est Beta mais que la Roadmap de développement est ambitieuse (faire plus que ce que proposait nativement ZFS sour Solaris).

    Au fait Illuminos participe également au développement ZFS sous FreeBSD qui est (si je ne m'abuse), le FS par défaut sur la 10.0 qui est tout sauf une distribution "not production ready".

    Voir premier chapitre.

    On me demanderait de monter du projet stockage, je réfléchirai à plusieurs fois avant d'acheter du EMC/NetApp/Hitachi …

  • [^] # Re: Compatibilité avec le noyau Linux

    Posté par  . En réponse à la dépêche Sortie de ZFS On Linux (ZOL) 0.6.3. Évalué à 2.

    Oui tout à fait erreur, d’interprétation de ma part et c'est apparemment passé à la trappe lors de la relecture il s'agit des noyo <= 3.14 et pas l'inverse ;).

    Soi dit en passant l'intégration avec Systemd qui fait aussi partie des nouveautés.

  • [^] # Re: Mais ou est ce donc?

    Posté par  . En réponse à la dépêche Appel à proposition du prochain Open World Forum #OWF14. Évalué à -2.

    Un jour, un jour peut-être nous aurons le droit à ce genre d’événements à Lyon, Nantes, Toulouse, Strasbourg ou Bordeaux …
    Pardon je suis encore mal réveillé je rêve encore un peu.

  • # Dans une jail freenas ?

    Posté par  . En réponse à la dépêche Seafile, un Dropbox-like libre à héberger sort en version 3. Évalué à 1.

    Quelqu'un a t-il essayé de l'installer dans une jail BSD sous freenas ?!

  • [^] # Re: 3000$ et incapable de sauvegarder en RAW nativement

    Posté par  . En réponse au journal Magic Lantern : un projet open-source (trop?) discret. Évalué à 1.

    A mon avis une bonne partie du prix n'est pas justifié on achète beaucoup plus la pub et le "prestige" que la finition à ce tarif et 5k et pas de tropicalisation c'est juste aimer se faire bananer…. Canon préfére arroser le pigeon avec de la course au Mpixel le lambda pensant un peu à l'instar des Ordinateur que plus il y a de Mhz (px..) mieux c'est, plutôt que de se concentrer sur leur algo de dématrissage et là y a encore du boulot pour rattraper la qualité Pentax (qui est sérieusement en train de casser leur grille tarifaire).

  • [^] # Re: Article Intéressant mais ...

    Posté par  . En réponse à la dépêche Encore un exemple de code spaghetti : Toyota. Évalué à -4. Dernière modification le 07 mars 2014 à 18:44.

    Félicitation pour ta recherche Google, mais tu n'es pas sans savoir que "François" n'est absolument pas utilisé dans ce sens sur Internet mais bien avec une connotation purement péjorative …

  • [^] # Re: Quelle est l'utilité de faire un « gros » programme pour freiner ?

    Posté par  . En réponse à la dépêche Encore un exemple de code spaghetti : Toyota. Évalué à -5.

    en Europe et aux USA, la législation oblige un lien physique entre entre la pédale de frein/étriers et volant/direction.

    A part les voitures de 199x, il y a bien longtemps que je n'ai pas vu de liaisons physique entre le volant et l'arbre de direction des roues … les seules liaisons sont Electronique voir pneumatiques … faut choisir volant que tu peux tourner à 2 doigts ou sensation de devoir manœuvrer 1200 Kg lorsque tu te gares.

  • # Article Intéressant mais ...

    Posté par  . En réponse à la dépêche Encore un exemple de code spaghetti : Toyota. Évalué à -5. Dernière modification le 07 mars 2014 à 13:56.

    … pourrait-on arrêter de s'auto-flageller en utilisant le néologisme/barbarisme "françois", je trouve ridicule cette tendance à toujours se rabaisser, oui oui nous savons, l'anglais est bien l'anglais est universel, nous ne sommes que des cul-terreux nous pauvres FrançOis non civilisés et en retard technologiquement (en autre …), sérieusement c'est fatiguant.

    Sinon en substance, encore un effet de bord de la politique de management globale des entreprises sur les X dernières années, réduction des goûts, pas chère, toujours moins chère, vite, et surtout pas cher, court-circuitage des processus d'études et de qualités. Rien d'étonnant à ce qu'on trouve de la merde dans un code qui pourtant semble critique (gestion des freins sur une voiture ce n'est pas rien), externalisation à outrance vers des plateformes de dev offshore ou seule la rentabilité et la plus-value compte, où la SSII a du revoir ses tarifs pour obtenir le contrat … bref on connait les manœuvres usuelles pour fournir du "pas cher", ce qui est plus étonnant c'est qu'on continue à s'étonner (désolé) des conséquences de ce genre de "gouvernance".

  • [^] # Re: soucis...

    Posté par  . En réponse à la dépêche Et si la meilleure des cartes RAID était libre ?. Évalué à 1.

    Hello, tous mes tests ont été effectués sous des OS 64Bits avec à chaque fois entre 1 et 2Go pas plus, dont deux fois sous deux VM VirtualBox … Sans jamais aucun soucis de perf, ha oui sans X évidemment, en mode server, ssh et basta.

    Il faut faire attention en revanche à désactiver ou ne pas activer les options exotiques comme la déduplication ou la compression par contre. Parce que dans ce cas en revoir les perfs et la ram :)

    Machine de production N54L HP :

    (mon N54L qui n'est pas spécialement un foudre de guerre : 2 Go Ram ECC , Turion Dual Core …) :

    System information as of Sun Feb 16 17:39:59 CET 2014
    
      System load:  0.0                Processes:             247
      Usage of /:   0.7% of 227.02GB   Users logged in:       1
      Memory usage: 64%                IP address for br0:  
    

    Mon seul et unique Zpool qu'est pas très gros certes et qui n'a (encore pour l'instant …) qu'un seul disque, mais il y a du DUMP et du Rollback d'effectué.

    NAME                                      USED  AVAIL  REFER  MOUNTPOINT
    zpool-1                                  7,31G   221G    33K  /zpool-1
    zpool-1/data                               30K   221G    30K  /zpool-1/data
    zpool-1/home                             57,8M   221G  57,3M  /home
    zpool-1/home@25-11-2013                   213K      -  40,5M  -
    zpool-1/home@20-12-2013                   136K      -  40,5M  -
    zpool-1/home@31-01-2014                   138K      -  40,5M  -
    zpool-1/server                           7,25G   221G    30K  /zpool-1/server
    zpool-1/server/lxc_conteneur             7,25G   221G  6,14G  /var/lib/lxc/
    zpool-1/server/lxc_conteneur@20-12-2013   293M      -  4,69G  -
    zpool-1/server/lxc_conteneur@07-02-2014   189M      -  6,13G  -
    zpool-1/zfs-dump                           32K   221G    32K  /zpool-1/zfs-dump  
    

    D'autant plus que j'host des LxC un Varnish-proxy et un nginx/php/mysql avec une base qui commence à être conséquente, en revanche ça commence un peu à swaper dés que l'on fait mumuse avec les snaps et tout … investissement SSD je te vois venir … Et passer à 8Go de Ram pour la machine ne serait pas un luxe surtout si je me mets à acheter du disque.

       mathieu@cube-box:~$ free
                     total       used       free     shared    buffers     cached
        Mem:       1921224    1523652     397572          0      32028     264356
        -/+ buffers/cache:    1227268     693956
        Swap:      1961980       1064    1960916
    

    Sur mes VM VirtualBox de mon pc de bureau :

    - VM FreeBSD 10.0 :

    Le découpage des slices du zpool, explique à lui seul pourquoi je veux migrer vers cet OS :D et ce nativement à l’installe sans bidouilles ni tuning exotiques, enfin niquel pour un PRA.

    [mathieu@freebsd ~]$ zfs list -t all
    NAME                         USED  AVAIL  REFER  MOUNTPOINT
    zroot                       5.88G  6.80G   144K  none
    zroot/ROOT                  2.27G  6.80G   144K  none
    zroot/ROOT/default          2.27G  6.80G  2.27G  /
    zroot/tmp                    200K  6.80G   200K  /tmp
    zroot/usr                   3.31G  6.80G   144K  /usr
    zroot/usr/home               129M  6.80G  45.3M  /usr/home
    zroot/usr/home@31-01-2014    144K      -  43.9M  -
    zroot/usr/home@now          83.3M      -   127M  -
    zroot/usr/jails             2.36G  6.80G  2.36G  /usr/jails
    zroot/usr/jails@jails-now     88K      -   144K  -
    zroot/usr/jails@snapshot-2    88K      -   144K  -
    zroot/usr/ports              837M  6.80G   837M  /usr/ports
    zroot/usr/src                144K  6.80G   144K  /usr/src
    zroot/var                    306M  6.80G   305M  /var
    zroot/var/crash              148K  6.80G   148K  /var/crash
    zroot/var/log                380K  6.80G   380K  /var/log
    zroot/var/mail               152K  6.80G   152K  /var/mail
    zroot/var/tmp                152K  6.80G   152K  /var/tmp
    

    Bon en revanche c'est une machine qui ne fait rien du tout.

    last pid:  1408;  load averages:  0.39,  0.38,  0.21               up 0+00:06:19  16:55:15
    29 processes:  1 running, 28 sleeping
    CPU:  0.0% user,  0.0% nice,  0.0% system,  0.0% interrupt,  100% idle
    Mem: 15M Active, 18M Inact, 56M Wired, 892M Free
    ARC: 33M Total, 11M MFU, 21M MRU, 16K Anon, 263K Header, 1319K Other
    Swap: 2048M Total, 2048M Free
    

    Sous Ubuntu Server 12.0.4 encore sous VirtualBox :

    Cette machine est en fait ma "pre-prod" une VM VirtualBox qui fait du ZFS … si si … avec des conteneurs LxC oui oui : ) 1200Go de Ram sous VirtualBox, Un Coeur CPU.

    Welcome to Ubuntu 12.04.3 LTS (GNU/Linux 3.8.0-29-generic x86_64)
    
     * Documentation:  https://help.ubuntu.com/
    
      System information as of Sun Feb 16 18:00:19 CET 2014
    
      System load:  0.04              Users logged in:       1
      Usage of /:   25.1% of 8.45GB   IP address for br0:    192.168.0.14
      Memory usage: 9%                IP address for br1:    192.168.56.101
      Swap usage:   0%                IP address for lxcbr0: 10.0.3.1
      Processes:    237
    
    
    mathieu@ubuntu-serveur:~$ sudo zfs list -t all
    [sudo] password for mathieu:
    NAME                           USED  AVAIL  REFER  MOUNTPOINT
    zpool-1                       2,55G  7,24G   822M  /zpool-1
    zpool-1/data                  1008M  7,24G  1008M  /zpool-1/data
    zpool-1/data/photos             30K  7,24G    30K  /zpool-1/data/photos
    zpool-1/etc                     30K  7,24G    30K  /zpool-1/etc
    zpool-1/home                  35,2M  7,24G  35,1M  /home
    zpool-1/home@24-11-2013        139K      -  35,1M  -
    zpool-1/lxc_conteneur           30K  7,24G    30K  /zpool-1/lxc_conteneur
    zpool-1/restau                  30K  7,24G    30K  /zpool-1/restau
    zpool-1/test                    30K  7,24G    30K  /zpool-1/test
    zpool-1/www                    740M  7,24G   664M  /var/www
    

    Encore une fois une machine à genou.

  • [^] # Re: ZFS est réservé au stockage

    Posté par  . En réponse à la dépêche Et si la meilleure des cartes RAID était libre ?. Évalué à 1.

    La VM a eu le droit à plusieurs arrêts plutôt brutaux, et je n'ai pas observé de soucis pour redémarrer, cela dit je zpool n'est constitué que d'un seul disque …