AceSlash a écrit 1 commentaire

  • [^] # Re: En prod

    Posté par  . En réponse à la dépêche Sortie de ZFS On Linux (ZOL) 0.6.3. Évalué à 7.

    Nous utilisons ZOL en prod depuis environs 6 mois. Au niveau volume pour donner une idée nous avons 7 serveurs différents avec:

    • 16.2TB utiles sur 21 disques + 1 spare en RAIDZ1 (~= RAID5)
    • 2x 32.5TB utiles sur 12 disques en RAIDZ2 (~= RAID6)
    • 4x 2TB utiles sur 8 disques en MIRROR (~= RAID10)

    Bon certes ce ne sont pas des volumes gigantesque mais cela nous donne tout de même une bonne idée du comportement. À noter que j'utilise zfs depuis des années sous Solaris, donc je connais un peu :)

    Pour moi ZOL est tout à fait utilisable en production, les performances sont bonnes, on a parfois des gains conséquents dans certains cas notamment grâce à la compression (diminution de la quantité de données lu sur le disque). Les snapshot sont évidemment une fonctionnalité toujours aussi utile, à noter que l'on peut envoyer un volume vers un autre serveur si on a besoin de synchroniser ou de déplacer des données (on peut envoyer des snapshot de façon incrémental aussi, si l'on a pas vraiment besoin d'un système de fichier clusterisé, c'est très efficace pour des backups réguliers sur plusieurs machines).

    Enfin sans refaire la liste des fonctionnalités, je trouve que les performances sont excellentes tant que l'on règle un minimum les volumes selon les besoins (pour les bases de données par exemple, il faut penser à régler le recordsize, 8K pour postgres et 16K pour mysql avec un primarycache en metadata).

    Il faut aussi penser à diminuer la mémoire alloué à l'ARC si l'on souhaite utiliser le serveur pour autre chose que du stockage pur.

    Ce qui me manquait le plus était la gestion des ACL posix, là j'ai mis à jour un serveur en 0.6.3 et je vais tester cette fonctionnalité, à noter que lorsque l'on met à jour depuis la 0.6.2, il faut prévoir un reboot après (les volumes restent accessibles normalement mais les outils zpool et zfs ne voient plus le pool, ce qui bloque toutes les opérations de maintenance/monitoring et les zfs send/receive).

    Après niveau prod, j'ai changé plusieurs fois des disques sans problèmes même si sur ce point, j'ai l'impression que c'est un peu long, dernier exemple sur un des pool de 32.5TB en RAIDZ2 avec des disques SATA 3TB avec un pool utilisé avec 19/32.5 au moment du rebuild :
    resilvered 1.54T in 79h12m with 0 errors on Fri May 16 00:15:42 2014

    Après il faut relativiser car le pool est utilisé pendant le rebuild.

    Si vous avez des questions plus précises, je ferai de mon mieux pour y répondre.