Forum général.cherche-matériel SSD dans un serveur ?

Posté par  (site web personnel) . Licence CC By‑SA.
Étiquettes : aucune
3
26
oct.
2016

Hello tous,

Je cherche quelques avis sur l'utilisation d'un SSD dans un serveur, sous Linux bien évidemment.
Le but forcement est qu'il tourne H24 (besoin réel, pas juste pour ventiler la maison).

Vu que les logs ont tendances à pas mal discuter, et que je préfère ne pas les couper, le système à tendance à gratter un peu en continu. Mon serveur actuel me donne une valeur de modification de données de 2To sur ma partition système de 15Go, et de nettement plus sur ma data (mais le SSD c'est que pour l'OS); sur 2-3 ans.

Du coup, j'aimerai me pencher sur l'idée de mettre un SSD dans mon barebone, pour l'OS + homes + données fréquemment accédées (mails, nextcloud). Le reste ira sur un HDD classique (surtout vu la volumétrie).

Néanmoins, même si les SSD ont bien évolués, j'ai un peu peur de la durée de vie sur ce genre d"utilisation (malgré l'annonce de certains de plus de 100-200To d'écritures).

Des avis ?

Merci

  • # ca ce tente

    Posté par  . Évalué à 2.

    j'ai ai chez moi, et j'ai confiance en mes système de fichier qui géreront les défaut du SSD. meme si ce n'est pas prévu pour :p

    /dev/mapper/salon--vg-home on /home type ext4 (rw,relatime,data=ordered)
    /dev/mapper/salon--vg-root on / type ext4 (rw,relatime,errors=remount-ro,data=ordered)

    debian avec les log d'origines

    au pire si il y a une probleme, j'ai des sauvegardes

    • [^] # Re: ca ce tente

      Posté par  (site web personnel) . Évalué à 1.

      C'est pas faux. J'ai de la sauvegarde donc j'ai pas trop peur :)
      après normalement c'est pas en "noatime" et "discard" qu'il faut l mettre sur le fstab ? J'avais trouvé pas mal de tweak à faire sur le net.

    • [^] # Re: ca ce tente

      Posté par  . Évalué à 2.

      C'est mieux "noatime", "relatime" ou "lazytime" pour le montage du système? Et pour les disques data?

      Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

      • [^] # Re: ca ce tente

        Posté par  . Évalué à 2.

        je ne crois pas que ce soit mieux les options.

        la gestion de la mémoire est particulièrement pointu de nos jours sur nos Linux. les options aux petit oigons c'etait valable dans les années 90/2000

  • # Bad idea

    Posté par  (site web personnel) . Évalué à -4.

    Bien que toujours tentant, c'est une très mauvaise idée d'utiliser un SSD pour le système de son serveur et principalement parce qu'il n'y a pas besoin de démarrer rapidement le serveur. Un serveur c'est fait pour rester allumer continuellement et pour les rares fois où tu vas devoir redémarrer la machine ça ne vaut vraiment pas le coup.

    Au niveau de l'écriture des logs, ça ne pose pas vraiment de problèmes à moins que ton serveur gère une tonne de logs détaillés. La durée de vie d'un SSD diminue plus rapidement lorsqu'on s'amuse à écrire plusieurs dizaine de GO par jour.

    Après tu peux toujours utiliser ton SSD et monter /var sur un disque dur classique. Enfin personnellement, j'utilise des SSD uniquement pour les systèmes qui ont besoin de démarrer rapidement comme un HTPC ou une machine de jeux par exemple.

    Sinon, si c'est la mémoire flash qui t'intéresse et que tu veux économiser un emplacement 3.5 ou 2.5, tu peux utiliser une clé USB si tu dispose d'un port adéquat sur la carte mère. Mais à voir si tu peux installer ton OS et démarrer sur la clé.

    • [^] # Re: Bad idea

      Posté par  . Évalué à 4. Dernière modification le 27 octobre 2016 à 10:37.

      1. Je ne vous pas pourquoi il n'y pas besoin de démarrer rapidement un serveur.
        S'il n'y a pas besoin de démarrer rapidement le serveur, c'est qu'il n'y a pas vraiment besoin de serveur en fait.

      2. La durée de vie d'un SSD est depuis plusieurs années aussi bonne qu'un HDD. Il n'y a pas lieu de le déconseiller pour tout usage que ce soit. Ni de se contorsionner au niveau du volume des écritures ou autre.

      "Quand certains râlent contre systemd, d'autres s'attaquent aux vrais problèmes." (merci Sinma !)

      • [^] # Re: Bad idea

        Posté par  (site web personnel) . Évalué à -2.

        Faudrait que tu m'expliques pourquoi tu veux démarrer un serveur rapidement. J'en vois vraiment pas l'intérêt, sauf dans des cas exceptionnels où les services doivent être initialisés le plus rapidement possible.

        J'utilise un vieux HDD 2.5 de 160Go, le système doit prendre environ 2 à 3 minutes pour redémarrer en comptant le temps de démarrage du bios. Démarrer à la vitesse de l'éclair sur un serveur qui aura 1 à 2 reboot dans le mois, à quoi sa sert concrètement dans un cadre privé ?

        • [^] # Re: Bad idea

          Posté par  . Évalué à 4.

          Le SSD ne fait pas qu'accelerer le boot:
          -Il rend l'ensemble du systeme plus rapide/reactif
          -Consomme moins d'electricige qu'un hdd
          -Les bases de donnees reagissent plus rapidement
          -Quand la machine enregistre des dizaines de petits fichiers a la minute avec le ssd t'as plus cet intense bruit de tete de lecture qui t'indique que ton hdd travail trop pour du grand publique

          Mais j'avoue que je pense pas que mon ssd tiendra aussi longtemps que le vieu hdd qu'il remplacé.
          Ps: y a-t-il une commande pour savoir si les flux de donnees (par exemple zoneminder observant une camera) provoque de l'ecriture ou non sur le ssd alors qu'on a pas de swap? :)

          Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

    • [^] # Re: Bad idea

      Posté par  . Évalué à 5.

      parce qu'il n'y a pas besoin de démarrer rapidement le serveur.

      Avoir des IO qui poutrent ça ne sert pas qu’au démarrage…

      Sinon, si c'est la mémoire flash qui t'intéresse et que tu veux économiser un emplacement 3.5 ou 2.5, tu peux utiliser une clé USB si tu dispose d'un port adéquat sur la carte mère. Mais à voir si tu peux installer ton OS et démarrer sur la clé.

      Je sais pas en USB-3 mais en USB-2 on perd tout l’intérêt de la mémoire flash… vu le débit du bus USB-2…

      • [^] # Re: Bad idea

        Posté par  . Évalué à 3. Dernière modification le 27 octobre 2016 à 13:24.

        Sinon, si c'est la mémoire flash qui t'intéresse et que tu veux économiser un emplacement 3.5 ou 2.5, tu peux utiliser une clé USB si tu dispose d'un port adéquat sur la carte mère. Mais à voir si tu peux installer ton OS et démarrer sur la clé.

        Je sais pas en USB-3 mais en USB-2 on perd tout l’intérêt de la mémoire flash… vu le débit du bus USB-2…

        Les clés USB ont aussi le problème des contrôleurs mémoires qui sont de trop mauvaises facture et non thermorégulé.
        La durée de vie d'une clés USB/carte microSD utilisée comme système est, d'après se que je vois, inférieur à deux ans.

        on perd tout l’intérêt de la mémoire flash… vu le débit du bus USB-2…

        On ne peut pas résumer au débit (si non ça se règle facilement avec un raid0 sur une clés USB pour chaque Bus USB).
        Quand tu upload plusieurs fichiers, tu n'atteint jamais le maximum du débit. (plus tes fichiers sont petite et nombreux et plus la différence va être significative entre flash/hdd)

        Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

  • # Why?

    Posté par  (site web personnel) . Évalué à 3.

    En fait, je ne cherche pas à mettre un SSD pour le rendre plus rapide, en terme de durée de boot.
    La machine est un barebone, j'ai un emplacement M.2, et un 2,5".

    Mon but est de mettre un M.2 pour avoir le système, les qq fichiers fréquemment accédés, et les BDD.
    Le 2,5" servira pour les données lourdes/mortes.

    L'avantage c'est niveau conso (même si un 2,5" ça consomme franchement peu), et la réactivité du système en général. Vu que le CPU est pas super puissant, s'il peut passer le moins de temps à attendre mon HDD ça m'arrange :p

    Pour les logs je vais essayer de les rendre moins verbeux.
    Ce qui est sûr c'est que pour utiliser des SSD depuis qq années sur des pc fixes/portables, j'ai pas trop eu de soucis, mais j'avais plus peur qu'un serveur qui gratte en continue soit un peu violent.
    A voir :)

    merci en tout cas ;)

  • # Attends quelques années. :)

    Posté par  . Évalué à 0.

    Pour l'instant, personne ne peut affirmer avec certitude que les SSD sont absolument fiables.

    C'est bête comme réflexion, mais autant utiliser un système éprouvé, et dans le cas de l'utilisation d'un SSD sur serveur, nous n'avons pas encore le recul nécessaire.

    Toujours est-il que je pense que tu peux QUAND MÊME utiliser un SSD, je parie que c'est à peu près aussi sûr qu'un DD, seulement, on manque un peu de données pour affirmer que tu ne rencontreras aucun problème "impromptu".

    C'est mon avis, voilà.^

    • [^] # Re: Attends quelques années. :)

      Posté par  . Évalué à 3.

      Pour l'instant, personne ne peut affirmer avec certitude que les SSD sont absolument fiables.

      je peux :p
      j'ai un SSD de 32Go acheté dans les premiers modeles
      la vache, c'etait en 2007, et il avait couté 450euros.

      il fonctionne toujours,
      il a servi dans un laptop windows XP, mais windows n'aimait pas ca, et outlook lui a fait peter les plombs
      il est ensuite passé sur mon laptop de bureau (8à10h/jour),

      puis j'ai quitté la boite avec mon laptop en cadeau, avec le SSD,
      le SSD est alors passé dans ma tour à usage perso dont je me sers encore,
      environ 3h par jour.

      il a vu passé du linux, du windows, et recemment du hackintosh

      evidemment il ne rivalise pas avec les disques recents en terme de performance,
      mais on peut dire qu'il a vu passer du monde ;)

      • [^] # Re: Attends quelques années. :)

        Posté par  . Évalué à 2. Dernière modification le 27 octobre 2016 à 21:17.

        La variable Temps n'est pas la plus significative (quoi que quand même intéressante).
        Ce qui me rassurerais c'est d'avoir l'avis d'un gros consommateurs de streaming/torrent/F2F (plusieurs heures par jour) dont l'état du SSD ne semble pas souffrir malgré ces Go de fichiers /tmp journalier.

        Je dois gérer un raid0 SSD (2x480Go) qui sera "rafraîchis" environs chaque mois (vidéos surveillance), je ferai un retour d'expérience d'ici quelques années ou quand les disques planteront ^ ^

        PS: dans les avantages à ajouter aux SSD, j'ai l'impression qu'ils chauffent moins que les HDD

        Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

        • [^] # Re: Attends quelques années. :)

          Posté par  . Évalué à 3.

          PS: dans les avantages à ajouter aux SSD, j'ai l'impression qu'ils chauffent moins que les HDD

          Les SSD chauffent potentiellement beaucoup plus que les HDD, mais comme ils se tournent les pouces à la vitesse du SATA, c'est effectivement le contraire (là HDD 33°C, SSD 26°C)

          Par contre en NVME ça chauffe et ça peut devenir un problème (d’ailleurs si quelqu'un sait où trouver des petits radiateurs autocollants comme ceux livrés avec les ventirads Zalman y'a quelques années)

          • [^] # Re: Attends quelques années. :)

            Posté par  . Évalué à 2.

            Ah oki, merci pour la précision, je vais faire plus attention à ceux du raid0 ^ ^
            Je suis le seul a trouver aberrant que la boite de protection des SSD soit en plastique alors que les HDD eux ont une boite en métal? :)

            d’ailleurs si quelqu'un sait où trouver des petits radiateurs autocollants comme ceux livrés avec les ventirads Zalman y'a quelques années

            Peut-être sur dx sur la première page il y a des trucs de ce style

            Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

            • [^] # Re: Attends quelques années. :)

              Posté par  . Évalué à 2. Dernière modification le 28 octobre 2016 à 01:32.

              Peut-être sur dx sur la première page il y a des trucs de ce style

              Merci, j'ai plus qu'à mesurer les puces.

              Je suis le seul a trouver aberrant que la boite de protection des SSD soit en plastique alors que les HDD eux ont une boite en métal? :)

              C'est pas du vrai alu les Samsungs ? C'est froid au toucher. Et puis les SSD ont moins de contraintes niveau étanchéité.

              • [^] # Re: Attends quelques années. :)

                Posté par  . Évalué à 1.

                C'est pas du vrai alu les Samsungs ? C'est froid au toucher. Et puis les SSD ont moins de contraintes niveau étanchéité.

                Je sais pas, j'ai du kingston et du sandisk.
                A plus de 120 balles la bêbête pour même pas 500Go chacun, c'est un peu "crade" d'avoir du plastique au lieu du métal :( (le pire c'est le filet des vis qui est aussi en plastique)
                Peut-être que je me trompe, mais du métal serait mieux pour la dissipation thermique (note que j'ai quand même tapé un ventilateur "normal" directement devant les disques SSD ^ ^ )

                Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

        • [^] # Re: Attends quelques années. :)

          Posté par  . Évalué à 2.

          Je dois gérer un raid0 SSD (2x480Go)

          un raid0 avec 1To de donnée,
          y a interet à tres vite sortir les données du raid pour les mettre sur du vrai stockage,
          parce que le plantage d'un seul disque rendra ta config caduque

          mais le debat n'est pas là.

          les SSD sont donnés pour une durée de vie en TeraByte…
          à toi de faire le calcul de combien tu rentre, en combien de temps
          ca te donnera la durée de vie en jour/mois/année.

          ici par xemple :
          http://www.samsung.com/fr/consumer/memory-storage/memory-storage/ssd/MZ-75E500B/EU

          garantie : 5 ans ou 150TBW (150TB ecris sur le disque)
          si tu ecris 75Go par jour, 150.000Go avant que la garantie pete => 2000 jours => presque 5 ans ½ (5,47 années)

          • [^] # Re: Attends quelques années. :)

            Posté par  . Évalué à -1.

            Ah, en effet je viens de débrancher un des disques et le raid0 ne fonctionne complètement plus (même après avoir rebranché le disque et redémarré la machine).
            C'est un truc de ouf comme aucun des logiciels de raid sous linux ne fonctionne correctement.

            Si non l'objectif est d'envoyer les enregistrements des camera sur le raid0 SSD et quand un des "gérants" veut sauvegarder un event il l'exporte sur l'owncloud qui lui sera au dessus d'un raid10 (que je galère a remettre en place au vu de la difficulté de trouver des logiciels stable autant sur X64 que sur ARM et documenté en français)

            Je vais peut-être ré-ouvrir un thread pour arriver a faire quelque chose de fonctionnel car faire un vulgaire raid résistant aux pannes semble galère.

            Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

            • [^] # Re: Attends quelques années. :)

              Posté par  (site web personnel) . Évalué à 1.

              tu utilises mdadm?
              Je l'utilise depuis des années, et j'ai jamais eu de soucis.

              • [^] # Re: Attends quelques années. :)

                Posté par  . Évalué à 1. Dernière modification le 28 octobre 2016 à 16:45.

                Je suis en train de l'essayer mais sa signifie plusieurs jours de test afin de répondre a mes questions du genre :

                -puis-je faire du non stripped (je ne veux pas que les fichiers soient découpé mais répartis)
                -puis-je ajouter/retirer des disques
                -les données présentent sur les autres disques sont-elles encore valable/utilisable si un disque crash
                -est-ce stable?
                -puis-je additionner les disques comme un JBOD afin d'utiliser tout l'espace disponible ou suis-je limité par l'équation 2xplus petit disque = espace disponible -il se passe quoi si un disque (ou plusieurs) n'est pas présent au boot
                -il se passe quoi si un disque flanche en cours de fonctionnement?

                La le test précédent était sur ZFS qui a fait du caca (je viens de débrancher un disque avant boot, le raid0 zfs a complètement disparut j'ai du le recréer)

                Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

                • [^] # Re: Attends quelques années. :)

                  Posté par  . Évalué à 2.

                  puis-je faire du non stripped (je ne veux pas que les fichiers soient découpé mais répartis)

                  Non, le RAID0 est bas niveau. Il ne voit pas tes fichiers. Si tu veux répartir tes fichiers faut gérer ça à plus haut niveau, par exemple avec GlusterFS ou AuFS.

                  puis-je ajouter/retirer des disques

                  Oui, d'après le man mdadm, tout ceci est possible.

                  les données présentent sur les autres disques sont-elles encore valable/utilisable si un disque crash

                  Non, c'est le principe du RAID0.

                  est-ce stable?

                  Oui.

                  puis-je additionner les disques comme un JBOD afin d'utiliser tout l'espace disponible ou suis-je limité par l'équation 2xplus petit disque = espace disponible -il se passe quoi si un disque (ou plusieurs) n'est pas présent au boot

                  Le RAID0 aura la taille du plus petit disque oui. Tu ne peux pas simplement agréger les disques comme en JBOD.
                  En revanche ce que tu peux faire, si imaginons que tu ais 4 disques :
                  2 disques de 750 Go
                  2 disques de 1 To

                  Tu fais un RAID0 de 3 To (= 4 tranches de 750 Go)
                  Il te reste donc 250 Go inutilisés sur chaque disque de 1 To. Tu peux très bien y faire un RAID0 de 500 Go (= 2 tranches de 250 Go) avec les espaces libres sur les 2 disques de 1 To.

                  il se passe quoi si un disque flanche en cours de fonctionnement?

                  Le RAID0 tombe et tu perds les données.

                  • [^] # Re: Attends quelques années. :)

                    Posté par  . Évalué à 1.

                    Le RAID0 aura la taille du plus petit disque oui. Tu ne peux pas simplement agréger les disques comme en JBOD.

                    Non j'ai fais le test hier avec mdadm et deux HDD :
                    1,5To et 3To et j'ai une partition de 4,5To (comme JBOD).
                    Je l'ai signalé dans ce message :)

                    AuFS

                    Ah, je ne connais pas encore celui-là. Tu as un petit retour d'expérience dessus? :)

                    Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

                    • [^] # Re: Attends quelques années. :)

                      Posté par  . Évalué à 3.

                      Non j'ai fais le test hier avec mdadm et deux HDD :
                      1,5To et 3To et j'ai une partition de 4,5To (comme JBOD).

                      Oui, mais c'est parce que mdadm fait plus que le RAID standard.

                      cf Standard_RAID_levelsoù on indique bien qu'on peut utiliser des disques de différentes tailles, mais que l'espace ajouté est limité à la taille du plus petit disque.

                      Par contre, mdadm peut utiliser tout l'espace de disques de taille différente, mais l'espace supplémentaire n'est pas "strippé", donc les données qui s'y trouvent ne profiteront pas des performances accrues du RAID0.

                      Et md propose aussi des modes non RAID, comme le linear (qui est en fait du JBOD) et d'autres choses qui semblent plus spécialisées.

                      Sinon, il y a aussi LVM qui permet de regrouper plusieurs périphériques de stockages (de tous types) dans un même volume groupe, qui est ensuite découpés en volumes logiques.
                      Et LVM offre beaucoup plus de souplesse, on peut par exemple lui dire de déplacer les données d'un volume vers un volume physique en particulier (s'il est assez grand).
                      Par exemple, quand j'ai ajouté un SSD à mes deux disques dur (qui sont en RAID 1 en dessous du LVM), j'(ai ajouté la partition sur le SSD au volume group, puis j'ai dit à LVM d'y déplacer le volume correspondant à la racine, ce qu'il a fait à chaud!

                    • [^] # Re: Attends quelques années. :)

                      Posté par  . Évalué à 3. Dernière modification le 29 octobre 2016 à 20:44.

                      Non j'ai fais le test hier avec mdadm et deux HDD :
                      1,5To et 3To et j'ai une partition de 4,5To (comme JBOD).
                      Je l'ai signalé dans ce message :)

                      Ah c'est vrai tu as raison ! Je ne le savais pas et je viens de faire le test sur une clé USB, apparemment (comme le dit "wismerhill") l'espace "en trop" n'est donc pas stripé.

                      Les logs noyaux parlent de "zones", dans mon test j'ai créé un RAID0 sur une partition de 64 Mo et de 100 Mo ce qui donne ces logs :

                      [ 4092.082890] sdd: sdd1 sdd2
                      [ 4095.086370] sdd: sdd1 sdd2
                      [ 4132.927349] md: bind
                      [ 4132.936888] md: bind
                      [ 4133.127778] md: raid0 personality registered for level 0
                      [ 4133.128204] md/raid0:md0: md_size is 317440 sectors.
                      [ 4133.128207] md: RAID0 configuration for md0 - 2 zones
                      [ 4133.128208] md: zone0=[sdd1/sdd2]
                      [ 4133.128211] zone-offset= 0KB, device-offset= 0KB, size= 122880KB
                      [ 4133.128212] md: zone1=[sdd2]
                      [ 4133.128214] zone-offset= 122880KB, device-offset= 61440KB, size= 35840KB
                      [ 4133.128224] md0: detected capacity change from 0 to 162529280

                      On voit donc que la 1ère zone est stripée sur 2 partitions pour 120 Mo et le reste (35 Mo) sur une partition.
                      Par contre je ne comprends pas pourquoi ma 1ère zone (celle qui est stripée) fait 120 Mo au lieu de 128 Mo (2 * 64 Mo) ?

                      Tout ceci n'a pas l'air documenté dans la doc kernel.org ni le man.

                      Ah, je ne connais pas encore celui-là. Tu as un petit retour d'expérience dessus? :)

                      Absolument aucun :-) J'en ai juste entendu parler récemment, ça avait l'air sympa comme idée. En gros tu peux avoir 2 disques avec chacun leur arborescence. Donc là on parle au niveau filesystem. Et avec AuFS tu peux créer un point de montage qui va fusionner ces 2 filesystem.
                      À part ça je peux pas vraiment t'en apprendre plus.

                      • [^] # Re: Attends quelques années. :)

                        Posté par  . Évalué à 1.

                        Absolument aucun :-) J'en ai juste entendu parler récemment, ça avait l'air sympa comme idée. En gros tu peux avoir 2 disques avec chacun leur arborescence. Donc là on parle au niveau filesystem. Et avec AuFS tu peux créer un point de montage qui va fusionner ces 2 filesystem.

                        C'est le fonctionnement de glusterfs-server et mhddfs : tu t'occupes toi-même du montage/partitionnement de tes disques. Ensuite tu crées un dossier sur chaque disque et lors de la création de ton raid/jbod avec glusterfs ou mhddfs, tu indiques le path des dossiers. En cas de panne du logiciel ou de disque, les datas sont toujours accessible via le filesystem que ton raid/jbod soit monté ou non :) (note que ça ne doit pas fonctionner si tu strip les données ou passes par un raid supérieur à 1).

                        Ma question va vous sembler peut-être idiote mais :
                        glusterfs-server est axé réseau, si je lui donne plusieurs disques d'une même machine je dois les indiquer comme si chaque disque était un pair. Cela signifie-t-il qu'en cas de lecture/écriture sur la même machine les données transitent par la carte réseau (ça utilise localhost)?

                        Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

                        • [^] # Re: Attends quelques années. :)

                          Posté par  . Évalué à 3.

                          C'est le fonctionnement de glusterfs-server et mhddfs : tu t'occupes toi-même du montage/partitionnement de tes disques. Ensuite tu crées un dossier sur chaque disque et lors de la création de ton raid/jbod avec glusterfs ou mhddfs, tu indiques le path des dossiers.

                          Donc, d'après ton explication (car je ne connais pas du tout), ce n'est ni du RAID, ni du JBOD, mais plutôt quelque chose qui se rapproche de unionfs ou aufs.
                          En effet, ces derniers se placent par dessus d'autres systèmes de fichier, alors que RAID et JBOD se placent en dessous du système de fichier (sous forme d'un périphérique bloc qu'on peut ensuite formater à sa guise).

                          Et effectivement, si chaque périphérique physique a son propre système de fichier, ils sont indépendant et en perdre un n'a pas d'incidence sur les fichiers qui sont stocké sur les autres.
                          Reste à voir comment on décide de quel fichier va où, car quand des fichiers forment un ensemble (par exemple les sources d'un programme), tu n'est pas très avancé si tu n'en a perdu que la moitié.

                          • [^] # Re: Attends quelques années. :)

                            Posté par  . Évalué à 1.

                            Merci pour tes informations, je pense mieux comprendre la différence de paradigme.
                            A mon avis je vais essayer de me tourner vers du tout Glusterfs.

                            Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

            • [^] # Re: Attends quelques années. :)

              Posté par  . Évalué à 3. Dernière modification le 28 octobre 2016 à 18:57.

              Ah, en effet je viens de débrancher un des disques et le raid0 ne fonctionne complètement plus (même après avoir rebranché le disque et redémarré la machine).
              C'est un truc de ouf comme aucun des logiciels de raid sous linux ne fonctionne correctement.

              C’est normal que tu perdes tout si tu as un RAID-0 sur deux disques et que l’un d’entre-eux lâche. Le RAID fonctionne plutôt pas mal sous Linux…

              Si tu as deux disques et que tu veux ne rien perdre quand l’un lâche il faut qu’ils soient en RAID-1 (mirroring).

              • [^] # Re: Attends quelques années. :)

                Posté par  . Évalué à 1. Dernière modification le 28 octobre 2016 à 19:15.

                Si tu as deux disques et que tu veux ne rien perdre quand l’un lâche il faut qu’ils soient en RAID-1 (mirroring).

                Non ça dépends des logiciels (et du type de raid0), en raid0 non strip (avec glusterfs) ou en JBOD (avec mhddfs) tu ne perds que les data présentent sur le disque défaillant, les fichiers présent sur l'autre disque sont sauf et toujours accessible.
                Perdre une partie des données n'est pas grave comparé à la perte du service.

                Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

                • [^] # Re: Attends quelques années. :)

                  Posté par  . Évalué à 3.

                  non strip (avec glusterfs)

                  Pour moi on ne devrait pas parler de RAID 0 dans ce cas. C’est un abus de langage.

                  https://fr.wikipedia.org/wiki/RAID_%28informatique%29#RAID_0_:_volume_agr.C3.A9g.C3.A9_par_bandes

                  Mais oui, si les fichiers sont répartis sur les deux disques mais qu’aucun n’est splité, tout ce qui est sur le disque encore en état de marche sera accessible.

                  • [^] # Re: Attends quelques années. :)

                    Posté par  . Évalué à 1. Dernière modification le 29 octobre 2016 à 00:03.

                    Disons qu'ils ne savent pas s'entendre sur les définitions.
                    Par exemple le raid0 que je test là avec mdadm je n'ai pas "espace disponible = espade du disque le plus petit X nombre de disque" mais bien "EspaceDisque1 + EspaceDisque2 + EspacesDisque3 + etc".
                    Par contre je n'arrive pas a voir si les fichiers sont splitté ou non (j'ai tenté de monter un des disques après avoir coupé le raid mais le filesystem ne semble pas bien le reconnaître hors du raid). Mais s'ils sont splitté je vois pas comment mdadm peut s'y retrouver avec un disque 2X plus gros que l'autre (comme dans mon test (3To + 1,5To)).
                    Mais si un des disques n'est pas présent au boot le montage foire quand même :(

                    Mais si non je pense pareil, je préférerais qu'on utilise le terme JBOD. Mais quand on cherche JBOD sur le net les tuto expliquent comment faire un raid0 (principalement avec mdadm).

                    Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

                    • [^] # Re: Attends quelques années. :)

                      Posté par  . Évalué à 4.

                      s'ils sont splitté je vois pas comment mdadm peut s'y retrouver avec un disque 2X plus gros que l'autre

                      Il suffit que les bandes n'aient pas la même taille sur chaque disque.
                      mdadm le fait nativement : http://pastebin.com/1eFxTGmp

                      Si tu déconnectes un disque, ton système RAID ne peut pas fonctionner, car TU AS VOLONTAIREMENT CHOISI un RAID qui n'accepte pas les pannes.

            • [^] # Re: Attends quelques années. :)

              Posté par  . Évalué à 5.

              Ah, en effet je viens de débrancher un des disques et le raid0 ne fonctionne complètement plus (même après avoir rebranché le disque et redémarré la machine).
              C'est un truc de ouf comme aucun des logiciels de raid sous linux ne fonctionne correctement.

              non, c'est la base meme du raid0
              raid0 = performance, pas fiabilité
              meme avec une carte raid dedié, si un disque pete, tu ne peux pas reconstruire les données manquantes => raid0 down

              pour faire ce que tu veux (continuer de fonctionner avec un disque en panne, c'est au minimum raid1 (avec 2 disques)
              qui vont alors etre en mirroir
              2x480Go = 480Go de stockage

              • [^] # Re: Attends quelques années. :)

                Posté par  . Évalué à 1. Dernière modification le 29 octobre 2016 à 13:46.

                Moi se que je veux c'est créer une partition dynamique JBOD (rajouter/supprimer autant de disque que je le souhaite) qui, en cas de panne d'un ou plusieurs disques, continue a utiliser les autres disponible sans spare (osef des pertes de data dans un des jbod/raid0).
                Avec comme objectif de fusionner les disques SSD d'un côté et les disque HDD de l'autre puis de refaire un raid1 réseau par dessus le JBOD/raid0 des HDD.
                Pour les HDD j'ai aussi la contrainte de la malléabilité (je dois d'abord créer le JBOD/raid0 avec un seul disque, créer le raid1 réseau, transférer les données du second HDD puis enfin ajouter le second disque au JBOD/Raid0 HDD).

                Note que je suis étonné que ce ne soit pas aussi facile que sur un synology.

                PS: pas besoin de me rappeler les bases, j'en suis a mon 5-6eme tuto sur le sujet ^ ^ (mdadm, glusterfs-server (2), zfs, tahoe-lafs, mhddfs) c'est trouver un logiciel correct qui est difficile :)

                Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

                • [^] # Re: Attends quelques années. :)

                  Posté par  . Évalué à 3.

                  Moi se que je veux c'est créer une partition dynamique JBOD (rajouter/supprimer autant de disque que je le souhaite) qui, en cas de panne d'un ou plusieurs disques, continue a utiliser les autres disponible sans spare

                  Ça n'existe pas à ma connaissance. Il faudrait un système de fichiers adapté.

                  (osef des pertes de data dans un des jbod/raid0).

                  Tu fais comment lorsque c'est le « premier » disque qui lâche ? Il contient la racine de l'arborescence.
                  Tu fais comment lorsque le « second » disque lâche ? Car pas de bol il contient un dossier super important.
                  Tu fais comment lorsque… ah ok, tu as dit « osef ». Donc ton RAID 0 convient déjà, je ne vois pas où est le problème.

                  • [^] # Re: Attends quelques années. :)

                    Posté par  . Évalué à 1.

                    Tu fais comment lorsque c'est le « premier » disque qui lâche ? Il contient la racine de l'arborescence.
                    Tu fais comment lorsque le « second » disque lâche ? Car pas de bol il contient un dossier super important.
                    Tu fais comment lorsque… ah ok, tu as dit « osef ». Donc ton RAID 0 convient déjà, je ne vois pas où est le problème

                    Ta question est pertinente et j'y avais songé :)
                    Mon raidSSD est dédié a zoneminder : j'avais pensé passer par un cron qui recopie les dossiers (sans écrasement) dont je conserve une sauvegarde sur le disque système.
                    Quant au raidHDD, je compte sur le raid1 réseau pour ré-uploader les fichiers/dossiers manquant si la place est suffisante :)

                    Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

                • [^] # Re: Attends quelques années. :)

                  Posté par  . Évalué à 3.

                  j'en suis a mon 5-6eme tuto sur le sujet

                  pour faire un tuto il faut comprendre ce que l'on fait, et pourquoit telle ou telle techno est interessante

                  c'est trouver un logiciel correct qui est difficile :)

                  quand tu as fait tes tutos tu as du lire les interets et les manques de chacun des logiciels.

                  dans la cas du RAID, la garantie des données, c'est la redondance
                  => à partir du raid >0 (raid1, raid 5, raid 6, etc)

                  une fois monter un raid5 avec 3 disques, tu pourras toujours ajouter des disques à ton raid5 pour agrandir les grappes et derrieres l'espace disponible.
                  le plus maleable etant alors Disque -> raid5 -> LVM -> partition

                  si tu te fiches de la conservation des données alors le mode JBOD de MDADM ou juste un LVM devrait te suffire.

                  • [^] # Re: Attends quelques années. :)

                    Posté par  . Évalué à 1.

                    quand tu as fait tes tutos tu as du lire les interets et les manques de chacun des logiciels.

                    Et bien justement non, je me tape tout ces tuto juste afin de pouvoir essayer les dis programmes qui sont mal documenté et documenté quasi uniquement en anglais.
                    Glusterfs par exemple n'est pas traduis se qui me pose problème pour passer du proof-of-concept à utilisable en prod. OrangeFS pareil: difficile de trouver quoi que se soit en français.

                    si tu te fiches de la conservation des données alors le mode JBOD de MDADM ou juste un LVM devrait te suffire.

                    Pour moi la priorité serait que l'espace mémoire, même amoindris, soit toujours disponible coûte que coûte afin que les logiciels continuent à fonctionner sans avoir besoin de maintenance.

                    Pour le raidSSD: si je ne trouve pas le software de mon coeur, je pense passer par un cron qui vérifiera le raid0 et, s'il ne le trouve pas, recréera un nouveau et ré-uploadera l'arborescence et les points de montage. (avec hélas une perte de toutes les datas)

                    Je n'ai hélas pas assez de disques (et ils sont trop différents pour faire un raid5. Je dois avouer que j'ai aussi très peur de la reconstruction des données qui peut engendrer de nouvelles pannes avec les disques un peu vieux.

                    Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

                    • [^] # Re: Attends quelques années. :)

                      Posté par  . Évalué à 1.

                      difficile de trouver quoi que se soit en français.

                      Ça a déjà été abordé ici maintes fois : lorsqu'il y a peu de ressources correctes sur un sujet (en général un sujet pointu ou qui intéresse peu de gens), alors ça n'est généralement pas une bonne idée de ne pas connaître la « langue commune ».
                      En informatique, cette langue commune est une sorte de sous-ensemble de l'anglais.

                      Pas mal de gens grognent à ce propos, mais :
                      - c'est une réalité
                      - ça fonctionne en vrai, et même très bien
                      - c'est pratique
                      - si on remplace cette langue par une autre, le problème sera le même : il faudra apprendre une langue spécifique (et la bascule prendra des dizaines d'années, donc il faudra connaître cet anglais simplifié ET la nouvelle langue)

                      • [^] # Re: Attends quelques années. :)

                        Posté par  . Évalué à 1. Dernière modification le 30 octobre 2016 à 18:54.

                        Ça a déjà été abordé ici maintes fois : lorsqu'il y a peu de ressources correctes sur un sujet (en général un sujet pointu ou qui intéresse peu de gens), alors ça n'est généralement pas une bonne idée de ne pas connaître la « langue commune »

                        Viens où j'habite, les flamands pensent a peu près ce genre de chose à propos de tout les non neerlandophones…

                        Perso plus tôt que de m'exclure je préfère avancer. Trop facile de dire "tu parle pas anglais, va jouer aux billes".

                        Le sujet de la langue est très, très, très sensible pour les belges*1, vaut mieux éviter ce sujet sur LinuxFR (mon point de vue est qu'on devrait virer le français et le néerlandais des écoles/lieux publique en Europe et imposer l'américain et le chinois en immersion obligatoire, apprendre une langue natale inutile a des gosses je suis un bon exemple du résultat*2 ;) ).

                        *1 ce sujet est est encore plus chaud que l'immigration (note que c'est lié, le français est "la langue de l'envahisseur" d'après les flamands)
                        *2 comme tout le monde j'ai eu cours d'anglais à l'école avec des profs peu motivant

                        Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

                    • [^] # Re: Attends quelques années. :)

                      Posté par  . Évalué à 3.

                      Pour le raidSSD: si je ne trouve pas le software de mon coeur, je pense passer par un cron qui vérifiera le raid0 et, s'il ne le trouve pas, recréera un nouveau et ré-uploadera l'arborescence et les points de montage. (avec hélas une perte de toutes les datas)

                      ne pas faire un raid0 serait un bon debut,
                      - as-tu vraiment besoin de doubler le debit de tes disques SSD ?
                      - as-tu vraiment besoin de doubler les capacités quand maintenant on trouve des SSD de 500Go ?
                      par rapport à la contrainte que tu procures le raid0
                      ou si tu perds un disque, tu perds tout, il faut "refaire le disque systeme" et cloner le systeme qui vient d'à coté ?

  • # Aucune question à se poser, le SSD C'est maintenant.

    Posté par  . Évalué à 2.

    Plus aucune entreprise sérieuse dans l'IT ne fait rentrer du disque mécanique, hormis pour éventuellement faire de l'archivage basse performance.

    Achéte un SSD pour ton système t'as aucune question à te poser, la durée de vit est au moins égale aux matériel mécanique.

    • [^] # Re: Aucune question à se poser, le SSD C'est maintenant.

      Posté par  (site web personnel) . Évalué à 2.

      Effectivement pour la partie serveurs, nous préconisons le SSD depuis 3 ans.
      Selon l'utilisation (taux de réécriture), il existe plusieurs catégories de SSD (dont High Endurance Technology) avec plusieurs catégories de prix!

      Pour les baies de stockages, nous allons vendre pour 2017, 90% des baies uniquement avec du SSD. Nous avons à ce jour un SSD de 15To sur 2,5 pouces.

      Il n'y a que des intérêts à passer au SSD à la part le prix(à ce jour).

      Donc oui, pas de souci pour mettre sur SSD tes données. Mais cela n’empêche pas les sauvegardes.

      • [^] # Re: Aucune question à se poser, le SSD C'est maintenant.

        Posté par  . Évalué à 1. Dernière modification le 28 octobre 2016 à 17:47.

        Quid du chiffrement (au niveau partition ainsi que fichier seul), cela apporte-t-il des problèmes/avantages?

        15To sur 2,5 pouces

        le prix doit être monstrueux ^ ^

        Donation Bitcoin : 1N8QGrhJGWdZNQNSspm3rSGjtXaXv9Ngat

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.