Journal Endurance des SSD

Posté par . Licence CC by-sa
Tags :
29
28
mai
2017

Bonjour la foule

Yet another bookmark journal

Je suis un peu à la bourre, mais le journal «Bench this SSD» m'a remis cette histoire en mémoire.

Le site The Tech Report a opéré sur env. 18 mois (entre 2013 et 2015), un test d'endurance sur une poignée de SSD:
* Corsair Neutron Series GTX,
* Intel 335 Series,
* Kingston HyperX 3K,
* Samsung 840 and 840 Pro Series.

TL;DR Les SSD sont très, très fiables ! Ils dépassent tous les 500 téraoctets écrits et certains vont au delà de 2 pétaoctets.

Ça commence ici: https://techreport.com/review/24841/introducing-the-ssd-endurance-experiment
et ça se termine là: https://techreport.com/review/27909/the-ssd-endurance-experiment-theyre-all-dead

On trouve tous les épisodes via cette requête classique: https://www.google.fr/#q=endurance+experiment+site:techreport.com

Bonne lecture :-)

  • # c'est bien mais

    Posté par . Évalué à -6.

    il y a tout sauf celui que j'ai…crucial BX200
    c'est ballot

    mais merci quand même :)

    • [^] # Re: c'est bien mais

      Posté par . Évalué à 3.

      C'est normal, ton modèle est sorti après la rédaction des articles.
      Ceci dit il a de bonnes chances d'avoir le même contrôleur voir la même Nand que l'un des modèles testés.
      À la rigueur tu peux faire un parallèle avec le 840 series qui embarque lui aussi de la TLC il me semble.

  • # Intel 335 series ...

    Posté par . Évalué à 3.

    Articles intéressants, par contre le second montre un comportement assez étrange du SSD d'Intel passé 700TB écrit.
    Paradoxalement, le 840 series qui commence a s'essouffler plus vite parvient a tenir plus longtemps.

  • # une expérience

    Posté par . Évalué à 10.

    perso moi je suis plutot decu des SSD concernant la longevité, je m'occupe de 450 serveurs dans toute la france, j'en recois 5 à 9 par mois car le ssd est instable, j'en jete des caisses HS. Je me souviens d'une video d'OVH avec des disque dur qui forme des dominos, je pourrais faire pareil avec des SSD.

    la panne que j'ai le plus :

    smartctl me dit que tout va bien, le system se porte pas trop mal, il y a quelques situation blocante difficilement reproductible, genre une mise a jour qui foire, une perte de connection reseau qui provoque un retour chez moi

    si je prend le SSD et que je fait un dd if=/dev/zero of=/dev/sda tout va bien, sauf …. les partitions sont toujours présente. si j'utilise fdisk, je fait ce que je veux, je sauvegarde, j'ai bien l'information qu'il a ecris sur le ssd et …. rien, pas de nouvelle partition, toujours les anciennes qui résiste a un dd, mkfs fonctionne mais 'dans le vide'. même le id de la partition est comme gravé sur le ssd

    bref j'ai l'impression qu'un bon vieux disque dur était soit en panne soit en fonctionnement mais pas entre les deux

    • [^] # Re: une expérience

      Posté par . Évalué à 10.

      bref j'ai l'impression qu'un bon vieux disque dur était soit en panne soit en fonctionnement mais pas entre les deux

      Il va falloir s'y faire : c'est un disque dur quantique ! :-)

      • [^] # Re: une expérience

        Posté par (page perso) . Évalué à 2.

        Les SSD ne sont donc pas fiables, si tu ouvres la boîte tu as 50% de malchance que le disque soit mort !

        « Il vaut mieux mobiliser son intelligence sur des conneries que mobiliser sa connerie sur des choses intelligentes. »

    • [^] # Re: une expérience

      Posté par (page perso) . Évalué à 1.

      les partitions sont toujours présente. si j'utilise fdisk, je fait ce que je veux, je sauvegarde, j'ai bien l'information qu'il a ecris sur le ssd et …. rien, pas de nouvelle partition, toujours les anciennes qui résiste a un dd, mkfs fonctionne mais 'dans le vide'. même le id de la partition est comme gravé sur le ssd

      Depuis des temps bien antérieurs à l'existence des SSD, fdisk déclenche une relecture du périphérique (non ça c'est le fonctionnement moderne) prévient qu'à moins de déclencher une relecture du périphérique bloc les anciennes infos seront en cache et les modifications non accessibles… t'es sûr de pas utiliser une distrib archaïque sujette à ce comportement à la noix ?

      Parce que se plaindre de changer environ 10% des périphs de stockage par an dans une infra, c'est visiblement n'avoir jamais vraiment géré d'infra.

      • [^] # Re: une expérience

        Posté par . Évalué à 3.

        petit scarabé, la commande dd avec les bonnes options aurait du te donner l'indice que je sais un minimum lire une page de man. De plus je le répète c'est la panne la plus courante, essaye de visualiser une gaussienne ca t'aidera.

        je me plains par rapport a l'euphorie ambiante concernant les SSD.

    • [^] # Re: une expérience

      Posté par . Évalué à 10.

      je m'occupe de 450 serveurs dans toute la france, j'en recois 5 à 9 par mois car le ssd est instable, j'en jete des caisses HS.

      As-tu eu l'occasion de gérer cette même infra à une époque où le bon vieux disque dur équipait tes serveurs ? Quel était à peu près le taux de défaillance des DD classiques ?

      • [^] # Re: une expérience

        Posté par . Évalué à 3.

        beh non pas de bol, du ssd depuis le début. Ca aurait était vraiment intéressant, parfois j'aimerais placer un DD classique en douce :), il y a des bonnes idées qu'il vaut mieux garder à la maison.

        On change de marque lorsque c'est trop catastrophique mais toujours des ssd, la nous sommes sur du 'industriel' wide temp, température élargie d'utilisation (wt).

        petite déception la dessus aussi, j'ai démonté un ssd industriel (coûte un bras) et chercher les référence des puces constructeurs, lit les data book et c'est genre les puces avec un -A sont WT

        et ceux des disque wt non pas ce fameux -A, question au fabricant du SSD puis sa réponse qui est pas mal je trouve :

        oui c'est normal, nous testons les puces standard nous même et si elle ne passe pas le test wt nous les écartons, pas besoin de prendre la bonne réf du fabricant de puce.

        • [^] # Re: une expérience

          Posté par . Évalué à 5.

          et ceux des disque wt non pas ce fameux -A, question au fabricant du SSD puis sa réponse qui est pas mal je trouve :

          oui c'est normal, nous testons les puces standard nous même et si elle ne passe pas le test wt nous les écartons, pas besoin de prendre la bonne réf du fabricant de puce.

          Particulièrement quand on sait que ce genre de qualification est faite par le fabriquant. Ce qui distingue une puce « -A » de la même sans, c'est que la seconde a échouée aux tests de température.

          Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

          • [^] # Re: une expérience

            Posté par . Évalué à 3. Dernière modification le 30/05/17 à 12:42.

            je me doute, mais je préfère la bonne référence d'un fabricant de puce qui possède ce qu'il faut pour determiner si ca puce est bonne ou non (quitte a ne rien faire) avec un joli paragraphe dans le databook qui mentionne cette particularité wt, plutôt qu'un assembleur qui fait des test dans son coin ou la seule trace que j'ai c'est un mail qui me dit qu'il les faits.

            sachant que c'est assez coûteux a faire le -40 +85 en fonctionnement pas en stockage !

    • [^] # Re: une expérience

      Posté par (page perso) . Évalué à 6.

      bref j'ai l'impression qu'un bon vieux disque dur était soit en panne soit en fonctionnement mais pas entre les deux

      Euh, d'experience le HDD en partiellement vrac avec secteurs defectueux ça réagissait pas mieux que ce que tu raconte. C'est un problème qui à toujours existé, avec tout les stockages.

      J'ai des mauvais souvenirs des disques "raptors" qui une fois utilisés ne supportent pas un arrêt de trop longue durée (6 mois dans une armoire, sans bouger => secteurs illisibles aleatoires sur tout le disque)

    • [^] # Re: une expérience

      Posté par . Évalué à 5.

      bref j'ai l'impression qu'un bon vieux disque dur était soit en panne soit en fonctionnement mais pas entre les deux

      Les rares HDD qui sont mort dans mes mains avaient des comportement erratique juste avant leur décès. Genre une partition qui disparait, des fichiers invisibles, etc… donc non finalement je ne pense pas que ce soit vraiment différent.

      Mais la grande question est «Le coup de congélateur est il toujours valable ????» ça ma permis de récupéré plus d'une données «inaccessible».

    • [^] # Re: une expérience

      Posté par . Évalué à 4.

      je fait un dd if=/dev/zero of=/dev/sda tout va bien, sauf …. les partitions sont toujours présente. si j'utilise fdisk, je fait ce que je veux, je sauvegarde, j'ai bien l'information qu'il a ecris sur le ssd et …. rien, pas de nouvelle partition, toujours les anciennes qui résiste a un dd, mkfs fonctionne mais 'dans le vide'. même le id de la partition est comme gravé sur le ssd

      hm, si mes souvenirs sont bons les partitions sont dans un coin de la RAM du noyal suite au parsing initial, qui peut probablement être redéclenché par des ioctl. Ptet que dans les noyaux modernes il invalide et tente de reparser à la volé automatiquement en cas de modif des tables physiques, mais franchement je pense pas (quasiment aucun intérêt à faire ça, et plus complexe à réaliser). Bref le fait que le comportement parte en couille quand tu fais ça ne m'étonne à priori pas—à confirmer bien sûr, mais c'est facile à vérifier…

      • [^] # Re: une expérience

        Posté par (page perso) . Évalué à 3.

        Apparemment ça vaut -1 cette réflexion. Mais si on est suffisamment à lui dire que ce comportement est vieux comme le monde, ptêtre que ça marchera…

        • [^] # Re: une expérience

          Posté par . Évalué à 4.

          Ouai mais attention à la terminologie. Le "cache" c'est juste une copie des blocs du disque en RAM, mais il ne va pas servir directement pour constituer les objets du noyau décrivant les partitions—ce dont je parle justement; il y a un petit parseur de la table de partition (en vrai un parseur par format de table, principalement MS-DOS et GPT sur PC, mais il existe des tas de format de table de partition), et ce que je dis c'est qu'il faut que ce parseur soit redéclenché après modif de la table sur le disque (et j'aurais du mal à croire en outre que ce parseur bypass le cache, donc on s'en bas probablement complètement les couilles que le cache disque soit flushé ou pas à ce moment).

          Bref l'invalidation nécessaire n'a en soit pas un rapport extrême avec le cache disque, je crois. C'est ptet ça qui a induit les moinsseurs en erreur.

          En outre je raconte toussa de mémoire car j'ai dans une vie antérieure contribué à GNU Parted. Mais c'était il y a > 10 ans, et je peux avoir une mauvaise mémoire à ce sujet et/ou le comportement a pu changer entre temps.

      • [^] # Re: une expérience

        Posté par . Évalué à 3.

        effectivement c'est facile a vérifier en changeant le disque de serveur après les modifs … ou si j'ai une carte sata hotplug (comme la mienne SiI 3114 ) je le débranche et vérifie dans la foulée. voire je fait les deux

        comme c'est un comportement anormale je l'ai meme pris chez moi sur un bon vieux pc familal de 2008 dès fois que cela vienne du contrôleur sata des serveurs, du bios ou d'une connerie électronique. Avec plein de linux différent.

        j'ai même eu un doute sur dd, je l'ai fait sur un disque de sauvegarde, ca marche :D.

        si j'ai le temps je posterais les commande shell avec le retour, dans un nouveau journal \o/

      • [^] # Re: une expérience

        Posté par (page perso) . Évalué à 2.

        redéclenché par des ioctl

        En ligne de commande : partprobe ou partprobe /dev/sdX qui utilise l'IOCTL BLKPG (partprobe va lire les disques, en déduire les partitions, et utilise BLKPG pour reconstruire les partitions dans la mémoire du noyau).

        L'IOCTL qui fait ça tout seul est BLKRRPART.

        Il y a un tas de commande qui le font d'une manière ou d'une autre :
        hdparm -z /dev/sdX
        sfdisk -R /dev/sdX
        partx -va /dev/sdX
        kpartx -va /dev/sdX
        blockdev -rereadpt /dev/sdX

  • # Et les disques avec un disque dedans ?

    Posté par . Évalué à 9.

    Les SSD sont très, très fiables ! Ils dépassent tous les 500 téraoctets écrits et certains vont au delà de 2 pétaoctets.

    Pour comparer quelle est l'endurance d'un disque normal ?

    • [^] # Re: Et les disques avec un disque dedans ?

      Posté par (page perso) . Évalué à 7.

      Je ne saurais le dire. Mais dans nos serveurs les SSD installés pour remplacer des disques mécaniques sont tous morts en à peine un an, là où les disques durs tiennent généralement autant que les serveurs (que nous gardons longtemps). À la fois quand on est aux environs du TiO d'écriture par jour…

      • [^] # Re: Et les disques avec un disque dedans ?

        Posté par . Évalué à 7.

        Quel genre de SSD, le genre normal ou ceux prévu pour le cloud ou autre data center ?

        "La première sécurité est la liberté"

      • [^] # Re: Et les disques avec un disque dedans ?

        Posté par (page perso) . Évalué à 6.

        Sur notre ancien SAN/NAS a 56 HDD (Fiber Channel, 15k) on changeait 3 a 4 disques par ans, sur le nouveau avec ses 20 SSD (800Go) aucune erreur détecté pour le moment après 1 an de service donc tout les experiences existent.

        Je ne sais pas combien de serveurs tu as mais pour avis un avis "fiable" il va falloir des études sur des grands nombres (dizaines de milliers de disques) sur les deux types medias je pense. Un truc que google, amazon ou autre nous sortira un de ces quatres.

        • [^] # Re: Et les disques avec un disque dedans ?

          Posté par (page perso) . Évalué à 2.

          « […] pour avis un avis "fiable" il va falloir des études sur des grands nombres […] »

          Ou simplement s'en référer aux spécifications. Comme évoqué plus haut dans des commentaires et dans l'article auquel renvoi le journal la quantité d'écritures possibles sur un SSD semble être un bon indicateur. Ceux du test ont tous commencé à faire des erreurs aux environs de ce que le constructeur spécifiait (si je n'ai pas trop lu en diagonal).

          • [^] # Re: Et les disques avec un disque dedans ?

            Posté par . Évalué à 4.

            Ouais enfin le test en lien avec ce journal concerne des ssd dédiés à un usage desktop donc ce n'est pas hyper pertinent par rapport à une utilisation pro avec du matériel dédié à un usage i/o intensif.

            • [^] # Re: Et les disques avec un disque dedans ?

              Posté par (page perso) . Évalué à 8.

              Justement, il nous explique qu’il fait de l’écriture intensive avec des SSD bon marché…

              • [^] # Re: Et les disques avec un disque dedans ?

                Posté par . Évalué à -2. Dernière modification le 29/05/17 à 22:43.

                … Et après ça vient dire (comme dark_star) que les études sur la longévité des SSDs sont toutes fausses… Tsss…

                Moi ce qui me fait peur, c'est qu'un noob pareil dit qu'il gère un parc sur toute la France.
                Ça donne pas envie de lui confier ses données.

                "Quand certains râlent contre systemd, d'autres s'attaquent aux vrais problèmes." (merci Sinma !)

                • [^] # Re: Et les disques avec un disque dedans ?

                  Posté par (page perso) . Évalué à 3. Dernière modification le 30/05/17 à 07:55.

                  Ou j'ai mal compris, ou tout le monde dans le petit fil de cette discussion semble s'accorder sur le fait que ces études sont au contraire plutôt justes ; voire que les données constructeurs sont même quasiment exactes.
                  Est-ce que vous n'auriez pas répondu à un commentaire d'une autre parti de la discussion ? Ou bien ai-je manqué une information ?

                  En ce qui me concerne, je prétend simplement que les disques mécaniques grand public ont (dans ma petite expérience) une endurance très nettement supérieure à des SSD destiné au même marché.

                  • [^] # Re: Et les disques avec un disque dedans ?

                    Posté par . Évalué à 0.

                    En ce qui me concerne, je prétend simplement que les disques mécaniques grand public ont (dans ma petite expérience) une endurance très nettement supérieure à des SSD destiné au même marché.

                    Définir "grand public".

                    Dans mon expérience, une dizaine de HDDs morts dans ma vie.
                    0 SSDs.

                    Oui bon je ne compare pas sur la même période, mais ça ferait toujours plus de HDDs morts que SSDs.

                    Comme quoi… ;-)

                    "Quand certains râlent contre systemd, d'autres s'attaquent aux vrais problèmes." (merci Sinma !)

  • # SSD mort sur x1 carbon 2016

    Posté par (page perso) . Évalué à 2.

    Mon SSD a laché sur mon x1 carbon 2016 après seulement 4 mois d'utilisation. Le BIOS ne le voyait plus, j'avais un erreur de détection SSD. Et après quelques reboot c'était un système inutilisable avec des milliers d'erreur d'inode.

    Heureusement il m'a été remplacé sous garanti.

    Cependant, un ami a aussi eu ces problèmes d'inodes sur un intel NUC, il avait aussi moins d'un an. Je suis pas tellement convaincu pour le moment.

    l'azerty est ce que subversion est aux SCMs

    • [^] # Re: SSD mort sur x1 carbon 2016

      Posté par (page perso) . Évalué à 7.

      Des disques durs qui meurent dans l'année de sa naissance, ce n'est pas rare non plus hein.

      D'ailleurs si ton disque dur a un défaut, il est très probable que cela se manifeste au début du cycle de vie.

      Honnêtement, d'après tous les tests, pour un usage bureautique le SSD convient parfaitement.

  • # Disques jetables ?

    Posté par . Évalué à 2.

    Est-ce qu'on n'est pas entrain de s'orienter vers du disque jetable du fait qu'on utilise de plus en plus souvent des systèmes de stockages redondants ?

    • [^] # Re: Disques jetables ?

      Posté par . Évalué à 3.

      Je ne crois pas que ça ait changé au niveau de la redondance. On a toujours utilisé ça.

      L'essentiel c'est de savoir:
      - combien coûte un disque
      - combien facture les entreprises de stockage pour la maintenance
      - combien il leur coûte de fournir cette maintenance (administratif/hotline/transport/opération sur site)

      Les entreprises qui fournissent des baies de stockage n'ont aucun intérêt à utiliser des disques qui pètent tout le temps si ça leur coûte trop cher à gérer. Par contre elles n'ont aucun intérêt non plus à ce que les disques soient trop fiables car personne ne voudrait payer pour de la maintenance si d'expérience on était quasi sûr que les disques (et d'autres bricoles comme les gbic) tenaient le coup plusieurs années jusqu'au remplacement de la baie.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.