Journal Windows Server 2003 plus fiable que Linux, selon le Yankee Group

Posté par  .
Étiquettes : aucune
0
7
juin
2006
Tel est le titre d'un article [1] du Monde Informatique paru le 06/06/2006.

Les résultats sont tombés: "Windows Server 2003 est plus fiable que Linux", a révélé le Yankee group dans son étude annuelle sur la fiabilité des OS serveurs (*). Windows Server reste toutefois derrière les OS UNIX, notamment HP-UX ou Solaris 10 de Sun, sans en préciser l'ampleur.
Je n'ai pas réussi à trouver cette étude, peut-être est-elle payante. J'ai juste trouvé une petite analyse [2] en anglais dont les grandes lignes sont :

- Linux RedHat a enregistré 950 minutes de downtime en une année
- Windows 2003 a enregistré 770 minutes de downtime en une année
Bon, il faut bien voir que ce sont des moyennes, si vous installez de tels systèmes, ne vous attendez pas à avoir 770 ou 950 minutes de downtime.

- Windows 2003 est le système qui a été le plus fiabilisé depuis 3/5 ans.
On peut interpréter ceci par le fait que w2k3 avait des problèmes de sécurité qui ont été en partie résorbés, et que maintenat w2k3 à a peu près la même fiabilité que RH :

All of the major server OS platforms have achieved a high degree of reliability. There is minimal disparity in the number and severity of unplanned server outages and the hours of outage businesses experience on their standard Linux, Windows and Unix platforms.

Bon, je n'ai pas plus de détails sur les problèmes rencontrés sur ces serveurs. Et il faut noter également que cette étude ne fait mention que de disponibilité des services mis en oeuvre, pas du niveau de sécurité des systèmes.

[1] http://www.lemondeinformatique.fr/actualites/lire-windows-se(...)

[2] http://www.yankeegroup.co.kr/link.php?key=eykgaisp_r0603_1
  • # ?

    Posté par  (site web personnel) . Évalué à 10.

    >>
    - Linux RedHat a enregistré 950 minutes de downtime en une année
    - Windows 2003 a enregistré 770 minutes de downtime en une année
    >>


    C'est un peu pourri comme critère non ?
    Imaginons que je lance mon OS à moi que j'ai : le patrick_gOS. Je ne corrige pas les failles durant toute l'année et au 31 décembre je fais juste un gros update de sécurité qui corrige toutes les failles accumulées.
    Bilan des courses : j'ai un downtime excellent car j'ai été down seulement 10 mn le temps de faire ma maj unique.

    La conclusion c'est qu'une entreprise scrupuleuse qui fait ses maj sécu le plus vite possible aura un downtime plus important qu'une entreprise de guignols qui laisse des failles non corrigées pendant des semaines et des mois.
    • [^] # Re: ?

      Posté par  . Évalué à 8.

      Il n'est pas indiqué non plus les raisons du downtime. Ca peut être à cause de défaillance du système, défaillance du service (l'étude porte il me semble sur des services web), ou sur les mises à jour.

      Comme cette étude n'est pas public (dites-moi si je me trompe), on ne peut avoir que des avis de journalistes sans avoir de précisions précises (!?)
      • [^] # Re: ?

        Posté par  (site web personnel) . Évalué à 4.

        Il n'est pas indiqué non plus les raisons du downtime.
        "D'après les compilations de données du Yankee Group, ce downtime est plus important sur les serveurs Linux d'environ 20%. Pour le cabinet, cela est dû, en partie, à un nombre de ressources de support largement inférieur à celui que l'on peut trouver pour Windows, notamment en ce qui concerne la documentation."
        ( http://www.pcinpact.com/actu/news/29265-Le-Yankee-Group-parl(...) )
        • [^] # Re: ?

          Posté par  (site web personnel) . Évalué à 10.

          <mauvaise foi = on>

          ce downtime est plus important sur les serveurs Linux (...) cela est dû, en partie, à un nombre de ressources de support largement inférieur (...) en ce qui concerne la documentation.

          Je pense qu'il faut officiellement breveter cette feature linuxienne : lire une page de man rend un serveur indisponible.

          </mauvaise foi>
          • [^] # Re: ?

            Posté par  . Évalué à 6.

            Je pense qu'il faut officiellement breveter cette feature linuxienne : lire une page de man rend un serveur indisponible.


            Et sans la balise "mauvaise foi", autant je trouve la lecture des manpages très intéressantes dans l'absolu, autant je les trouve indigestes lorsque l'on a un serveur par terre et que l'on désire le remonter le plus vite possible...

            Alors certe, il faut (faudrait ?) lire les pages de manuel avant toute mise en production, mais la mémoire n'est pas infaillible et il manque souvant une documentation ou l'essentiel est rapidement accessible. Je ne parle pas de documentation "neuneu-oriented" mais d'une documentation du style des anciens HOWTO qui ont été plus ou moins abandonnés...

            Certe, il reste le "centre de documentation" de SuSE par exemple, ou son équivalent sur d'autres distributions, mais il est amha loin d'etre aussi complet...
            • [^] # Re: ?

              Posté par  (site web personnel) . Évalué à 5.

              quand c'ets windows qui tombe en panne comment tu fais pour trouver la doc ?

              ben tu fais la meme chose sous linux... en mieux !
              • [^] # Re: ?

                Posté par  . Évalué à 6.

                Non, j'utilise le trombone, qui me pose les bonnes questions et qui me propose des solutions ! ;)

                Plus sérieusement, on trouve plus facilement de l'aide "concrète" (des "recettes" à appliquer rapidement) dans la documentation Windows ou sur Google que pour Linux. Attention, je ne dit pas que l'on ne trouve pas pour Lniux, juste que trouver prend plus de temps, simplement parce que la distributions, la version... sont autant de paramêtres qui influs sur la "recette" et il faut donc souvant consulter plusieurs listes/forum/sites avant de trouver une description qui correspond à notre situation. Sous Windows, il y a moins de possibilité. Cela est pénible pour tout un tas de choses, mais cela limite du coup l'éventail des solutions possibles.

                Et je maintient que je trouve les pages de man génial dans l'absolu. C'est très bien parce que l'on y apprends plein de choses, tout y est expliqué, détaillé... sauf qu'en cas de problème, c'est trop, et il suffit que la réponse soit dans la page de manuelle que tu n'as fait que survoler et tu auras du mal à trouver...

                Ensin sous Windows, il suffit d'appeler la maintenance, ils sont là pour ça ! (je plaisante... quoique.)
                • [^] # Re: ?

                  Posté par  (site web personnel) . Évalué à 6.

                  Hum, tu a déjà tapé dans le wiki gentoo ?

                  Il y a une partie française quasi complète et une anglaise un peu plus fournie...
                  Après tu a le wiki ubuntu qui donne pas mal de solutions...

                  Bon je te dis ça parce que j'ai fait pas mal de recherche google et ça te sort les réponse très vite si tu sais ce que tu cherche...

                  Quand a l'aide micro$oft laisse moi rire, elle n'a JAMAIS réglé mes problèmes (pb 3d/soucis base de registre et autre, niveau plus bas que terre)

                  Quand au downtime, ça dépend aussi du matériel derrière, les dédiés sous linux sont souvent 4x plus chargés que les équivalents windows (LAMP complet sur un serveur) et du coup, les problèmes hard arrivent plus vite (soucis disque dur dans 90% des cas) et là c'est 4-10h de downtime selon le prestataire...
                  • [^] # Re: ?

                    Posté par  (site web personnel) . Évalué à 3.

                    Le wiki gentoo est effectivement trés utile.
                    Même quand on n'a pas une gentoo.
                    Je ne compte plus les fois où un howto trés clair etait dedans (et que je ne trouvais pas ailleur).
                    • [^] # Re: ?

                      Posté par  (site web personnel) . Évalué à 2.

                      Je n'ai jamais eu de gentoo sur mon pc, donc dans le même cas que toi ;)

                      Par contre c'est super utile quand on veux voir comment améliorer le fichier spec d'un paquet (src.rpm)

                      Pour tout ce qui est chiffrement de disque dur ou autre chose un peu compliqué que touche a l'amorcement/fonction noyau et autre...
  • # -1 flamebait

    Posté par  . Évalué à 10.

    Étude de Laura DiDio, qui a également bossé sur la campagne "Get the facts" et pour SCO (vs IBM) si je ne m'abuse.

    http://en.wikipedia.org/wiki/Laura_Didio

    Je dirais qu'il y a comme un biais :)
  • # Mouai

    Posté par  . Évalué à -5.

    Et en installant un truc autre que redhat, enfin une distrib' conçue pour faire server, genre debian, au hasard, ça donne quoi ?
    Parce que bon, je veux pas être méchant, mais faut pas trop s'étonner non plus...

    J'ai bien envie de sortir mais je dois pas être me seul à penser ça...
    • [^] # Re: Mouai

      Posté par  . Évalué à 1.

      Heu, pardon ?
      Ce n'est pas pour rien que RedHat est de loin numéro 1 en part de marché sur les serveurs. C'est globalement une très bonne distribution dans ce cas. Je ne suis pas expert, mais je travaille depuis sa sortie sur la confection d'un serveur basé sur CentOS 4.3 et je dois dire que ça a été très bien pensé, et les mises à jour depuis sa sortie (ok, très récente), se font au compte-goutte.
      Ca n'enlève rien à Debian bien sûr, mais ne critique pas sans connaitre...
      • [^] # Re: Mouai

        Posté par  . Évalué à 9.

        Windows est No1 en terme de Desktop , donc c'est un produit de qualité ? et pour revenir sur ce vieux proverbe : mille milliard de mouches mangent de la merde , elles ne peuvent pas se tromper...
        • [^] # Re: Mouai

          Posté par  . Évalué à -6.

          Windows est un produit de qualité en ce qui concerne les besoins des ses millions d'utilisateurs:
          -jeux 3D present (torino 2006 , athenes 2004)
          - Webcam et videoconference totalement fonctionnel avec Miçcrosoft messenger
          - Autoconfiguration du materiel
          - Windows update automatique

          Jene dis pas que linux ne le fait pas, je dis juste que les gens en sont satisfait, et que pour moi, la satisfaction est une conséquence d'un produit de qualité.

          En ce qui me concerne c'est différent, mais je ne renierais pas que Windows est un os de qualité......commerciale
          • [^] # Re: Mouai

            Posté par  (site web personnel) . Évalué à -6.

            ha ??!!

            Moi j'ai voulu faire marcher une ATI Radeon All In Wonder 8500 DV sous Windows XP, ben ça marche pas.
            Les fonctions multimedias ne sont pas prise en charge par windows, ni la 3D et a peine la 2D en ramant à donf et ATI ne supporte plus cette carte.. Quand on installe les derniers drivers ya tout qui plante... et quand ça plante pas ya l'écran qui affiche l'image en tremblotant.

            Sous Linux ça fonctionne sans problème y compris la 3D !!
            • [^] # Re: Mouai

              Posté par  . Évalué à -2.

              on ne fait pas d'un exemple concret une généralité.

              Moi, actuellement, la webcam fonctionne pas sous kopete, pourtant elle fonctioonne nickel sous windows: peux t'on conclure que linux c'est de la merde?

              quand aux drivers nvidia sous X11R7, c'est la croix et la bannière si tu ne lis pas la doc
              • [^] # Re: Mouai

                Posté par  . Évalué à -3.

                wouaoh!

                Les deux commentaires précedents étant moinsés, on en arrive de mille milliard de mouches mangent de la merde , elles ne peuvent pas se tromper... à la webcam fonctionne pas sous kopete ....

                No comment :)

                Mais il devient urgent d'ouvrir les commentaires négatifs sous peine de se retrouver .. totalement à la ramasse !

                Mon commentaire perso ... je suis une mouche sur la merde .... argggghhh ... mais je mange bien merci ! des produits de qualités ! hahaha
                • [^] # Re: Mouai

                  Posté par  . Évalué à -2.

                  En fait, elle fonctionne :-) (Mais pas en remote)
                  Et c'etait pour l'exemple :-)
              • [^] # Re: Mouai

                Posté par  (site web personnel) . Évalué à 5.

                urpmi dkms-nvidia libnvidia-xorg1 nvidia-xorg
                (dans les apports plf)

                changer nv en nvidia dans /etc/X11/xorg.conf

                C'est vraiment trop dur...

                Quand a l'autoconfiguration du matériel, windows peux aller se brosser...

                Sur mon pc j'ai les 3/4 des périphériques qui NE MARCHENT PAS, je dois installer :
                - carte son (emu10k1)
                - carte réseau (3com+nvidia1Gb)
                - carte vidéo (nvidia FX5700)
                - carte sata
                - carte tunertv
                ...

                Heu il m'a autoconfiguré quoi ? (le disque dur ?)

                Sous linux a part la carte 3d pour laquelle je dois lui dire de mettre les trois paquets en haut, tout le reste marche cash
                mandriva cooker 2007/2006.0/2005LE (sauf sata sur le dernier)
  • # pondération

    Posté par  . Évalué à 9.

    le graphique avec son commentaire sur cette page :
    http://www.yankeegroup.co.kr/link.php?key=eykgaisp_r0603_1

    " windows server 2003 est 20 % plus fiable que red hat linux ", si ce n'est pas du FUD...

    cela ne veut rien dire que comparer ce genre d'uptime, il faudrait peut-être ramener ce que 13 h et 16 h représentent dans une année... Et si windows server avait été éteint seulement 1 minute dans l'année et Linux 2 minutes, windows server serait 100 % plus fiable ?

    et puis les 20% à 35% supérieur pour les emails, l'accès aux fichiers et les charges serveurs, je demande à voir. Enfin, bref, encore une étude 'indépendante' inféodée à Microsoft.

    "like Unix, the majority of Windows Server 2003 servers carry workloads that are typically 30% to 50% heavier than their Linux and open source counterparts."

    Avec un cas d'école comme Amazon.com par exemple, je ne pense pas que la charge soit si négligeable...
    Et pour Yahoo, c'est FreeBSD, un autre "open source counterparts" en unix libre...

    et quand il se fait des clusters pour le calcul scientifique ou la réalisation de films, pourquoi c'est généralement du linux qui est choisi, outre son aspect économique ?

    Only wimps use tape backup: real men just upload their important stuff on megaupload, and let the rest of the world ~~mirror~~ link to it

    • [^] # Re: pondération

      Posté par  . Évalué à 6.

      Alors autant je suis en accord avec presque tout ton message, autant pour la fin...

      et quand il se fait des clusters pour le calcul scientifique ou la réalisation de films, pourquoi c'est généralement du linux qui est choisi, outre son aspect économique ?


      Une chose est sûre, c'est qu'ici nous n'avons pas choisit Linux au détriment d'autres *nix pour sa stabilité !

      C'est bien plus la disponibilité de certains softs exclusivement pour cette plateforme, soit parce que l'on ne disposent que de binaires, soit parce que nous ne disposons pas du temps et des ressources pour en porter le code qui a guider notre choix... Et encore, on se demande de plus en plus si passer notre grappe sous un *BSD et faire tourner les logiciels en compat ne serait pas tout bénef (pour la fiabilité, on n'a pas de doute, reste à voir si tous les logiciels tournent correctement et avec de bonnes performances)...

      Encore hier, nous avons trouvé certains noeuds dans un sale état, rattrapable uniquement par la méthode "gros bouton", tout ça parce que le système a laissé un processus alouer plus de mémoire que ce qui était présent dans la machine, et lorsque le processus a effectivement eu besoin de cette mémoire, oom_killer c'est mis à canarder à tour de bras, descendant entre autre sshd et mettant l'authentification dans un état indéterminé...

      Lorsque l'on compare avec nos machines sous Tru64 ou même Solaris, il n'y a franchement pas photo (et pourtant je hais Solaris pour plein de raisons) ! J'ai déjà vu un serveur Alpha se rétablir après plusieurs heures au dessus de 50 points de charges. J'attends toujours de voir un Linux s'en approcher.

      (PS : non, je ne comparerai pas à un Windows parce que ce système n'est pas fait pour le calcul...)
      • [^] # Re: pondération

        Posté par  . Évalué à 4.

        merci pour ton témoignage qui sent le vécu :)
        J'avais plus à l'esprit en parlant de cinéma un commentaire que j'avais lu à propos du film "Renaissance" ( http://www.zdnet.fr/actualites/informatique/0,39040745,39332(...) ), par contre c'est vrai que c'était dans un autre contexte que windows server alors je n'ai rien dit... «Certaines scènes très lourdes, intégrant beaucoup de personnages et d'effets, ont atteint les limites techniques de Windows», poursuit Julien Doussot. «Ces scènes, nécessitant plus 2 Go de mémoire, ne s'ouvraient pas avec Maya sur plate-forme Microsoft. La même scène s'ouvrait en revanche sur un poste équipé de Red Hat.»

        Quoi qu'il en soit, si windows n'est pas "fait pour le calcul", c'est peut être génant quand même pour un serveur non ? A priori c'est fait pour tous les usages (surtout que l' "étude" de Yankee group parle de charge serveur mieux gérée sous windows que linux...). En tout cas je ne voulais pas dire que linux était mieux que les autres unix propriétaires libres tel OpenSolaris, même si je n'ai jamais été dans le contexte pour pouvoir juger, j'entends souvent dire par ailleurs que les "grands" Unix, tel Solaris, sont très forts pour les calculs et supporter les charges (j'ai juste testé OpenSolaris en "desktop", alors avec ça je ne pouvais pas aller très loin :) en plus j'ai été déçu parce qu'il n'y avait même pas looking glass d'intégré... )

        Only wimps use tape backup: real men just upload their important stuff on megaupload, and let the rest of the world ~~mirror~~ link to it

        • [^] # Re: pondération

          Posté par  . Évalué à 3.

          merci pour ton témoignage qui sent le vécu :)

          Tant que cela ? ;)

          «Ces scènes, nécessitant plus 2 Go de mémoire...»

          Oui, bon... Pour la comparaison et la petite histoire, le logiciel qui nous a posé quelques soucis, qui sert pour de la bioinfo, avait fait 14Go d'allocations auquelles le système avait répondu favorablement... sans forcement se soucier des ressources réellement disponibles.

          Maintenant, c'est vrai que, contrairement à la vidéo, cela fait longtemps que la bioinfo est passée au 64bits (bien avant que l'on ne parle d'Opteron et autre G5)...

          Quoi qu'il en soit, si windows n'est pas "fait pour le calcul",

          Tout dépend de ce que l'on appelle "faire du calcul".
          D'autant qu'il semble que la charge en question soit en Entrée/Sortie et pas en calcul pur...

          tel Solaris, sont très forts pour les calculs et supporter les charges

          D'expérience, Solaris tient surtout bien la charge en Entrée/Sortie (bases de données, serveurs web chargé...). Solaris pour x86_64 est pas mal non plus, en particulier le compilateur est assez performant mais parfois un peu... pénible. Par contre les UltraSparc sont des bouses infames lorsqu'il s'agit de faire du calcul a proprement parler. Les Sparc de Fujitsu sont semble-t-il pas mal en revanche...
          Pour cet usage, le couple Alpha/Tru64 était vraiment bien. HP-UX aussi parait-il, mais je n'ai personnellement pas tester.

          Comme dit mon collègue de bureau, les linuxiens sont comme des flics qui se baladent avec la sécurité du flingue retirée : lorsqu'il faut dégainer et tirer, ils ont une meilleure performance. Mais c'est au risque de se tirer une balle dans le pied... ;)
          • [^] # Re: pondération

            Posté par  (site web personnel) . Évalué à 3.

            Hum je me permet de répondre, ton soucis de noyau linux qui tire dans le tas, c'est connu...

            Linux part du principe que des ressources vont se libérer et dit oui (en priant que des ressources puissent se libérer plus tard).

            Ça marche parfaitement sur un desktop ou autre où la swap le rattrape dans le pire des cas...

            Hors vous vous jouez avec des trucs critiques, je n'arrive pas a conprendre que vous n'ayez pas changé ce comportement par défaut...

            Si mes souvenir sont bon c'est un changement d'algo a la compilation du noyau qui permet de le faire (sur le 2.6).

            Faut savoir ce que vous voulez, des perfs a vos risques et périls ou de la perf sure...
            • [^] # Re: pondération

              Posté par  . Évalué à 3.

              Linux part du principe que des ressources vont se libérer et dit oui


              Sauf que dans le cas présent, les ressources n'ont aucune chance d'être libérées puisque ce qui a été alloué est supérieur à la somme RAM + swap disponible sur la machine...

              Hors vous vous jouez avec des trucs critiques, je n'arrive pas a conprendre que vous n'ayez pas changé ce comportement par défaut...


              Parce que les calculs en questions ne sont pas "critiques". Si le gestionnaire perd la trace d'une machine, les jobs en cours sont rejoués. Si le calcul échoue pour une raison ou une autre (mauvaises données en entrées, dépassement de mémoire, etc), le message d'erreur est remonté à l'utilisateur,,,

              Par ailleurs, le comportement pourrait convenir dans l'absolu, puisque les jobs sont assez hétérogènes mais la majorité ne dure que quelques secondes.

              Ce qui me gène le plus c'est en fait l'état dans lequel la machine arrive à se mettre dès que oom_killer est activé, tirant sans distinction (certe, le comment éxacte dépasse mes compétences donc je ne m'avancerai pas plus...). S'il se contantait de tuer le processus qui fait le défaut de page sans taper sur les voisins, cela nous conviendrait parfaitement...

              Bon, je vais quand même me replonger dans les options de compil, j'ai peut-être raté quelque chose...
              • [^] # Re: pondération

                Posté par  . Évalué à 2.

                Bon, je vais quand même me replonger dans les options de compil, j'ai peut-être raté quelque chose...

                Donc l'étude à raison, LINUX manque de documentation.... puisqu'il n'est nullement besoin de recompiler quoi que ce soit pour changer ce comportement.
                sysctl et /proc/sys/vm/overcommit_memory sont la pour cela.

                Il reste aussi a définir "documentation" parceque un googling sur "linux malloc oom_killer" ramène des tas de liens expliquant les algos d'overcommit et le réglagle avec sysctl.

                Bons tests :-)
                • [^] # Re: pondération

                  Posté par  . Évalué à 2.

                  A la base, je répondais à cette phrase :

                  Si mes souvenir sont bon c'est un changement d'algo a la compilation du noyau qui permet de le faire (sur le 2.6).


                  Comme je ne suis pas un expert es options du noyau, j'ai tout à fait pu rater quelque chose...

                  Quand à la recherche sur Google, j'avais regardé "linux oom_killer", qui raporte plus d'un millier de liens. J'en ai consulté certains, je n'ai clairement pas eu le temps de tout lire (j'ai un peu autre chose à faire).
                  Maintenant, je n'ai peut-être pas lu THE ultime document qui répond à ma problématique, Mais cela conforte dans ce cas ce que je disais un peu plus haut : la documentation des logiciels libres est très complète, mais par manque d'homogénéisation et parfois d'une vision "concrète" il devient fastidieux de trouver une réponse lorsque l'on n'a pas déjà parfaitement identifié le problème...
      • [^] # Re: pondération

        Posté par  . Évalué à 2.

        Lorsque l'on compare avec nos machines sous Tru64 ou même Solaris, il n'y a franchement pas photo (et pourtant je hais Solaris pour plein de raisons) ! J'ai déjà vu un serveur Alpha se rétablir après plusieurs heures au dessus de 50 points de charges. J'attends toujours de voir un Linux s'en approcher.


        Sur le même type de matériel ? Je dit ça, parce que là ou je bosse, linux est choisi pour des raisons entre autre économique et que généralement, le matériel est choisi avec les mêmes considérations (pas cher). Linux sert (ici) plutôt a faire des machines trés peu couteuse, en jouant sur la redondance et sur la simplicité de déploiement (installation full auto, config comprise), ce qui se fait forcément au détriment de la stabilité.

        Je pense que si tu compare la qualité matérielle d'une machine Sun ou Fujitsu a celle d'un serveur HP, quelque soit l'OS qui se trouve dessus, y a pas photo, mine de rien. (au niveau du prix non plus, d'ailleurs)

        Faut pas gonfler Gérard Lambert quand il répare sa mobylette.

        • [^] # Re: pondération

          Posté par  . Évalué à 6.

          Oui, le matériel a aussi un impact important, c'est évident.
          La plupart de nos serveurs Alpha n'ont pas eu une seule interruption de service d'origine matérielle en 6 ans d'utilisation intensive.

          Le paramêtre cout a bien sur influé également dans notre cas, même s'il était second (le premier, c'est l'arrêt des Alpha par Compaq). Et ce paramêtre n'a pas d'impact lorsqu'il s'agit de choisir entre FreeBSD et Linux par exemple...

          Maintenant, les problèmes que je décrivais ne sont pas dû au matériel mais uniquement au comportement du noyeau et de l'ordonnanceur. Le malloc de Linux a un peu trop tendance à répondre OK lorsqu'on lui demande d'alouer l'univers, et ne se pose des questions que lorsque le programme veut effectivement utiliser cette mémoire.

          De mon point de vue, un oom_killer capable de tuer des processus systèmes, c'est comme un antivirus sur un windows : c'est une solution à un problème qui n'aurait jamais dû se poser.
  • # Il n'y a rien à dire ...

    Posté par  (site web personnel) . Évalué à 10.

    ... qui n'ait déjà été dit sur OSNews :
    http://www.osnews.com/story.php?news_id=14830

    En particulier :
    - "I really don't understand why people still care what the Yankee Group has to say; the last three years should have been more than enough to show that they really just aren't trustworthy. "
    - "Laura Didio??? Credibility zero. "
    - "This article was posted for one of two reasons:
    1) Ignorance of the Yankee Group being paid shills
    2) Intentional flamebait
    Neither reason is excusable for a computing news discussion site."

    Même du coté de la réalisation de l'étude, il y a de gros doutes à avoir. En particulier :
    "Have they been patching Windows servers?
    Seeing as most decent patches that fix security require a reboot, and although it's pretty good, it still needs reboots from time to time to fix out little quirks, and most quirks never happen twice.
    Unless the Windows server is in it's own little bubble and closed network where they don't have to worry about anything."

    Mais le pire est la façon dont les chiffres sont annoncés : le 20% de downtime en plus devient :
    "Windows 2003 Server, in fact, led the popular Red Hat Enterprise Linux with nearly 20 percent more annual uptime."
    Ce qui renforce l'absence totale de crédibilité du résultat.
    • [^] # Re: Il n'y a rien à dire ...

      Posté par  . Évalué à -1.

      Have they been patching Windows servers?
      Seeing as most decent patches that fix security require a reboot, and although it's pretty good, it still needs reboots from time to time to fix out little quirks, and most quirks never happen twice.
      Unless the Windows server is in it's own little bubble and closed network where they don't have to worry about anything."


      Ca c'est faux, Windows Server 2003 requiert rarement des reboots pour des patchs maintenant, il aurait presque tendance a faire mieux que Linux d'ailleurs, sur WS03 tu peux souvent patcher le kernel(selon le contenu du patch) sans avoir a redemarrer ton kernel, idem pour a peu pres tous les autres composants aussi.
      • [^] # Re: Il n'y a rien à dire ...

        Posté par  (site web personnel) . Évalué à 6.

        Windows Server 2003 requiert rarement des reboots pour des patchs maintenant,

        ah !
        c'est marrant car dans la pratique, les serveurs sont windows sont toujours redémarré chez nous ... l'habitude sûrement :)

        Entre ce que l'on peux faire et ce qui est fait dans la pratique il y parfois un monde ... je le sais, Linux peux faire le café !
      • [^] # Re: Il n'y a rien à dire ...

        Posté par  . Évalué à 8.

        Windows Server 2003 tourne sous Hurd maintenant ? wow...

        Only wimps use tape backup: real men just upload their important stuff on megaupload, and let the rest of the world ~~mirror~~ link to it

      • [^] # Re: Il n'y a rien à dire ...

        Posté par  (site web personnel) . Évalué à 2.

        Tu es sur de la stabilité ?
        Parce que sous Linux on peut aussi patcher le kernel en bidouillant /dev/kmem mais c'est assez risqué.
        A moins que tu ne parle que de modules et dans ce cas c'est normal.
        • [^] # Re: Il n'y a rien à dire ...

          Posté par  . Évalué à 2.

          Tu es sur de la stabilité ?

          100%, c'est une feature de l'OS, et ca n'a rien a voir avec /dev/kmem, le systeme est concu pour et contient du code specifiquement pour gerer la chose.

          A moins que tu ne parle que de modules et dans ce cas c'est normal.

          Non, je parles de patcher des fonctions du kernel(attention, tu ne peux pas changer n'importe quoi a chaud non plus, il y a des limitations) a chaud.
      • [^] # Re: Il n'y a rien à dire ...

        Posté par  . Évalué à 0.

        c'est abuse de dire que c'est faux alors qu'ils parlent d un redemarrage de temps en temps et toi tu dis rarement.-
        On parle d'une difference de 3 h entre les 2 systeme sur un an, soit 0.03 %...
  • # fiabilité d'un OS?

    Posté par  . Évalué à 4.

    Je me suis toujours demandé ce qui signifiait "fiabilité d'un OS".
    En effet, ce qui importe n'est pas neccessairement l'OS en tant que tel, mais les services qu'il est censé forunir, et la fiabilité de ces services.
    Linux est sans doute plus fiable que 2003 en serveur NFS, ça ne fait aucun doute, MAIS il est vrai qu'en tant que controleur de domaine SMB, je pense que 2003 est plus fiable, et pour cause (SMB est un protocolé créé par Microsoft et IBM).

    enfin, un serveur 2003 qui ne sers que de PDC sera forcément plus fiable qu'un serveur linux sur laquelle tournera en même temps apache, sshd, nfsd, flexlmd, $universe etc....
    • [^] # Re: fiabilité d'un OS?

      Posté par  (site web personnel) . Évalué à 4.

      "en tant que controleur de domaine SMB, je pense que 2003 est plus fiable"

      Et encore, je suis pas persuadé. Pour continuer sur ce qui a déjà été dis, si tu fais les mises à jour de sécurité régulières, tu fais rapidement tomber la disponibilité (il n'est pas possible d'atteindre 5 neufs en faisant un reboot par mois). Une fois mis en place, samba 3 est très fiable. En terme de fonctionnalité, Windows 2003 est peut être mieux placé (logique puisqu'implémentation de référence pour SMB), mai s en terme de disponibilité je suis pas sur.
    • [^] # Re: fiabilité d'un OS?

      Posté par  (site web personnel) . Évalué à 7.

      >MAIS il est vrai qu'en tant que controleur de domaine SMB, je pense que 2003 est
      >plus fiable

      Moi je pense exactement l'inverse ;)
      Samba est vraiment bon, un serveur GNU/Linux avec Samba3 tient bien mieux la charge qu'un Windows 2003, ca y'a pas de doute à avoir... Après, malheureusement, en terme de fonctionnalité, Windows a toujours un train d'avance pour tout ce qui est Active Directory... Pas évident d'avoir un équivalent à 100% avec OpenLDAP meme si des projets comme SambaEdu3 s'en raproche... Mais bon, Samba4 arrive :)
  • # Troll

    Posté par  . Évalué à 3.

    Tel est le titre d'un article [1] du Monde Informatique paru le 06/06/2006.


    666, le chiffre de la bête du troll ...
  • # Quid du nombre d'incidents ?

    Posté par  . Évalué à 3.

    Cette etude precise simplement que le temps d'arret de la machine était superieur de 20% sur linux red-hat.

    Il n'est pas fait mention du nombre de defaillances entre les deux systemes.

    Prenons un exemple:

    Entre 10 pannes de 10 minutes et 3 de 40, on se retrouve avec un ecart de 20% .
    Pourtant, le systeme avec le downtime le plus long est aussi 3 fois plus fiable !
    • [^] # Re: Quid du nombre d'incidents ?

      Posté par  (site web personnel) . Évalué à 5.

      Je rajouterais quid du matériel et de l'usage du serveur ? Parceque d'après la présentation de l'étude, c'est juste des sondages auprès d'entreprises qui utilisent des serveurs sous Linux / Windows Server 2003 / ... qui ont été interrogées, et j'aurai tendance à dire que les serveurs sous Windows sont probablement de meilleure qualité en moyenne (quitte a payer la licence qui est loin d'être donnée, autant avoir du bon matos) que les serveurs sous Linux ("tiens cet ancien poste de bureau est inutilisé, je vais mettre un ftp dessus").

      Après, ce n'est qu'une supposition. Le problème avec cette étude (et avec beaucoup d'autre) c'est qu'on y a pas accès. On nous donne juste le résultat^Wl'annonce choc "Win > Tux" et aucun détail sur ce qui a permis d'aboutir à cette conclusion. Personnelement ça me rend méfiant, mais il y'a probablement des gens que ça influence (il y a bien des gens que ca ne gène pas d'utiliser des logiciels dont les détails de fonctionnement sont maintenus secrets).
      • [^] # Re: Quid du nombre d'incidents ?

        Posté par  . Évalué à 2.

        ET l'etude oublie également le temps de remettre en route la production qui tourne sur ses serveurs.
        En effet si la relance de la prod mets 30 mins sous Microsoft contre 15 mins sous linux, on voit bien que voir un serveur linux stopper pendant 20 mins est préférable à un serveur Microsoft stopper pendant 10 mins.
        Le soucis venant parfois de FS non journalisé (j'ai vu des prds qui n'étaient pas sous LVM ni dans un FS journalisé) avec des fsck de 10/15 mins.
        • [^] # Re: Quid du nombre d'incidents ?

          Posté par  (site web personnel) . Évalué à 2.

          XFS+gros backup(xfsdump) qui tient la route et tu repart même après un crash violent
          (bon faut seulement aller ramasser les miettes dans /lost+found après chaque xfs_repair)

          Montre en main sur un SF de 80Go pourrit jusqu'a la moelle, tu met 5minutes maxi (compris les deux reboot nécessaires)
          • [^] # Re: Quid du nombre d'incidents ?

            Posté par  . Évalué à 3.

            C'est pas si simple quand meme...

            Quand un serveur commence a crasher, surtout si c'est un crash violent, un admin qui a un peu de jugeotte va jeter un oeil sur le systeme avant de le remettre en production histoire d'essayer de deceler ce qui a cause le crash, car il n'a pas envie de voir sa machine crasher aleatoirement sans arret.

            Restaurer les donnees et rebooter le systeme, c'est pas forcement ce qui prend le plus de temps.
            • [^] # Re: Quid du nombre d'incidents ?

              Posté par  (site web personnel) . Évalué à 2.

              Jamais eu aucun problème (quel que soit l'application et les processus qui tourne)...

              Au choix :
              - p2p (tueur de filesystème a cause de leur écritures de petit blocs)
              - gros fichier (de 700/1-1.4Go et plein de 170-300Mo)
              - travail a partition remplie a 90%

              Bref aucun soucis.

              Le seul problème est la coupure de courant ou le freeze hard, comprendre tout bloqué, impossible de reprendre la main par autre chose que le bouton reboot.
              (les touches Alt+Impr Scr+* marchant pas)

              Dans ce cas là ça merde sur les fichiers encore ouvert et pas syncronisé (peu de cas)...

              Enfin bon avec un onduleur aucun danger...
  • # faille spatio temp

    Posté par  . Évalué à 7.

    - Windows 2003 est le système qui a été le plus fiabilisé depuis 3/5 ans.

    Tient on est déjà en 2008.
    D'ailleurs la personne qui affirme ça a surrement 10 ans d'XP en win2k3...

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.