Journal Fiabilité de Linux

Posté par  .
Étiquettes : aucune
1
25
jan.
2008
Bon, ayant abusé une enième fois d'effets Bling-Bling, j'ai réussi à bloquer ma machine à 100% (même ping ne passe plus). Ça m'a rappelé quand je découvrais Linux, en 1997, bouche bée devant la stabilité du Bouzin, avec Doom dans une console, plus X, plus ça.

Bref, pourquoi Linux est devenu moins stable en devenant plus Desktop? J'ai trouvé quelques pistes :

  1. C'est presque toujours l'affichage qui bloque une machine aujourd'hui
  2. Les cartes graphiques sont le domaine qui a le plus évolué en informatique dans les 15 dernières années : on est passé de l'affichage d'une zone de la RAM à un co-processeur, qui peut même être utilisé pour auter chose qu'afficher des pixels.
  3. Cette évolution s'est faite avec des critères de fiabilité largement inférieurs à ceux de l'informatique classique : pour l'affichage, une erreur de calcul est beaucoup moins grave, du coup les fabricants conçoivent du matériel "overclocké" par défaut, qui fait régulièrement des erreurs.
  4. A partir d'une certaine version, les systèmes d'exploitation propriétaires ont choisi de séparer complètement l'affichage du reste, permettant de réinitialiser complètement l'affichage sans perdre le travail en cours. Les pilotes de cartes graphiques incluent cette gestion des exceptions, qui leur permet de redémarrer la carte graphique à la volée, en moins d'une seconde.
  5. Le système d'affichage courant de Linux, Xorg ne permet pas encore cela : on peut réinitialiser l'affichage avec Ctrl+Alt+


    Conclusion, connaissez-vous un travail là-dessus sur X? J'ai rien trouvé sur la toile....
  • # Ah bon ?!

    Posté par  . Évalué à 5.

    les systèmes d'exploitation propriétaires ont choisi de séparer complètement l'affichage du reste


    Pas tous je t'assure...
    • [^] # Re: Ah bon ?!

      Posté par  . Évalué à 1.

      Je suis sûr pour Vista, mais je crois que XP aussi. Pour MacOS, c'est du ouï dire...

      ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

      • [^] # Re: Ah bon ?!

        Posté par  . Évalué à 6.

        Sous XP c'est ATI qui l'a mis en place (VPU recover), sous Vista c'est tous les pilotes qui doivent l'implémenter pour être certifiés.

        ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

        • [^] # Re: Ah bon ?!

          Posté par  . Évalué à 3.

          sous Vista c'est tous les pilotes qui doivent l'implémenter pour être certifiés.


          Je reconnais bien la technique, d'ailleurs : si un système ne fait pas ce que l'on veut, il suffit de faire passer une loi pour l'y obliger !...
      • [^] # Re: Ah bon ?!

        Posté par  . Évalué à 3.

        Des descriptions rapides que j'ai trouvé de GDI quickDraw ou Quartz, je ne trouve pas ça très éloigné des descriptions Xfree/Xorg

        'ti peu plus de doc liens mettant en exergue les différences? S'iouplait M'sieur?


        (J'avais l'impression que c'était l'inverse qui était fait pour améliorer (notament les petits flicker de transition) c'est à dire modulariser Xorg et ramener des bouts vers le kernel, d'autre bouts en espace utilisateur, non?)
      • [^] # Re: Ah bon ?!

        Posté par  . Évalué à 10.

        OS X a un système de fenêtrage pas trop mal foutu, avec un affichage de type PDF (ce n'est pas exactement du PDF en partie pour des raisons d'optimisation), et basé sur OpenGL
        * Quartz Compositor: l'équivalent de Xorg + Windows Manager
        * CoreOpenGL (CGL): l'équivalent de GLX.
        * Quartz2D: l'équivalent de Cairo ?
        * QuartzExtreme: support de l'accélération graphique matérielle.
        Une page qui l'explique avec un peu plus de détails.
        http://developer.apple.com/documentation/MacOSX/Conceptual/O(...)

        OS X est un vrai Unix, on peut même le démarrer en mode console ...
  • # Bah

    Posté par  . Évalué à 5.

    Déjà, qu'est ce que tu appelle Blong-blong ?? Compiz & co ? Dans ce cas, vient pas te plaindre.

    Sinon, il te reste toujours la console originel.
    • [^] # Commentaire supprimé

      Posté par  . Évalué à 4.

      Ce commentaire a été supprimé par l’équipe de modération.

      • [^] # Re: Bah

        Posté par  (site web personnel) . Évalué à 10.

        Même ça GNOME ne le fait pas bien ? Mais a-t-il une seule qualité pour finir ?
      • [^] # Re: Bah

        Posté par  . Évalué à 4.

        Euh... C'est quoi ces problèmes «connus» dont souffre Metacity ? Parce que je le trouve très bien ce petit gestionnaire de fenêtre.

        Si c'est pour le manque de fonctionnalités par rapport à Kwin, je ne trouve pas que ça pose problème, ça colle bien à la phisolophie de GNOME. Et puis il existe des programmes pour compléter : ça colle à UNIX, un programme pour une fonctionnalité :-).

        Article Quarante-Deux : Toute personne dépassant un kilomètre de haut doit quitter le Tribunal. -- Le Roi de Cœur

        • [^] # Re: Bah

          Posté par  (site web personnel) . Évalué à 7.

          Il pensait sans doute à la lenteur incommensurable des refresh de fenetre sous metacity, genre il faut plus d'1s à firefox ou thunderbird pour passer d'un vilain carré gris à une fenetre bien remplie. Sous n'importe quel autre wm c'est quasi-instantané.
    • [^] # Re: Bah

      Posté par  . Évalué à 4.

      Le pilote d'une carte graphique peut être vu comme un OS aujourd'hui, il ne faudrait donc pas qu'une application puisse planter l'OS. Que ce soit une allocation de ressources exagérée ou quoi que ce soit d'autre, il faut pouvoir le gérer sainement. Et si c'est le hardware qui n'est pas fiable, il faut pouvoir le rebooter à partir de l'OS superviseur (dans ce cas Linux et X)

      ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

  • # Serveur vs Desktop

    Posté par  . Évalué à 7.

    Je ne pense pas que linux soit devenu moins stable.
    En effet, il y a 8 ans, lorsque j'installais ma première redhat 5.2, je me souviens qu'on disait de linux que c'est un système pour serveur. donc, sa stabilité était jugé sur les parties serveurs
    Je travaille encore régulièrement avec des serveurs sous redhat 64 bits ou debian, et je peux te garantir que c'est encore plus stable qu'il y a 8 ans.
    Mais désormais, linux est également un noyau pour des systèmes desktop. Et là, plus que linux à blamer, je pense que tu devrais juger les distributeurs d elinux, qui maintiennent, configurent, et choississent un peu ce que sera leur desktop.
    Maintenant, si tu veux juger sur la partie desktop, c'est simple, il y a 8 ans, il fallait sortir les irq de ta carte son poru la faire fonctionner, et sortir les taux de rafraichissement pour X11. Quant aux modems internes, c'est simple: ils ne fonctionnaient pas. C'est à dire qu'avoir un linux desktop n'était pas chose aisé.
    Moi, je préfère peut être un truc bancal qu'un truc dificille à faire marcher.

    donc, non, linux n'est pas devenu moins stable, ce sont les distributions, qui en voulant être au firmament des distributions , se sont parfois engagé dans des voies regrettables (la rapidité à la palce de la stabilité, les utilisateurs desktop étant plus demandeurs de nouveaux packages)
    • [^] # Re: Serveur vs Desktop

      Posté par  . Évalué à 2.

      J'utilisais en titre le mot Linux au sens générique. Dans le détail, c'est bien sûr X plus le pilote drm qui ont à gérer un reboot des cartes graphiques.

      ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

      • [^] # Re: Serveur vs Desktop

        Posté par  . Évalué à 2.

        D'accord, ne penses tu pas que la non publications des specifs pour les développeurs y est pour quelque chose ?
        Ou alors, sinon, tu remets en cause toute l'architecture d'unix, où le serveur X11 est clairement séparé du noyau
        • [^] # Re: Serveur vs Desktop

          Posté par  . Évalué à 5.

          Avec l'accélération drm sous x86, X11 n'est plus si séparé du noyau que ça. D'où les crashs.

          ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

  • # pilotes de cartes graphique

    Posté par  . Évalué à 7.

    Y'a quand meme surtout un probleme au niveau des pilotes de cartes graphiques non ?
    • [^] # ma vie...

      Posté par  . Évalué à 2.

      Sans doute, c'est précisément la raison pojur laquelle j'ai fini par débrancher ma Geforce 5200 et que j'utilise la carte intégrée à ma carte mère. Depuis, X ne plante plus. Bon du coup c'est moins "bling-blong zyva que j'te fais la nique à Vista et OSX" mais Ardour n'a jamais aussi bien tourné !

      [mode=troll]

      Et les compiz et compagnie c'est bien joli mais je vois franchement pas l'intérêt, sinon celui de perdre son temps. S'extasier devant un cube qui tourne avec un décor de fond en 3d c'est bien un truc de geek. Très puéril finalement tout ça...

      [/mode=troll]
      • [^] # Re: ma vie...

        Posté par  . Évalué à 1.

        Pour alimenter le troll, je dirais, que je ne suis pas gamer (sinon à gnubg) , donc je préfère que le CPU décharge le bureau à la carte graphique.
        en effet, compiz est peu utile si tu es gamer.
        Tu va me dire si tu es pas gamer, tu prends une carte graphique de base, ce que j'ai , mais voilà, 256Mo de memoire graphique pour une simple Geforce, je trouve pas ça une carte graphique bas de gamme (à se souvenir: les SiS 6536, ça c'est de la CG de base)
        • [^] # Re: ma vie...

          Posté par  (site web personnel) . Évalué à 1.

          si tu es pas gamer, tu prends une carte graphique de base, ce que j'ai , mais voilà, 256Mo de memoire graphique pour une simple Geforce, je trouve pas ça une carte graphique bas de gamme (à se souvenir: les SiS 6536, ça c'est de la CG de base)
          • [^] # Re: ma vie...

            Posté par  . Évalué à 4.

            sauf que pour acheter des cg de base, accroches toi, à Montgallet, el minimum desormais, c'est une ATI 7500 avec 64Mo de Ram graphique.
            Est ce une cg de base ?
            donc, autant mettre 5€ de plus pour faire tourner compiz, qui a au moins le merite de decharger le CPU
      • [^] # Re: ma vie...

        Posté par  . Évalué à 8.

        Et les compiz et compagnie c'est bien joli mais je vois franchement pas l'intérêt, sinon celui de perdre son temps. S'extasier devant un cube qui tourne avec un décor de fond en 3d c'est bien un truc de geek. Très puéril finalement tout ça...


        Je sais que ton commentaire est un commentaire du vendredi et donc sans doute exagéré.
        Cependant, je trouve dommage cette image de bling-bling qui colle à Compiz. Moi je l'ai activé avec quasiment aucun effet, et je trouve qu'un niveau fluidité, y'a pas photo. Pas de fenêtre molle, d'effet 3D, de jesaispasquoi, mais juste un affichage très fluide, donc beaucoup plus confortable.
      • [^] # Re: ma vie...

        Posté par  . Évalué à 10.

        Moi je vais "voler au secours" de compiz et attirer contre moi les votes [inutile] des vieux barbus.

        Compiz n'est qu'un gestionnaire de fenêtres. Certes, il est plus pointu techniquement, il est basé sur des technologies pas toujours très stable et/ou nouvelles. Mais ce n'est qu'un gestionnaire de fenêtre comme TinyWM.

        Les fameux effets qui font hurler peuvent avoir un sens.

        J'esplique :

        une fenêtre qui explose lorsqu'elle est fermée indique très clairement à l'utilisateur qu'il ne pourra pas la retrouver sans rouvrir l'application.

        une fenêtre qui fait un salto arrière et qui se dirige vers la barre des tâches indique clairement à l'utilisateur que l'appli n'est pas fermé mais qu'elle s'est "miniaturisée".

        Même le cube a une valeur sémantique, ça a permis à certains de mes proches de comprendre le principe du multi desktop.

        Alors, oui, ca fait bling bling, oui, ca brille et c'est "nouveau" (pas si nouveau que ça en fin de compte) mais ca apporte du sens, et si en plus ca peut faire bosser le GPU à la place de CPU, je trouve que compiz est un progrès.
        • [^] # Re: ma vie...

          Posté par  . Évalué à 7.

          "Même le cube a une valeur sémantique, ça a permis à certains de mes proches de comprendre le principe du multi desktop."

          Lorsque j'ai installé Linux sur l'ordi de ma mère (qui n'utilise que très rarement l'informatique), le cube lui a fait immédiatement comprendre le principe de multi-bureau, alors qu'avant lorsque je montrais ça à des amis il fallait toujours un petit temps avant qu'ils commencent à saisir. Donc, je confirme !

          De plus des fonctionnalités comme "exposé" sont vraiment utiles, c'est indéniable.

          Donc je suis plutôt pro-compiz. Même si pour l'instant je ne l'utilise pas car il ne fait pas forcément bon ménage avec vlc et xine (obligé d'utiliser xshm, ce qui dégrade un peu l'image) et les applis qui utilisent la 3D (je sais que cela est lié à ma carte intel et pas à compiz).

          Et puis est-il besoin de préciser que sur nos chers systèmes libres, on a le choix ? Metacity, Compiz, Kwin ne conviennent pas ? FVWM, Window Maker etc...
        • [^] # Commentaire supprimé

          Posté par  . Évalué à 4.

          Ce commentaire a été supprimé par l’équipe de modération.

  • # le probleme c'est pas linux mais XFree86

    Posté par  . Évalué à 10.

    et oui on en revient encore a cela... le consortium a tellement bien bloque les choses qu'il faut avouer que de 10 ans d'avances X est passe a 10 ans de retard. C'est pas tellement que les cartes graphiques ont enormement change mais plutot que XFree86 a empeche toutes modifs de X et d'inclusion des nouvelles technos pendant tres longtemps d'ou le fork Xorg.

    Xorg a decide de faire les choses proprement et du coup ils ont commence par modernise un peu le systeme de compilation (passage a autocon/automake), modularise le noyau (plus besoin de tout recompile pour un seul driver) et maintenant ils sont en train de rajouter les nouveautes tel que branchement a chaud (xrandr), AIGLX, ils changent le module d'acceleration (passage a EXA) mais bon pour que tout ceci fonctionne il faut que les drivers s'adaptent (ce qui est lent vu le manque d'info sur les cartes et les drivers pourraves proprio tel que celui de ATI).

    Il y a de plus un projet de separer au maximum Xorg du kernel mais je sais pas trop ou cela en est. Il est clair que cela va devenir de plus en plus fondamental vu tout les problemes de stabilite des drivers de cartes graphiques. Vu que ces drivers sont en mode kernel cela fait peut faire crasher le systeme.

    En resume la situation est tel qu'elle est "grace" au consortium XFree86, c'est connu et c'est en train d'etre corrige mais cela va doucement.
    • [^] # Re: le probleme c'est pas linux mais XFree86

      Posté par  . Évalué à 10.

      Dans les griefs tu oublies de mentionner que tout X tourne en root alors que seule une fraction en a besoin, fraction parfaitement identifiée par le projet OpenBSD (leur X tourne avec l'utilisateur _X11 ou un truc du genre, et seule la partie ayant besoin des droits root tourne en root).

      D'ailleurs OpenBSD est en train d'implémenter les drm pour avoir enfin l'accélération graphique, ils risquent donc encore une fois de lever quelques lièvres. Je ne sais pas où çà en est, faudra que je regarde.
    • [^] # Commentaire supprimé

      Posté par  . Évalué à 10.

      Ce commentaire a été supprimé par l’équipe de modération.

  • # Re:

    Posté par  . Évalué à 4.

    > A partir d'une certaine version, les systèmes d'exploitation propriétaires ont choisi de séparer complètement l'affichage du reste.

    Ce n'est pas vrai.

    > permettant de réinitialiser complètement l'affichage sans perdre le travail en cours.

    Ce genre de politique trouve vite ses limites. Si c'est "seulement" la partie 3D de la carte graphique qui est en vrac, tu peux réinitialisé et faire un "refresh". De ce que j'en sais, Windows le fait que pour ce qui est Direct3D. De plus il faut que les applis (ou le bureau) le gèrent (les dernières version de Direct3D facilité la chose). Ce n'est pas "magique".
    Pour ma part je trouve que c'est une vraie fausse solution.
    Et tout ça pour du bling-bling...
    • [^] # Re: Re:

      Posté par  . Évalué à 3.

      Les cartes graphiques de dernière génération n'ont plus de partie 2D cablée. C'est le firmware qui fourni une interface VESA, et le pilote doit utiliser la partie 3D même en 2D (cf. le problème des ATI 6xx pour avoir un pilote libre).

      ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

      • [^] # Re: Re:

        Posté par  . Évalué à 1.

        Qu'importe.
        Si tu as une carte graphique qui plante, le système plante. Il y a seulement une petite tolérance.
        Change de carte graphique sous Windows à la volé et voit ce qui se passe (si jamais il y a quelque chose à voir...).
        • [^] # Re: Re:

          Posté par  . Évalué à 3.

          Non : si tu as 2 machines en cluster, ce n'est pas parce que l'une plante matériellement que l'autre doit planter. Les cartes graphiques actuelles sont un 2ème PC dans le PC, avec beaucoup plus d'erreurs matérielles possibles.

          ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

  • # C'est stable !

    Posté par  . Évalué à -10.

    A condition d'utiliser un système totalement obsolète comme Ubuntu stable ou debian stable.

    youhou.
  • # Le vendredi c'est permis

    Posté par  (site web personnel) . Évalué à 8.

    Bon, ayant abusé une enième fois d'effets Bling-Bling...

    Sort de ce corps Sarkozy !
  • # Moi j'utilise screen

    Posté par  . Évalué à 1.

    Du fait de tout ces vieux crash de drivers je me suis replier sur une solution qui marche pour moi : avoir tous mes programmes penibles a relancer qui tournent en console dans un screen (mpd,mutt,rtorrent,wget)

    Et apres CTRL ALT <- quand ca crash
    • [^] # Re: Moi j'utilise screen

      Posté par  (site web personnel) . Évalué à 2.

      Je pense qu'il serait aussi possible d'avoir un proxy X11 ... comme screen en fait. C'est à dire que tu lances tes programmes graphiques à travers ton proxy, si le serveur X plante, le proxy se déconnecte et tes applications restent ouvertes, et tu peux les réattacher a un autre serveur X par après.

      je pense ue c'est possible, j'aimerais bien avoir ça, mais je n'ai pas l'impression que ça existe encore ...

      Sinon, l'autre solution c'est d'utiliser screen ... c'est bien mais limité au mode texte.
      • [^] # Re: Moi j'utilise screen

        Posté par  . Évalué à 0.

        VNC ?
        • [^] # Re: Moi j'utilise screen

          Posté par  . Évalué à 2.

          Tu as raison, VNC, ou NX permettent cela. Leur défaut est la perte de performances.

          ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

        • [^] # Re: Moi j'utilise screen

          Posté par  (site web personnel) . Évalué à -1.

          Il ne me semble pas ...

          VNC me permettra d'avoir mon application qui continura de tourner ... mais le gros inconvénient, c'est que ce n'est pas intégré à mes autres applications. En gros, je vais avoir des fenêtres à l'intérieur de la fenêtre VNC ... et je devrais lancer à l'intérieur un autre window manager.

          NX le fait peut être (je n'ai pas fouillé), mais par contre ça m'a l'air beaucoup plus lourd a utiliser.
          • [^] # Re: Moi j'utilise screen

            Posté par  . Évalué à 3.

            comme dans le cas de screen, tu ne vas rien lancer en dehors du VNC, le serveur X n'aura qu'un client (le client VNC), donc tu auras un seul WM, celui à l'intérieur du VNC, donc il n'y a aucun problème d'"intégration" ou quoi que ce soit...
      • [^] # Re: Moi j'utilise screen

        Posté par  . Évalué à 2.

        Franchement moi aussi je cherche ce genre de chose depuis bien longtemps. J'avais cherché a un moment, il il me semble que ca fait meme partie du protocole X11 ou autre, bref, ca doit etre faisable. Mais je ne retrouve pas les liens. Mais qu'est-ce que ca serait pratique...
        • [^] # Re: Moi j'utilise screen

          Posté par  (site web personnel) . Évalué à 3.

          en:Xnest par exemple ?
          • [^] # Re: Moi j'utilise screen

            Posté par  . Évalué à 5.

            Oui et non, car il faudrait pouvoir attacher dynamiquement une fenetre a un autre serveur. Le truc serait d'avoir ses fenetres sur un serveur "virtuel", qui serait connecté a notre vrai serveur X quand il es t lancé. Mais en cas de plantage ou relancement du serveur X principal (changement de conf par exemple), le serveur virtuel se déconnecte du serveur principal, le temps qu'il redémarre, comme ca on ne perd pas ses fenetres. Bon, dans le cas d'un crash c'est un peu difficile car la déconnexion n'est pas prévue a l'avance.
            Mais sur un serveur a distance, ca permetterait de faire comme un screen, mais en graphique : un proxy (serveur virtuel) tourne sur la bécane distante, et on l'attache a notre serveur X local quand on veut, et on voit réapparaitre les fenetres qu'on avait laissé avant. Ca serait terrible. En plus, X11 doit deja gérer la majorité des ces fonctionnalités (export du display : OK, réattachement des fenetres d'un serveur a un autre : il me semble, mais je trouve plus d'info a propos de ca).
    • [^] # Re: Moi j'utilise screen

      Posté par  . Évalué à 3.

      pénible à relancer ???
      c'est plutôt pénible à interrompre... mpd n'a pas besoin de screen, taper 'mutt' va aussi vite que taper 'screen -R'.
    • [^] # Re: Moi j'utilise screen

      Posté par  . Évalué à 2.

      Je parlais des crashs où même ça n'est plus possible : la CG plante, le pilote n'a pas prévu ce cas, il reste en attente d'une réponse de la CG, tout plante. Sous Vista, au bout de 2 secondes sans réponse, le pilote reboote la CG, et redessine l'affichage.

      ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

  • # Linux n'est pas fiable

    Posté par  . Évalué à -10.

    J-1 :
    "- Hé Linux, tu passe me donner un coup de main demain ?"
    "- OK, pas de problème."

    J :
    "- Hé Linux, Tu viens ?"
    "- Vas te faire voir !"

    La preuve est faite, Linux n'est pas fiable.
  • # L'ingénieurie par les features, les perfs et le marketing.

    Posté par  . Évalué à 10.

    A partir d'une certaine version, les systèmes d'exploitation propriétaires ont choisi de séparer complètement l'affichage du reste, permettant de réinitialiser complètement l'affichage sans perdre le travail en cours. Les pilotes de cartes graphiques incluent cette gestion des exceptions, qui leur permet de redémarrer la carte graphique à la volée, en moins d'une seconde.

    J'aurais tendance à considérer ça comme le résultat malheureux de l'ingénierie dirigée par les features, les perfs et le marketing (la qualité étant négligée à 99%, car ne faisant pas vendre). Un redémarrage isolé de sous-système a du sens en tant que mesure de sûreté dans un système critique avec des requirements de type "fail operational", au petit détail prêt que c'est le genre de chose tellement compliqué à faire correctement qu'il y a un risque de provoquer encore plus de défauts qu'auparavent (certains étant néanmoins récupérés correctement par le redémarrage, super!), ce n'est certainement pas une mesure à implémenter par défaut sur une CG grand public et le sous-système graphique associé d'OS grands publics, et une telle utilisation paliative me fait horreur : l'effort nécessaire à faire des produits qui fonctionnent correctement est sans doute radicalement inférieur à l'effort nécessaire à l'implémentation d'une telle usine à gaz permettant la reinitialisation de la CG.

    Sauf bien sûr lorsque la qualité ne compte plus.

    La chaîne de consommation a une grande part de responsabilité dans cet échec : en acceptant d'acheter des produits surdimensionnés pour ensuite faire du Word et du WWW, le consommateur déplace l'offre vers les perfs, les logiciels deviennent lent et bloated de part la pression marketing et l'absence de pression contraire au niveau des ressources dispo sur les plate forme d'exécution, le tout génère une usine à gaz qui tombe tout le temps en panne, et le point final à tout ceci est effectivement que des solutions horribles sont utilisées en guise de paliatif alors qu'elles n'auraient jamais du être employées dans ce domaine (et ne l'aurait jamais été dans un contexte sain).

    Pour ma part, n'ayant jamais eu l'occasion d'admirer un système Linux sur lequel un X Window est stable avec les bordels proprio d'NVidia ou autres, j'évite dorénavant ce genre de config comme la peste. Un système dans lequel on paye pour des choses que l'on utilise jamais est une preuve d'inadéquation au besoin, voir un échec technique pur et simple.
    • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

      Posté par  (site web personnel) . Évalué à 4.

      Un système dans lequel on paye pour des choses que l'on utilise jamais est une preuve d'inadéquation au besoin, voir un échec technique pur et simple.

      Voilà la plus belle phrase du thread! Je ne suis pas sûr d'être d'accord avec toi mais résumer ainsi toute l'évolution de l'informatique grand public mérite le respect.
    • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

      Posté par  . Évalué à 6.

      > l'effort nécessaire à faire des produits qui fonctionnent correctement est sans doute radicalement inférieur à l'effort nécessaire à l'implémentation d'une telle usine à gaz permettant la reinitialisation de la CG

      Oui, mais là tu ignores que ce ne sont pas les mêmes qui font l'effort : d'un côté, c'est Microsoft qui fait le bouzin, de l'autre c'est toute entreprise qui vend un CG qui bidouille plus ou moins ses puces. Le but de Microsoft est de se protéger des mauvaises puces graphiques. Ce système a d'ailleurs été mis en place en premier par ATI pour ses pilotes sous XP. Ils savaient pourquoi ils avaient besoin de cela.

      Le but sous X11 serait aussi de se protéger du fait que les CG ne sont pas faites avec des critères qualité équivalents au reste du système. Comment fait-on pour pallier aux problèmes de réseau? On prévoit la perte de trames!

      ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

    • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

      Posté par  (site web personnel) . Évalué à 4.


      l'effort nécessaire à faire des produits qui fonctionnent correctement est sans doute radicalement inférieur à l'effort nécessaire à l'implémentation d'une telle usine à gaz permettant la reinitialisation de la CG.


      C'est là que tu te trompe amha. Tout est lié: comme le marché est dirigé par les coûts et les perfs si les gros vendeurs de cartes puis d'OS ont décidé de faire comme ça c'est bien parce que économiquement c'est le plus rentable.

      Il est beaucoup (et de loin) plus facile de concevoir des palliatifs logiciels à un matériel défaillant que fiabiliser le matériel.
      Les coûts d'ingénierie sur les puces, et les coûts de fabrications sont de loins supérieurs au cout d'une équipe de r&d logicielle.
      • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

        Posté par  (site web personnel) . Évalué à 5.

        Bah voyons, «pondons du matos de merde, les développeurs logiciels auront qu'à se débrouiller pour corriger notre travail baclé.», ça c'est de la philosophie!
        • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

          Posté par  (site web personnel) . Évalué à 3.

          C'est surtout du pragmatisme.
        • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

          Posté par  . Évalué à 3.

          Les logiciels ont toujours eu pour rôle de contourner les problèmes et limitations du matériel. Bienvenue dans l'informatique!

          ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

          • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

            Posté par  (site web personnel) . Évalué à 3.

            Moi qui pensait naïvement qu'ils servaient à exploiter au mieux les services que fournies un matériel pour accomplir une tâche donnée. Ah bah non, en fait ils sont sensés corriger les services foireux que fournie le matériel.
            • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

              Posté par  . Évalué à 2.

              Exact. Tu me rappelles un post de Linus quand il travailla sur du matériel Transmeta : grosso modo, il disait que c'est vachement dur de faire du matériel, parce qu'on peut pas corriger le bug en 5 minutes. En fait, on se le coltine jusqu'au prochain stepping de la puce. Voir aussi le bug des derniers AMD, qui est pour l'instant corrigeable seulement par le BIOS, en perdant 30% des performances.

              ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

            • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

              Posté par  . Évalué à 6.

              Ben écoute, si tu veux racheter une carte graphique à chaque fois qu'on découvre un bug dedans fait toi plaisir.

              Ou alors prie pour qu'on ne découvre jamais de bug dedans, ou qu'on découvre des manières révolutionnaires de faire des trucs parfaits à pas trop cher.
            • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

              Posté par  . Évalué à 3.

              c'est effectivement naif.

              Suffit de comparer les couts de deploiement d'une nouvelle version d'un GPU (surtout a ce niveau la, vu la complexite des machins...) et de deploiement d'une nouvelle version du pilote.

              Tu fais quoi quand tu trouves un bug?
              Tu lances une nouvelle production de cartes et les envoie a chaque client par la poste, tout en n'oubliant pas au passage de rappeller le stock actuel en magasin, ou t'updates le pilote pour corriger le bug et tu fait la mise a jour automatique du pilote?
        • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

          Posté par  . Évalué à 8.

          Bon, pour essayer de trouver un juste milieu avec la horde de "pragmatistes" qui sévit ici, je dirais que cette maniere d'opérer, de faire un matos a la va-vite avec plein de bugs et espérer que le soft va corriger les problemes, c'est vraiment naze comme méthode de développement d'un matos.
          Par contre, effectivement cela est parfois plus rentable et meme utile d'avoir un workaround logiciel quand il y a un bug dans le hard, mais qu'on essaye au moins de faire du hard le mieux possible.
          • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

            Posté par  . Évalué à 3.

            Oui, mais quand on est en concurrence sur un marché, il faut séduire les clients. Et les clients des cartes graphiques sont les joueurs, qui s'en fichent de la qualité du matériel dès lors que c'est rapide et joli.

            Donc l'industrie propre à la Matrox a disparu et Nvidia a pris sa place en sachant faire du matériel qui fait plein d'erreurs de calculs invisibles à l'écran, et des pilotes qui compensent ça. Ati, pour suivre, a accepté aussi les erreurs, mais elles sont tombées au mauvais endroit, et du coup ils dû inventer le pilote qui reboote la carte graphique sous XP.

            Je n'ai aucune preuve certifiée de ce que j'écris, c'est juste mon interprétation de mon vécu avec le matériel graphique dans les 10 dernières années

            ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

            • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

              Posté par  . Évalué à 2.

              Je pense que ton analyse est bonne : je me rappelle des 1eres Riva 128 qui comptaient uniquement sur la vitesse de rendu, alors que la qualité était pourrie. Effectivement, aujourd'hui les constructeurs se battent plus pour la rapidité que pour le rendu.

              Mais bon, des fois, les gens sont vraiment cons a acheter n'importe quoi "parce ce que c'est pas cher", et puis apres ils se plaignent que c'est pourri, mais bon, ils acheteront quand meme la prochaine version ...

              Enfin bon, en gros c'est un probleme humain plus qu'autre chose, les gens ne réfléchissent pas et aiment acheter les produits buggés parce qu'ils sont pas chers. Mais je ne pense pas que ce soit ca qui fera "évoluer" l'industrie du bon coté. Moi je n'ai pas besoin d'etre "séduit" (rien que la connotation de ce mot veut tout dire), je veux juste un bon produit. OK, il n'y a pas beaucoup de monde comme ca, mais si on pouvait chacun essayer de faire réfléchir les moutons, ca pourrait peut-etre changer qqch ?...
      • [^] # Re: L'ingénieurie par les features, les perfs et le marketing.

        Posté par  . Évalué à 5.

        Sauf que ce que je revendique, c'est aussi que le matos soit simple et fiable.

        Il y a pas mal d'entreprises (qui n'ont rien à foutre des fenêtres en 3D qui tournent par exemple) qui serait ravies par un tel matos... sauf si ce que les revendeurs de soft leur proposent (Vista ? :p ) ne fonctionne pas dessus (ou à une vitesse qui les rendrait envieux en regardant des CPC 64), évidemment.

        En passant ça pourrait permettre de réduire la conso électrique.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.