Journal Bureau indépendant de l'affichage réèl

Posté par  .
Étiquettes : aucune
25
7
oct.
2008
Alors voilà, mon problème de Janvier est devenu le problème des développeurs de Xorg. Il faudra un jour ou l'autre que le bureau X soit indépendant du système d'affichage.

Dans son blog, Adam Jackson nous raconte que la nouvelle génération d'ordinateurs portables vient avec 2 GPU : un intégré pour le mode batterie, un plus puissant pour les jeux. La bascule se fait automatiquement sous Windows : il peut basculer le bureau en cours d'une carte graphique à l'autre. Sous Xorg, il y a beaucoup de choses à modifier pour y arriver un jour.
  • # Cuda

    Posté par  . Évalué à 10.

    C'est aussi indispensable pour les personnes utilisant leur GPU pour faire du calcul. A la base ca parait une bonne idée, ca a des perfs de fou sur certains types de problèmes mais... une erreur dans le code utilisateur en CUDA peut emmener le driver et la carte avec lui ! Et même assez facilement. C'est marrant de voir la tête de l'utilisateur local qand sa machine freeze.

    Donc en gros sous linux on passe son temps à rebooter les machines, c'est totalement inutilisable. Sous windows, les drivers reboot tant bien que mal la carte et c'est reparti 2 secondes après.

    Placez ici vos commentaires de vierges éffarouchées comme quoi un code utilisateur ne devrait pas pouvoir faire tomber la CG et que ces constructeurs ils sont vraiment nuls (cf journal précédant) :-)
    • [^] # Re: Cuda

      Posté par  . Évalué à 2.

      Quoi ? Un code utilisateur ne devrait pas pouvoir faire tomber la CG....

      Que ces constructeurs ils sont vraiment nuls !

      Que t'as vu, quoi...
      • [^] # Re: Cuda

        Posté par  . Évalué à 5.

        Oui, ils sont nuls. Ils devraient s'intéresser à/investir dans la recherche en langages de programmation visant à empêcher ce genre de chose : systèmes de types, etc. Il me semble qu'il y a déjà une petite (?) communauté d'experts en méthodes formelles chez Intel, comme John Harrison, qui devrait être sensibilisée à ce genre de technologies.
    • [^] # Re: Cuda

      Posté par  (site web personnel) . Évalué à 1.

      Sous windows, les drivers reboot tant bien que mal la carte et c'est reparti 2 secondes après.
      C'est pas plutôt Windows qui décharge/recharge le driver ?
      • [^] # Re: Cuda

        Posté par  . Évalué à 3.

        Je connais pas les détails techniques derrières, mais oui à priori c'est le driver qui est rechargé. Abus de langage de ma part.
        • [^] # Re: Cuda

          Posté par  (site web personnel) . Évalué à 5.

          Donc alors y'a pas de problème, que du code utilisateur face planter le driver de sa carte ce n'est ni la première ni la dernière fois.
          le troll est ailleur : sous Windows Vista la grosse partie des drivers graphique tourne en user-space, évitant un crash de l'OS, juste un rechargement du driver en question.
          Maintenant la question c'est pourquoi sous Linux le serveur X entraîne le plantage de la machine.
          • [^] # Re: Cuda

            Posté par  (Mastodon) . Évalué à 5.

            Je ne suis pas certain que le plantage de X plante la machine.
            Ça plante l'affichage, et si le clavier (géré par X) est aussi gelé, on a l'impression de machine plantée.

            Une connexion via une deuxième machine devrait aider à relancer X sans relancer la machine.

            Et si le clavier n'est pas planté, Ctrl+alt+backspace, ou alt+f1 plus relance de X...
            • [^] # Re: Cuda

              Posté par  . Évalué à 3.

              ... ou un petit redémarrage du gestionnaire de session, ou un tuage de X, si on a lancé le bousin avec un startx, via une connexion en SSH...

              ... ce qui ne peut fonctionner que si la machine n'est pas plantée, cela dit (ce qui arrive)...
            • [^] # Re: Cuda

              Posté par  (site web personnel) . Évalué à 2.

              Oué enfin toutes les applications graphiques en cours d'exécution passe à la trape avec... et les manips que tu proposes ne sont pas très user-friendly.
  • # 2 GPU?

    Posté par  . Évalué à 10.

    C'est tordu comme solution. Pourquoi pas un GPU qui adapte sa consommation à la charge?
    • [^] # Re: 2 GPU?

      Posté par  . Évalué à 6.

      parce que principe gnu / ou autre :
      1 outil = 1 tache , un outil ne doit savoir faire qu'une seule tache mais doit la faire à la perfection, etc etc

      et après tu peux utiliser && / | pour gérer les 2 GPU.

      tu vois l'idée... :-)
      • [^] # Re: 2 GPU?

        Posté par  . Évalué à 3.

        ou autre, on va dire...
      • [^] # Re: 2 GPU?

        Posté par  . Évalué à 4.

        Pourquoi ne pas mettre 2 cpu, 2 disques, 2 mémoires, 2 écrans..? Bref on pourrait doubler toute la machine :-)
    • [^] # Re: 2 GPU?

      Posté par  . Évalué à 3.

      Parce que ça consomme quand même plus qu'un GPU qui utilise la RAM de la machine. Ce n'est pas si tordu, c'est optimisé!

      ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

    • [^] # Re: 2 GPU?

      Posté par  (site web personnel) . Évalué à 4.

      Dans la foulée on devrait aussi faire 2 CPU : un tout pourri qui ne consomme rien du tout, et un quadcore par exemple pour quand on a besoin de CPU.
  • # situation transitoire

    Posté par  (Mastodon) . Évalué à 10.

    >Dans son blog, Adam Jackson nous raconte que la nouvelle génération d'ordinateurs portables vient avec 2 GPU : un intégré pour le mode batterie, un plus puissant pour les jeux. La bascule se fait automatiquement sous Windows : il peut basculer le bureau en cours d'une carte graphique à l'autre. Sous Xorg, il y a beaucoup de choses à modifier pour y arriver un jour.

    Mon petit doigt me dit que ça ne sert à rien de s'emmerder avec ça et que ça ne se généralisera pas.

    D'une part parce que la part de gens qui jouent avec leur laptop est assez limitée, d'autre part parce que ça doit être une situation transitoire en attendant que les producteurs de GPU n'arrivent à faire un GPU décent qui sait adapter sa consommation.

    L'idée me parait tellement bancale à la base, je ne vois pas comment ça pourrait durer. C'est un peu comme cette idée de vouloir rajouter des cartes dédiées à la physique des jeux, ça ne prend pas.

    Donc à mon avis, s'il y'a du travail à faire, c'est via d'autres motivation : récupération du bureau après plantage du driver/hardware, reconfiguration à chaud de l'affichage (je veux changer de driver, ou le recharger après une mise à jour qui corrige un bug sans perdre ma session). Après si ça aide dans ce cas précis, tant mieux, mais à mon avis c'est juste un délire transitoire de quelques constructeurs qui veulent booster la spec sheet de leur modèle haut de gamme (autonomie 18 heures ! Fais tourner Crysis !).
    • [^] # Re: situation transitoire

      Posté par  (site web personnel) . Évalué à 6.

      > D'une part parce que la part de gens qui jouent avec leur laptop est assez limitée

      Ha, j'aurais plutôt dit le contraire, et surtout que ça va en augmentant. De plus en plus de personnes achètent des portables, même si c'est juste pour le déplacer entre le bureau et le salon, et même si c'est le seul ordi. Et dans ce cas ça doit pas mal jouer.

      Maintenant, tu parles de changer de driver, récupérer un plantage, etc. Mais n'est-ce pas exactement ce qui est demandé ? Ce ressemble justement à ce qu'il est nécessaire pour faire le changement de gpu, donc le sujet du journal. Après que ce soit utilisé dans le cas des 2 gpu c'est peut-être un plus, mais le socle commun doit être bien important.

      Par contre, je trouve ça au contraire intéressant. Ne serait-ce que sur un portable de boulot par exemple, sur secteur avec de la puissance, de quoi faire tourner de la 3d (y'a pas que les jeux hein...) mais ça ne grève pas l'autonomie lorsqu'on est en déplacement.

      > C'est un peu comme cette idée de vouloir rajouter des cartes dédiées à la physique des jeux, ça ne prend pas.

      Ca ne serait pas plutôt pour une histoire de coût ?
      Et aussi car physix c'est fait racheté par nvidia, donc pourra être intégré dans les cartes graphiques directement ?
      • [^] # Re: situation transitoire

        Posté par  (Mastodon) . Évalué à 6.

        > Ha, j'aurais plutôt dit le contraire, et surtout que ça va en augmentant. De plus en plus de personnes achètent des portables, même si c'est juste pour le déplacer entre le bureau et le salon, et même si c'est le seul ordi. Et dans ce cas ça doit pas mal jouer.

        mouaais bof. La grande majorité des utilisateurs de pc ne joue pas hein. La plupart préfère procrastiner dans son temps libre sur msn et fesseboucs. Et quand ils jouent, c'est des petits jeux flash sur le net.

        Les vrais joueurs sur pc ne représentent qu'une petite part de la clientèle.

        >Par contre, je trouve ça au contraire intéressant. Ne serait-ce que sur un portable de boulot par exemple, sur secteur avec de la puissance, de quoi faire tourner de la 3d (y'a pas que les jeux hein...) mais ça ne grève pas l'autonomie lorsqu'on est en déplacement.

        Le jour ou les fabricants de gpu feront un chip mieux adapté, ce genre de portables à double gpu disparaitront. ça reste un bricolage.

        > Ca ne serait pas plutôt pour une histoire de coût ?
        Et aussi car physix c'est fait racheté par nvidia, donc pourra être intégré dans les cartes graphiques directement ?


        Pour le reste je suis d'accord.

        c'était juste une idée stupide à la base. Si le cpu n'est pas assez performant pour faire tourner un moteur physique, à quoi sert-il au final ? Avant que physix soit racheté, ça ne prenait déjà pas.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.