Journal Rendu 3D sur un second GPU

Posté par (page perso) .
Tags : aucun
15
12
mar.
2010
Le développeur Airlied a publié sur son blog qu'il a réussi à faire un rendu 3D sur une puce graphique différente de celle qui gère l'affichage.

Cela signifie qu'une puce interne Intel 945 gérait l'écran, et une carte PCI Radeon 7500 n'était utilisée que pour les calculs 3D. Bien sûr, ça a demandé de modifier quelque peu l'existant, et ce n'est qu'une bidouille, pas du code appelé à être diffusé.

Pour que ça fonctionne bien, il faudrait beaucoup plus séparer les pilotes graphiques libres de la gestion des écrans, mais il a pas le temps, donc c'est juste une preuve que ça peut marcher (proof-of-concept).

Son blog : http://airlied.livejournal.com/71734.html
  • # Dave Airlie

    Posté par . Évalué à 10.

    C'est le nom complet du monsieur, bien connu des contributeurs Fedora.
    Il a bossé entre autres sur KMS, cette expérimentation est dans la continuité de son travail actuel: la gestion des systèmes hybrides (changement de GPU à chaud, gestion d'énergie, etc ...). Je recommande de lire les derniers billets qui sont très intéressants à ce sujet.
    • [^] # Re: Dave Airlie

      Posté par . Évalué à 3.

      C'est le nom complet du monsieur, bien connu des contributeurs Fedora.

      C'est un développeur Red Hat, ceci explique cela.
  • # calculs 3D

    Posté par . Évalué à 3.

    Je ne comprends pas bien, ça ne fonctionne pas déjà ?

    Les cartes tesla C1060 par exemple, ce sont bien des gpu, et y'a pas de sortie écran... ça fonctionne sous linux

    http://www.nvidia.fr/page/tesla_computing_solutions.html

    c'est uniquement pour faire du cuda ou opencl ?
    • [^] # Re: calculs 3D

      Posté par (page perso) . Évalué à 4.

      Oui mais là, on parle de solution libre de rendu graphique multi-GPU alors que tu parles d'une solution propriétaire de calcul déporté sur le processeur de la carte graphique.

      Donc, non, pour l'instant aucune solution n'existe.
  • # Un grand pas en avant...

    Posté par . Évalué à 10.

    Ça me rappelle le temps des 3DFX Voodoo, ça ;-).
  • # Et ça s'appelle PRIME

    Posté par . Évalué à 10.

    So NVIDIA unveiled their optimus GPU selection solution for Windows 7 [...]. I've named it PRIME for obvious reasons.
  • # Pas compris

    Posté par . Évalué à 1.

    Quel est l'intérêt?
    • [^] # Re: Pas compris

      Posté par . Évalué à 2.

      L'intérêt c'est d'utiliser dans la vie de tous les jours une carte graphique qui ne consomme presque rien, et si on veut lancer une application gourmande on démarre sa carte plus puissante.

      Avec l'idée de Intel d'intégrer un GPU dans ses processeurs de fixe et de netbook, la capacité d'AMD à faire de même il sera de plus en plus courant d'avoir une puce graphique intégrée.
    • [^] # Re: Pas compris

      Posté par (page perso) . Évalué à 2.

      Permettre d'utiliser les deux cartes graphiques qu'on retrouve dans les portable haut de gamme actuellement sous linux sans devoir redémarrer le serveur X et d'utiliser la carte la plus puissante (et donc la plus consommatrice de batterie ou d'électricité simplement) seulement si c'est nécessaire.

      « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

      • [^] # Re: Pas compris

        Posté par . Évalué à 2.

        Euh non, il ne faut pas confondre "switcheroo" (qui sera intégré dans Linux 2.6.34) et "prime" (qui n'est qu'un proof-of-concept). Ce sont 2 choses différentes.

        - "switcheroo" permet de basculer sur d'un GPU à un autre selon la demande en calcul
        - "prime" permet de faire des calculs à un GPU plus puissant qui sont ensuite rediriger vers le GPU moins puissant qui gère l'affichage.
        • [^] # Re: Pas compris

          Posté par (page perso) . Évalué à 7.

          C'est ce que je dis, on peut utiliser prime pour décoder une vidéo avec une carte puissante alors que l'affichage est géré par une carte moins puissante. Tout ça sans redémarrer X, contrairement à switcheroo qui en plus ne permet d'utiliser qu'une seule carte à la fois il me semble.

          « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

      • [^] # Re: Pas compris

        Posté par . Évalué à 3.

        Je trouve vraiment cette idée bizarre. Si on a deux cartes graphiques, ça prend de la place et ça pèse plus lourd, ce qui n'est pas vraiment avantageux pour un portable.

        Les CPU savent ajuster leur consommation, pourquoi pas les GPU?
        • [^] # Re: Pas compris

          Posté par (page perso) . Évalué à 2.

          Parce que ce n'est pas la même architecture et que les recherche dans ce sens ont commencé beaucoup plus tard. (au début les portable qui visaient une grosse autonomie n'intégrait pas une carte graphique)

          « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

          • [^] # Re: Pas compris

            Posté par (page perso) . Évalué à 1.

            Joyeux mélange carte/puce ou cartapuce ;-)

            Il n'y a pas vraiment de carte graphique dans un portable, les puces graphiques sont généralement directement soudées sur la carte mère. Donc encore aujourd'hui il n'y a pas de cartes graphiques dans un portable.

            Par contre, les vendeurs de CPU en sont à proposer un GPU (=puce graphique) dans le CPU. Celui-ci consommera toujours moins que n'importe quelle puce supplémentaire, puisqu'il est intégré. Donc, à terme, tout ordinateur voudra n'utiliser que le GPU intégré sauf demande extrême (jeu 3D / décodage vidéo). Tout ordinateur car les économies d'énergie sont importantes dans tous les cas.

            L'avenir est donc dans la possibilité d'utiliser un GPU externe exclusivement en cas de besoin.

            ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

            • [^] # Re: Pas compris

              Posté par (page perso) . Évalué à 2.

              Je suis pas sûr de ce que tu dis, j'ai jamais regardé la «carte» graphique de mon portable mais la carte wifi est une carte à part (on voit nettement la distinction) mais soudée à la carte mère. D'ailleurs, si je fais un lscpi, je vois bien la carte à part.

              Je ne vois pas en quoi le fait que la carte soit soudée ou pas change quelque chose à la consommation ou à la technologie, ça permet juste d'éviter qu'elle se déconnecte au moindre choc et que le bios ne soit pas très content. Je ne parle pas, bien évidemment, des GPU dans le CPU dont je n'ai pas encore vu de portable vendu avec.

              « Rappelez-vous toujours que si la Gestapo avait les moyens de vous faire parler, les politiciens ont, eux, les moyens de vous faire taire. » Coluche

              • [^] # Re: Pas compris

                Posté par . Évalué à 2.

                Tous les nouveaux processeurs Intel de la gamme Core sortie cette année intègrent un GPU supportant la HD.

                Donc tous les portables avec des Core ix intègre un GPU au CPU.
    • [^] # Re: Pas compris

      Posté par (page perso) . Évalué à 2.

      Faire de la 3D à distance par exemple avec VirtualGL.

      Tu calcules le résultat 3D en local sur une carte et tu balances le résultat jpeg/png... sur le réseau ensuite.

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.