Journal Des drivers libres pour la prochaine puce ATI ?

Posté par (page perso) .
Tags : aucun
0
6
oct.
2005
J'étais tranquillement en train de lire le test détaillé de la dernière architecture de carte graphique ATI (les GPU de type X1000) sur le site hardware.fr ( http//www.hardware.fr/art/imprimer/592/ ) quand soudain une phrase m'a sorti de ma douce torpeur digestive :


fait sans précédant dans l´industrie du GPU, ATI a déclaré avoir l´intention de publier les informations de bas niveau de ses GPU X1000 courant 2006, ce qui permettra aux développeurs sur GPGPU d´accéder à la puce sans passer par une API et donc d´en utiliser toutes les possibilités !


QUOI ????? une archi de processeur graphique ultra-moderne et ultra-performant qui va être dévoilé par son constructeur ???
Mais c'est la révolution ! le rêve libriste incarné ! Les hackers de Xorg vont donc pouvoir nous pondre des drivers libres de haute qualité pour des cartes modernes.
A moins que je ne sois en train de rêver ou que hardware.fr écrive n'importe quoi…..quelqu'un est au courant de cette affaire ?
  • # Un "Tiens" vaut mieux que deux "Tu l'auras"

    Posté par . Évalué à 10.

    Tant que ce n'est pas fait, mieux vaut se éviter de trop s'enflammer.

    Snark
  • # mmh

    Posté par . Évalué à 3.

    clair que ça paraît très étonnant pour un constructeur de carte.

    blague à part, peut-être se sont-ils rendus compte que leurs drivers puaient ? :)
    • [^] # Re: mmh

      Posté par (page perso) . Évalué à 3.

      blague à part, peut-être se sont-ils rendus compte que leurs drivers puaient ? :)

      Ou alors ils se disent qu'il vaut peut-être mieux publier les API (qui, en soit, ne doivent pas leur rapporter grand chose) et laisser une armée de développeur libres indépendants "non coûteux" se baser sur ces derniers pour développer, plutôt que de se casser la tête à employer des développeurs de leur côté, qu'il faille payer.
      Sans compter l'effet sympathie (toujours positif pour les ventes, à relativiser quand même : on parle de processeurs graphiques, pas de processeurs spécifiques aux serveurs PC, pour lesquels Linux est un acteur de poids non négligeable) de ce genre de mesure.
      • [^] # Re: mmh

        Posté par (page perso) . Évalué à 4.

        >> laisser une armée de développeur libres indépendants "non coûteux" se baser sur ces derniers pour développer

        oui mais bon les hackers de Xorg ils vont pondre un driver OpenGL mais certainement pas un driver DirectX...donc ATI continuera obligatoirement ses devs de drivers en interne.
        Par contre si l'info est vrai cela leur donne un gros avantage concurrenciel par rapport à NVidia : enorme pub à travers le net + achat d'ATI par les libristes du monde entier (Linux+BSD) + driver OpenGL plus stable car mieux fait et mieux testé.
        • [^] # Re: mmh

          Posté par . Évalué à 1.

          il faut avouer que les drivers de nvidia sous linux sont assez bien foutus.
          • [^] # Re: mmh

            Posté par . Évalué à 3.

            mais à des lieues d'être satisfaisant :

            - se casse avec chaque arrivé de kernel
            - obligé de devoir attendre perpet la prochaine version pour avoir des bugs corrigés
            - obligé de mettre à jour avec des pilotes centrés sur les dernières générations de cartes nvidia au détriment des perfs sur les anciennes
            - fout un bordel monstre au niveau des librairies, ce qui est chiant quand on joue à compiler
            • [^] # Re: mmh

              Posté par . Évalué à 2.

              se casse à chaque arrivée de kernel, oui et non, pas toujours quoi :)

              obligé de devoir attendre chaque version pour avoir des bugs corrigés, oui comme n'importe quel logiciel (ou alors tu veux avoir accès à leur CVS ou subversion ? :)).

              j'ai jamais vu que les drivers se mettaient à jour pour de meilleures perfs que sur les dernières cartes. Justement, le rôle des drivers c'est d'avoir de meilleures perfs, etc., etc.
              le seul truc c'est que des anciennes cartes peuvent être laissées tomber dans le développement du drivers.
              • [^] # Re: mmh

                Posté par . Évalué à 1.

                mais dions qu'un driver qui permet de gagner 10% de perfs 4/5 ans apres la sortie de la carte ; alors que sous win c'est deja pleinement optimise des la sortie ca fait mal (ca veux dire que tu n'as pas pu utiliser vraiment ton matos pendant 4 ans , a supposer que la c'est vraiment optimiser)....
              • [^] # Re: mmh

                Posté par . Évalué à 3.

                bof...

                - de mémoire 2.6.8 2.6.9 2.6.10...2.6.13 à chaque fois il m'a fallu faire des ruses de grand sachem en attendant la nouvelle version qu'elle est bien.

                - "obligé de devoir attendre chaque version pour avoir des bugs corrigés" -> Obligé de mettre à jour vers une version apportant 3/4 de fonctionnalité et de correction de bugs dont notre carte n'a aucune usage. Obligé d'attendre qu'ils aient fini de bosser sur la 7800MegaPro et sortit le pilote correspondant pour avoir la correction du bug de l'écran noir de la mort sur ta carte vieille de 3 ans.

                - concernant les perfs il est visible, sans te vexer, que tu ne connais pas des masses Nvidia et ses pilotes que ce soit sous Win ou linux. Il arrive trop fréquemment que la montée en version se fasse au détriment des perfs pour les anciennes cartes, oui je veux bien dire que tu te tapes de moins bonnes perfs avec les derniers pilotes qu'avec ceux d'il y a un an. Mais tu es obligé d'y passer parce que sinon tu te tapes l'écran noir de la mort.
          • [^] # Re: mmh

            Posté par (page perso) . Évalué à 4.

            C'est vrai que ouvrir les specs ne garantit pas un super driver
            De ce que j'ai compris il faut quand meme de bonnes connaissances pour faire un driver 3D...
            Et bon meme si c'etait "simple" je suis pas sur qu'il serait mieux que nvidia
            Enfin bon déjà on vera s'ils ouvrent les specs....
          • [^] # Re: mmh

            Posté par (page perso) . Évalué à 5.

            >> il faut avouer que les drivers de nvidia sous linux sont assez bien foutus.

            sans même évoquer les considérations libristes à-la-RMS est-ce cela t'enthousiasme de faire tourner en espace noyau un gros driver closed-source ? est-ce que tu te rend compte que cela brise toute la sécurité de ton Linux ? il peut y avoir n'importe quelle backdoor dans ce driver.....
            • [^] # Re: mmh

              Posté par . Évalué à 2.

              Tu veux dire que nVidia pourrait ainsi espionner et voler les super techniques de jeu sur Doom3 des linuxiens ? :-)
            • [^] # Re: mmh

              Posté par . Évalué à 2.

              la parano est de mise encore, je vois pas en quoi mon PC intéresserait nvidia

              MAIS

              sérieusement, je pense comme toi sur l'histoire du driver closed source, c'est pour ça que je l'installe plus (je joue plus sous linux).

              et ça me rappelle que beaucoup de linuxiens voudraient que les constructeurs développent des drivers, mais ils oublient que ces drivers seraient proprios...
              • [^] # Re: mmh

                Posté par (page perso) . Évalué à 2.

                "et ça me rappelle que beaucoup de linuxiens voudraient que les constructeurs développent des drivers, mais ils oublient que ces drivers seraient proprios..."

                Pourquoi donc ? Rien n'interdit au constructeur de développer des drivers libres.

                L'association LinuxFr ne saurait être tenue responsable des propos légalement repréhensibles ou faisant allusion à l'évêque de Rome, au chef de l'Église catholique romaine ou au chef temporel de l'État du Vatican et se trouvant dans ce commentaire

                • [^] # Re: mmh

                  Posté par . Évalué à 2.

                  et pourquoi ils développeraient des drivers libres ? tu vois les gros constructeurs sortir des drivers libres ? moi non.
                  • [^] # Re: mmh

                    Posté par (page perso) . Évalué à 4.

                    matrox pour les CG, il fut un certain temps, et peut être encore même,
                    HP pour ses serveurs (cciss par exemple) et ses imprimantes,
                    Creative pour certains de ces produits : http://opensource.creative.com/soundcard.html(...)
                    et Il y en a certainement beaucoup d'autres. si ç& peut s'appliquer au controleur Raid des serveurs HP, aux imprimantes HP ou encore aux cartes son, pourquoi pas au CG.

                    J'oubliai Intel avec le wifi (même si c'est à reculons)
                  • [^] # Re: mmh

                    Posté par . Évalué à 2.

                    > et pourquoi ils développeraient des drivers libres ? tu vois les gros constructeurs sortir des drivers libres ? moi non.

                    Et Adaptec ?
          • [^] # Bof

            Posté par (page perso) . Évalué à 2.

            Sans parler de l'aspect libre/non libre, je vois pas ce qu'ils ont de si merveilleux ces drivers nvidia. J'ai une carte nvidia de la mort au boulot, je mets mes drivers à jour relativement régulièrement, pourtant, dès que je charge un peu la machine en opengl (7-8 fenêtres avec des scènes un peu complexes), ça plante assez souvent.
            Donc ça marche, mais pas de quoi s'emballer, en tous cas pour moi.
      • [^] # Re: mmh

        Posté par . Évalué à 1.

        bien bien, tu as juste continué ma phrase/question :

        ... que leurs drivers puaient ? :) et donc laisser le développement des drivers sous linux aux développeurs "libres".
      • [^] # Re: mmh

        Posté par (page perso) . Évalué à 5.

        Vous croyez que ce genre d'annonce se fait en pensant à Linux ? vous me paraissez bien égocentriques là. Il est probable que Linux soit le dernier truc qui les préoccupent.
        Je doute fortement qu'ils libèrent les specs uniquement pour avoir un driver libre sous Linux.

        AMHA ça concerne plus les jeux et softs d'imagerie pour qu'ils se servent du proc de la carte graphique pour gérer leurs calculs lourds, les collisions, les éclairages, captures d'écran, génération d'images ... et récupérer des données au lieu de les envoyer à l'affichage.
        • [^] # Re: mmh

          Posté par . Évalué à 7.

          Un soft d'imagerie qui s'amuse à faire ça est à mon avis forcement un gros soft avec une grosse équippe et probablement une grosse boite qui négocie sans doute de gros contrat et peut donc demander les spec à ATI sans que ce dernier s'amuse a les communiquer à la terre entière.

          Je pense plutôt qu'ATI cherche simplement à se demarquer d'NVidia.
          • [^] # Re: mmh

            Posté par . Évalué à 5.

            Justement, l'idée n'est pas de faire _que_ de l'imagerie avec le GPU.

            Ces processeurs graphiques ont une puissance de calcul phénoménale, une hénaurme bande passante mémoire, et ne sont utilisées que pour buter des monstres en 3D. Il y a plus de transistors dans une GeforceFX que dans un Pentium IV !
            http://apcmag.com/apc/v3.nsf/0/5F125BA4653309A3CA25705A0005AD27(...)

            L'idée de considérer le GPU comme un coprocesseur mathématique vectoriel (un peu comme à l'époque de la FPU externe, i386 + i387 par exemple), apte à effectuer des calculs scientifiques complexes, ne vient pas de grosses boîtes mais au contraire du milieu universitaire et de gens rompus à la philosophie du Libre. http://graphics.stanford.edu/projects/brookgpu/(...)
            http://www.gpgpu.org/(...)

            Là où ca coince, c'est d'une part le goulot d'étranglement entre le GPU et le CPU (PCI pas top, AGP mieux mais dans un seul sens, vivement le PCI-X et le PCI-Express), et d'autre part les architectures complètement fermées qui imposent de passer par des API ne voyant pas plus loin que le bout du lance-roquettes-à-fragmentation. Parce que vous croyez vraiment que l'architecture nVidia est un secret pour ATI et inversement ? Eux aussi ils font du reverse-engineering !

            Maintenant les fabricants de GPU commencent à se rendre compte qu'ils ont un nouveau marché à conquérir ... Et que cela nécessite qu'ils offrent un peu plus de liberté à leurs clients, en documentant leur puce comme on le fait depuis toujours pour les CPU. C'est le genre d'ouverture qui n'est pas évident et qui prend du temps quand on cultive le secret depuis des années.

            C'est pourquoi ce type d'annonce, si il se révèle sincère, est réellement une bonne nouvelle non seulement pour l'utilisation graphique des GPU par les logiciels libres (jeux OpenGL, toussa) mais aussi pour toutes les applications "sérieuses" (libres ou pas) qui bénéficiraient de cette puissance de calcul sous-estimée : modélisations physiques, calculs statistiques, séquençage génétique, recherche d'extraterrestres ...

            Il y a déjà une application au traitement audio, sous la forme d'un plug-in de réverb qui n'a pas besoin de calculer des FFT, puisqu'il traite directement les convolutions dans le domaine temporel ...
            http://www.bionicfx.com/(...) (tiens, ils ont changé le site pour entretenir le mystère ... bientôt une release ?)

            Egalement à propos de l'utilisation du GPU pour le traitement de signal audio :
            http://www.node99.org/projects/gpuaudio/(...)

            Bref, vivement que ca décolle !
    • [^] # Re: non, c'est logique

      Posté par . Évalué à 8.

      Vous avez loupé un point important:
      ce qui permettra aux développeurs sur GPGPU d´accéder à la puce sans passer par une API et donc d´en utiliser toutes les possibilités

      GPGPU : general purpose GPU.

      Ils veulent que leur GPU serve de coprocesseur générique (comme les APU du cell).
      Pour cela, il faut autre chose que directX ou openGL, et cela n'existe pas encore. Donc le mieux pour eux est de libérer les spécifs pour rendre l'usage de ce GPU possible pour n'importe quelle tache (J'ai cru comprendre que la souplesse du X1000 permet beaucoups plus de choses qu'un autre GPU).
      Ainsi ils couvriraient un marché plus large que l'affichage 3D. Il y a une puce d'accelleration pour moteur physique en dev, preuve que le marché existe.
      Imaginé tout ce que l'on peut faire avec la puissance d'un GPU, c'est comme un super DSP hyper paralellisé.
      • [^] # Re: non, c'est logique

        Posté par (page perso) . Évalué à 2.

        ATTENTION ce qui suit n'est que pure spéculation:
        Je vois souvent que les perfs de glxgears sont supérieurs sur les ATI que sur les nvidia
        Les perfs générales étant en général les meme, sur des applications plus "conséquentes" je me demande si les GPU ATI sont pas des GPGPU (plus ou moins)
        Alors que NVIDIA les fonctions sont codés dans le hard
        Enfin plus de fonctions
        • [^] # Re: non, c'est logique

          Posté par (page perso) . Évalué à 1.

          Je vois souvent que les perfs de glxgears sont supérieurs sur les ATI que sur les nvidia


          Waow c'est la première fois que je lis un message extraterrestre en français !
        • [^] # Re: non, c'est logique

          Posté par . Évalué à 2.

          Je vois souvent que les perfs de glxgears sont supérieurs sur les ATI que sur les nvidia

          Tres franchement faut vraiment arretter de comparer des cartes 3D et faire un bench avec glxgears. Ca n'est absolument pas significatif des performances d'une carte , ca utilise que dalle des specifs opengl . pour avoir un truc a peu pres probant vaut mieux utiliser SpecViewPerf.
      • [^] # Re: non, c'est logique

        Posté par . Évalué à 2.

        Déjà actuellement, on peut exploiter le processeur de la carte graphique simplement via le serveur X pour accélérer des calculs dont les résultats ne sont pas affichés (ex: génération d'une image envoyée à un client web).

        J'ai loupé quelque chose sur la distinction GPU/GPGPU?
        • [^] # Re: non, c'est logique

          Posté par (page perso) . Évalué à 4.

          Pour le GPU (Graphic Processing Unit), on peut utiliser ses capacités calculatoires en mettant les données d'entrée dans les textures et/ou dans le flux de géométrie, on charge un shader qui va effectuer les calculs et on récupère le résultat dans le buffer de sortie.

          Si on prend le GPGPU (comme dit plus haut : General Purpose GPU), le fait de pouvoir modifier des registres/zones mémoire devrait permettre de ne plus être contraint d'utiliser le pipeline graphique pour effectuer les calculs (plus de contexte graphique à initialiser entièrement, plus de contraite sur comment fournir des données et comment récupérer les résultats, etc.)

          Bref, un GPU est un circuit programmable dédié au graphisme. Le GPGPU est plus à voir comme un coprocesseur mathématique bien plus puissant que peuvent l'être les FPU/MMXx/SSEx/3dnow de nos CPU.
  • # Commentaire supprimé

    Posté par . Évalué à 10.

    Ce commentaire a été supprimé par l'équipe de modération.

    • [^] # Re: Retour vers le futur

      Posté par (page perso) . Évalué à 9.

      Après une révolution, la terre revient au même point. Pourquoi pas les constructeurs de carte graphique ?

      Où ça ? Ah là ---------------> []
  • # Quelles sont les conditions de publication?

    Posté par . Évalué à 3.

    ATI a déclaré avoir l´intention de publier les informations de bas niveau de ses GPU X1000 courant 2006, ce qui permettra aux développeurs sur GPGPU d´accéder à la puce sans passer par une API et donc d´en utiliser toutes les possibilités !

    A mon avis ce sera un truc du style 'il vous faut signer une clause de confidentialité'

    Mais j'ai pas lu l'article ....

Suivre le flux des commentaires

Note : les commentaires appartiennent à ceux qui les ont postés. Nous n'en sommes pas responsables.