Journal Une question tout bête

Posté par  .
Étiquettes : aucune
0
12
déc.
2004
Je me pose une question toute bête, mais qui évidemment m'empêche de dormir, et dont je vais vous faire part parce que je sais que vous aussi aimez passer des nuits entières à réfléchir à un problème. :-)

Voilà, aujourd'hui, nos ordinateurs sont majoritairement équipés de circuits 3D surpuissants, capable de propulser n'importe quel ordinateur en une bête d'affichage FPS. Mais manque de chance, il semblerait que ces circuits ne soient utilisés à leur plein potentiel que lors de l'utilisation de jeux, et donc inexploités la plupart du temps.

Aussi, serait-il possible, et je doute que la réponse soit négative, de faire en sorte d'exploiter les circuits de nos cartes graphiques au même titre que le processeur, moyennant évidemment une sélection et une adaptation du code à traiter qui leur serait envoyé ?

L'expérience a-t'elle déjà été tentée ? Quels sont les gains que l'on puisse espérer tirer d'un telle utilisation ?

Je vous laisse sur ces quelques interrogations, car je viens de voir que les cartes réseaux 3Com sont dotées de processeurs de type 386, et ma machine en possède 3 ! :-)
  • # oui !

    Posté par  . Évalué à 6.

    j'ai déjà vu tourner la démo d'un truc de ce genre...
    voilà un site dédié à la chose "General-Purpose Computation Using Graphics Hardware" http://www.gpgpu.org/(...)
    • [^] # Re: oui !

      Posté par  (site web personnel) . Évalué à 1.

      Et la demo donnais quoi ? plutot allechant ou pas du tout ?
    • [^] # Re: oui !

      Posté par  . Évalué à 3.

      ce site est effectivement la référence dans le domaine, ensuite il faut suivre les nombrex liens ... dont certains aboutissent chez nVidia ou ATI, qui semblent s'intéresser aux applications alternatives de leurs puces.
      Avec plus de 40GFLOPS pour les derniers GPU, c'est une puissance de calcul phénoménale gaspillée à buter des monstres en 3D !

      Les applications vont du traitement audio (http://www.bionicfx.com/(...)) à la CAO, en passant par les modélisations de physique des fluides (http://film.nvidia.com/docs/CP/4449/frantic_GPUAccelerationofFluids(...)). Il y a aussi des projets d'outils de développement adaptés (http://graphics.stanford.edu/projects/brookgpu/index.html(...)).
      On peut de + en + voir le GPU comme un coprocesseur mathématique, avec une architecture adaptée au tratement de données matricielles (SIMD) et une grosse bande passante mémoire.

      Là où le bât blesse, c'est au niveau des transferts de données GPU <-> CPU. Le PCI est dépassé, et l'AGP est mieux mais il a une bande passante assymétrique, il est difficile de faire remonter rapidement les résultats vers le CPU. La solution serait le PCI Express, qui va bientôt arriver sur les cartes mères.
  • # utilisation Ram de la cg

    Posté par  . Évalué à -9.

    ca me fait penser à un projet qui utilisait la RAM de la carte graphique comme RAM supplémentaire à la RAM principale ...

    mais mon post aura pour note -1 ???

    Sans doute à cause de ces co**** de debianistes ...
    • [^] # Si je peux me permettre...

      Posté par  . Évalué à 2.

      Et c'est avec ce genre de dernière phrase que tu comptes arranger la situation ?
      Même si certains trouvaient le début de ta réponse utile, ca ne leur donnera pas envie de voter, et les debianistes vont te tomber dessus.
      Bref, ca ne contribue à l'amélioration ni de ton sort, ni du post, ni de rien en fait.

      Un conseil : t'aura moins de visiteurs mais va te défouler dans le forum test pour ce genre de phrase :-)
  • # Parallel-Processing-HOWTO

    Posté par  . Évalué à 4.

    Oui, beaucoup de gens ont essayé. Pas seulement avec les cartes vidéo, mais aussi avec les DSPs des cartes son, etc.

    Le Parallel-Processing-HOWTO faisait déjà un état des lieux en la matière fin 1998 :

    http://www.traduc.org/docs/HOWTO/lecture/Parallel-Processing-HOWTO.(...)

    Le document est en cours de relecture, donc il ne devrait pas tarder à sortir en français.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.