Je me pose une question toute bête, mais qui évidemment m'empêche de dormir, et dont je vais vous faire part parce que je sais que vous aussi aimez passer des nuits entières à réfléchir à un problème. :-)
Voilà, aujourd'hui, nos ordinateurs sont majoritairement équipés de circuits 3D surpuissants, capable de propulser n'importe quel ordinateur en une bête d'affichage FPS. Mais manque de chance, il semblerait que ces circuits ne soient utilisés à leur plein potentiel que lors de l'utilisation de jeux, et donc inexploités la plupart du temps.
Aussi, serait-il possible, et je doute que la réponse soit négative, de faire en sorte d'exploiter les circuits de nos cartes graphiques au même titre que le processeur, moyennant évidemment une sélection et une adaptation du code à traiter qui leur serait envoyé ?
L'expérience a-t'elle déjà été tentée ? Quels sont les gains que l'on puisse espérer tirer d'un telle utilisation ?
Je vous laisse sur ces quelques interrogations, car je viens de voir que les cartes réseaux 3Com sont dotées de processeurs de type 386, et ma machine en possède 3 ! :-)
# oui !
Posté par JMVF . Évalué à 6.
voilà un site dédié à la chose "General-Purpose Computation Using Graphics Hardware" http://www.gpgpu.org/(...)
[^] # Re: oui !
Posté par atmaniak (site web personnel) . Évalué à 1.
[^] # Re: oui !
Posté par Jimmy . Évalué à 3.
Avec plus de 40GFLOPS pour les derniers GPU, c'est une puissance de calcul phénoménale gaspillée à buter des monstres en 3D !
Les applications vont du traitement audio (http://www.bionicfx.com/(...)) à la CAO, en passant par les modélisations de physique des fluides (http://film.nvidia.com/docs/CP/4449/frantic_GPUAccelerationofFluids(...)). Il y a aussi des projets d'outils de développement adaptés (http://graphics.stanford.edu/projects/brookgpu/index.html(...)).
On peut de + en + voir le GPU comme un coprocesseur mathématique, avec une architecture adaptée au tratement de données matricielles (SIMD) et une grosse bande passante mémoire.
Là où le bât blesse, c'est au niveau des transferts de données GPU <-> CPU. Le PCI est dépassé, et l'AGP est mieux mais il a une bande passante assymétrique, il est difficile de faire remonter rapidement les résultats vers le CPU. La solution serait le PCI Express, qui va bientôt arriver sur les cartes mères.
# utilisation Ram de la cg
Posté par zebul666 . Évalué à -9.
mais mon post aura pour note -1 ???
Sans doute à cause de ces co**** de debianistes ...
[^] # Si je peux me permettre...
Posté par Seazor . Évalué à 2.
Même si certains trouvaient le début de ta réponse utile, ca ne leur donnera pas envie de voter, et les debianistes vont te tomber dessus.
Bref, ca ne contribue à l'amélioration ni de ton sort, ni du post, ni de rien en fait.
Un conseil : t'aura moins de visiteurs mais va te défouler dans le forum test pour ce genre de phrase :-)
# Parallel-Processing-HOWTO
Posté par Obsidian . Évalué à 4.
Le Parallel-Processing-HOWTO faisait déjà un état des lieux en la matière fin 1998 :
http://www.traduc.org/docs/HOWTO/lecture/Parallel-Processing-HOWTO.(...)
Le document est en cours de relecture, donc il ne devrait pas tarder à sortir en français.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.