D'ici à deux ans Intel devrait sortir des GPU à faire parlir la concurence (Nvidia/ATI), avec des cartes à 16coeurs qui si on en crois les propos sera 16x plus puissante que la plus puissante des cartes actuelle.
Au-dela du fait qu'un peu de concurence ne sera pas un mal, cela nous intéresse tout particulièrement par le fait que intel publie (pour l'instant) les spécifications de ses GPU. Alors, les unix libres plateforme priviligié des gamers pc d'ici deux ans ?
Bon je dis les unix libres, mais soyons bon joueur, il y a aussi ReactOS....
source:
http://www.pcinpact.com/actu/news/34531-Intel-GPU-3D-joueurs(...)
le troll "linux plateforme de gamers":
https://linuxfr.org/2007/02/08/22023.html
ReactOS :
http://www.reactos.org/fr/index.html
# Quand même...
Posté par Grégory SCHMITT . Évalué à 10.
Les carte graphiques, c'est bien. Ça accélère l'affichage. Dommage juste qu'aucune d'entre elles ne fasse de la vérification orthographique de l'affichage en même temps...
Bon sinon, l'horizon reste de 2 ans. Où en seront ATI et Nvidia d'ici-là ? Mystère... Il y a déjà eu tellement d'annonces de ce genre (qui se souvient de Matrox, S3, Kyro... qui devaient tout chambouler ?). Et puis peut-être accepteront-ils de publier leurs specs d'ici là (dans mes rêves sans doute).
[^] # Re: Quand même...
Posté par ecyrbe . Évalué à 5.
Le truc, c'est qu'il me semble que les APIs OpenGL et DirectX ne sont pas adaptées au RayTracing. D'ou l'emmergeance de projets comme OpenRT :
http://www.openrt.de/
Donc, si c'est vraiment le cas, est-ce que les developpeurs suivront? vu qu'il faudra utiliser une autre API pour profiter de ces GPU?
[^] # Re: Quand même...
Posté par eon2004 . Évalué à 2.
Le site d'OpenRT n'estplus mis à jour depuis 2003 cependant.
[^] # Re: Quand même...
Posté par feth . Évalué à 2.
[^] # Re: Quand même...
Posté par farib . Évalué à 3.
[^] # Re: Quand même...
Posté par wahnby . Évalué à 2.
[^] # Re: Quand même...
Posté par M . Évalué à 6.
[^] # Re: Quand même...
Posté par Markov . Évalué à 1.
Mon avis est donc que cela serat simplement comme la derniere generation de carte graphique (NVidia 8800, Intel GMA X3000, ATI R600) des unitees de calculs tres puissantes (un peux comme SSE, altivec ou consor) avec des fonctionnalites plus specifiques a la rasterization. Naturellement tout ca optimisee, avec des frequences de fonctionement ahurissante :)
De plus la convergence du GPU et CPU supporte cette hypothese. Quand tu regardes le dernier GMA X3000 tu as l'impression de programmer des unitees altivec.
Enfin avec les GPU actuel tu peux faire des rendues de type radiosity. Je pense donc que l'architecture actuelle n'a aucune raison de changer fondamentalement.
http://dee.cz/rrb/
[^] # Re: Quand même...
Posté par ecyrbe . Évalué à 5.
Multi-coeur signifie multi-gpu embarqué sur un même support. Ils sont inter-connecté via un Bus de transport (exemple HyperTransport chez AMD)...
Un type de multi-GPU serait plutôt le SLI de Nvidia, mais vu qu'ils ne sont pas gravés sur un même die, ce n'est pas du multi-coeur.
L'augmentation de performance du SLI n'est pas très convainquante, on n'a pas un gain X2 en vitesse de traitement, contrairement au RayTraing qui lui gagnerait réellement X2 pour un double coeur... X16 pour un 16-coeur... dans la théorie bien sur.
[^] # Re: Quand même...
Posté par Markov . Évalué à 1.
memes operations. Probablement le terme multi unites seraient plus appropries.
Dans tous les cas je ne pense qu'Intel est l'intention de demander a tout le monde de changer de type de rendu. Meme si les nouvelles architectures comme la ge8800 doivent certainement pouvoir accelerer aussi le rendu en raytracing.
http://graphics.stanford.edu/papers/i3dkdtree/
# corrections danbs le titre
Posté par Olivier Jeannet . Évalué à 4.
Intel cse lance dans le GPU gamers' complieant
cf la Leçon 2 pour la 1e faute : http://wiki.logicielslibres.info/wiki/published/Le%C3%A7on+2 .
[^] # Re: corrections danbs le titre
Posté par moramarth . Évalué à 1.
;¬P Nul n'est à l'abris.
[^] # Re: corrections danbs le titre
Posté par moramarth . Évalué à 6.
Oui, nul n'est à l'abri. -_-'
[^] # Re: corrections danbs le titre
Posté par Olivier Jeannet . Évalué à 2.
mouarf :-)
J'avais vu mon erreur dans le titre, mais c'était évidemment après avoir posté pour de bon.
[^] # Re: corrections danbs le titre
Posté par LeMagicien Garcimore . Évalué à 6.
# Spécifications des contrôleurs vidéo d'Intel
Posté par Meku (site web personnel) . Évalué à 7.
J'ai cherché un peu il y a quelques semaines, et je n'ai pas trouvé mon bonheur. Le mieux que j'ai c'est ça (j'ai cherché pour les 945GM) :
http://www.intel.com/design/mobile/datashts/309219.htm
http://www.intel.com/design/mobile/specupdt/309220.htm
J'ai pas lu en détail, juste survolé, mais ça me semble bien incomplet pour écrire un pilote 3D !
Il semble que ces spécifications ne soient accessibles qu'à quelques développeurs, comme ceux de Tungsten Graphics (qui développent les pilotes Intel), peut-être même sous NDA ?
Quelqu'un a plus d'info quant à cette « légende » (?) des spécifications ouvertes de Intel ? Ai-je mal cherché ?
Bon au moins on a des pilotes libres et sans code obfusqué...
[^] # Re: Spécifications des contrôleurs vidéo d'Intel
Posté par M . Évalué à 6.
Bon au moins on a des pilotes libres et sans code obfusqué...
Y avait pas un pilote binnaire pour la sortie tv (macrovision) ?
PS : sinon y a SGI qui doit fournir des specs pour ses GPU...
# N'allons pas trop vite
Posté par Mark Havel . Évalué à 3.
Bref, deux ans, ça me parait un peu court pour rattraper l'expérience d'Ati et de nVIDIA aussi bien en matière d'optimisation architecturale de la puce que de drivers. Par contre, je reste d'accord sur le fond du raisonnement, mais à plus long terme.
[^] # Re: N'allons pas trop vite
Posté par Matthieu Moy (site web personnel) . Évalué à 3.
[^] # Re: N'allons pas trop vite
Posté par med . Évalué à 4.
[^] # Re: N'allons pas trop vite
Posté par Matthieu Moy (site web personnel) . Évalué à 3.
[^] # Re: N'allons pas trop vite
Posté par darklumina . Évalué à 6.
[^] # Re: N'allons pas trop vite
Posté par Mark Havel . Évalué à 4.
Donc je pense toujours qu'il faudra certainement beaucoup plus que deux ans avant de voir Intel écraser la concurrence, qui ne devrait pas non plus rester sans réaction face à une telle menace. Bref, je pense que ce n'est pas gagné, même si comme Microsoft, Intel a tout à fait les moyens de ses ambitions.
[^] # Re: N'allons pas trop vite
Posté par Croconux . Évalué à 6.
Intel est déjà en avance sur de nombreux points. En terme de finesse de gravure, ils sont loin devant et ils ont des capacités de production énormes. ATI et NVidia ont peut être une grande expérience en matière d'optimisation mais Intel a la possibilité de produire en grande quantité (réduction des coûts) des puces plus petites (donc moins chères) et embarquant un plus grand nombre de transistors. Bref d'un côté on réalise des prouesses pour tirer le maximum avec le peu qu'on a alors que de l'autre on peut se permettre de coller directement 10x plus de transistors pour moins cher et clore le débat tout de suite.
Suivre le flux des commentaires
Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.